Un’indagine condotta dall’Harvard Business School insieme alla Stockholm School of Economics su cento aziende USA nate prima degli anni ’90, fotografa alcune dinamiche che, ancora oggi, dopo anni, segnano il processo di trasformazione digitale e le difficoltà che lo accompagnano.

Se, in tema di digital transformation, gli analisti di McKinsey & Company, nel Report “Three new mandates for capturing a digital transformation’s full value”, affermano che «le imprese hanno timori nel prendere decisioni riguardanti aree di business di cui non si hanno precedenti, né conoscenze dirette relative all’impatto dato dall’impiego delle tecnologie emergenti e alle trasformazioni che ne conseguono», un team composto da ricercatori dell’Harvard Business School e della Stockholm School of Economics, nel documento “Digital transformation, data architecture, and legacy systems” – reso disponibile l’11 agosto 2022 dal Journal of Digital – si focalizza sull’architettura dei dati, componente chiave del capitale immateriale di ogni organizzazione, identificata come «l’asse sulla quale si regge la creazione di valore aziendale a partire dall’adozione delle tecnologie digitali», dove per “architettura dei dati” si fa riferimento all’insieme dei principi che, all’interno delle organizzazioni, guidano la raccolta, la gestione, l’utilizzo e l’archiviazione dei dati e, per “capitale immateriale”, tutte quelle risorse, in seno alle aziende, che hanno a che vedere, ad esempio, con la formazione delle competenze, con la struttura organizzativa, col processo decisionale decentralizzato e le pratiche di gestione dei software.

Gli investimenti (talora ingenti) in progetti di trasformazione digitale – osservano i due team di studio – per avere successo devono potersi tradurre in innovazione significativa per le aziende, che sia quantificabile, misurabile. E fin qui nulla id nuovo.

La novità sta nell’indagine, condotta congiuntamente dall’Ateneo USA e dall’Ateneo svedese tra giugno e settembre 2020, che ha raccolto informazioni sul processo di digital transformation di oltre cento società statunitensi – classificate, negli USA, dalla rivista economica Fortune esclusivamente sulla base del fatturato – con ricavi di 4 trilioni di dollari.

L’obiettivo dell’imponente lavoro è stato quello di sondare in che modo i beni immateriali – e, in primis, l’architettura dei dati – portano a differenze sostanziali nel processo di modernizzazione delle applicazioni all’interno delle organizzazioni.

L’indagine si è avvalsa di interviste realizzate di persona ai dirigenti senior dei reparti IT di grandi aziende appartenenti ai settori manifatturiero, del commercio al dettaglio, dei servizi finanziari e dell’assistenza sanitaria, nate decenni prima del boom IT degli anni ’90 e, dunque, caratterizzate da modelli operativi molto diversi rispetto a quelli delle aziende digitali fondate dopo il 2000. Modelli operativi che rappresentano una sfida non indifferente per la trasformazione digitale:

«Molte di queste società hanno una lunga storia, che risale addirittura al 1800. E hanno sperimentato, nel tempo, fusioni, acquisizioni, spinoff, cambi di nome ed eventi di migrazione della sede centrale. Ciò che le connota è il fatto di avere ancora, al proprio interno, sistemi tecnologici complessi e obsoleti, intrecciati tra loro e difficili da modificare e da rimuovere».

Ma vediamo insieme alcuni dei numerosi risultati emersi dal lavoro di indagine, rimandando al documento originale per eventuali approfondimenti.

Ipotesi di partenza: sistemi obsoleti contribuiscono all’inerzia dell’architettura dei dati

In materia di digital transformation e architettura dei dati, punto di partenza dello studio realizzato sono i sistemi obsoleti (legacy) e il loro essere correlati in modo cruciale all’inerzia dell’architettura dell’intero sistema IT e, più in particolare, dell’architettura dei dati.

Molti vecchi sistemi – sottolineano gli autori – sono assai difficili da aggiornare e da sostituire, perché mission-critical, ossia alla base della gestione di importanti processi aziendali.

«Tali sistemi possiedono un hardware obsoleto, il che riduce la capacità dell’azienda di riprogettare i sistemi IT in base a modelli operativi digitali e di impegnarsi con successo nella modernizzazione. È molto probabile che le grandi aziende tradizionali, nate molti decenni o, addirittura, secoli fa, abbiano sistemi IT obsoleti dopo una lunga serie di fusioni e di migrazioni da diverse sedi centrali nel corso della loro storia».

Nello specifico, i sistemi legacy rendono difficile per l’organizzazione coordinare la raccolta dei dati e sincronizzare la loro archiviazione, tenuto conto delle differenti funzioni aziendali e delle diverse dislocazioni geografiche, spiega il team.

Pertanto, le aziende gravate da componenti hardware legacy utilizzano i dati in modo meno efficace, riducendone la coerenza dell’architettura e rallentando la trasformazione digitale nel lungo periodo.

Un’altra ipotesi riguarda invece, i complessi sistemi software, responsabili – rimarcano i ricercatori – di «esacerbare l’effetto negativo dei server legacy sulla coerenza dell’architettura dei dati e, quindi, sulle performance dei sistemi di intelligenza artificiale a livello aziendale».

Ma non solo. Le aziende gravate da una maggiore tecnologia legacy integrano in modo meno efficace i sistemi esistenti all’interno delle infrastrutture basate sul cloud.

Digital transformation: gli impatti dei server legacy sulla coerenza dell’architettura dati

I primi risultati dell’indagine in tema di digital transformation e architettura dei dati riguardano gli effetti dei server obsoleti e oggetto di manutenzione di terze parti (Third Party Maintenance) sulla coerenza e sulla solidità dell’architettura dati.

Quello che è emerso è che, in generale, per il campione di aziende intervistate, i server legacy di questo tipo portano a un’architettura dati meno coerente, con ricadute negative su tutte le fasi della loro elaborazione, inclusa l’analisi da parte dei sistemi di machine learning adottati.

Tuttavia, tali server non sembrano influenzare la sicurezza dei dati stessi, né l’adozione del cloud. La sicurezza, in questo caso – specificano gli autori – «misura la capacità dell’architettura dei dati di concedere autorizzazioni di accesso utente appropriate e di tenere traccia delle modifiche al movimento di informazioni sensibili».

L’adozione del cloud, invece, «attesta la misura in cui l’architettura dei dati è integrata con l’infrastruttura del cloud pubblico, tra cui la possibilità di scalare l’archiviazione dei dati in modo elastico rispetto alla distribuzione di applicazioni in modo cloud-native».

Circa il 30% delle aziende campione segnala la manutenzione di terze parti del server in almeno uno dei propri stabilimenti e il 16% la segnala almeno in due. Ogni stabilimento aggiuntivo con manutenzione di terze parti del server riduce dello 0,04% – rileva l’indagine – la coerenza dell’architettura dei dati.

E queste stime cambiano poco quando viene inclusa la quota di stabilimenti che adottano Software-as-a-Service prima del 2016, suggerendo che le aziende che sono passate all’infrastruttura cloud in modo più ampio prima di quella data, «non si trovano in una posizione migliore per riprogettare i propri sistemi legacy e migliorare, così, gli effetti negativi dei server obsoleti».

Inoltre – viene puntualizzato – la sola adozione del cloud non è associata a un’architettura dei dati significativamente più coerente. Il che – in breve sintesi – significa che accumulare investimenti nel cloud potrebbe non essere sufficiente per una trasformazione digitale di successo.

Effetti dell’architettura dati coerente sulle performance dei sistemi AI aziendali

In tema di digital transformation e architettura dei dati, un altro risultato interessante emerso dall’indagine indica come la coerenza dell’architettura dati e i processi di innovazione che le organizzazioni mettono in atto siano entrambi correlati positivamente all’adozione di sistemi di apprendimento automatico, applicati per l’analisi dei dati e l’automatizzazione di differenti processi interni.

Sulla base delle stime raccolte, ogni risposta “sì” alle domande sulla coerenza dell’architettura dei dati si è tradotta in circa 0,7-0,9 casi d’uso di sistemi di intelligenza artificiale in più in tutta l’azienda.

Inoltre, dai dati raccolti mediante le interviste è emerso che un aumento del 10% della quota di aziende migrate al cloud contribuisce all’aumento di circa l’8% di quelle che ricorrono a soluzioni AI e che, al contrario, la presenza di server legacy riduce le performance dei sistemi machine learning, soprattutto tra le aziende con sistemi software complessi.

Tutte le regressioni – fanno notare i ricercatori – tengono conto della complessità dei sistemi software, misurata come il numero massimo di categorie software complessive tra le aziende.

«Gli effetti a valle dati dalla presenza di server legacy possono essere spiegati dal loro diverso impatto sulla coerenza dell’architettura dei dati. I risultati messi in luce attraverso il nostro sondaggio dimostrano che la complessità del sistema software esacerba gli effetti negativi dei server legacy sia sulla coerenza dell’architettura dei dati che sulle macchine dotate di AI».

E un maggiore grado di complessità ha come effetto l’aumento dei i costi di adeguamento, nonché degli sforzi richiesti agli operatori tecnici e agli utenti aziendali per adattarsi ai cambiamenti nei sistemi IT, tra cui rimozione dei componenti legacy e l’incorporazione di nuove tecnologie.

«Quando gli utenti finali interagiscono con sistemi software particolarmente complessi, sviluppano nuovi processi con particolare lentezza man mano che l’architettura tecnologica subisce la trasformazione» conclude il team.

Digital transformation e architettura dati, alcune riflessioni

L’indagine in tema di digital transformation e architettura dei dati conferma, da quanto emerso nel corso delle interviste, come la coerenza e la solidità dell’architettura dei dati sia nodale nell’adozione e nello sviluppo, all’interno delle organizzazioni, di sistemi di intelligenza artificiale, nonché nella fornitura di prodotti e di servizi di qualità superiore.

La presenza di componenti tecnologici obsoleti all’interno dei sistemi IT esistenti, però, ostacola gli sforzi di trasformazione digitale, limitando la capacità delle grandi aziende di riprogettare l’infrastruttura legacy in piattaforme e sistemi coerenti, che archiviano ed elaborano dati da varie fonti in modo integrato.

In particolare, è l’hardware IT obsoleto a porre problemi importanti per quelle aziende con sistemi software particolarmente complessi, che eseguono un’ampia varietà di programmi di sistema e che richiedono costi di adeguamento elevati. Al punto che, in seguito ai costosi adeguamenti, non poche aziende talora rinunciano alla modernizzazione «perché la continuità consentita dal mantenimento di sistemi legacy supera, nel medio periodo, i guadagni di un’architettura di dati coerente».

Il lavoro futuro – anticipano gli autori – sarà focalizzato sull’identificazione di quelle strategie atte a consentire alle aziende di superare queste sfide e sull’esplorazione di approcci efficaci per riprogettare parti dei sistemi tecnologici particolarmente difficili da rimuovere e, tuttavia, divenuti obsoleti e incompatibili con le nuove tecnologie.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin