A qualche giorno dal Data & AI Forum Italia, l’evento virtuale che IBM ha dedicato all’importanza strategica del dato nel tracciare il “viaggio” delle aziende verso la trasformazione digitale, ne ripercorriamo i passaggi salienti.

Dati e artificial intelligence sono stati il cuore dell’evento IBM Data & AI Forum Italia, trasmesso in live streaming nei giorni scorsi.

alessandro la volpe ibm

Siamo entrati a pieno regime in quello che possiamo definire il ‘secolo digitale’. L’accelerazione verso la trasformazione digitale, che pensavamo si verificasse nei prossimi cinque-dieci anni, sta, invece, procedendo a un passo più rapido. Sta accadendo oggi

ha esordito Alessandro La Volpe, Vice President, Technology Leader, IBM Italia, in apertura dei lavori. Due i paradigmi tecnologici che hanno spinto (e che ancora continuano a farlo) verso l’accelerazione: da un lato l’Hybrid Cloud e dall’altro l’intelligenza artificiale. Il primo, integrando servizi cloud pubblici e privati provenienti da più fornitori, crea un’infrastruttura IT flessibile che abilita la trasformazione dei processi di business delle aziende; la seconda, penetrando sempre di più in tali processi, va ad affiancare e a supportare i professionisti nello svolgere al meglio le proprie attività.

L’evento ha ruotato attorno a quelle che sono le quattro “porte di accesso” al percorso di trasformazione digitale, ossia la modernizzazione delle applicazioni, le pratiche relative alla cybersecurity, l’automazione dei processi – riferita sia ai processi IT, sia al business – e il mondo del predict, con riferimenti ai dati e al loro utilizzo nell’ambito di progetti di intelligenza artificiale.

Al centro di ognuna di queste porte di acceso, vi è il dato, “inteso come elemento dal quale ripartire per un nuovo vantaggio competitivo” sottolinea La Volpe. Attraverso casi concreti, testimonianze di clienti e approfondimenti nei vari domini di applicazione, il Data & AI Forum Italia ha acceso i riflettori sul dato all’interno di sei sezioni parallele:

  • Modernize – La modernizzazione delle applicazioni senza confini di piattaforma
  • Secure – DATA & AI: la cybersecurity a prova di futuro
  • Automate (IT) – Automatizzare il ciclo di vita dei dati distribuiti? Ci pensa l’intelligenza artificiale
  • Automate (Business) – AI-Powered Automation e Process Mining: i dati al centro nel processo di automazione
  • Predict (Data) – Approccio Tradizionale o Data Mesh? Un percorso rapido, ideato per il Business, verso l’Intelligenza Artificiale
  • Predict (AI) – Infuse Data & AI: prevedere, automatizzare e accelerare le informazioni, ottimizzando il tempo!

Soffermiamoci, in particolare, sull’ultima di queste sessioni – moderata da Nicoletta Boldrini, giornalista indipendente e Direttore di Tech4Future – incentrata sul rapporto a doppio filo che lega dati e intelligenza artificiale e sul modo in cui tale connessione diventa operativa per le aziende, si concretizza a livello di business.

Dati e Artificial Intelligence: come trasformare il proprio business attraverso l’AI

Rendere le soluzioni di intelligenza artificiale fatto concreto, inserendole nelle attività dell’azienda, nei suoi flussi di lavoro, nelle sue operatività, ad esempio per automatizzare processi complessi, prendere decisioni o accelerare e semplificare l’accesso a informazioni specifiche, con l’obiettivo finale di produrre un efficace valore di business e, al contempo, ottimizzare tempi operativo-produttivi e risultati. Sembra un quadro ideale. Ma come si arriva, nella realtà, a tutto questo?

Per comprenderlo, è necessario partire dal concetto di “Infuse”, che occupa l’ultimo gradino dell’AI Ladder, ovvero la scala immaginaria lungo la quale si snoda il processo di trasformazione attraverso le tecnologie che fanno capo all’ambito di studi dell’intelligenza artificiale. Spiega Bianca Romano, Garage Manager IBM, durante l’evento in tema di dati e artificial intelligence:

L’AI Ladder è una sotta di metafora che in IBM associamo a quello che è il percorso ideale per l’adozione dell’intelligenza artificiale all’interno di una qualsiasi organizzazione. Percorso che ci immaginiamo a scalini. Partendo dal basso, consentiamo ad aziende di ogni settore di trasformare il proprio business attraverso l’AI

dati e artificial intelligence AI Ladder

Il primo gradino della scala corrisponde al “Collect”, alla raccolta di dati con i quali poi addestrare un algoritmo di AI. Si tratta di un momento fondamentale, durante il quale l’azienda può trovarsi di fronte a dati strutturati, non strutturati o semi-strutturati. A dati proprietari oppure provenienti da fonti esterne, a dati in Cloud oppure custoditi all’interno dell’organizzazione.

Una volta superato questo primo gradino – prosegue Romano – si passa alla fase “Organize”, che poggia sull’organizzazione dei dati raccolti, in modo da renderli accessibili, rendere possibile la ricerca al loro interno da parte di quegli utenti più idonei a farlo.

Il terzo gradino è quello dell’Analyze: dopo averli raccolti e organizzati, è il momento di “guardare dentro ai dati”, di tracciare paralleli tra loro, di correlarli, per capire “che cosa è accaduto” e prevedere che cosa potrebbe accadere.

E, infine, arriviamo al gradino più alto, all’Infuse, che “in italiano traduciamo con ‘rendere operativa’ l’intelligenza artificiale a livello di business e, dunque, i modelli costruiti negli step precedenti” conclude il Garage Manager IBM, rimarcando l’importanza che tali modelli rispondano ai principi di trasparenza e affidabilità, vale a dire che, tramite questi, si possa costruire un sistema AI i cui risultati siano attendibili, “spiegati” e documentati. E di cui ci si possa fidare.

Rendere operativa (e di semplice utilizzo) l’intelligenza artificiale: gli esempi di Leonardo e Senato della Repubblica

La sessione “Infuse Data & AI” si è focalizzata su esempi concreti e racconti diretti da parte di aziende che hanno intrapreso il percorso di evoluzione, partendo – in tema di dati e artificial intelligence – dal primo gradino dell’AI Ladder, per poi arrivare all’Infuse.

dati e artificial intelligence Nicoletta Boldrini

A cominciare da Leonardo – attiva nei settori difesa, erospazio e sicurezza – e da Senato della Repubblica, due casi che, seppur riferiti a realtà completamente differenti e partiti da esigenze diverse, sono accomunati da una scelta tecnologica precisa, che è quella dell’assistente virtuale supportato da tecniche avanzate di intelligenza artificiale, in particolare del Natural Language Processing (NLP).

Più nel dettaglio, Andrea Trucco, Training and Development Specialist di Leonardo, racconta della necessità di una soluzione volta a migliorare e ad accelerare la formazione dei piloti. Passata da una didattica tradizionale – frontale, e con l’istruttore – a una didattica nella quale si alternano momenti di auto-formazione a distanza con momenti di formazione in presenza, l’azienda ha sperimentato, durante la fase di apprendimento da remoto, problematiche legate a difficoltà, da parte di alcuni, nell’utilizzo dei dispositivi e dei presidi didattici messi loro a disposizione.

La richiesta, dunque, è stata quella di un supporto per mezzo del quale fornire agi studenti risposte puntuali ogni qualvolta si renda necessario, superando anche eventuali ostacoli dovuti al fuso orario e all’idioma utilizzato (Leonardo, lo ricordiamo, forma circa 6mila piloti l’anno in tutte e parti del mondo), oltre che alle diverse estrazioni culturali e alle diverse competenze digitali di ognuno.

Diverso, invece, il caso di Senato della Repubblica, sede dell’attività parlamentare – basata su una produzione documentale molto ampia e complessa da gestire – oltre che Istituzione culturale aperta a quanti desiderano consultare atti, materiale presso la biblioteca e presso l’archivio storico, o visitare il vasto patrimonio di opere d’arte

L’insieme di queste attività si riflette nella complessità del sito istituzionale – spiega Carlo Marchetti, Head of Information Systems Development Senato della Repubblica – che contiene moltissime informazioni eterogene, con contenuti che spaziano dall’attività dei senatori all’avanzamento dell’iter dei disegni di legge, dai dossier di documentazione su specifici soggetti alle informazioni per accedere ai molteplici servizi.

Ma c’è un problema: nonostante gli sforzi fatti per organizzare la navigazione del sito e i relativi contenuti e nonostante la presenza di motori di ricerca per ogni singolo aspetto dell’attività – parlamentare e non – Marchetti evidenzia quanto risulti difficoltoso l’accesso a determinate informazioni. Il progetto AI per fare fronte a tale difficoltà è un servizio di risposta automatica basato sul linguaggio naturale, attualmente in fase di sviluppo.

In entrambi i casi, viene fato notare un aspetto: quello della semplicità di gestione e di utilizzo delle soluzioni tecnologiche proposte, il loro essere user friendly nonostante la potenza e l’efficacia dimostrate. Aspetto, questo, al quale si aggiunge – in fase di messa a punto della soluzione – il supporto, da parte di IBM, nell’aiutare le aziende a risalire l’AI Ladder attraverso un ciclo di sviluppo nel quale si instaurano un dialogo e un confronto costanti tra le parti.

Data Governance per l’identificazione di anomalie tra i flussi finanziari: il progetto per Cassa Compensazione Garanzia

Tra le altre esperienze di viaggio lungo la scala dell’AI Ladder, anche quella di Cassa Compensazione Garanzia – Controparte Centrale Italiana, istituzione finanziaria che ha il compito di garantire la stabilità dei mercati in cui opera – motivata dalla necessità di poter disporre di capacità predittive al fine di individuare e mitigare i rischi legati alla sua attività in ambito finanziario.

Il progetto in tema di dati e artificial intelligence, spiega Chiara Carrera, Brand SME, Server, IBM Technology Sales IBM, ha visto, in questo caso, la partecipazione di UnoInformatica – partner storico di IBM che, insieme al cliente, ha identificato un problema specifico di business – oltre alla collaborazione con Axyon AI, realtà specializzata in ambito Machine Learning e Deep Learning, che ha disegnato e sviluppato un modello predittivo sulla base delle specifiche esigenze del cliente.

Mauro Madeddu, Application Development Cassa Compensazione Garanzia, aggiunge che il primo pensiero, quando, nel 2018, gli venne prospettato l’utilizzo di soluzioni di intelligenza artificiale, fu proprio quello di impiegarla come un potente strumento di Data Governance, in grado di identificare anomalie tra i flussi finanziari di Tesoreria.

Nel dettaglio – racconta Madeddu – la soluzione sviluppata, che combina ML e DL, ha identificato anomalie mai tracciate prima, portando l’azienda ad applicarla con successo, e in maniera ancora più strutturata e complessa, in altri due ambiti, che riguardano il calcolo dei prezzi di chiusura di strumenti derivati e il calcolo dei margini che vengono applicati ai partecipanti che negoziano sulle piattaforme dei mercati.

dati e artificial intelligence Infuse AI
Il panel completo della sessione “Infuse Data & AI: prevedere, automatizzare e accelerare le informazioni, ottimizzando il tempo!”

A curare la parte infrastrutturale del progetto è stato Luca Pasquini, System Architect Borsa Italiana, il quale, in particolare, si è occupato dei tre momenti che scandiscono il disegno dell’architettura di un sistema di intelligenza artificiale: Data,Train e Inference.

Il primo consiste nell’identificare quei dati più significativi, con cui saranno alimentati i modelli di AI; il secondo rimanda alla fase di training, all’allenamento del modello, che va ripetuto nel tempo per mantenere l’accuratezza delle predizioni; infine, il terzo step – “inferenza” – fa riferimento al procedimento di generalizzazione dei risultati, in cui i modelli allenati producono predizioni.

Giacomo Barigazzi, Sales Specialist Axyon AI, si è, invece, soffermato sulle varie tecniche di detection utilizzate in seno al progetto per Cassa Compensazione Garanzia, al fine di costruire modelli AI atti a individuare possibili anomalie nei dati gestiti dall’azienda.

Chiara Carrera, in chiusura, sintetizzando i fattori che hanno concorso alla riuscita della scalata di CC&G in vetta all’AI Ladder, ha ribadito l’importanza della sinergia tra diverse competenze ed expertise, rivelatasi abilitante e, al tempo stesso, imprescindibile nello sviluppo di una soluzione pronta all’uso e a rispondere alle specifiche esigenze del cliente.

Dati e Artificial Intelligence, l’importanza di servizi AI accessibili all’utente

L’intelligenza artificiale deve poter diventare operativa a livello di business attraverso soluzioni e servizi accessibili all’utente. Il quale non deve necessariamente comprenderne il funzionamento ed ‘entrare’ nelle tecniche di AI, ma assaporarne il valore”: Nicoletta Boldrini, nel corso dei lavori, ha più volte sottolineato questo concetto, condiviso, in precedenza, da Leonardo e Senato della Repubblica e ripreso, poi, anche da Giovanni Todaro, Manager of Data, AI and Automation IBM, il quale aggiunge:

giovanni todaro ibm

Quando parliamo di dati e artificial intelligence, dobbiamo cercare di eliminare la complessità. Noi del settore abbiamo un linguaggio troppo complesso per il mondo del business. Dobbiamo semplificarlo, snellirlo

Della medesima opinione anche Matteo Ferrero – Strategic Account Director di Palantir Technologies, partner tecnologico di IBM – il quale ha ricordato come, dietro Palantir, ci sia la volontà precisa di rendere il dato più operazionale, più “democratico”, seguendo quel filo che, da una mole di informazioni complessa ed eterogenea, conduce a una risorsa che sia fruibile dall’utente.

E riguardo al progetto di intelligenza artificiale messo a punto per Scuderie Ferrari, fa notate che, anche in un contesto tecnologicamente all’avanguardia come può essere quello della Formula Uno, in cui i dati rappresentano oggettivamente una fonte preziosa di informazioni, ci si è trovati di fronte a una situazione tipica, comune a quella che si incontra, in molti casi, presso i clienti, caratterizzata dalla presenza di una serie di fonti di dati sparse, separate e diverse tra loro, che spesso non si parlano.

“In questi casi – fa notare Ferrero – ci troviamo di fronte a un utente che non riesce a estrarre valore dai dati che si trovano all’interno della sua stessa azienda o che, addirittura, nemmeno ne conosce l’esistenza”.

Ecco, allora, che il supporto si fonda sul fornire all’azienda uno strumento semplice da utilizzare, oltre che facilmente scalabile all’interno di tutti i casi applicativi, aiutandola ad aggregare i dati in suo possesso e a trarre, da questi, vantaggi concreti in un arco di tempo molto breve, vale a dire poche settimane o pochi mesi e non anni, come, invece, accade con i metodi tradizionali di analisi e calcolo. È questo il vero valore aggiunto delle soluzioni AI, conclude.

Call for Code Global Challenge 2021

Il Data & AI Forum Italia si è, infine, concluso con una specifica sessione dedicata al lancio del “Call for Code Global Challenge 2021”, il cui tema – per questa quarta edizione – è lo sviluppo di soluzioni e applicazioni innovative basate sulla tecnologia opensource per contrastare o limitare gli impatti negativi del cambiamento climatico.

Più nel dettaglio, quest’anno il concorso – che vanta ormai una community composta da 400.000 sviluppatori – si concentra su tre sottotemi ritenuti fondamentali per combattere il climate change: acqua pulita, zero fame, produzione responsabile e consumo verde. In palio, per il team vincitore, ci sono 200.000$, oltre alla possibilità di dare vita alla soluzione ideata, grazie al supporto di IBM e di Linux Foundation.

data ai forun ibm
Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin