L’intelligenza artificiale evolve rapidamente. E, allo stesso tempo, aumentano le richieste, da parte delle aziende, di nuove funzioni dell’AI. Fenomeni - questi - che Gartner ha fissato nel suo rapporto sui nuovi trend dell’intelligenza artificiale, l’Hype Cycle for Artificial Intelligence 2021.
TAKEAWAY
- Gartner, nel suo recente rapporto sui nuovi trend dell’intelligenza artificiale, ha descritto trentaquattro tipi di tecnologie AI, alcune delle quali si trovano attualmente nella fase “innovation trigger” del ciclo di hype.
- Si tratta di tecnologie che gli analisti collocano nella fascia “emergenti”, con – al momento – basse percentuali di penetrazione, ma con un potenziale evolutivo che le condurrà all’adozione nei prossimi cinque anni.
- Le tendenze che, invece, stanno dominando il panorama attuale dell’AI sono quattro e includono l’operatività delle piattaforme AI, un uso efficiente delle risorse, l’AI responsabile e un approccio che coniuga small & wide data.
Le tecnologie che fanno capo all’ambito di studi dell’intelligenza artificiale stanno evolvendo rapidamente, con un numero di innovazioni superiore alla media. E, parallelamente, stanno aumentando le richieste – da parte delle aziende – di nuove funzioni dell’AI. Fenomeni – questi – che Gartner ha fissato nel suo rapporto sui nuovi trend dell’intelligenza artificiale, Hype Cycle for Artificial Intelligence 2021, in cui vengono descritte ben trentaquattro tipi di tecnologie AI, alcune delle quali (sei per la precisione) si trovano attualmente nella fase “Innovation Trigger”, ossia nello stadio “attivazione dell’innovazione” del ciclo di hype.
Si tratta – specificano gli analisti – della “composite AI”, dell’ “AI Orchestration and Automation Platform”, dell’ “AI governance”, della “generative AI ”, della “human-centered AI” e dei “synthetic data”, tecnologie che si prevede raggiungeranno l’adozione in un arco di tempo compreso tra i due e i cinque anni. Ma andiamo nel dettaglio.
Le tecnologie attualmente nella fase “Innovation Trigger”
In tema di nuovi trend dell’intelligenza artificiale, all’interno dell’Hype Cycle for Artificial Intelligence 2021, la“composite AI” è la prima tecnologia del quadrante Innovation Trigger (con plateau raggiungibile tra i due e i cinque anni).
Si tratta di un “insieme di tecniche” il cui obiettivo principe è sviluppare sistemi AI che, per il loro addestramento, necessitino di un numero inferiore di dati e di energia
Alla base, vi è la convinzione che tali tecniche possano andare incontro alle esigenze di quelle organizzazioni che non hanno a disposizione grandi set di dati, ma che vantano, all’interno, forti competenze e grande esperienza umana.
Secondo gli analisti di Gartner, questa tecnologia (al momento adottata da una percentuale di aziende compresa tra il 5 e il 20%), in quanto nella fase di “attivazione”, è destinata a emergere nei prossimi anni.
Subito dopo la composite AI, nella fase “innovation trigger” troviamo l’AIOAP – AI Orchestration and Automation Platform, ovvero una tecnologia che consente di standardizzare DataOps, ModelOps, MLOps e pipeline di distribuzione e di definire pratiche di governance e che finora – illustra Gartner – ha raggiunto solo un numero di aziende compreso tra l’uno e il 5%.
Anche la governance dell’AI – altro ambito emergente – per il momento ha raggiunto dall’1% al 5% del pubblico di destinazione, ma è destinato a crescere e a divenire sempre più un tema al centro del dibattito dei Governi a livello globale, con direttive e linee guida atte a determinare le responsabilità circa i rischi correlati all’utilizzo delle tecniche di intelligenza artificiale.
In tema di nuovi trend dell’intelligenza artificiale, ha, invece, raggiunto meno dell’1% del pubblico di destinazione la “generative AI”, dalla quale gli analisti si attendono, comunque, una rapida espansione, arrivando ad automatizzare fino al 70% del lavoro svolto se combinata con tecniche di automazione.
Questo tipo di intelligenza artificiale è in grado di generare continuamente nuovi contenuti – testi, immagini, video e audio – applicando ciò che apprende durante la fase di addestramento. E scienze della vita, assistenza sanitaria, scienze dei materiali, industria automobilistica, aerospaziale, della difesa e dell’energia – si legge nel Report – sono i settori in cui avrà la massima applicazione.
La human-centered AI – l’intelligenza artificiale centrata sull’uomo o “human-in-the-loop”, fondata sull’assunto che essere umano e tecnologia possano lavorare insieme, completandosi – al momento registra una diffusione pari a una percentuale compresa tra il 5% e il 20%.
Nella posizione più alta dell’innovation trigger all’interno dell’hype cycle, troviamo, infine i “dati sintetici”, insieme di dati generati artificialmente dai sistemi AI e considerati oggi, una risposta al bisogno continuo di dati “reali” etichettati, necessari per allenare gli algoritmi di intelligenza artificiale.
I synthetic data – economici e rapidi da ottenere e, ad oggi, con una percentuale di diffusione dall’1% al 5% – nascondono, però, un pericolo, avvertono gli analisti: possono presentare problematiche correlate ai bias o addirittura non aggiungere alcun tipo di informazione utile ai dati già esistenti.
I nuovi trend dell’intelligenza artificiale: Gartner individua quattro macro tendenze
Quelle viste finora sono le tecnologie che Gartner colloca nella fascia delle “emergenti”, in fase di attivazione, con – al momento – basse percentuali di penetrazione, ma con un potenziale evolutivo che le condurrà all’adozione nei prossimi cinque anni.
Le tendenze che, invece, stanno dominando il panorama attuale dell’AI, i nuovi trend dell’intelligenza artificiale, sono – secondo Gartner – quattro e includono l’operatività delle piattaforme AI, un uso efficiente delle risorse, l’AI responsabile e un approccio che coniuga small data e wide data.
Si tratta di nuovi trend dell’intelligenza artificiale, di tendenze osservate, ma anche di “direzioni” verso le quali gli analisti consigliano di incamminarsi per un’AI che si ponga davvero quale strumento utile ed efficiente per le aziende. Vediamoli uno per uno:
Operatività delle piattaforme di intelligenza artificiale
“Per la maggior parte delle organizzazioni, l’integrazione di soluzioni di intelligenza artificiale all’interno dei flussi di lavoro aziendali, rappresenta, ad oggi, un lavoro complesso, costellato di fallimenti” osserva Shubhangi Vashisth, senior principal analyst di Gartner. Solo la metà dei progetti di intelligenza artificiale passa dalla fase pilota a quella della produzione. E, i quest’ultimo caso,mediamente – spiega – servono circa otto-nove mesi per arrivare alla messa a punto completa di un sistema AI efficiente e integrato all’interno della propria operatività, conferendo a tale sistema un valore tangibile nella trasformazione del business. Ebbene, Gartner prevede che, entro il 2025 – complice la sempre maggiore maturità delle tecnologie di AI Orchestration and Automation Platform – il 70% delle aziende avrà reso operative le proprie architetture di intelligenza artificiale, spostando così i progetti AI dall’idea alla produzione e rendendoli, nel concreto, utili.
Uso efficiente delle risorse
Investire nell’intelligenza artificiale significa utilizzare in modo efficiente tutte le risorse a disposizione, compresi i dati e i modelli di calcolo. Un esempio – fa notare Vashisth – viene proprio dalla composite AI che, come accennato, coniuga tecniche diverse, tra cui deep learning, analisi dei grafi, modellazione basata su agenti e tecniche di ottimizzazione. Col risultato di un sistema di intelligenza artificiale “composito”, in grado di risolvere una gamma più ampia di problemi aziendali. Ma è necessario – sottolineano gli analisti di Gartner – che tali tecnologie (e i dati utilizzati per allenare gli algoritmi) vengano usate con la massima efficienza da chi ne possiede le competenze.
AI responsabile
“Una maggiore trasparenza e verificabilità delle tecnologie di intelligenza artificiale continua a rivestire un’importanza cruciale. Questa è l’AI responsabile” rimarca Svetlana Sicular, analista presso Gartner. Tanto più necessaria quanto più l’AI arriva a sostituire le decisioni umane su larga scala, amplificando gli impatti positivi e negativi di tali decisioni. L’attenzione deve focalizzarsi sui dati che vengono somministrati alla macchina. Se il dato è “buono”, scevro da pregiudizi, allenerà un algoritmo altrettanto “buono” e libero da bias. L’attenzione, in particolare, deve essere alta nei confronti dei pregiudizi “impliciti”, meno manifesti e, dunque, più difficili da individuare. Come, ad esempio, quelli che conducono a decisioni discriminatorie nei confronti dell’età o del genere. Nei prossimi anni, dunque, le organizzazioni – avverte Gartner – dovranno poter sviluppare e gestire sistemi di intelligenza artificiale “che siamo etici e trasparenti” e, per il conseguimento di tale obiettivo, auspica che – entro il 2023 – tutto il personale dedito allo sviluppo di sistemi AI dimostri di possedere esperienza nella “responsible AI”.
Small data & wide data
In tema di nuovi trend dell’intelligenza artificiale, un’altra tendenza delineata da Gartner riguarda i “dati piccoli” (small data), vale a dire quei dati che hanno a che vedere con l’applicazione di tecniche analitiche che necessitano di un numero inferiore di informazioni. Tali dati – spiega Sicular – insieme all’utilizzo di grandi set di dati (wide data), consentono analisi più approfondite e aiutano a ottenere una visione più a ampia del problema che si intende risolvere per mezzo dell’AI. L’Hype Cycle for Artificial Intelligence 2021 indica che, entro il 2025, il 70% delle organizzazioni sarà costretto a spostare la propria attenzione dai dati grandi a quelli piccoli, conferendo, in questo modo, più spazio all’analisi e all’incrocio dei dati stessi. Si tratta, di una tendenza osservata a partire dalla crisi pandemica, che ha causato – prosegue l’analista – un rapido decadere delle grandi mole di dati storici, correlati a situazioni passate, e rompendo, così, schemi precedenti. Adottare tecniche di analisi che coniugano “small data” e “wide data” significa, invece, lavorare con volumi diversi di dati ed estrarre valore da fonti diverse e non strutturate.