Dai deepfakes alla cyber security fino all’efficienza energetica, ecco le principali tendenze e applicazioni dell’Intelligenza Artificiale secondo il report pubblicato da CB Insights.

I trend dell’Artificial Intelligence. L’intelligenza artificiale sta rivoluzionando il concetto di software come tradizionalmente inteso, arricchendo le applicazioni con funzionalità di apprendimento automatico, automazione avanzata, analisi predittiva e prescrittiva. Dopo il clamore iniziale e i facili entusiasmi, le aziende oggi cercano di capire come applicare concretamente le nuove soluzioni ai processi operativi e all’innovazione dell’offerta, traendo vantaggio competitivo e valore economico.

Tra le aree applicative a maggiore ritorno, si annoverano l’efficienza energetica, le reti neurali quantistiche, la ricerca medica con particolare riferimento alla ricerca sul genoma. Tuttavia, negli ultimi due anni, si stanno delineando anche sfide e zone d’ombra dell’artificial intelligence prima inesistenti. Ad esempio, tra i trend dell’Artificial Intelligence si evidenzia la proliferazione dei deepfakes ovvero le immagini e i video costruiti dall’AI con risultati iper-realistici, che possono essere utilizzati per diffondere notizie false e pilotare l’opinione pubblica.

Tra i risvolti più controversi, le soluzioni open-source di intelligenza artificiale, utili nel processo di democratizzazione delle tecnologie, forniscono agli hacker armi estremamente potenti per perpetrare azioni malevoli. L’AI inoltre è al centro dell’arena su questioni morali, poiché i risultati analitici, frutto di modelli statistici applicati a una realtà non sempre eticamente corretta, possono essere passibili di bias e distorsioni.

Insomma, l’intelligenza artificiale è un dominio in rapida e continua evoluzione, con aspetti emergenti da tenere sotto osservazione. Il report pubblicato da CB Insights, società di ricerca newyorkese che monitora il settore delle tecnologie, evidenzia le tendenze dell’universo AI che stanno caratterizzando questo 2020, mettendo in luce le conseguenze sui diversi settori. Di seguito viene riportato un estratto con i trend più significativi.

Trend Artificial Intelligence: i deepfakes rivoluzionano il mondo dei media

Nonostante gli impieghi scorretti nel regno della politica e della pornografia, le immagini e i video iper-realistici generati dall’AI (deepfakes) promettono di rivoluzionare l’industria dei media, il settore della pubblicità e le modalità di customer engagement.

Tra gli utilizzi commerciali, ad esempio, la possibilità di inserire selfies nelle Gif animate (SnapChat e TikTok), di ricreare “talking heads” con le sembianze di star scomparse (Samsung), di cambiare l’esperienza del consumatore nel settore Retail e sui siti di ecommerce (il progetto della startup Superpersonal permette di applicare la propria faccia all’interno di brevi video e di provare virtualmente i capi di abbigliamento). L’intelligenza artificiale consente anche di generare video in cui l’attore parla in lingue differenti adattando i movimenti facciali e labiali (per uno spot contro la malaria, la startup Synthesia, grazie alle tecnologie deepfake, ha riprodotto l’immagine di David Becham che recita in nove diversi idiomi).

L’intelligenza artificiale al servizio degli hacker

Gli algoritmi di artificial intelligence sono sempre più utilizzati per identificare le minacce e proteggere i sistemi aziendali dagli attacchi malevoli. Tuttavia, la tendenza da parte dei cyber criminali è sfruttare le falle delle nuove soluzioni basate sull’AI per eludere le misure di sicurezza.

Intercettando i modelli analitici con cui l’intelligenza artificiale individua il malware e prende decisioni, gli hacker possono trovare il modo di ingannare il sistema. Inoltre, possono “confondere” e neutralizzare l’artificial intelligence attraverso azioni di data poisoning, “inquinando” la base dati con cui gli algoritmi vengono addestrati al riconoscimento delle minacce.

Infine, gli stessi hacker possono sfruttare le tecnologie AI (in particolare le soluzioni open-source) per perpetrare attacchi sempre più sofisticati e diretti verso target specifici.

AutoML per disegnare la soluzione AI perfetta tra i nuovi trend dell’Artificial Intelligence

Selezionare o progettare la soluzione di artificial intelligence ottimale per le necessità applicative specifiche è un’operazione complessa e time-consuming, soprattutto vista la varietà di tecnologie e architetture disponibili. Da qui assumono crescente popolarità le piattaforme di AutoML, che integrano una serie di strumenti per automatizzare i processi di design e training delle reti neurali. 

A coniare il termine è stata Google nel 2017 riferendosi a un insieme di approcci basati sull’intelligenza artificiale che permettono di semplificare e accelerare la ricerca della giusta architettura neurale.

Le soluzioni AutoML hanno il merito di supplire alla carenza sul mercato di competenze qualificate e professionisti esperti in materia di AI. Si abbassano così le barriere all’adozione delle reti neurali, favorendo il processo di democratizzazione delle nuove tecnologie.

Federated learning per il continuo miglioramento degli algoritmi

Le soluzioni di intelligenza artificiale possono essere perfezionate continuamente beneficiando del federated learning, per cui gli utenti contribuiscono a migliorare il funzionamento degli algoritmi senza tuttavia condividere direttamente i raw data generati durante l’utilizzo dell’applicazione.

Un esempio significativo è rappresentato dalla testiera sviluppata da Google per la piattaforma Android, che permette di predire e suggerire il completamento delle parole durante la digitazione. Basata su meccanismi di machine learning, la keybord apprende e migliora gli algoritmi osservando il comportamento degli utenti.

Tuttavia, nessun dato personale prodotto dall’utilizzo della tastiera viene inviato ai server di Big G. Il processo di upgrade delle funzionalità analitiche avviene all’interno dello smartphone: Google invia la più recente versione degli algoritmi verso i dispositivi di alcuni utenti selezionati casualmente; qui vengono aggiornati in base al comportamento individuale e ai dati generati durante l’utilizzo della keyboard; gli updates (e non le informazioni personali grezze) sono quindi trasmessi al cloud di Big G entrando a fare parte ufficialmente dell’ultima release del software.

Il federated learning mette quindi a fattore comune un sapere collettivo, generato dalla cooperazione degli utenti, senza tuttavia violare la privacy individuale (la riservatezza dei dati è tutelata). Così diventa possibile fare tesoro di un immenso patrimonio informativo, altrimenti disgregato in silos non comunicanti; tale approccio si presta anche per sviluppare partnership tra organizzazioni diverse e dislocate in paesi differenti, senza il rischio di trasgredire ai vincoli di compliance o mettere a repentaglio la sicurezza dei dati.

Il rapporto tra intelligenza artificiale e gestione dell’energia

L’artificial intelligence applicata alla questione energetica continua a dominare lo scenario tecnologico 2020. Sebbene vengano utilizzate anche con l’obiettivo di aumentare l’efficienza di processi e sistemi, le soluzioni di AI sono particolarmente energivore. Risolvere il paradosso significa puntare allo sviluppo di tecnologie per l’intelligenza artificiale a ridotto consumo, quindi sostenibili dal punto di vista economico e ambientale.

Un primo punto di attenzione riguarda l’edge computing, poiché oggi la potenza computazionale e le funzionalità analitiche si spostano progressivamente verso i dispositivi periferici (banalmente gli smartphone o le macchine fotografiche). Molti produttori sono impegnati nella realizzazione di device intelligenti altamente efficienti, che sfruttano microprocessori AI a basso dispendio energetico. In questo contesto di inserisce la recente acquisizione della startup Xnor.ai da parte di Apple; la società sta infatti lavorando allo sviluppo di fotocamere a consumi ridottissimi che integrano algoritmi AI.

L’altra importante tendenza tecnologica riguarda invece l’applicazione degli algoritmi di intelligenza artificiale (soprattutto in funzione predittiva) per ottimizzare la gestione dell’energia all’interno dei grandi impianti e nel settore delle utilities. Ad esempio, Google, che intende alimentare i propri datacenter attraverso le fonti rinnovabili, sta utilizzando le reti neurali di DeepMind per sfruttare al massimo l’energia eolica. Grazie alle soluzioni del partner che analizzano le previsione meteo e i dati delle turbine, Big G è in grado di predire la potenza fornita dal vento con 36 ore di anticipo.

Come sopperire alla carenza di dati per addestrare l’AI

Addestrare gli algoritmi di deep learning, perché restituiscano risultati accurati e affidabili, richiede un enorme quantitativo di informazioni non sempre disponibile. Attualmente esistono due approcci per uscire dall’impasse. Il primo prevede il ricorso ai “dati sintetici”, ovvero ricreati artificialmente all’interno di simulazioni. Ad esempio, i veicoli autonomi vengono guidati per chilometri lungo percorsi virtuali e sottoposti a una serie di situazioni riprodotte (una tempesta di neve o un passante dal comportamento inaspettato), per cui sarebbe effettivamente difficile ottenere informazioni dal mondo reale.

Il secondo metodo invece suggerisce lo sviluppo di modelli AI che possono imparare da piccoli volumi di dati aggiuntivi. Infatti, una tecnica che sta prendendo piede soprattutto per le applicazioni di computer vision è il transfer learning. Sostanzialmente si prendono algoritmi pre-addestrati per svolgere determinati task e si completa l’apprendimento aggiungendo informazioni specifiche. Ad esempio, esistono algoritmi di riconoscimento per le immagini di automobili, che si basano su un’ampia disponibilità di dati già catalogati; se si intende sviluppare un’applicazione per il riconoscimento dei camion, si può partire dagli algoritmi già implementati per le autovetture, inserendo i dati mancanti.

Un approccio simile è chiamato self-supervised pre-training e viene utilizzato soprattutto per applicazioni di Natural Language Processing. Gli algoritmi vengono pre-addestrati non sulla base di informazioni già classificate (come nel caso dell’image recognition), ma attraverso un enorme volume di informazioni e meccanismi di autoapprendimento in ottica predittiva. Ad esempio, una soluzione NLP può essere pre-istruita sulla base di milioni di testi disponibili in Internet: l’algoritmo legge i contenuti e, sulla base dell’esperienza acquisita, tenterà di predire le parole esatte per il completamento delle frasi riconoscendo le parole precedenti. Grazie a queste tecniche, nel 2020 e nei prossimi anni si assisterà a significativi progressi in applicazioni come i chatbot, le trascrizioni automatiche e le advanced machine translation.

L’incontro tra intelligenza artificiale e computer quantici

Per lavorare al massimo delle performance, i processori quantici richiedono algoritmi di machine learning e processi di data preparation specifici, diversi rispetto alle reti neurali classiche. Tuttavia, le sperimentazioni nel campo dei quantum neural networks (QNN) sono ancora alla fase embrionale e le nuove architetture hardware presentano forti limitazioni.

La tendenza attuale propende quindi per un modello ibrido, che sfrutta sia gli algoritmi e i computer tradizionali sia le nuove tecnologie quantistiche per la risoluzione dei problemi e l’esecuzione di applicazioni AI.

Dal 2020 si inizieranno a vedere i primi risvolti pratici sviluppati in modalità hybrid, mentre è ufficialmente aperta la battaglia tra i leader tecnologici (AWSGoogleIBM, e Microsoft) per sviluppare l’offerta di quantum cloud computing a latere dei tradizionali servizi sulla nuvola.

Il contributo delle soluzioni NLP alla ricerca sul genoma

I progressi nel campo del Natural Language Processing e, in particolare, del self-supervised learning potrebbero dare una forte spinta alla ricerca sul genoma. Se le frasi si formano da una sequenza logica di parole, così le proteine sono una fila di amminoacidi disposti secondo un ordine specifico. Applicato alle soluzioni NLP, il self-supervised learning istruisce gli algoritmi affinché possano predire la parola mancante come conseguenza delle parole precedenti, arrivando al completamento della frase.

Lo stesso meccanismo può insegnare agli algoritmi di intelligenza artificiale a intuire l’amminoacido successivo all’interno della struttura di una proteina. L’algoritmo Alphafold sviluppato da DeepMind è l’esempio più significativo in questo campo: nonostante utilizzi un approccio ibrido basato su tecnologie tradizionali e quantiche per ricostruire la sequenza peptidica, mutua le stesse logiche predittive utilizzate per l’elaborazione del linguaggio naturale.

Scritto da:

Arianna Leonardi

Giornalista Leggi articoli Guarda il profilo Linkedin