L’Intelligenza Artificiale Generale (AGI) rappresenta in qualche modo il sogno di realizzare una macchina in grado di pensare e agire come l’uomo. Per quanto l’obiettivo sia ancora distante, il dibattito nella comunità scientifica cresce e non mancano nuovi spunti di riflessione.
TAKEAWAY
- Simulare il funzionamento del cervello biologico e il comportamento dell’uomo è una missione fondamentale della scienza e della tecnologia.
- La comunità scientifica appare piuttosto divisa in merito a tecnologie e tempistiche necessarie per raggiungere l’obiettivo dell’Intelligenza Artificiale Generale (AGI), ma il dibattito fa emergere nuove interessanti suggestioni, che stanno già trovando un riscontro pratico nella ricerca di nuovi sistemi AI.
- A differenza di quanto accade per la AI corrente, dove il problema è più che mai attuale, gli aspetti etici e i rischi legati allo sviluppo di intelligenze artificiali autonome appaiono più legati all’immaginario della fantascienza e al terrorismo mediatico che non all’effettivo stato della ricerca.
L’idea più suggestiva dell’Intelligenza Artificiale (AI) è sempre stata quella, un giorno, di riuscire a creare una macchina in grado di pensare e di agire come un essere umano. Tuttavia, per fare sì che quella che viene definita Intelligenza Artificiale Generale (AGI) raggiunga livelli di implementazione ed efficienza degni di nota, la strada da percorrere pare essere ancora molto lunga.
L’Intelligenza Artificiale Generale (AGI): forte, ambiziosa, estremamente complessa
Per cogliere il senso dell’Intelligenza Artificiale Generale è opportuno soffermarci su una rapida premessa: la distinzione, universalmente riconosciuta, tra la AI debole e la AI forte. Nel primo caso si fa riferimento a sistemi progettati per risolvere problemi specifici, noti a priori, attraverso tecniche di apprendimento automatico (Machine Learning). Non si ha tuttavia la pretesa di replicare il funzionamento del cervello umano nella soluzione al problema. Ci si concentra esclusivamente sul problema stesso, per comprenderlo al meglio e simulare tutti i possibili scenari utili a supportare in maniera più consapevole qualsiasi decisione, a prescindere che venga presa dall’uomo o direttamente dalla macchina.
Nel caso dell’Intelligenza Artificiale forte si fa, invece, riferimento a sistemi in grado di comportarsi in maniera del tutto autonoma, a prescindere dal contesto e dal compito loro assegnato. Rispetto all’AI debole, o “ristretta”, viene meno il nesso tra il problema da risolvere e la soluzione prospettata. L’AI forte si basa in maniera generalizzata sul ragionamento logico che produrrebbe il cervello umano per risolvere qualsiasi tipo di problema, sulla base delle conoscenze a propria disposizione. Si tratta di un obiettivo incredibilmente più ambizioso rispetto al procedere caso per caso.
Attualmente gli approcci basati sull’Intelligenza Artificiale Generale sono sviluppati grazie a tecniche di Deep Learning, un caso particolare del Machine Learning basato sull’impiego delle reti neurali profonde, che simulano in maniera più o meno esplicita lo schema funzionale delle reti di neuroni, caratteristiche del cervello umano.
Le applicazioni più promettenti dell’Intelligenza Artificiale Generale provengono dagli AI Lab finanziati dalle big tech, le uniche forze in grado di sostenere gli enormi investimenti che la ricerca in questo ambito attualmente comporta. È il caso di DeepMind (Google) autore tra l’altro di Alphafold, applicazione in grado di risolvere il calcolo del protein folding, scoperta che rivoluzionerà per sempre la ricerca nella biologia molecolare.
Su un fronte totalmente differente, OpenAI (Microsoft) ha invece sviluppato GPT-3, un modello di linguaggio capace di elaborare immagini e testi come farebbe un essere umano, producendo risultati di scrittura assolutamente credibili, considerando che provengono da un sistema non senziente, ossia incapace di comprendere il senso di ciò che sta elaborando [per approfondimenti sull’AI, consigliamo la lettura della nostra guida all’intelligenza artificiale che spiega cos’è, a cosa serve e quali sono gli esempi applicativi – ndr].
Il Deep Learning e la complessità della mente umana
Per capire in cosa consiste il gap tra l’Intelligenza Artificiale e l’intelligenza umana, basti sapere che oggi le tecniche di Deep Learning e le reti neurali profonde vengono proficuamente utilizzate in moltissime applicazioni, opportunamente industrializzate e introdotte sul mercato.
Il Deep Learning può infatti gestire in maniera efficace problemi molto complessi, come avviene nel caso della guida autonoma (Tesla e i principali brand automotive), del riconoscimento del linguaggio con tecnologie NLP (Natural Language Processing), nel riconoscimento delle immagini (computer vision per sistemi di sicurezza, deepfake, ecc.), delle raccomandazioni contestuali (chatbot e assistenti virtuali) e del fact checking (contrasto fake news), giusto per citare alcune tra le applicazioni più diffuse.
Tale casistica considera gli utilizzi molto profondi del Machine Learning, con applicazioni generalizzate, non sviluppate caso per caso, ma pur sempre rivolte ad ambiti ben delineati. Il contesto tematico è noto e assume dei confini piuttosto netti, entro cui la AI può apprendere buona parte delle regole del gioco per individuare in autonomia soluzioni specifiche.
In generale, l’Intelligenza Artificiale ha sinora saputo produrre risultati importanti nei contesti ristretti, con approcci alla soluzione anche piuttosto profondi e diversificati. Ciò vale anche nel caso della AGI. Come abbiamo visto, ci sono tante AGI che simulano singolarmente alcuni aspetti del cervello umano. Ma oltre una certa misura, non è ancora possibile generalizzare l’approccio.
Se parliamo di emulare digitalmente il comportamento e la complessità del cervello umano in modo che sia il sistema AI a potersi approcciare a qualsiasi problema in maniera indistinta, ossia il fine ultimo dell’Intelligenza Artificiale Generale, non soltanto siamo distanti dalla soluzione, ma in molti casi non sappiamo ancora da dove partire.
La complessità dei problemi che il Deep Learning si pone quando intende andare realmente in profondità, tradotta in termini algoritmici, è tale che i modelli attuali entrano in crisi, sia a causa di evidenti limiti di natura computazionale, sia per l’eccessiva articolazione dei modelli stessi, che ben difficilmente potranno trovare la soluzione nell’informatica classica, orientando la ricerca verso nuovi approcci e nuove tecnologie, come nel caso del Quantum Computing (quantum Machine Learning).
Quando arriverà l’Intelligenza Artificiale Generale?
Preso atto del fatto che l’Intelligenza Artificiale Generale avrà di fronte a sé un percorso lungo e articolato, a un certo punto la curiosità sorge spontanea e vien da chiedersi quando tutto ciò sarà possibile. Quando potremo avere a che fare con macchine del tutto simili a noi?
Alcune recenti indicazioni ci arrivano dal volume “Architects of Intelligence: the truth about AI from the people building it” (Packt Publishing, 2018), in cui il futurista Martin Ford ha intervistato 23 tra i nomi più illustri che giocano nella stanza dei bottoni della AI, tra cui Jeff Dean (Google), Fei-Fei Li (Stanford University) e Demis Hassabis (DeepMind), sottoponendo loro domande in gran parte focalizzate sul futuro dell’Intelligenza Artificiale.
È piuttosto curioso che, mentre sui media si assiste a una continua alimentazione di aspettative su applicazioni che spesso di AGI hanno soltanto l’etichetta, gli addetti ai lavori manifestino una certa prudenza, se non addirittura un velo di pessimismo circa la data in cui potremo avere una diffusione apprezzabile di sistemi davvero annoverabili in tale ambito.
2099: l’anno della AGI, non è il titolo di un improbabile film di fantascienza, ma la data media che l’indagine condotta da Martin Ford ha dedotto sulla base delle previsioni degli intervistati. Si va dall’ottimistico 2029 di Ray Kurzweil (Google AI) al remoto 2200 di Rodney Brooks, tra i principali esperti di robotica, nonché fondatore di iRobot.
Preso atto che dovremo essere piuttosto pazienti in merito, cosa dovrebbe accadere in tutti questi decenni? Anche in questo caso, gli esperti di dividono. Secondo alcuni gli elementi per portare avanti lo sviluppo dell’Intelligenza Artificiale Generale ci sarebbero già, ma si rende necessario uno sforzo enorme per arrivare a risultati apprezzabili, che richiederà molto tempo. Altri invece sono fermamente convinti che manchino ancora dei blocchi fondamentali per costruire il suo impianto, sia nel transfer learning, che consiste nel trasferire la conoscenza da un sistema all’altro, che nel unsupervised learning, l’apprendimento non supervisionato da parte dell’uomo.
Attualmente l’apprendimento dei sistemi di Machine Learning e Deep Learning avviene in prevalenza mediante data set etichettati in gran prevalenza dall’uomo, ma ciò secondo gli esperti costituirebbe un collo di bottiglia troppo netto quando si ragiona in termini di Intelligenza Artificiale Generale. Stuart Russell (University of California at Berkeley), ritiene senza mezze misure che gli elementi fondamentali per lo sviluppo dell’AGI: «non hanno niente a che vedere con i dataset più grandi o elaboratori più potenti».
Servirebbero quindi idee e metodi nuovi, ma mai dire mai. Secondo Russell, riconosciuto tra i principali esperti di Intelligenza Artificiale al mondo: «Mi piace sempre ricordare cosa accadde nel caso della fisica nucleare. L’11 settembre 1933 Ernest Rutherford ricevette pieno consenso sul fatto che non sarebbe mai stato possibile estrarre energia dagli atomi. La mattina seguente, leggendo quel “mai” sui giornali, un certo Leo Szilard trovò le motivazioni necessarie per intraprendere un duro percorso di ricerca, che lo portò a inventare la reazione nucleare a catena, soltanto sedici anni più tardi da un mai che pareva categorico».
Secondo Stuart Russell, un analogo percorso storico potrebbe ripetersi per l’Intelligenza Artificiale Generale e non avrebbe a suo avviso alcun senso mettersi a fare previsioni prive di fondamento sulle date in cui, quello che attualmente è un sogno, potrà finalmente divenire realtà. Il sentimento è che ci arriveremo: presto o tardi anche le macchine saranno in grado di ragionare e pensare come noi. Semplicemente, non occorre mettere premura.
Dalla fantascienza alla realtà: tra etica e rischi generali delle Intelligenze Artificiali autonome
La sfera di complessità che un sistema sintetico si ritrova ad affrontare quando entra nel merito della complessità del cervello umano è enorme, in particolare se si considerano gli aspetti legati alla natura del comportamento dell’uomo nel contesto reale, dove le variabili sono praticamente infinite. Quando si tratta di formare un sistema AI in merito ad argomenti che toccano la dimensione sociale, culturale ed economica, emergono inoltre varie considerazioni di carattere etico.
Come allenare in maniera eticamente condivisa un sistema di Intelligenza Artificiale? Cosa accade nella AGI, quando una macchina pretende di farlo da sola? Come sarà possibile rendere oggettivo tutto questo senza rischiare di perdere il controllo della situazione? A sentire gli esperti, i rischi di “creare un mostro” ci sarebbero, ma attualmente appaiono piuttosto remoti, per quanto sia corretto interrogarsi in merito. Non costituirebbero, in alcun caso, un aspetto prioritario al momento.
Secondo Barbara Grosz (Harvard University), esperta in language processing per la AI, si tratterebbe addirittura di un non problema, o di qualcosa che quando le tecnologie per sviluppare la AGI saranno mature, dovrà essere già stato affrontato e, si spera, almeno in buona parte risolto: «I presunti problemi legati all’etica della AGI – sostiene la Grosz – costituiscono al più una distrazione, in quanto abbiamo già – e affrontiamo ogni giorno – un gran numero di problemi di carattere etico sui sistemi di Intelligenza Artificiale attuali. Fare del terrorismo su ipotetici scenari futuri non aiuta la ricerca, anzi, la distrae dal suo principale obiettivo».
Tra gli aspetti terroristici cui fa riferimento Barbara Grosz rientra l’enfasi sulle capacità dei sistemi di Intelligenza Artificiale di prevalere sull’uomo, arrivando ad annientarlo grazie all’azione distruttiva dei robot. È quanto avviene nel caso dell’iconica Skynet, concepita da James Cameron per l’epopea di Terminator, partendo e rimanendo tuttavia nell’ambito dell’immaginario sci-fi ad uso e consumo cinematografico.
Rispetto alle minacce esistenziali che un giorno l’Intelligenza Artificiale Generale inevitabilmente prospetterà, molti esperti ritengono ben più concreti altri rischi legati all’innovazione tecnologica, come le diseguaglianze economiche che ne derivano o la dirompente automazione nelle tecnologie belliche, che potrebbe agevolare l’avanzata dei conflitti a livello globale.
Oltre i timori reverenziali: l’alba di una nuova Intelligenza Artificiale Generale
Quanto espresso nel precedente paragrafo troverebbe riscontro anche negli studi di Nick Bostrom, autore del celeberrimo «Superintelligence: Path, Dangers and Strategies” (Oxford, 2016), nonché inesauribile fonte di ispirazione per l’influente dialettica di Elon Musk. Secondo il celebre filosofo di stanza ad Oxford: “Il problema non è dovuto al fatto che l’AGI possa odiarci o dimostrarci risentita qualora la dovessimo schiavizzare, sviluppando all’improvviso una coscienza ribelle, quanto piuttosto al fatto che potrebbe concentrarsi su obiettivi che differiscono rispetto a quelli che noi realmente vogliamo raggiungere».
L’apprensione di Bostrom è nell’interrogarsi sull’effettiva capacità di controllo su sistemi così evoluti, piuttosto che sulle minacce che le applicazioni dell’Intelligenza Artificiale Generale potrebbero costituire per l’uomo. Si tratta di un punto di vista condivisibile, se si considera che, sia a livello logico che a livello tecnologico, la possibile minaccia potrebbe costituire eventualmente una conseguenza di una eventuale perdita di controllo.
Ciò avrebbe senso anche oltre la dimensione filosofica delle Intelligenze Artificiali. Quanto ci attende nei tempi più prossimi è qualcosa di differente: trovare nuovi approcci che possano finalmente aprire nuove strade di ricerca per la AGI, uscendo dal binario morto dell’aggiungere ulteriore complessità a sistemi che si rivelano puntualmente incapaci di risolverla con successo.
Un possibile punto di svolta è dato dalla recente pubblicazione da parte di DeepMind del paper “Reward is enough“, che propone un approccio all’Intelligenza Artificiale Generale più semplice rispetto a quello tradizionale, sfruttando i principi del Reinforcement Learning, mirato a sviluppare un’AI sulla base della progressiva massimizzazione della ricompensa, coinvolgendo aspetti quali la conoscenza, l’apprendimento, la percezione, l’intelligenza sociale, il linguaggio, l’imitazione e la generalizzazione.
Espresso in termini il più possibile gergali, quanto propone DeepMind è di implementare un approccio umile e bottom-up nei confronti della AGI, basato sulla capacità delle AI di imparare dai propri errori (metodo trial and error) per sviluppare un comportamento cosciente basato sulla massimizzazione della ricompensa in ognuno dei singoli aspetti precedentemente descritti. Secondo DeepMind, ampliandone sempre più la portata nel tempo, tale approccio, che vanta ormai una buona tradizione per i problemi specifici, potrebbe costituire finalmente una soluzione credibile anche per l’Intelligenza Artificiale Generale.s