Diversi scienziati della Stanford University hanno delineato le prospettive aperte dalla Generative AI. I benefici potenziali sono molteplici: occorre lavorare per colmare lacune ed evitare pericoli
Quale sarà l’impatto futuro della Generative AI? Ha conosciuto una fama sorprendente ed è motivo di dibattito a livello mondiale. Qualche esempio: per il World Economic Forum è “un punto di svolta cui società e industria devono farsi trovare pronte”; secondo il Financial Times “i sistemi come ChatGPT possono produrre contenuti su ordinazione, minacciando non solo i posti di lavoro ma anche un’ondata di disinformazione”; il New York Times si pone un quesito: “la Generative AI è qui. Chi dovrebbe controllarla?”.
Mentre le Big Tech stanziano investimenti considerevoli sullo sviluppo della intelligenza artificiale generativa, c’è chi si pone questioni differenti in termini di benefici per il singolo individuo e le relative insidie. CNBC ha messo in evidenza i risultati di un sondaggio della Monmouth University secondo cui il 55% degli americani è preoccupato che l’AI nel suo complesso possa rappresentare un rischio per la razza umana.
Anche nel mondo della scienza la questione è al centro di riflessione. Uno dei documenti più interessanti e recenti a questo proposito è “Generative AI: Perspectives from Stanford HAI”, analisi condotta da scienziati della Stanford University, membri della Stanford HAI (Human-centered Artificial Intelligence).
Quanto emerge è un quadro variegato, che delinea incredibili opportunità, ma anche considerevoli rischi. Nel mezzo c’è l’uomo e la sua capacità di impiegare la tecnologia nel migliore dei modi, non abusandone o facendosi sostituire da essa.
Takeaway
Il futuro della Generative AI in medicina, un aiuto per medici e pazienti
Per comprendere il futuro della Generative AI si deve partire dalla sua origine e dal grande valore rappresentato per il mondo scientifico. Come afferma Fei-Fei Li, docente di computer science e co-direttrice dello Stanford HAI, «dotare le macchine di capacità generative è stato un sogno per molte generazioni di scienziati dell’AI. C’è una lunga storia di tentativi algoritmici di modelli generativi con vari gradi di progresso». Nel caso specifico della percezione visiva, oggetto di studi della scienziata e creatrice di ImageNet, la stessa ricorda che nel 1966, i ricercatori del MIT svilupparono il “Summer Vision Project”, pietra miliare nel campo della visione artificiale e della generazione di immagini.


Dal passato al futuro, ecco il possibile impiego dell’intelligenza artificiale generativa per aumentare la nostra visione: pensando ai decessi causati da errori medici (250mila morti l’anno solo negli USA), i modelli di Generative AI potrebbero aiutare gli operatori sanitari a individuare potenziali problemi altrimenti irrisolti. «Inoltre può creare versioni simulate di dati rari per addestrare ulteriormente i modelli di intelligenza artificiale o gli stessi operatori sanitari».
Su quest’ultimo aspetto si lega un altro possibile impiego della Generative AI in medicina: la produzione di dati sintetici o, più precisamente, di “pazienti sintetici”. Così li chiama Russ Altman docente di bioingegneria, genetica, medicina e data science biomedica. La sua riflessione parte dalla difficoltà di ottenere un gran numero di pazienti negli studi clinici e dalla necessità di disporre di un gruppo realistico di pazienti che non ricevono una terapia per confrontare i risultati con quelli che la ricevono. Questa è un’area all’interno della ricerca biomedica in cui la Generative AI offre grandi opportunità. «Essa potrebbe rendere più efficienti gli studi clinici creando pazienti di controllo “sintetici” e potrebbe persino generare risultati virtuali per descrivere cosa succede a questi pazienti se non vengono curati». I ricercatori biomedici potrebbero quindi contare su un numero di risultati più ampio e ciò potrebbe rendere le sperimentazioni potenzialmente più contenute, più veloci e meno costose, e quindi portare a progressi più rapidi nella fornitura di nuovi farmaci. Non solo: nel contesto della didattica medica, l’intelligenza artificiale generativa «potrebbe permetterci di creare pazienti molto realistici e consentire agli studenti di medicina di imparare a rilevare le malattie. La capacità dei modelli generativi di produrre molteplici variazioni su un tema potrebbe consentire agli studenti di visionare più casi della stessa malattia».
Generative AI per la fisica quantistica, per l’energia e per la neurobiologia
Ma nel futuro della Generative AI non ci sono solo le applicazioni in campo medico. I modelli generativi di intelligenza artificiale sono pronti a fornire notevoli intuizioni sulla natura stessa, attraverso la biologia e la fisica, con ampie implicazioni per la risoluzione di problemi complessi che hanno molteplici implicazioni. Pensiamo ai modelli predittivi tridimensionali delle proteine, in grado di permettere l’esplorazione di strutture tridimensionali, aiutando così nella ricerca di nuove proteine utilizzabili per la creazione di farmaci innovativi ed efficaci. «Generative AI sta iniziando solo ora a essere esplorata nel regno quantico, consentendoci di modellare in modo efficiente stati di elettroni fortemente correlati, potendo far progredire potenzialmente la nostra comprensione della scienza dei materiali e della chimica quantistica», evidenzia Surya Ganguli, professore associato di fisica applicata; Direttore associato di Stanford HAI. Questi progressi potrebbero a loro volta portare alla creazione di nuovi materiali e catalizzatori in grado di far compiere passi avanti nella produzione e stoccaggio dell’energia in modo efficiente.
I modelli di intelligenza artificiale generativa trovano altre interessanti spazi applicativi: molti neuroscienziati e scienziati cognitivi hanno confrontato le rappresentazioni neurali sia delle deep neural network che dei modelli generativi di intelligenza artificiale con le rappresentazioni neurobiologiche negli esseri umani e negli animali, trovando spesso sorprendenti somiglianze in molte aree del cervello. «La struttura spesso simile delle soluzioni artificiali e biologiche ai compiti generativi suggerisce che potrebbero esserci alcuni principi comuni che governano il modo in cui i sistemi intelligenti, biologici o artificiali, modellano e generano dati complessi», afferma ancora Ganguli.
Rischi e opportunità: tutelare le persone, guardando ai vantaggi
Nessuno di loro, nel delineare il futuro della Generative AI, nasconde i potenziali rischi connessi: è necessario porre consapevolezza e affrontare i punti deboli. Come mette in luce Landay: «l’interfaccia utente per l’informatica è stata piuttosto statica negli ultimi 30 anni. Nei prossimi 5-10 anni assisteremo a una rivoluzione nell’interazione uomo-computer. I cambiamenti sostenuti dall’intelligenza artificiale generativa stanno iniziando solo ora a essere immaginati da designer e tecnologi. Ora è il momento di garantire che stiamo pensando in modo critico all’utente, alla comunità e agli impatti sulla società».
Gli effetti della Generative AI non sono necessariamente predeterminati. «Dipendono invece dalle scelte di tecnologi, manager, imprenditori, politici e molti altri», rileva Erik Brynjolfsson, direttore dello Stanford Digital Economy Lab. Lo stesso centro di ricerca sta catalogando l’elenco delle attività economiche che potrebbero essere interessate dall’AI generativa e stimando quale quota dell’economia rappresentino. La Generative AI promette di automatizzare o aumentare molte delle migliaia di attività svolte nell’economia che in precedenza potevano essere svolte solo dagli esseri umani. Non solo: «nei casi in cui essa può costituire un complemento al lavoro, in particolare per i lavoratori della conoscenza e la classe creativa, i salari potrebbero aumentare anche con l’aumento della produzione», segnala lo stesso Brynjolfsson.
Sempre restando nel mondo del lavoro, Christopher D. Manning, professore di linguistica e di informatica, oltre che direttore dello Stanford AI Lab, pone un altro motivo di riflessione, focalizzando l’attenzione sul principale mezzo di comunicazione: il linguaggio umano, in forma orale e scritta. I modelli di linguaggio generativo offrono un’enorme opportunità per reinventare il modo in cui il lavoro viene svolto all’interno di tutti i tipi di aziende e settori: il marketing, le vendite, lo sviluppo del prodotto, l’assistenza clienti e persino le risorse umane cambieranno. I recenti modelli di IA generativa sono sufficientemente validi da offrire un enorme aiuto, e quindi potenziali risparmi sui costi in un contesto aziendale (anche se, va detto, molte aziende stanno andando verso modelli di cosiddetta Private AI).
C’è anche un potenziale importante che le l’AI generativa alla sfera legale: «potrebbe aiutare le persone a preparare documenti legali, gli avvocati nella ricerca e scrittura legale e i giudici a migliorare l’accuratezza e l’efficienza di forme di giudizio dolorosamente lente» illustra Daniel E. Ho, docente di diritto presso la Stanford Law School. Ricorda come ChatGPT sia stato già usato in un procedimento giuridico in Colombia. Tuttavia, affidarsi a un chatbot come sostituto della ricerca legale pone gravi problemi all’etica professionale e, in definitiva, allo stato di diritto.
Scrivere è pensare: il dilemma etico e didattico sul futuro della Generative AI
Come abbiamo visto, non c’è campo in cui il futuro della Generative AI non possa portare benefici, ma non si deve dimenticare la necessità di affrontare anche le relative sfide e criticità tecnologiche, etiche e sociali.
Una di queste è legata all’istruzione. «L’ultima rivoluzione nell’intelligenza artificiale sono i nuovi potenti strumenti di scrittura automatica. In contesti professionali, questi modelli possono aumentare le prestazioni umane: riscrivere le e-mail dei nostri clienti in un tono più professionale, completare i nostri documenti o generare un rapporto sulle prestazioni annuali della nostra azienda. Tuttavia, in contesti educativi, in assenza di speciali considerazioni progettuali, questi modelli potrebbero minare le prestazioni e corrodere le nostre capacità creative», afferma Rob Reich, professore di scienze politiche; Direttore dello Stanford McCoy Family Center for Ethics in Society. Lo stesso pone una ulteriore riflessione: «le calcolatrici hanno dimostrato di promuovere la precisione, rimuovere parte del lavoro più noioso e rendere la matematica più piacevole per molti. ChatGPT non è come una calcolatrice. Perché? La qualità della tua scrittura non è solo una misura della tua capacità di comunicare; è una misura della tua capacità di pensare».
La capacità di scrivere esercita il pensiero; imparare a scrivere meglio è inseparabile dall’imparare a pensare meglio. Diventare un bravo scrittore e diventare un bravo pensatore sono la stessa cosa. Quindi, se i modelli di testo stanno scrivendo, allora gli studenti non stanno imparando a pensare. Inizialmente, la nuova ondata di Generative AI è stata trattata con cautela e preoccupazione.
Ma mentre la corsa alla commercializzazione della tecnologia è iniziata, quelle precauzioni responsabili non sono state adottate in tutto il settore. Negli ultimi sei mesi sono proliferate versioni commerciali facili da usare di questi potenti strumenti di intelligenza artificiale, molti dei quali senza il minimo limite o restrizione.
Quindi, come potremmo prevenire questo disastro in atto nell’istruzione? «In primo luogo, gli sviluppatori di intelligenza artificiale e i responsabili politici devono distinguere tra l’importanza dei modelli di base in contesti educativi rispetto a quelli professionali. Quindi, devono lavorare insieme, insieme agli attori del settore, per sviluppare norme comunitarie», conclude Reich.