Il nuovo rapporto “AI Index Report 2023” della Stanford University evidenzia i progressi di una tecnologia nelle mani di poche imprese che possono bilanciarne rischi e opportunità

L’AI Index Report 2023 rilasciato dalla Stanford University ha evidenziato il crescente predominio degli attori del settore hi-tech rispetto al mondo accademico e al governo nell’implementazione e nella salvaguardia delle applicazioni di intelligenza artificiale.  Uno scenario da un lato roseo per velocità e qualità degli sviluppi ma dall’altro complesso, per l’assenza di una legislazione globale forte che possa regolamentare, chiaramente, i progressi dell’IA. Non a caso, la stessa questione del Garante italiano che ha chiesto a OpenAI di fornire maggiori dettagli su come usa i dati degli utenti del servizio a pagamento, Plus, è scaturita nella decisione dell’organizzazione di mettere offline il chatbot per noi italiani. Una resa che alla base potrebbe nascondere proprio la mancanza di solide fondamenta su una corretta gestione delle informazioni.

L’AI Index Report 2023

Ad ogni modo, l’AI Index Report 2023, compilato da ricercatori della Stanford University e da nomi del calibro di Google, Anthropic e Hugging Face, suggerisce che il mondo dell’IA sta entrando in una nuova fase di sviluppo. Se, per molti anni, il mondo accademico ha aperto la strada all’innovazione di sistemi di intelligenza artificiale, ora l’industria ha preso saldamente il sopravvento. “Nel 2022, c’erano 32 significativi modelli di machine learning prodotti dal settore rispetto ai soli tre prodotti dal mondo accademico“, afferma il report. Ciò è dovuto principalmente alle crescenti richieste di risorse, in termini di dati, personale e potenza di calcolo, necessarie per creare tali applicazioni. Nel 2019, ad esempio, OpenAI ha creato GPT-2, una delle prime modalità di linguaggi di grandi dimensioni, o LLM, la stessa classe di applicazione utilizzata per alimentare ChatGPT e il chatbot Bing di Microsoft. GPT-2 e contiene 1,5 miliardi di parametri (una metrica che tiene traccia delle dimensioni e della relativa sofisticazione di un modello) mentre PaLM, il concorrente di Google in quanto a linguaggio, contiene 540 miliardi di parametri, il che lo rende 360 volte più grande di GPT-2.  I crescenti requisiti di risorse per lo sviluppo dell’IA spostano decisamente l’equilibrio di potere a favore degli attori aziendali. Molti esperti nel mondo dell’intelligenza artificiale temono che gli incentivi del mondo degli affari porteranno a risultati pericolosi, visto che le imprese potrebbero dedicare maggiori risorse, a livello economico, per lanciare servizi basati su IA, prima che i regolatori capiscano come regolamentarli.

Incidenti di percorso

Gli autori dell’AI Index Report 2023 osservano come sia aumentato anche il numero di “incidenti” di uso improprio etico dovuti all’AI. Il riferimento è alla creazione di contenuti deepfake, a casi di arresti erronei, causati da un software di riconoscimento facciale difettoso, spesso afflitto da pregiudizi razziali, ma anche ai conosciuti flussi di stesura di documenti e testine tramite chatbot, prima che queste funzionalità venissero bloccate. Man mano che gli strumenti di intelligenza artificiale diventano più diffusi non sorprende che possa aumentare anche il numero di errori e casi d’uso dannosi. Per i ricercatori della Stanford University, di per sé non è indicativo di una mancanza di volontà da parte delle big tech di governare il cambiamento ma alcuni elementi suggeriscono che la tendenza di aziende come Microsoft e Google a tagliare i loro team di sicurezza ed etica dell’IA, possano avere forti conseguenze sul rallentamento di uno sviluppo biunivoco: da un lato la tecnologia, dall’altro l’analisi di rischi e benefici. Perdere questo equilibrio molto sensibile porterebbe una delle due parti a prevalere, scegliendo uno sviluppo rapido, ma non consapevole, oppure con troppi limiti, dunque poco utile. 

AI Index Report 2023, le differenze di vedute

L’AI Index Report 2023 rileva che l’interesse per la regolamentazione dell’IA da parte di legislatori e responsabili politici è in aumento. Un’analisi dei documenti legislativi in ​​127 paesi ha rilevato che il numero di progetti di legge contenenti la frase “intelligenza artificiale” è aumentato da un solo approvato nel 2016 a 37 nel 2022. Negli Stati Uniti, sede dell’Università, si è passati da cinque proposte su progetti di legge nel 2015 a 60 nel 2022. Tra gli altri focus della ricerca, c’è quello sugli investimenti privati nell’IA, diminuiti del 26,7% nel 2022. Inoltre, l’addestramento di grandi modelli di intelligenza artificiale ha costi ambientali importantiUn documento del 2022 stima che l’addestramento di un grande modello di linguaggio AI chiamato BLOOM abbia emesso 25 volte più carbonio di quello di un passeggero in volo da New York a San Francisco e ritorno. In confronto, si stima che GPT-3 di OpenAI abbia un costo di carbonio 20 volte superiore a quello di BLOOM. Ma l’intelligenza artificiale può potenzialmente aiutare a ridurre le emissioni: nel 2022, la sussidiaria di Google DeepMind ha creato un sistema di intelligenza artificiale, chiamato BCOOLER, che ha ridotto il consumo energetico del 12,7% in un esperimento di tre mesi nei data center dell’azienda ottimizzando le procedure di raffreddamento. 

Infine, la Cina: i cinesi sono più fiduciosi nei confronti dell’intelligenza artificiale rispetto agli americani. Un sondaggio Ipsos nel 2022 ha rilevato che il 78% degli intervistati cinesi concorda con l’affermazione secondo cui “i prodotti e i servizi che utilizzano l’IA hanno più vantaggi che svantaggi. I cittadini cinesi sono stati i più entusiasti dell’intelligenza artificiale, seguiti dagli intervistati in Arabia Saudita (76%) e India (71%). Gli statunitensi sono stati tra i meno entusiasti, con solo il 35% d’accordo con l’affermazione di cui sopra. L’Italia si pone a metà, con il 50% di fiduciosi e il 50% di dubbiosi.

Scritto da:

Antonino Caffo

Giornalista Leggi articoli Guarda il profilo Linkedin