Se il dibattito sull’equità, la responsabilità e la trasparenza dell’AI non si arresta, le tematiche sul tavolo si arricchiscono di nuovi contenuti, come emerge guardando al programma della prossima edizione della conferenza internazionale ACM FAccT sull'etica delle tecnologie digitali.
Il dibattito sull’etica dell’intelligenza artificiale e, più in particolare, sulla trasparenza algoritmica, sull’equità delle tecniche che fanno capo al machine learning, sul pregiudizio insito nei dati con i quali addestriamo i sistemi AI, è un lavoro in corso.
Come abbiamo avuto modo di osservare nel primo dei Quaderni di Tech4Future – contenente una raccolta di articoli in tema di etica e intelligenza artificiale, pubblicati sulla nostra testata giornalistica nel corso degli ultimi due anni – iniziato in sordina una decina di anni fa con lo sviluppo e l’immissione sul mercato di sempre nuovi algoritmi, destinati all’applicazione in un numero, via via, più ampio di settori, non si è più fermato. È ormai parte del paradigma dell’AI, della sua dialettica.
Non manca, in materia, l’impegno delle Istituzioni, che – mentre scriviamo (16 giugno 2022) – vede in corso l’iter legislativo che accompagna l’AI Act, proposto dalla Commissione Europea al fine di garantire, negli Stati dell’Unione, «sistemi di intelligenza artificiale sicuri e trasparenti».
E, a livello internazionale, prosegue – ultimo in ordine di tempo – l’impegno dell’UNESCO per lo sviluppo di un’AI etica anche attraverso una serie di iniziative di carattere educativo, tra cui la sua sezione Bioethics and Ethics of Science and Technology, arricchitasi, recentemente (aprile 2022), di un nuovo contenuto multimediale dal titolo “Shaping AI through cultural diversity“, teso a promuovere il valore dell’inclusività nel futuro dell’artificial intelligence.
Sul versante accademico, il dibattito è – oggi – dichiaratamente pluridisciplinare con, attorno al tavolo, informatici, tecnici AI, filosofi, eticisti, educatori, esperti di diritto e di statistica, accomunati dall’impegno nell’indagare il profondo impatto che gli algoritmi di intelligenza artificiale hanno, quotidianamente, sulle nostre vite.
«Dobbiamo lavorare insieme allo sviluppo di approcci tecnici e di quadri etici, affinché la tecnologia sia “a servizio” delle persone in un modo socialmente responsabile e trasparente» esorta Michael Kearns, docente di Computer and Information Science presso l’Università della Pennsylvania, nonché copresidente del programma della Conferenza internazionale ACM FAccT (Fairness Accountability and Transparency) sull’etica delle tecnologie digitali, promossa dall’Association for Computing Machinery (ACM), quest’anno di scena in modalità ibrida (online e in presenza) a Seul, in Corea del Sud, dal 21 al 24 giugno 2022.
A pochi giorni dall’inizio dei lavori, abbiamo curiosato nel ricco calendario degli eventi previsti durante la manifestazione, cogliendo le riflessioni degli esperti attorno a quelle che si delineano come tematiche emergenti in seno al dibattito sull’etica dell’intelligenza artificiale. Eccone una rapida anteprima.
Etica dell’intelligenza artificiale: verso il Natural Language Processing basato sul “valore”
Colpisce, in tema di etica e intelligenza artificiale, il pensiero di Meeyoung Cha – esperta di scienza dei dati, docente presso il Korea Advanced Institute of Science and Technology (KAIST) e tra i relatori dell’ACM FAccT – quando parla di «corsa agli armamenti dell’IA» da parte di molte aziende a livello globale, a suo avviso in competizione nello sviluppare – in particolare – modelli di Natural Language Processing (NLP) «sempre più complessi, sia per quanto riguarda l’elaborazione del linguaggio scritto che l’elaborazione del linguaggio parlato, addestrati sulla base di dataset sempre più grandi».
Finora – osserva la docente (e qui emerge il suo pensiero critico) – questi modelli pre-addestrati si sono dimostrati estremamente potenti nel consentire alle macchine l’apprendimento di sempre nuove abilità linguistiche in tempi brevi. Ma «da un grande potere, derivano grandi responsabilità» puntualizza.
Se stiamo tutti lavorando a un’intelligenza artificiale responsabile, affidabile, equa e “spiegabile” (Explainable AI), ci aspettiamo che «anche le tecnologie di elaborazione del linguaggio naturale basate su questi grandi modelli linguistici pre-addestrati si allineino a tali valori, in quanto hanno un impatto diretto sulle nostre vite».
Oggi, le applicazioni di sistemi NLP, nel mondo, sono molteplici, ricorda Meeyoung Cha. Si va dalle risposte standard alle domande degli utenti al riassunto di articoli di giornale, dalle traduzioni automatiche alla classificazione di testi in categorie distinte, fino alle chat con i clienti. Ne siano quotidianamente sommersi.
Da qui, il proposito della docente di sviluppare sistemi di Natural Language Processing in grado di aderire ai valori umani di inclusione, uguaglianza e pari diritti:
«Propongo che molti compiti dei sistemi di elaborazione del linguaggio naturale – dalla classificazione dei testi scritti e parlati alla loro generazione – producano risultati secondo principi definiti dall’essere umano, con prestazioni di più alto livello in termini di equità e di spiegabilità»
Tra le esercitazioni in programma durante il suo intervento, esperimenti sulla classificazione del sessismo e la presentazione di un sistema NLP che riepiloga le notizie filtrando i pregiudizi di razza e di genere, in modo da fornire al lettore una prospettiva neutra su fatti ed eventi.
L’ascesa dell’Hypersocial Artificial Intelligence
In tema di etica e intelligenza artificiale, Mariano-Florentino Cuéllar – presidente del Carnegie Endowment for International Peace (tra i più antichi think tank USA) – durante la Conferenza si focalizzerà sui potenziali rischi correlati a quella che definisce “intelligenza artificiale ipersociale” (Hypersocial Artificial Intelligence), «fatta di sistemi AI sempre più sofisticati, in grado di modellare, di plasmare relazioni sociali complesse “tra” e “con” gli esseri umani, in una varietà di contesti sociali».
La sua linea di pensiero trae spunto dalla considerazione in base alla quale le infrastrutture tecnologiche stanno ormai plasmando sempre di più la nostra vita sociale, data la convergenza tra tecniche di machine learning, piattaforme Internet, crescente potenza di calcolo e vaste mole di dati. E, nei prossimi anni, sono attesi ulteriori progressi dei sistemi AI e un maggiore dispiegamento di questi nelle sfere sociali, economiche e politiche, fa notare Cuéllar.
«Alla fine potremo interagire con l’intelligenza artificiale e dipendere da questa, che probabilmente diventerà sempre più incisiva in quei domini sociali fatti di conversazioni, di deliberazioni collettive, di processi decisionali su questioni cariche di valore».
Ma, al di là dei possibili impatti dell’Hypersocial Artificial Intelligence sulla nostra vita quotidiana, quali compromessi dovremmo tenere a mente nell’introdurre l’AI ipersociale nella nostra rete di relazioni umane? E, ancora, l’AI ipersociale può arrivare a influire sulle dinamiche geopolitiche?
Sono queste le domande che Mariano-Florentino Cuéllar pone a se stesso e a tutti noi e in merito alle quali darà inizio a una riflessione collettiva durante la Conferenza di Seul. In particolare:
«L’Hypersocial Artificial Intelligence potrebbe indurci a riflettere sul futuro stesso dell’AI, considerando quelle visioni che attingono dal lavoro di studiosi i quali hanno dato la priorità all’intelligenza artificiale come mezzo per ottimizzare il processo decisionale e a quelle che, invece, attingono dal pensiero di coloro che si sono concentrati maggiormente sulla ricerca sull’AI come dominio intellettuale, per comprendere le complessità del discorso umano e delle scelte di valore»
Focus sul concetto di “intersezionalità” e sulla governance algoritmica della sfera pubblica
In materia di etica e tecnologie digitali, un’altra tematica emergente – rileva James Foulds, professore presso il Dipartimento di Sistemi Informativi dell’Università del Maryland – poggia sul concetto di “intersezionalità”, divenuta un’importante area di ricerca nel rilevamento e nella mitigazione del bias algoritmico:
«Spesso i modi in cui la discriminazione si manifesta nei sistemi sociotecnici possono essere nascosti quando si valuta l’equità su caratteristiche demografiche distinte, senza considerare come identità ed esperienze potrebbero intersecarsi in modi unici»
Nel suo lavoro sull’intersezionalità, Kimberlee Crenshaw – attivista e giurista statunitense che, nella definizione che ne dà wikipedia, nel 1989 introdusse il termine per descrivere la sovrapposizione di diverse identità sociali e le relative possibili particolari discriminazioni, oppressioni o dominazioni – ha evidenziato i modi in cui la legge antidiscriminazione degli Stati Uniti – ricorda Foulds – «non è riuscita a proteggere le donne nere dalla discriminazione in contesti in cui la loro esperienza intersezionale non era solo la somma di razzismo e sessismo».
Sulle difficoltà nel trattare tale argomento, si soffermerà il docente, esplorando – in particolare – diversi possibili approcci per implementare l’intersezionalità nell’equità algoritmica.
Daphne Keller – esperta di regolamentazioni delle piattaforme social e di diritti degli utenti sul Web – si sofferma, invece, sul concetto di governance algoritmica della sfera pubblica, partendo dal presupposto in base al quale i media hanno sempre curato la sfera pubblica in cui operano, ma «nell’era della partecipazione di massa ai social media, tale cura non riguarda solo la selezione dei contenuti, ma anche l’intervento sulle relazioni sociali da cui emerge un certo contenuto, plasmando non solo ciò che possiamo vedere e leggere, ma anche il modo in cui ci relazioniamo gli uni con gli altri come membri di una comunità politica».
Questa governance – sottolinea Keller – è sempre più algoritmica: i sistemi di raccomandazione determinano quale discorso amplificare, cosa ridurre e (spesso con una supervisione umana) cosa rimuovere:
«Gli impatti sociali della governance algoritmica della sfera pubblica sono molto contestati. L’importanza di utilizzare questi strumenti in modo più efficace per realizzare i nostri ideali sociali e politici sicuramente meno. Ebbene, è arrivato il momento di avviare un dibattito in materia e di proporre percorsi normativi e tecnologici»