Non sono le linee guida definite dai Governi che faranno sì che, in futuro, vengano messi a punto sistemi di intelligenza artificiale etici. E il problema non è solo di coloro che sviluppano gli algoritmi. È una questione più complessa, che richiede un approccio multidisciplinare e in cui tutti gli attori - provider, aziende, utenti, Istituzioni - hanno un ruolo e responsabilità precise.

L’intelligenza artificiale non è buona o cattiva in sé: dipende dall’uso che se ne fa” si legge nel documento che contiene le “Proposte per una strategia italiana per l’intelligenza artificiale”, elaborato dal gruppo di esperti del MISE – Ministero dello Sviluppo Economico. 

Ma è proprio cosi? È soltanto il tipo di “utilizzo” a determinare la bontà oppure, al contrario, la malvagità dell’intelligenza artificiale? E, per “utilizzo”, si intendono solo e sempre azioni intenzionali, volontarie? E chi la utilizza, chi sono gli attori? Il tema del rapporto tra intelligenza artificiale ed etica è assai complesso e richiede più analisi. Tante quante sono le sue sfaccettature.

E se è vero che, nell’aprile del 2019, l’Unione Europea ha elaborato un proprio Codice etico in materia di AI – Artificial Intelligence, con linee guida in merito al suo utilizzo e al suo sviluppo, rimarcando che i sistemi di intelligenza artificiale devono avere al centro l’uomo e devono essere al servizio del bene comune, questo sembra non essere sufficiente e molte questioni rimangono aperte. Dall’attribuzione delle responsabilità morali e legali per le conseguenze non etiche dell’intelligenza artificiale alla funzione dell’etica by Design, ai rischi dovuti a un utilizzo non doloso dell’AI.

Ne abbiamo parlato con Mariarosaria Taddeo, filosofa, esperta di etica delle tecnologie digitali, ricercatrice senior presso l’Internet Institute dell’Università di Oxford e vicedirettore del Digital Ethics Lab dello stesso Ateneo.

Professoressa, qual è, oggi, il livello di attenzione verso i temi legati all’etica dell’intelligenza artificiale?

C’è stata, negli ultimi dieci anni, in particolare, un’attenzione crescente verso l’etica dell’AI. Man mano che venivano sviluppati sempre nuovi algoritmi, e che venivano usati in maniera sempre più pervasiva, abbiamo iniziato a renderci conto delle loro conseguenze eticamente problematiche. Abbiamo toccato con mano, ad esempio, il fatto che molte delle decisioni che un sistema di intelligenza artificiale suggerisce, rimangono non attribuite in termini di responsabilità. È difficile individuare chi è responsabile, sia moralmente sia legalmente, quando qualcosa va storto nell’utilizzo di un sistema di AI. E abbiamo capito che è un problema l’avere a che fare con una tecnologia, in cui la tracciabilità dei sistemi e la documentazione relativa ai dati utilizzati, è spesso impossibile. Ecco, man mano che tali questioni diventavano sempre più pressanti, la domanda su come affrontarle è divenuta centrale, catalizzando anche l’interesse da parte di sviluppatori e ingegneri. Si è creata, dunque, una certa sensibilità attorno al tema. Ma la strada è molto lunga.

Che cosa rende difficile l’attribuzione delle responsabilità morali e legali per le conseguenze non etiche dell’intelligenza artificiale?

Siamo abituati a pensare alla responsabilità morale come a quella responsabilità che si attribuisce a un agente che ha eseguito un’azione. Ma quando parliamo di intelligenza artificiale, parliamo anche di sistemi distribuiti, di più algoritmi sviluppati da aziende diverse e che poi vengono integrati. Pensiamo, ad esempio, a un’auto a guida autonoma e ai numerosi algoritmi e alle tecnologie che la compongono. Se qualcosa non funzionasse, se accadesse un incidente e ci fossero una o più vittime, di chi sarebbe la colpa? Non ci sarebbe un solo attore responsabile, ma decine e decine. Questo rende estremamente complessa l’attribuzione di responsabilità. E al momento, non abbiamo ancora un modello concettuale che mappi il fenomeno.

Una risposta ai problemi etici dell’AI proviene dall’Etica by Design. Ma si tratta di una risposta sempre esaustiva?

Sviluppare tecnologie che siano eticamente valide, è una buona soluzione, certo. Ma rappresenta “una parte” della soluzione, non “la” soluzione. Il fatto di implementare, già in fase di progettazione e sviluppo di un sistema di AI, precise misure volte a risolvere in partenza i problemi etici che potrebbero derivare dal suo utilizzo, ci permette di intervenire solo su questioni che già conosciamo. L’Etica by Design, infatti, è una soluzione che non tiene conto di quelle che sono le conseguenze involontarie, non intenzionali, legate all’uso dell’AI. Se i rischi connessi a un uso doloso dell’Intelligenza Artificiale derivano da un utilizzo intenzionalmente guidato da scopi illegali – tra cui, ad esempio, attacchi informatici, manipolazione dell’opinione pubblica attraverso fake news e campagne di disinformazione – i rischi connessi a un suo utilizzo non doloso, tra cui il pregiudizio non intenzionale e la discriminazione, proprio perché non controllabili, sono più insidiosi.

Qual è l’origine dei rischi correlati a un utilizzo non doloso dell’intelligenza artificiale?

Si tratta di quei rischi che derivano dalla natura stessa dell’AI, la prima tecnologia, nella storia dell’umanità, in grado di apprendere autonomamente. È capace di adattarsi perfettamente all’ambiente, all’interno del quale sviluppa quei comportamenti che rispondono meglio all’ecosistema in cui si trova. E il problema sta proprio qui: trattandosi di un agente autonomo che impara, non siamo in grado di prevederne i comportamenti involontari non etici.

Possiamo fare alcuni esempi di comportamenti non etici (e involontari) da parte di sistemi di AI – Artificial Intelligence?

L’esempio più eclatante è quello del software progettato da Microsoft per simulare conversazioni, lanciato su Twitter e su altre piattaforme social alcuni anni fa. Tay, questo il nome del chatbot, era stato programmato per imparare a chattare ripetendo frasi usate dagli utenti, per poi rispondere in modo autonomo. Ebbene, il sistema, in poche ore, è diventato razzista, sessista e xenofobo, ma non perché il software fosse di per sé cattivo, ma semplicemente perché aveva raccolto dati e commenti su Twitter. E la maggior parte di quei dati e di quei commenti erano, evidentemente, razzisti, sessisti e xenofobi. Insomma, il sistema aveva rigurgitato quello che aveva imparato. Un altro esempio, invece, è dato dall’utilizzo di una soluzione di AI in alcuni Stati americani, per supportare le donne in gravidanza prossime al parto. Il sistema era stato creato e allenato su dati, prevalentemente, di donne caucasiche, le cui caratteristiche, dal punto di vista fisiologico, sono diverse rispetto a quelle delle donne afro-americane e ispaniche. Particolare, questo, che avrebbe potuto creare problemi a queste ultime, in quanto i loro profili clinici non erano in linea con il sistema AI. Anche in questo caso, da una buona intenzione di partenza, si è passati a un risultato decisamente negativo, con il rischio di un danno grave sotto il profilo psico-fisico dei soggetti coinvolti.

Quali strumenti è possibile mettere in campo contro questi rischi?

Parlerei di un insieme di strumenti. L’approccio etico by design, certo, ma anche un training per sviluppatori e ingegneri sulle questioni etiche legate all’AI, oltre all’acquisizione di una maggiore consapevolezza da parte degli utenti. E poi un terzo elemento, ovvero il monitoraggio, il controllo costante di queste tecnologie, per capire quando stanno deragliando rispetto ai valori che vedono al centro la persona. Non è solo un problema di regolamentazione che viene dall’alto, di linee guida definite dai Governi. Non sono queste che faranno sì che, in futuro, vengano sviluppati sistemi di intelligenza artificiale etici. E il problema non è solo di coloro che sviluppano le AI. È una questione più complessa, che richiede un multi-stakeholders approach, a partire da provider, aziende, utenti e istituzioni e in cui tutti hanno un ruolo e delle responsabilità precise, più o meno grandi.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin