È buona l’intelligenza artificiale che fa del bene all’intero ecosistema, di cui l’uomo non è che una parte

In tema di tecnologie, oggi, gli eticisti sono alle prese con dubbi e interrogativi che vanno oltre il solo essere umano, per abbracciare questioni di urgenza globale relative al pianeta e all’ecosistema.

TAKEAWAY

  • Quello che è cambiato, nell’ultimo anno, in seno al dibattito sull’etica dell’intelligenza artificiale, è la visione che si ha della tecnologia, la quale, oggi vede al centro il pianeta e non più solo l’uomo.
  • L’AI, inoltre, ha allargato il suo raggio di azione, ponendosi al servizio di cause dal respiro universale, come i 17 Obiettivi dell’Agenda 2030, inerenti – tra le tante tematiche a livello globale – anche alle questioni relative allo sviluppo economico e sociale, al cambiamento climatico e alla tutela dell’ambiente.
  • Ecco, allora, che parlare di etica dell’AI, in questa fase, riferita a progetti di tale natura e rilevanza, significa porsi una serie di domande sugli obiettivi ai quali tali progetti rispondono e sulle eventuali problematiche nel conseguirli.

A un anno e mezzo dalla prima grave crisi pandemica e in piena emergenza climatica, si torna a dibattere di etica dell’intelligenza artificiale.

Resta saldo, nell’affrontare tale tematica, il focus sulla trasparenza e verificabilità delle tecniche che fanno capo all’ambito di studi dell’AI, con particolare attenzione ai dati per mezzo dei quali i sistemi vengono addestrati, in base al principio per cui se il dato è “buono”, allenerà un algoritmo altrettanto “buono” e libero da pregiudizi [per approfondimenti, consigliamo la lettura della nostra guida all’intelligenza artificiale che spiega cos’è, a cosa serve e quali sono gli esempi applicativi – ndr].

Lo stesso Gartner, nel suo Hype Cycle for Artificial Intelligence 2021, individua nell’ “AI responsabile” una delle tendenze che stanno dominando il panorama attuale del settore, «tanto più necessaria, quanto più l’AI arriva a sostituire le decisioni umane su larga scala, amplificando gli impatti positivi e negativi di tali decisioni» osserva Svetlana Sicular, analista presso Gartner.

Quello che, invece, è cambiato, nell’ultimo anno, in seno al dibattito sull’etica dell’intelligenza artificiale, è la visione che si ha della tecnologia, la quale, oggi – complice il particolare momento storico, dominato da una maggiore consapevolezza circa i pericoli che corre l’ecosistema – vede al centro il pianeta e non più solo l’uomo.

Come ha spiegato Emanuela Girardi, membro del direttivo AIxIA (Associazione Italiana per l’Intelligenza Artificiale), durante il convegno di presentazione del libro dal titolo “L’intelligenza artificiale per lo sviluppo sostenibile” – realizzato dalla stessa Associazione e dal Dipartimento di Informatica dell’Università degli Studi di Bari Aldo Moro, con il supporto del Ministero degli Affari Esteri e della Cooperazione Internazionale (MAECI) e con il contributo del CNR – si è verificato il passaggio «dalla visione europea antropocentrica in merito all’utilizzo dei sistemi AI, che ruota attorno all’uomo e propone l’utilizzo delle tecnologie digitali per migliorare la vita di quest’ultimo, a quella che mette al centro l’ecosistema, di cui l’uomo è parte».

Insomma, l’intelligenza artificiale ha allargato il suo raggio di azione, ponendosi al servizio di cause dal respiro universale, come i 17 Obiettivi dell’Agenda 2030, inerenti – tra le tante tematiche a livello globale – anche alle questioni relative allo sviluppo economico e sociale, al cambiamento climatico e alla tutela dell’ambiente.

Ecco, allora, che parlare di etica dell’AI, in questa fase, riferita a progetti di tale natura e rilevanza, significa porsi una serie di domande sugli obiettivi ai quali tali progetti rispondono e sulle eventuali problematiche nel conseguirli.

Etica dell’intelligenza artificiale: ci si interroga sul modo in cui vengono realizzati i progetti “AI for social good”

In tema di etica dell’intelligenza artificiale, uno studio condotto dall’Oxford Internet Institute dell’Università di Oxford – pubblicato il 17 febbraio 2021 su Nature Machine Intelligence – indaga per la prima volta sulle “prove empiriche” dei progetti socialmente utili che si avvalgono dell’utilizzo delle tecniche di intelligenza artificiale, partendo dal presupposto che le “AI for social good” sono ormai in forte ascesa. E, nel farlo, prendono come riferimento proprio gli Obiettivi di sviluppo sostenibile definiti dall’ONU, i Sustainable Development Goals (SDGs).

Più nel dettaglio, il team di studio, dopo un’analisi della definizione di AI for social good, presenta una raccolta di iniziative di questo tipo, un insieme di casi studio, esaminando come vengono affrontate e portate a termine, tenendo conto anche delle criticità incontrate lungo il percorso.

Ricordiamo che tale studio – insieme a molti altri – rientra nell’Oxford Initiative on AI×SDGs, il cui fine è approfondire “come”, nel concreto, l’intelligenza artificiale è utile alla realizzazione dei 17 Obiettivi ONU. L’obiettivo principe è definire uno strumento che, per coloro che operano nell’ambito dello sviluppo sostenibile, possa fungere da «linee guida etiche basate sull’evidenza, per futuri progetti di intelligenza artificiale finalizzati al bene sociale».

Le “linee guida etiche basate sull’evidenza”, ovvero le prove empiriche di cui si è accennato, poggiano su alcune domande chiave, che gli eticisti si pongono nel momento in cui si interrogano sull’AI for social good. Tra queste, il riuscire a spiegare che cosa davvero conduce alla piena realizzazione un progetto che sfrutta l’artificial intelligence per il conseguimento di un obiettivo SDG e le eventuali differenze (e come possono essere superate e risolte) tra diverse zone geografiche che spesso si accompagnano al raggiungimento di un dato obiettivo.

Un’altra domanda importante riguarda la possibilità di definire un metodo che possa facilitare futuri progetti AI sulla sostenibilità ambientale e di mettere a punto un codice etico di pratica per supportare l’uso dell’intelligenza artificiale nell’affrontare gli obiettivi dell’Agenda 2030.

L’etica degli algoritmi e l’attenzione ai concetti di trasparenza e affidabilità

In tema di etica dell’intelligenza artificiale, un altro studio a cura dell’Oxford Institute – pubblicato il 20 febbraio 2021 su AI & Society – si focalizza, in particolare, sul rischio etico legato agli algoritmi AI sviluppati col preciso obiettivo di «migliorare il benessere individuale e sociale», ricordandoci che «gli algoritmi non sono eticamente neutri». Basti pensare – citano gli autori – agli algoritmi predittivi messi a punto per la gestione dei dati sanitari negli Stati Uniti, rei di “decidere”, per i pazienti bianchi, cure considerate più efficienti rispetto a quelle somministrate ai pazienti di colore.

Riguardo, in particolare, al concetto di trasparenza riferito agli algoritmi (che devono poter essere sempre “spiegabili”), il team di studio sottolinea come la sua mancanza si traduca spesso in «un’assenza di controllo, a sua volta responsabile di una mancanza di affidabilità».

Tra le cause della mancanza di trasparenza figurano, in molti casi, la difficoltà nell’analizzare e nell’interpretare vaste quantità di dati, l’assenza di adeguati strumenti a disposizione e l’avere sotto mano dati di difficile lettura perché completamente destrutturati.

Sono, nello specifico, gli algoritmi di autoapprendimento quelli in cui la mancanza di trasparenza risulta essere una peculiarità propria, in quanto in grado di produrre nuove regole nel momento stesso in cui apprendono. Il che contribuisce ad aumentare la difficoltà – per chi lavora al loro sviluppo – nel comprendere il passaggio dall’input all’output e il motivo stesso delle modifiche apportate.

Ebbene l’AI for social good – tra cui gli obiettivi di sostenibilità ambientale e sociale – deve tenere conto di tale rischio, analizzandolo caso per caso. Proprio dal metterlo a fuoco, dal comprenderlo, deriva una progettazione più trasparente degli algoritmi, per una governance dell’AI esplicitamente finalizzata al bene sociale. 

Quello dell’intelligenza artificiale per il “social good” è, per eccellenza, l’ambito in cui le due anime delle tecnologie digitali – il loro lato chiaro e il loro lato oscuro – sono chiamate a trovare il giusto equilibrio, l’armonia necessaria per “fare del bene”.

Default image
Paola Cozzi
Giornalista dal solido background acquisito lavorando presso i più prestigiosi Editori italiani | Ventidue anni di esperienza nello sviluppo di prodotti editoriali b2b, cartacei e digitali | Vent'anni alla direzione di una testata b2b in tema di Sicurezza anticrimine di tipo fisico | Attualmente si dedica al Giornalismo Digitale ed esplora nuove tecniche e nuovi stili di comunicazione
Articles: 182