Che cosa accade quando una grossa Tech company fornisce le proprie soluzioni di intelligenza artificiale al Dipartimento della Difesa di una superpotenza mondiale, per scopi di sorveglianza aerea?

TAKEAWAY

  • Quando, tre anni fa, i dipendenti di Google hanno appreso del coinvolgimento dell’aziende nel Project Maven – lanciato dal Pentagono per la messa a punto di sistemi AI finalizzati alla sorveglianza aerea – si sono immediatamente accese proteste e petizioni.
  • Da quel momento è sorto un dibattito, che vede al centro la questione della fiducia, da parte delle aziende, nei confronti di Governi e Istituzioni in materia di uso etico e trasparente delle tecniche di intelligenza artificiale, soprattutto quando il terreno è quello delle Forze Armate.
  • A marzo del 2020, il Dipartimento della Difesa USA risponde alle polemiche con la definizione delle linee guida per una Responsible AI, alle quali dovranno attenersi le organizzazioni che gli forniranno soluzioni AI. Ma il dibattito (e le critiche) non si placano.

Oltre al fascino che esercitano le tecniche che vi sono alla base, all’interesse per le loro molte applicazioni e per gli obiettivi dalla valenza universalmente riconosciuta che supportano, l’intelligenza artificiale suscita anche pauretimori legati a suoi possibili sviluppi malevoli e a futuri utilizzi distruttivi, come, ad esempio, quelli che le vedono associate alle tecnologie militari, alla creazione di armi autonome o per la sorveglianza di massa. È la loro potenza a spaventare. Al pari di un ordigno che potrebbe esploderci in mano per sbaglio, per un soffio di vento, senza darci il tempo di adottare le giuste misure di sicurezza.

Sono le stesse paure e gli stessi timori che hanno provato i dipendenti di alcune Big Teh (tra cui Google) quando hanno saputo del coinvolgimento delle aziende nel Project Maven, progetto AI lanciato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel 2017. Da quel momento, dopo le proteste e le polemiche iniziali, è sorto un dibattito – tuttora aperto – che pone al centro la questione della fiducia, da parte delle Tech company mondiali, nei confronti di Governi e Istituzioni in materia di uso etico e trasparente delle tecniche che fanno capo all’ambito di studi dell’intelligenza artificialesoprattutto quando il terreno è quello delle Amministrazioni della Difesa e delle Forze Armate.

Intelligenza artificiale per la sorveglianza: in che modo l’AI è utile al progetto Maven

Integrare tecniche di machine learning e tecniche per l’elaborazione dei big data per la messa a punto di sistemi con i quali analizzare i dati video acquisiti dai droni: questo l’obiettivo del Pentagono nel dare vita al Progetto Maven. Lo scopo dichiarato – servendosi dell’intelligenza artificiale – è quello della sorveglianza aerea nell’ambito di operazioni di contro-insurrezione e antiterrorismo. Anche se non è del tutto chiaro quali siano i territori da sorvegliare, né quali siano le tipologie di oggetti da identificare all’interno delle immagini riprese dalle telecamere a bordo dei droni. E poi, stiamo parlando di una sorveglianza finalizzata alla prevenzione o alla difesa? Ed è totalmente da escludere la possibilità di un attacco autonomo da parte dei droni, in seguito al riconoscimento di determinati oggetti?

In tema di intelligenza artificiale per la sorveglianza, sono questi gli interrogativi (in parte senza risposta) che si sono posti i 3.000 dipendenti di Google quando, nel 2018, hanno firmato la petizione contro la partecipazione dell’azienda al progetto del Dipartimento della Difesa. Protesta, successivamente, sedata, con la rassicurazione che la tecnologia AI fornita sarebbe stata destinata a scopi non offensivi, dunque non finalizzata a fare dei droni delle macchine da guerra in mano alle Forze Armate statunitensi.

Intelligenza artificiale per la sorveglianza, il Dipartimento della Difesa USA sceglie la strada dell’etica

Riconquistare la fiducia delle aziende Tech, mantenendo aperto – con loro – il canale della collaborazione e, dunque, l’accesso alle tecnologie emergenti, tra cui l’intelligenza artificiale per la sorveglianza: è stata questa l’intenzione che ha portato, a marzo del 2020, la Defense Innovation Unit (DIU) a definire le linee guida per una Responsible AI (RAI), alle quali dovranno attenersi le organizzazioni che svilupperanno e forniranno soluzioni AI al Dipartimento della Difesa statunitense.

La preoccupazione di fondo era quella di promuovere la trasparenza, adottando una serie di principi etici per l’uso dell’intelligenza artificiale in seno al progetto Maven che ponessero fine alle polemiche sulla destinazione delle tecniche AI per l’analisi dei video di sorveglianza raccolti per mezzo dei droni. Una scelta importante da parte del Pentagono, sostenuta da un Comitato appositamente creato dal DIU, di cui fanno parte ricercatori e aziende del settore, compreso il Computer Science and Artificial Intelligence Lab del MIT. «L’adozione dei principi etici dell’AI sottolinea l’impegno del Dipartimento nel sostenere i più elevati standard etici – come delineato nella sua strategia – abbracciando la storia delle Forze Armate statunitensi nell’applicazione di test e di rigorosi standard di messa in campo per le innovazioni tecnologiche» si legge nel documento.

Le linee guida del DoD per una Responsible Artificial Intelligence (RAI)

In materia di intelligenza artificiale per la sorveglianza, le linee guida messe a punto dalla Defense Innovation Unit sono indirizzate alle aziende, le quali, in particolare, dovranno seguirle nella fase di studio, sviluppo e implementazione delle tecniche di intelligenza artificiale di cui, poi, si avvarrà il Dipartimento della Difesa.

Nel dettaglio, esse prevedono misure atte a identificare chi (per competenze ed esperienza) sarà nelle condizioni di poter utilizzare la tecnologia, chi potrebbe eventualmente subirne i danni e perché e in che modo questi danni potrebbero essere evitati. I principi etici che le guidano afferiscono alle seguenti aree:

  • responsabilità, ossia chiarezza per quanto riguarda i processi di sviluppo dei sistemi AI e il loro utilizzo, che deve essere consapevole e oggetto di supervisione e di giudizio
  • equità, con l’adozione di misure volte a ridurre i “pregiudizi non intenzionali” da parte degli algoritmi AI
  • tracciabilità, attraverso la verifica delle metodologie e delle fonti di dati utilizzati per la loro progettazione, dovrà sempre essere possibile – per il personale del Dipartimento – la comprensione delle tecnologie
  • affidabilità, le caratteristiche e le potenzialità dei sistemi AI sviluppati dovranno essere esplicite, così come i loro utilizzi e la garanzia della loro sicurezza
  • governance, che rimanda alla capacità di gestire i sistemi di intelligenza artificiale in uso, rilevandone eventuali conseguenze negative e disattivandoli laddove necessario

Importante segnale di cambiamento, ma il dibattito è ancora aperto e va allargandosi

In tema di intelligenza artificiale per la sorveglianza, fin dalla loro pubblicazione, le linee guida del Pentagono hanno sollevato critiche e interrogativi, da parte delle aziende del settore e del mondo della ricerca, dilatando il dibattito oltre i confini USA. Certamente, si tratta di un segnale importante, da parte di un’Istituzione storicamente non sempre aperta alle trasformazioni riguardanti il proprio modus operandi, che denota la volontà di collaborare con i fornitori di tecnologie in modo da sostenere i loro principi etici, di trovare un equilibrio tra le parti in causa e di trasmettere all’esterno l’immagine di un Dipartimento della Difesa che sposa i valori della democrazia e della trasparenza.

Il primo spunto di riflessione ha a che vedere col modo in cui lo “strumento” rappresentato dall’intelligenza artificiale viene inteso e utilizzato, in generale (dunque, non solo dal DoD), dal Governo USA. In poche parole, si potrebbe davvero parlare di “riforma” significativa se le linee guida del Dipartimento della Difesa venissero adottate anche da altri Dipartimenti di Governo, tra cui, ad esempio, il Dipartimento dell’Amministrazione dei servizi generali, il Dipartimento di Giustizia o dei trasporti, in cui i sistemi AI detengono da alcuni anni un proprio ruolo.

Un altro punto oggetto di riflessione concerne il consenso di cui godono le linee guide elaborate, sul quale poggia la fiducia nei confronti del lavoro della Defense Innovation Unit e, di conseguenza, la fiducia in ciò che «le linee guida possono e non possono fare». In particolare, a tale riguardo, ci si domanda quanti realmente fossero, durante lo studio che ha preceduto la stesura del documento, le voci di dissenso e quale peso queste abbiano avuto durante la discussione. Ad esempio, pare che il Consiglio della DIU abbia consultato anche Meredith Whittaker, ex ricercatrice di Google e tra coloro che, tre anni fa, hanno acceso le proteste contro il Project Maven. Ma non è chiaro quale sia stato, nel concreto, il suo contributo ai lavori. Si sa soltanto di un suo appunto in riferimento alle armi autonome, in merito alle quali le linee guida non dicono nulla e sulla cui questione è intervenuto di recente Bryce Goodman – della Defense Innovation Unit – ribadendo che i regolamenti che disciplinano le tecnologie AI che vi sono alla base sono, in realtà, definiti da altri Organi di Governo, nonché da accordi internazionali, e non da principi etici.

Oltre alle armi autonome, un altro nodo rimanda al problema di alcuni passaggi – all’interno del documento – che si prestano a più interpretazioni. È il caso dell’affermazione sui bias. Il principio di equità prevede l’adozione di «misure volte a ridurre i pregiudizi non intenzionali da parte degli algoritmi AI»: ma che cosa si intende? Non viene esplicitata la differenza tra pregiudizi “non intenzionali” e pregiudizi “intenzionali”, dando adito a equivoci nella corretta comprensione del testo e ad errori di interpretazione.

Infine, affinché le Tech company fornitrici di tecnologie siano rassicurate sul fatto che i contenuti delle linee guida vengano realmente messi in pratica dal Dipartimento, non viene preso in considerazione il monitoraggio (da parte di Istituti indipendenti) dell’utilizzo dell’intelligenza artificiale per la sorveglianza in seno al progetto Maven. Manca, ad oggi, un controllo esterno di come davvero funzionano le cose.

Insomma, a una lettura attenta delle linee guida per una Responsible Artificial Intelligence, ci si rende conto che questo è solo l’inizio e che la strada da fare è ancora lunga prima che il Dipartimento della Difesa statunitense ottenga la completa fiducia del mondo Tech, compresi comparto business, centri di ricerca privati e Università di Stato.

Scritto da: