Le voci di società civile, singoli cittadini, enti e associazioni varie che chiedono di avere un po’ di chiarezza sul futuro evolutivo dell’Intelligenza Artificiale, in particolare per comprenderne gli impatti sulle persone, sono aumentate considerevolmente negli ultimi due anni. I temi di fondo sono quasi sempre etica e responsabilità quali pilastri sui quali costruire la fiducia (verso le tecnologie, ma anche verso chi le sviluppa e le commercializza).

Per costruire questo “senso di fiducia” serve però anche il ruolo della politica (soprattutto a livello legislativo). Per superare questioni etiche come il pregiudizio (spesso involontario) “nascosto” nelle soluzioni basate su Intelligenza Artificiale, chiedere all’industria IT di garantire la cosiddetta “trasparenza algoritmica” (da intendersi come chiarezza sulle regole e le modalità con le quali sistemi automatizzati svolgono azioni e, soprattutto, prendono le decisioni), mitigare gli impatti negativi che talune tecnologie possono generare sulla società civile e le persone… promesse ed impegni dell’industria Tech non bastano.

La questione non è semplice. Il dialogo tra le parti è complesso, non parlano la stessa lingua: c’è un divario di informazioni, conoscenza, approcci. Gli “ideatori” delle tecnologie basate su AI (Artificiale Intelligence) e i leader politici che cercano di regolare il settore vivono contesti completamente differenti. Anche ammesso che si riescano a trovare le linee sulle quali costruire il dialogo, stabilire un quadro regolatorio di etica e responsabilità per uno sviluppo sicuro dell’AI implica un’ampia conoscenza dell’Intelligenza Artificiale stessa.

Si parla ormai da tempo della necessità di una governance efficace dell’innovazione, soprattutto per quanto riguarda proprio l’Intelligenza Artificiale… ma come si fa a promuovere azioni legislative di opportunità sociali, mitigazione dei i rischi e “senso etico” nello sviluppo e nell’uso dell’AI, quando scarseggia la conoscenza specifica sullo sviluppo dei sistemi basati su AI e sulla loro distribuzione/commercializzazione?

E chi si prende in carico la traduzione di due lingue così distanti?

Il preoccupante divario di alfabetizzazione digitale della politica

Pensare (e sperare) che chi ha l’approfondita conoscenza e la padronanza delle tecnologie si apra a disposizione di chi deve legiferare, oppure ipotizzare di imporre un dialogo con la forza, a suon di normative, è ottimismo ingiustificato. Non saranno queste le vie percorribili.

Ciascuno dovrà fare la propria parte, o meglio, il proprio sforzo.

I leader politici non potranno più mostrarci scene come quelle viste nelle audizioni del Congresso degli Stati Uniti: nei confronti con i rappresentanti delle Big Tech hanno purtroppo mostrato pubblicamente il divario di alfabetizzazione digitale della politica. Un divario che rende molto complesso definire le regole con il rischio di risultare “troppo morbide” – e quindi non sortire alcun effetto – oppure, all’opposto, “troppo rigide” danneggiando non solo l’industria Tech ma anche tutti coloro che potrebbero beneficiarne (il caso recente del Governo Australiano nella “lotta” contro Google e Facebook a difesa degli editori è solo l’ultimo degli esempi di quanto sia complesso – e spesso fallimentare – il ricorso alle leggi per obbligare comportamenti virtuosi).

Chiedere alla politica (e ai legislatori) di diventare esperti di tecnologie emergenti o di discipline come l’Intelligenza Artificiale è utopia, ma suggerire di “familiarizzare” con questi temi non dovrebbe suonare stravagante.

Politica e Intelligenza Artificiale – L’etica è una “questione sociale”

Se politica e legislazione devono familiarizzare con la tecnologia, i tecnici dovrebbero fare altrettanto con le questioni etiche.

Spesso si cade nell’errore di parlare di etica dell’intelligenza artificiale, ma l’intelligenza artificiale non ha alcuna etica. L’etica ha a che fare con la complessità dei sistemi sociali umani, una materia tutt’altro che tecnica. Sarebbe dunque un grave errore chiedere a chi sviluppa tecnologie di occuparsi delle questioni etiche. Esattamente come sarebbe un grave errore chiedere una legislazione in materia di AI senza avere familiarizzato con la disciplina e ciò che comporta in termini di innovazione e sviluppo tecnologico.

“Il processo di comprensione e riconoscimento del contesto sociale e culturale in cui vengono implementate le tecnologie di intelligenza artificiale, a volte con una posta in gioco elevata per l’umanità, richiede pazienza e tempo. Ciò è in tensione con lo status quo dei modelli di business, che sono costruiti su velocità e scalabilità per un rapido profitto”, scrivono Adriana Bora, ricercatrice di AI Policy e Project Manager presso The Future Society, e David Alexandru Timis curatore uscente di hub.brussels, sulle pagine del blog del World Economic Forum.

Sul tema il sociologo tedesco Ulrich Beck si è espresso dicendo che “l’etica oggi ha un ruolo paragonabile a quello del freno di una bicicletta su un aereo intercontinentale”.

Bora e Timis sottolineano che, per garantire una efficace governance dell’AI, dovrebbe esserci un dialogo coerente tra imprese Tech e responsabili politici per concordare una serie comune di principi e metodologie concrete affinché possano essere messi in pratica. In parole povere, questi principi hanno valore solo se vengono concordati e se vengono effettivamente applicati.

Da qualunque prospettiva si guardi il problema, però, ciò che emerge è una profonda distanza disciplinare che rende, come accennato, molto complesso il dialogo… ancor di più quindi l’identificazione di una possibile risoluzione.

Suggerimenti?

Scritto da:

Nicoletta Boldrini

Futures & Foresight Director | Direttrice Responsabile Tech4Future Leggi articoli Guarda il profilo Linkedin