Fervono le attività per arrivare a definire il primo regolamento UE sull’intelligenza artificiale, la cui portata è potenzialmente enorme data la materia e le sue implicazioni, come evidenzia Andrea Renda, uno degli esperti chiamati al lavoro di definizione.

TAKEAWAY

  • L’Unione Europea si prepara a definire l’AI Act, che intende regolare l’intelligenza artificiale in vari aspetti, dai prodotti ai servizi, arrivando anche al mercato interno UE.
  • Al lavoro preparatorio, frutto di vari anni, ha contribuito anche un gruppo di esperti internazionali, tra cui Andrea Renda. È lui a mettere in luce il fulcro dell’AI Act: le applicazioni dell’intelligenza artificiale considerate ad alto rischio.
  • Il regolamento dovrà andare a inserirsi in un quadro legislativo che comprende altre misure (tra queste, il recente Data Act, ma anche il GDPR), ma sarà anche in grado di creare opportunità per la ricerca e l’innovazione.

In Europa si lavora a ultimare il regolamento UE sull’intelligenza artificiale (AI Act), il cui fine ha una portata per molti aspetti rivoluzionaria: sarebbe, infatti, il primo corpus legislativo che si propone di regolare una materia così ampia come l’artificial intelligence.

Il solo valore economico è enorme: secondo PwC, l’AI potrebbe contribuire fino a 15.700 miliardi di dollari all’economia globale nel 2030, una somma superiore al valore economico della produzione di Cina e India messe insieme.

Il lavoro preparatorio all’AI Act è frutto di svariati anni e, nel biennio precedente, ha visto la pubblicazione di vari lavori, tra cui un white paper sull’AI e un lavoro di consultazione voluminoso in cui si è cercato di definire questioni che spaziano dall’etica all’affidabilità.

L’intento è arrivare a definire regole condivise, in grado di agevolare l’immissione, sul mercato UE, di nuovi prodotti e servizi e di aumentare il grado di fiducia degli utenti nell’impiego di una famiglia di tecniche che pervadono già oggi ogni ambito della vita quotidiana.

A questo lavoro preparatorio hanno contribuito anche 52 esperti internazionali, incaricati dalla Commissione Europea di fornire consigli sulle strategie di intelligenza artificiale.

Hanno operato in qualità di gruppo direttivo della European AI Alliance, forum impegnato in una discussione ampia e aperta su tutti gli aspetti dello sviluppo dell’intelligenza artificiale e del suo impatto. I prossimi mesi saranno decisivi per arrivare alla formulazione definitiva di un regolamento che, già oggi, è un corpus di 85 articoli e nove allegati.

L’importanza del regolamento UE sull’intelligenza artificiale

Il regolamento UE sull’intelligenza artificiale è considerato un pilastro essenziale della strategia del mercato unico digitale dell’UE. Stabilirà regole orizzontali per lo sviluppo, la modifica e l’uso di prodotti, servizi e sistemi guidati dall’AI nel territorio UE, applicabili a tutti i settori.

L’AI Act intende garantire il corretto funzionamento del mercato interno e la libera circolazione transfrontaliera di beni e servizi basati sull’AI e a codificare gli elevati standard del paradigma dell’AI affidabile europea.

Stiamo parlando di una proposta di regolamento europeo direttamente applicabile negli Stati membri e che lo differenzia in modo sostanziale dalla direttiva, che poi va attuata nella legislazione nazionale. Non solo: avrà importanti influssi anche sul lavoro di ricerca e innovazione.

In questo percorso si stanno tenendo momenti di confronto per cercare di ottimizzare diversi aspetti. Uno dei più recenti, avvenuto pochi giorni fa, è stata l’audizione congiunta da parte delle commissioni IMCO e LIBE (Commissione per il mercato interno e la protezione dei consumatori; Libertà civili, giustizia e affari interni) per affrontare le principali questioni riguardanti la proposta legislativa sull’AI e contribuire a preparare la posizione del Parlamento.

Tra i relatori, anche Andrea Renda – ricercatore senior del Centre for European Policy Studies (CEPS) e professore all’Istituto Universitario Europeo di Firenze – il quale ha fatto parte del Gruppo di esperti di alto livello sull’intelligenza artificiale della Commissione europea, 52 esperti internazionali (tra cui Luciano Floridi e Stefano Quintarelli, presidente del comitato direttivo dell’Agenzia Digitale Italiana) che hanno sviluppato le linee guida per un’intelligenza artificiale affidabile in Europa. A lui la parola.

Professor Renda, quali sono i punti salienti dell’AI Act?

Il regolamento UE sull’intelligenza artificiale stabilisce criteri minimi di affidabilità per l’AI. L’idea di assicurarsi che i sistemi di intelligenza artificiale che circolano nel territorio dell’UE siano affidabili e che non generino rischi eccessivi, non è nuova. La Commissione Europea ci ha lavorato per diversi anni con l’obiettivo di introdurre un sistema funzionale e proporzionato ai livelli di rischio che i sistemi di AI possono generare per la nostra società.

Sappiamo che, con “intelligenza artificiale”, si definisce una “famiglia” di tecniche e di approcci tecnologici alla risoluzione di determinati problemi e che questa ha un impatto pervasivo sulla società. Può riguardare questioni tecniche che non comportano alcun rischio per la privacy, come può essere, ad esempio, l’applicazione di tecniche di deep learning per l’ottimizzazione dei consumi energetici del data center.

Nel caso specifico, non lede né la privacy né altri diritti umani, ma può conseguire problemi di sicurezza. Ma se lo stesso sistema di DL lo si applica a questioni che toccano temi sensibili, il rischio di ledere diritti fondamentali è decisamente più elevato. Quindi, a seconda dell’introduzione dell’AI, occorre modulare l’approccio sulla base del rischio generato.

Quali sono i temi più rilevanti toccati dal regolamento UE sull’intelligenza artificiale?

Fatto esplicito divieto ai sistemi altamente lesivi dei diritti, nonché a forte rischio per la sicurezza, il cuore delregolamento UE sull’intelligenza artificiale è costituito dalle applicazioni di AI considerate ad alto rischio. Il regolamento punta, in particolare, su questo ambito di sistemi, che si prevede rappresenteranno circa il 10% delle applicazioni AI presenti nel mercato, mentre la restante parte non sarà sottoposta ad alcuna regolamentazione.

Le applicazioni ad alto rischio saranno regolamentate in due modi: per i sistemi integrati in prodotti già soggetti alla regolamentazione europea sulla sicurezza dei prodotti (quelli soggetti all’apposizione del marchio CE), alla valutazione di conformità già prevista dalla legislazione UE si aggiungerà ai requisiti regolatori anche una specifica valutazione della conformità del sistema di AI. Per tutti gli altri casi di applicazioni ad alto rischio, nei quali l’AI non è integrata in sistemi già soggetti alla legislazione sulla sicurezza dei prodotti, la Commissione UE ha scelto di obbligare i provider a una “valutazione interna” della conformità della regolamentazione.

I requisiti regolatori che ne conseguono riguardano la quantità e quantità dei dati utilizzati, la tracciabilità del processo di sviluppo dei sistemi di AI, obblighi di informazione all’utente sulle specifiche e il livello atteso di precisione del sistema, l’obbligo di garantire la supervisione del sistema da parte di un essere umano e di testare la robustezza e resilienza del sistema rispetto al rischio di attacchi esterni e malfunzionamenti.

Mentre la valutazione interna, simile a quanto accade nel caso del regolamento UE sui dati personali, appare come la forma di compliance applicabile alla maggioranza delle applicazioni. Nel caso di sistemi ad alto rischio che raccolgono dati biometrici, la valutazione di conformità deve essere condotta da un’entità indipendente ed esterna al provider del sistema.

Su che cosa intende intervenire e quali aspetti, invece, eviterà di toccare?

Il regolamento UE sull’intelligenza artificiale pone le basi per individuare le applicazioni di artificial intelligence che devono essere vietate e quelle che devono essere regolamentate in quanto ad alto rischio.

L’AI Act si affida a una forma di co-regolamentazione, in cui l’UE definisce il risultato (i criteri per un’AI affidabile) e i provider devono occuparsi della valutazione interna di conformità.

Non si tratta di una regolamentazione molto rigorosa, tant’è che si sono levate anche voci critiche – da parte di accademici, attivisti e società civile – che invocano misure più incisive e applicabili a tutti i sistemi di AI, indipendentemente dal livello di rischio ad esse attribuito. Ma applicare le stesse regole a tutti i sistemi di intelligenza artificiale rischierebbe di bloccare il mercato, la ricerca e l’innovazione.

Peraltro, in molti sembrano fare confusione sul contenuto dell’AI Act o spargono false informazioni per dipingerlo come una misura molto restrittiva, forse anche per via del fatto che un testo condiviso tra Commissione, Parlamento e Consiglio UE non è ancora stato raggiunto.

Come si andrà a integrare l’AI Act con le altre disposizioni in tema digitale?

È ancora presto per dirlo. Nel corso del 2020 e, in parte, nel 2021, la Commissione Europea ha lavorato in modo intenso e parallelo a una quantità enorme di proposte: oltre al regolamento UE sull’intelligenza artificiale, ricordo il Data Act, il Data Governance Act, il Digital Services Act, il Digital Markets Act per non menzionare le proposte sulla cybersecurity e l’incipiente revisione del regolamento sui dati personali.

È un lavoro che mostra una tendenza innovativa significativa, una “spallata” consapevole al mondo del digitale, ma anche un azzardo, perché intende invertire la rotta rispetto a molte pratiche che sono ampiamente consolidate nel cyberspazio.

La complessità di questo impianto regolatorio emergente è esacerbata dal fatto che ogni proposta comporta un sistema di enforcement differente, come un nuovo board, o una rete di regolatori nazionali. Riconciliare questi sistemi è essenziale per poter contare su risorse sufficienti e anche per garantire la certezza e semplicità del diritto.

Lo stesso GDPR ancora oggi ha livelli di compliance piuttosto deludenti e ha generato una serie di effetti indesiderati dal punto di vista degli incentivi dei soggetti che popolano il mercato, incluse le grandi imprese tecnologiche e le stesse autorità per la protezione dei dati personali.

Quali opportunità crea il regolamento UE sull’intelligenza artificiale per la ricerca e l’innovazione? 

Nella versione attuale della proposta, tutti i sistemi AI sviluppati per motivi di pura ricerca non sono coperti dalla regolamentazione, perché non sono ancora commercializzati né oggetto di attività for profit. Inoltre, attraverso la codificazione dei requisiti di un’AI affidabile si può fornire una guida, da aggiornare costantemente, che si spera diventi utile per tutti gli sviluppatori di sistemi di intelligenza artificiale

Quindi, alcuni requisiti diventeranno parte di una percezione comune di come sviluppare l’artificial intelligence in modo corretto: chi già lo fa in maniera coscienziosa, non si troverà a dover competere con sistemi meno affidabili.

Altro aspetto interessante del regolamento UE sull’intelligenza artificiale è la possibilità di affidarsi a procedure di regolamentazione sperimentale a livello nazionale, le cosiddette regulatory sandboxes, ambienti controllati in cui le entità supervisionate e gli operatori possono testare, per un periodo di tempo limitato, prodotti e servizi tecnologicamente innovativi per definirne la conformità ai requisiti dell’AI Act. Questo sistema, se ben implementato, può fornire grande stimolo all’innovazione.

Quali sono i prossimi passi verso la definizione dell’AI Act?

Innanzitutto si andrà verso la definizione di emendamenti da portare in seduta plenaria al Parlamento europeo, per poi procedere al confronto di questo testo sull’AI Act con quello del Consiglio UE. Da qui si avvierà una discussione a tre (il cosiddetto “trilogo”) tra Commissione, Parlamento e Consiglio, in modo da arrivare alla definizione di un testo concordato. Verrà quindi pubblicato il testo finale dell’AI Act e ci vorranno alcuni mesi per farlo entrare in vigore (presumibilmente nella primavera del 2023) e raggiungere il mercato.

Giunti a questo punto, occorrerà creare un’agenzia o un board di esperti che dovranno occuparsi di redigere linee guida, raccordare il regolamento UE sull’intelligenza artificiale con gli altri strumenti orizzontali già approvati e settoriali, cambiare periodicamente la classificazione di rischio e tanto altro ancora.

È un lavoro imponente, che renderà necessario, una volta realizzato il testo finale, un cambio di passo per rendere il sistema inclusivo, partecipato, trasparente e sufficientemente agile da adattarsi a un mercato in continua evoluzione.

Scritto da:

Andrea Ballocchi

Giornalista Leggi articoli Guarda il profilo Linkedin