Con il primo Quadro giuridico sull'AI e il nuovo Piano sull’intelligenza artificiale coordinato con gli Stati membri, la Commissione europea punta a garantire la sicurezza e i diritti fondamentali delle persone e delle imprese, rafforzando, in tutta l’Unione, l'adozione dell'intelligenza artificiale e gli investimenti sul tema.

TAKEAWAY

  • In tema di intelligenza artificiale, il 21 aprile 2021 la Commissione europea ha proposto un “regolamento” il cui obiettivo è fare in modo che gli europei possano “fidarsi” di ciò che il mercato dell’AI ha da offrire.
  • La Commissione, in particolare, ha adottato un approccio basato sul rischio, individuando quattro livelli, ciascuno dei quali rimanda a determinati sistemi di artificial intelligence e alle relative applicazioni.
  • Tra le novità introdotte dalle nuove regole per un’AI sicura e affidabile, gli obblighi ai quali i sistemi di intelligenza artificiale classificati “a rischio elevato” saranno soggetti prima di poter essere immessi sul mercato.

L’intelligenza artificiale in Europa sarà presto regolamentata, in tutti gli Stati membri, da dettami chiari, frutto di un percorso iniziato nel 2018 con la pubblicazione della Strategia europea sull’intelligenza artificiale.

Percorso culminato qualche giorno fa – precisamente il 21 aprile – con la proposta, da parte della Commissione europea, di nuove regole e azioni volte a trasformare l’Europa in un “hub globale”, in cui le tecnologie che fanno capo all’ambito di studi dell’intelligenza artificiale siano affidabili, sicure.

La combinazione di quello che costituisce il primo Quadro giuridico sull’AI col nuovo Piano sull’intelligenza artificiale, coordinato con gli Stati, membri garantirà la sicurezza e i diritti fondamentali delle persone e delle imprese, rafforzando, al tempo stesso, l’adozione dell’intelligenza artificiale in Europa e gli investimenti sul tema.

A questo si aggiunge il nuovo Regolamento Macchine, che va a completare questo approccio, adattando le norme di sicurezza al bisogno di fiducia da parte degli utenti nei confronti di una nuova generazione di prodotti. Puntualizza Margrethe Vestager, Commissario per l’Europa digitale:

Quando parliamo di intelligenza artificiale, la fiducia deve essere un must, non un dettaglio o qualcosa che fa semplicemente ‘piacere’ riscontrare. E con queste regole fondamentali che abbiamo definito, l’Unione guiderà lo sviluppo di nuove norme globali per garantire che, dell’AI, ci si possa realmente fidare

Definire degli “standard” significa aprire la strada alla tecnologia etica in tutto il mondo e garantire che l’UE rimanga competitiva lungo il percorso. Già in passato, il pensiero di Vestager è sempre stato per un’Europa impegnata a colmare il forte divario tecnologico nei confronti di altri Paesi – tra cui, in particolare, Cina e Stati Uniti – intraprendendo un’azione decisiva per fissare il suo mercato unico digitale.

Le fa eco il Commissario per il mercato interno, Thierry Breton, asserendo che “l’intelligenza artificiale è un mezzo, non un fine. Esiste da decenni, ma ha acquisito solo di recente nuove e importanti capacità, alimentate dalla potenza di calcolo. E questo se, da un lato, offre un potenziale immenso in numerosi ambiti di applicazione, dall’altro presenta anche una serie di rischi. Le proposte odierne mirano a rafforzare la posizione dell’Europa come hub di eccellenza nell’AI, dal laboratorio al mercato

Insomma, il regolamento proposto farà in modo che gli europei possano fidarsi di ciò che il mercato dell’artificial intelligence ha da offrire. Nello specifico, il nuovo Piano coordinato delinea i cambiamenti politici e gli investimenti necessari a livello di Stati membri per rafforzare la posizione di leader dell’Europa nello sviluppo di un’IA incentrata sull’uomo, sostenibile, sicura, inclusiva e affidabile.

Intelligenza artificiale in Europa: i livelli di rischio per i diritti e la sicurezza dei cittadini

Le nuove regole saranno applicate allo stesso modo in tutti gli Stati membri, sulla base di una definizione di intelligenza artificiale che segue un approccio basato sul “rischio”. Più nel dettaglio, la Commissione europea ha individuato quattro livelli di rischio, ciascuno dei quali rimanda a determinati sistemi AI e alle relative applicazioni:

  • il rischio inaccettabile rimanda a sistemi di intelligenza artificiale considerati una chiara minaccia alla sicurezza, tra cui quelle applicazioni che manipolano il comportamento umano per eludere il libero arbitrio degli utenti (ad esempio, giocattoli con assistenza vocale che incoraggia i minori a comportamenti pericolosi) o che favoriscono il Sistema di Credito Sociale da parte dei Governi, al fine di sviluppare un sistema nazionale per classificare la reputazione dei cittadini sulla base di informazioni riguardanti la loro condizione economica e sociale (ne è un esempio l’iniziativa del Governo cinese per creare un sistema di sorveglianza di massa)
  • il rischio elevato fa riferimento a sistemi e tecnologie AI utilizzati nell’ambito:
  • il rischio limitato riguarda, invece, quei sistemi di intelligenza artificiale con obblighi di trasparenza specifici come, ad esempio, i chatbot, in merito ai quali gli utenti devono essere consapevoli del fatto che stanno interagendo con una macchina, in modo che possano scegliere in totale autonomia se continuare oppure se fare un passo indietro
  • il rischio minimo è – solo per citare alcuni esempi – quello dei videogiochi abilitati all’intelligenza artificiale o dei filtri antispam. La grande maggioranza dei sistemi di intelligenza artificiale rientra in questa categoria. E il progetto per l’intelligenza artificiale in Europa non interviene in questi casi, poiché tali sistemi rappresentano un rischio giudicato “minimo” o “nullo” per i diritti e la sicurezza dei cittadini

Obblighi e misure di sorveglianza per i sistemi AI ad alto rischio

La novità introdotta dalle nuove regole per un’AI sicura e affidabile sta negli obblighi ai quali i sistemi di intelligenza artificiale classificati “a rischio elevato” saranno soggetti prima di poter essere immessi sul mercato. Obblighi che prevedono:

  • sistemi di valutazione e mitigazione del rischio
  • alta qualità dei set di dati che andranno ad allenare il sistema AI, col fine di minimizzare i rischi di discriminazione
  • registrazione delle attività, per garantire la tracciabilità dei risultati
  • documentazione dettagliata, che fornisce tutte le informazioni necessarie sul sistema e sul suo scopo, affinché le Autorità possano valutarne la conformità
  • informazioni chiare da fornire all’utente
  • adeguate misure di sorveglianza umana per ridurre al minimo i rischi

In particolare, gli standard che disciplinano l’intelligenza artificiale in Europa considerano ad alto rischio – e soggetti a severi requisiti – tutti i sistemi di identificazione biometrica remota, il cui utilizzo dal vivo, in spazi accessibili al pubblico è, in linea di principio, vietato.

Le eccezioni – ristrette – vengono rigorosamente definite e regolamentate. Rientrano in tale categoria le ricerche di un minore scomparso, la prevenzione di una minaccia terroristica specifica e imminente e l’identificazione dell’autore di un reato grave.

E tale utilizzo – precisa il documento della Commissione europea – è comunque soggetto all’autorizzazione di un organo giudiziario o di altro organo indipendente e a opportuni limiti di tempo, di portata geografica e di banche dati utilizzate per la ricerca.

In termini di governance, la Commissione propone che le Autorità nazionali competenti di vigilanza del mercato sovrintendano alle nuove norme, mentre la creazione di un apposito Comitato europeo per l’intelligenza artificiale ne faciliterà l’attuazione.

Intelligenza artificiale in Europa: promuovere in tutti gli Stati membri l’innovazione nello sviluppo e nell’uso dell’AI

Un altro forte impegno da parte della Commissione europea è volto a promuovere lo sviluppo e l’uso delle tecnologie AI in tutti i settori, in tutti gli Stati membri.

Pubblicato per la prima volta nel 2018 per definire azioni e strumenti di finanziamento per lo sviluppo e l’adozione dell’intelligenza artificiale, il Piano coordinato sull’intelligenza artificiale ha consentito un vivace panorama di strategie nazionali e finanziamenti dell’UE per partenariati pubblico-privati e reti di ricerca e innovazione.

L’aggiornamento completo, oggi, del Piano coordinato propone azioni congiunte – e concrete – di collaborazione, per garantire che tutti gli sforzi siano allineati con la strategia europea sull’AI e il Green Deal europeo, tenendo, inoltre, conto delle nuove sfide createsi in seguito dalla crisi pandemica. 

In particolare, il nuovo Piano propone una visione per accelerare gli investimenti nell’AI, che potrà avvantaggiare la ripresa economica. E mira anche a stimolare l’attuazione di strategie nazionali, finalizzate a rimuovere la frammentazione e ad affrontare sfide globali e traguardi di ampio respiro.

Il Piano aggiornato sull’intelligenza artificiale in Europa utilizzerà i fondi stanziati attraverso i programmi Europa digitale e Orizzonte Europa, nonché lo strumento per la ripresa economica che prevede un obiettivo di spesa digitale del 20%, per creare condizioni favorevoli allo sviluppo e all’adozione dell’AI attraverso lo scambio di intuizioni politiche e la condivisione dei dati; alla promozione dell’eccellenza dell’AI “dal laboratorio al mercato”, istituendo un partenariato pubblico-privato e mettendo a disposizione delle PMI e delle Pubbliche Amministrazioni strutture di test e sperimentazione e centri di innovazione digitale; all’attenzione e alla cura di talenti e di competenze, sostenendo tirocini, reti di dottorato e borse di studio post-dottorato nelle aree digitali; alla costruzione di una leadership strategica nei settori e nelle tecnologie ad alto impatto – compreso l’ambiente – concentrandosi sul contributo dell’intelligenza artificiale alla produzione sostenibile, alla salute, al settore pubblico, alla mobilità, agli affari interni, all’agricoltura e alla robotica.

Prodotti meccanici e sicurezza dei consumatori: la Direttiva Macchine sostituita dal nuovo Regolamento Macchine

Come accennato all’inizio, alla proposta di uno standard per disciplinare l’intelligenza artificiale in Europa, si è aggiunto il nuovo Regolamento Macchine, che va a sostituire la ben nota Direttiva Macchine in tema di requisiti di sicurezza.

I prodotti delle macchine – lo ricordiamo – coprono una vasta gamma di dispositivi di consumo e di apparecchiature professionali, dai robot ai tosaerba, alle stampanti 3D, alle macchine edili, alle linee di produzione industriale.

Mentre il regolamento sull’intelligenza artificiale affronterà i rischi per la sicurezza dei sistemi AI, il nuovo regolamento sulle macchine garantirà l’integrazione sicura dei sistemi di intelligenza artificiale nel macchinario complessivo. A tale riguardo, le aziende dovranno eseguire una sola valutazione di conformità.

Inoltre, il nuovo Regolamento Macchine risponderà alle esigenze del mercato, apportando maggiore chiarezza giuridica alle disposizioni attuali, semplificando l’onere amministrativo e i costi per le aziende, consentendo formati digitali per la documentazione e adattando le tariffe di valutazione della conformità per le PMI, garantendo – al contempo – la coerenza con l’UE per quanto concerne il quadro legislativo per i prodotti.

Che cosa accadrà, dunque, da questo momento in poi? Il Parlamento europeo e gli Stati membri dovranno adottare le proposte della Commissione su un approccio europeo all’intelligenza artificiale e ai prodotti meccanici. Una volta adottato, il Regolamento sarà direttamente applicabile in tutta l’Unione. E, parallelamente, la Commissione continuerà a collaborare con gli Stati membri per attuare le azioni annunciate nel piano coordinato.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin