Il futuro dell’intelligenza artificiale “italiana”, tra affidabilità tecnologica, etica umana e data-driven economy

In risposta al “Piano Coordinato” della Commissione Europea in materia di Intelligenza Artificiale (IA, oppure AI per l’acronimo inglese di Artificial Intelligence), l’Italia, dopo un anno e mezzo di lavoro, rilascia il documento con le “Proposte per una strategia italiana per l’intelligenza artificiale” elaborato dal gruppo di esperti del MISE.

C’è consapevolezza, nel gruppo di lavoro che dovrebbe stimolare il legislatore, del fatto che l’intelligenza artificiale debba essere analizzata (e conosciuta) nella sua dualità, da intendersi come applicabilità sia per fini pacifici sia per fini militari (o più in generale “malevoli”). L’intelligenza artificiale è una famiglia di tecniche (da cui derivano poi soluzioni tecnologiche) che può rivoluzionare in maniera drastica interi settori portando enormi benefici a persone, aziende, Stati; tuttavia, se utilizzata incautamente (e qui potremmo iniziare a dire senza principi etici e senso di responsabilità, di chi utilizza le tecnologie, non delle tecnologie in sé) può divenire un mezzo pericoloso in grado di minare addirittura democrazia ed equilibri geo-politici globali (ancora una volta, per via del suo utilizzo, non per la tecnologia o per le tecniche di AI in sé).

Ed è forse qui che il policymaker è chiamato ad intervenire, per stimolare e regolamentare un utilizzo etico e responsabile dell’intelligenza artificiale, tenendo conto del potenziale ma anche di come si è finora evoluta l’intelligenza artificiale.

La nuova lunga primavera che sta vivendo l’AI ha consentito di fare enormi progressi, prevalentemente nel campo del machine learning, ossia dell’apprendimento automatico, e delle reti neurali (algoritmi di apprendimento profondo, molto più complessi rispetto al machine learning). Progresso dovuto però ad altri fattori che non possono essere trascurati, come l’avanzamento della ricerca e delle soluzioni tecnologiche nel campo dell’HPC – High Performance Computing (cui rientrano anche le CPU e, soprattutto, le GPU per l’elaborazione grafica), della connettività a banda larga (in particolare quella mobile legata al 5G), delle nanotecnologie e dell’IoT – Internet of Things. Tutte costellazioni l’una dell’altra che non possono essere trascurate nel disegno di una strategia nazionale che ha come missione, non soltanto quella di aiutare il legislatore a trovare mezzi, modi, vie giuridico-regolamentarie per evitare che l’intelligenza artificiale alimenti rischi incontrollati, ma anche quella di stimolare un’industria nazionale che riesca ad avere un peso sul mondo del lavoro, sulla formazione, sulla competitività globale, sul PIL.

Manca il senso di urgenza

Il gruppo di lavoro chiamato dal MISE a sviluppare una proposta per la strategia italiana per l’intelligenza artificiale evidenzia l’importanza degli esseri umani e delle loro competenze per lo sviluppo stesso della tecnologia (anche se la definiamo intelligenza artificiale, di intelligente per ora c’è poco – fermo restando che ancora non riusciamo a dare una definizione univoca di intelligenza), cosa che pone il legislatore (ed il governatore) di fronte ad altri due “bei problemi”, quello dell’adeguamento/aggiornamento delle competenze già formate e quello della riforma del sistema educativo.

Problematiche di cui forse, in Italia, ancora non si percepisce l’urgenza di intervento. Forse perché non si riescono a vedere gli impatti nel lungo periodo che non derivano da un utilizzo poco etico e responsabile delle tecnologie da parte di individui animati da scopi illeciti, ma dall’alimentazione involontaria di pregiudizi sociali (l’esclusione di una fetta di popolazione dall’adeguamento delle competenze, cosa comporta? Assisteremo a nuove forme di disuguaglianza e discriminazione?).  

Nel documento redatto dal gruppo di lavoro del MISE sono stati analizzati diversi rischi legati sia all’utilizzo illecito dell’intelligenza artificiale (provocando quindi volontariamente degli effetti dannosi), sia all’utilizzo “maldestro” (che provoca effetti spiacevoli e dannosi in modo involontario). A mio avviso manca un’analisi più approfondita dei rischi legati al “non fare”: cosa succede se non si interviene in alcuni degli ambiti dove l’intelligenza artificiale può generare impatti (anche in modo indiretto)? Quali rischi corre l’Italia? Quali conseguenze ci saranno sui cittadini?

Manca forse quel “senso di urgenza” che servirebbe in questo momento a dare una forte accelerazione allo sviluppo di una strategia che non rimanga racchiusa in 120 pagine di proposte e 82 raccomandazioni pratiche ma che stimoli le forze politiche e governative ad andare oltre il dibattito della riforma della legge elettorale.

Approccio antropocentrico: l’intelligenza artificiale per l’essere umano

Decisamente interessante la visione antropocentrica da cui scaturiscono alcune importanti raccomandazioni che pongono l’essere umano al centro di qualsiasi strategia ed iniziativa legata all’intelligenza artificiale.

«Un approccio antropocentrico all’intelligenza artificiale richiede che l’essere umano venga valorizzato e supportato dalla tecnologia nel suo realizzarsi come individuo, nel suo agire come cittadino, nelle sue mansioni e competenze come lavoratore e nelle sue decisioni come consumatore», si legge nel documento realizzato dal gruppo di lavoro del MISE. «L’intelligenza artificiale deve essere adottata come metodo educativo in grado di portare alla formazione del cosiddetto pensiero computazionale, alla multidisciplinarietà intrinseca nella soluzione dei problemi e nella trasversalità delle competenze».

Sfida non banale che richiede diversi ambiti di intervento, dall’aggiornamento degli educatori e del corpo docente all’integrazione dei percorsi di studi con corsi di coding e di intelligenza artificiale applicata (quest’ultima in particolare negli istituti tecnici), fino all’up-skulling e re-skilling della forza lavoro nel suo complesso, passando per informazione, divulgazione, formazione anche dell’attuale management aziendale e della classe imprenditoriale.

Etica umana e affidabilità dell’intelligenza artificiale, il mix per mitigare i rischi

Nel dibattito internazionale si sente sempre più spesso parlare di “etica dell’intelligenza artificiale” (da cui spesso nasce l’incomprensione che “irrita” i tecnici perché si associa erroneamente l’etica alla tecnologia e non al suo utilizzo da parte delle persone), anche se poi la sua “applicazione” si avvicina più che altro alla cosiddetta “ethics by design”, ossia portare determinati principi etici all’interno del processo di sviluppo di un sistema di intelligenza artificiale.

Secondo il gruppo di lavoro del MISE, però, anche questo approccio, anche se valido e certamente utile, rischia di essere riduttivo perché pone poca attenzione al risultato finale. Ciò su cui ci si dovrebbe concentrare, dunque, è il risultato dell’implementazione e dell’utilizzo dell’intelligenza artificiale che, a seconda del contesto in cui viene adottata ed opera la soluzione tecnologica alla cui base ci sono tecniche di AI, deve sempre risultare affidabile, sicura, robusta, e tutelare non solamente i singoli individui ma anche sfere più ampie micro e macroeconomiche, come gli aspetti occupazionali, la sicurezza sociale, gli impatti ambientali e lo sviluppo sostenibile, la tutela della privacy (non solo in ottica GDPR).

Una visione che porta gli esperti a suggerire al policymaker di ragionare in ottica di ecosistema: per poter beneficiare del reale potenziale dell’intelligenza artificiale, mitigandone in modo adeguato al contempo i rischi, serve una governance di alto livello che permetta all’intero ecosistema tecnologico ed istituzionale di agire, crescere e svilupparsi in modo coordinato e coeso.

Dalla prospettiva tecnologica, i suggerimenti più significativi vanno nella direzione della responsabilizzazione di coloro che sviluppano e propongono tecnologie basate su tecniche di intelligenza artificiale (attraverso una sorta di “checklist” da seguire affinché durante lo sviluppo vengano rispettati determinati principi etici – per esempio per evitare di trasferire alla tecnologia pregiudizi involontari che possono generare discriminazione -, nonché le prescrizioni normative da seguire – per esempio a tutela della privacy -, fino ad arrivare ad una sorta di autovalutazione dei rischi e al suggerimento delle misure di mitigazione di tali rischi), e al sostegno dell’iniziativa europea, già avviata, che dovrebbe portare al cosiddetto Trustworthy AI Impact Assessment (TAIA) il quale, con molta probabilità, dovrebbe diventare lo strumento principale in Europa con il quale verranno descritti rischi e rimedi delle tecnologie secondo il principio dell’affidabilità by design.     

Dalla prospettiva istituzionale, secondo il gruppo di esperti che ha lavorato per il MISE, al governo nazionale spetterebbe il compito di valorizzare e fare da volano alla cosiddetta RenAIssance italiana ponendosi come interlocutore diretto del comparto produttivo e dei consumatori/utenti per ristabilire fiducia (oggi in crisi) nell’industria high-tech valorizzandone l’orientamento all’individuo e allo sviluppo sostenibile.

Compito che la pubblica amministrazione deve eseguire prima di tutto ammodernando se stessa, passo ormai non più procrastinabile di fronte all’evoluzione accelerata della cosiddetta data-driven economy che rischia di lasciare sempre più indietro il nostro Paese di fronte a nazioni più innovative, moderne e che investono in tecnologia.

Incentivare l’economia dei dati

Per altro, proprio sul tema dell’economia dei dati, nel documento con le proposte per la strategia nazionale di intelligenza artificiale si trovano continui richiami e un’interna sezione dedicata all’argomento affinché ai tavoli di lavoro politici possa arrivare lo stimolo a partecipare attivamente, come nazione, all’economia dei dati europea (il cui valore economico, solo nel 2020, si stima essere pari a 379 miliardi di dollari, ben il 4% del GDP europeo). L’Italia, in tal senso, deve sviluppare un ecosistema nel quale tutti i soggetti, della pubblica amministrazione e privati, all’interno del quale tutti siano in grado di generare, condividere e riutilizzare dati in modo interoperabile e sicuro.

Può sembrare, apparentemente, una sfida di minor rilevanza ma se la si guarda dalla prospettiva del rischio se ne comprende l’urgenza: l’assenza della consapevolezza del valore dei propri dati (cosa cui stiamo assistendo, a livello globale, da diversi anni) può generare un loro uso indiscriminato da parte di altri soggetti. Un rischio che tocca le persone, le aziende private, gli enti pubblici e che con lo sviluppo di IoT e intelligenza artificiale potrebbe divenire pericoloso sia per la competitività (e la sopravvivenza delle aziende, in particolare delle PMI), sia per la tutela individuale.

Per promuovere lo sviluppo di un’economia dei dati, tre le azioni suggerite dagli esperti:

  • creare una o più Società di Intermediazione Dati (SID) per supportare le PMI nella raccolta, analisi, gestione e valorizzazione dei dati (anche nella loro vendita);
  • aprire un marketplace centrale – gestito dalle SID – per promuovere l’interscambio sicuro e trasparente dei dati tra le aziende;
  • proteggere il know-how delle aziende (soprattutto per quanto riguarda uso e cessione dei dati – in ottica GDPR – con l’avanzare di IoT ed intelligenza artificiale).

L’obiettivo è far capire il valore dei dati ed evitare che le PMI “svendano” tale patrimonio a singoli attori privati oppure a soggetti “più forti” sul mercato.

Tema che dovrebbe poi essere affrontato anche dalla prospettiva privata, dei dati dei singoli cittadini, spesso patrimonio utile e necessario per consentire alle intelligenze artificiali applicate, per esempio, in campo medico e nell’ambito della ricerca scientifica di migliorare e produrre benefici tangibili per tutta la popolazione: pensiamo per esempio alla diagnostica oncologica, oggi i sistemi di AI – computer vision e riconoscimento immagini – aiutano gli oncologi ad intercettare cellule cancerose quando ancora non si vedono ad occhio umano; tuttavia, per “allenare” questi sistemi è fondamentale avere a disposizione migliaia di immagini che i pazienti potrebbero consapevolmente offrire alla scienza, naturalmente opportunamente anonimizzate e rese sicure.

Oggi, al contrario, si è più portati a regalare – spesso inconsapevolmente – i propri dati ad applicazioni di entertainment tramite social network anziché sfruttarli, con minori rischi, in ambiti i cui ritorni potrebbero produrre benefici per tutti.

Anche per questo, serve oggi stimolare una cultura del dato (e del suo utilizzo) che consenta alle persone (e alle aziende) di poter scegliere consapevolmente, comprendendone a fondo rischi e benefici, in che modo utilizzare e/o cedere i propri dati.

Default image
Nicoletta Boldrini
Seguo da molti anni le novità e gli impatti dell'Information Technology e, più recentemente, delle tecnologie emergenti sulle aziende e sul loro modo di "fare business", nonché sulle persone e la società | Il mio motto: sempre in marcia a caccia di innovazione | #Hunting4Innovation

Newsletter Updates

Enter your email address below to subscribe to our newsletter