Un Umanesimo tecnologico si impone: è la posizione della Fondazione Leonardo-Civiltà delle Macchine che, con l’obiettivo di offrire uno schema di buona prassi all’industria dei settori IA e robotica, ha messo a punto lo “Statuto etico e giuridico dell’intelligenza artificiale”, inquadrando i nodi etici dell’attuale società digitale e proponendo ai decisori politici un insieme di regole per garantire che le nuove tecnologie restino una forza benefica - e non maligna - del nostro tempo.
Verso un nuovo Umanesimo Digitale. L’intelligenza artificiale, il suo essere presente ormai nel nostro quotidiano, il suo interagire con la vita economica e sociale del Paese, pone quesiti cruciali, in cui la domanda non è tanto “come funziona?”, ma “come si comporta?”.
Alcuni sistemi di intelligenza artificiale si ritrovano a dover prendere decisioni da cui può dipendere la vita di essere umani, come nel caso dei veicoli a guida autonoma o dei droni militari. Lo sviluppo del Machine Learning fa sorgere dubbi attorno alla neutralità di funzionamento degli algoritmi, al punto da non essere sempre sicuri che i nostri software agiscano senza pregiudizio e discriminazione, andando contro i valori umani.
E l’ingresso dei robot nelle fabbriche, negli ospedali e nelle nostre case, sta avviando un processo di “socializzazione della robotica”, dovuto al fatto che deleghiamo alla macchina lo svolgimento di sempre più compiti, in modo che possa sostituirci sul posto di lavoro o a casa, con un impatto sia di tipo fisico che cognitivo sull’essere umano, di cui dobbiamo tenere conto. Non farlo, potrebbe essere pericoloso per l’uomo.
Tutti problemi di natura etica che hanno aperto un dibattito internazionale, andando a sensibilizzare le grandi aziende dell’hi-tech, le quali hanno iniziato a darsi delle policy interne, volte a garantire uno sviluppo trasparente e affidabile della propria ricerca in ambito AI Artificial Intelligence e robotica, aprendo le porte ad un nuovo Umanesimo Digitale.
Lo Statuto etico e giuridico dell’intelligenza artificiale
Ma, se la discussione sui codici etici delle nuove tecnologie procede nel settore privato, non coinvolge ancora le Istituzioni pubbliche, lasciando in grigio molti punti della legislazione che, invece, dovrebbe avere un proprio ruolo nel regolare la presenza delle macchine nella nostra società, rimarca la Fondazione Leonardo-Civiltà delle Macchine.
Un Umanesimo tecnologico, digitale, si impone. Questa la posizione della Fondazione, che crede nella “necessità che i sistemi di intelligenza artificiale si conformino a un approccio antropocentrico, a beneficio della collettività. Le innovazioni devono essere programmate mettendo al centro l’uomo, il rispetto dei suoi diritti, dei principi e dei valori propri di una società democratica. Al contempo, devono assicurare la propria affidabilità dal punto di vista tecnico, sotto il profilo della sicurezza e della capacità di essere utilizzate in modo trasparente”.
Seguendo tale indirizzo, la Fondazione ha messo a punto lo Statuto etico e giuridico dell’intelligenza artificiale, con l’obiettivo di offrire uno schema di good practice all’industria dei settori IA e robotica, inquadrando i nodi etici della società digitale e proponendo ai decisori politici un insieme di regole per garantire che le nuove tecnologie restino una forza benefica – e non maligna – della nostra società.
Umanesimo Digitale: la centralità dell’educazione alle nuove tecnologie
“L’IA non è un terreno destinato a caste ristrette. È la madre delle grandi innovazioni del nostro tempo, coinvolge l’intera umanità e sfida il presente in termini radicali” si legge nello Statuto Etico e Giuridico dell’Intelligenza Artificiale.
Posizione di rottura – questa – rispetto a un passato recente, in cui meccanismi e dinamiche dell’intelligenza artificiale venivano tenuti sotto una teca di vetro, con le chiavi custodite dagli addetti ai lavori. Sapere esclusivo di ingegneri, informatici e sviluppatori, l’IA e, più in generale, le tecnologie digitali, restavano “materia oscura” per i comuni cittadini.
Dalle caste ristrette all’intera umanità, recita lo Statuto della Fondazione. Perché gli utenti – in ambito lavorativo come nel privato – sono i cittadini. Ai quali, oggi, viene chiesto non solo di conoscere l’IA, la robotica e le nuove tecnologie, ma di essere consapevoli di come queste possono agire, di come possono comportarsi, nel bene e nel male.
In tale dibattito, la questione della formazione diviene centrale e cruciale: è necessaria un’alfabetizzazione digitale che insegni al cittadino comune l’uso dell’Intelligenza Artificiale e della robotica, una formazione degli utenti che permetta un uso consapevole delle nuove tecnologie, che ne evidenzi le potenzialità, responsabilizzando l’individuo di fronte ai rischi.
Rischi che possono essere connessi – solo per citarne alcuni – a un uso doloso dell’IA, intenzionalmente guidato da scopi illegali (attacchi informatici, manipolazione dell’opinione pubblica attraverso fake news, campagne di disinformazione), oppure a un suo utilizzo non doloso, tra cui il pregiudizio non intenzionale e la discriminazione; rischi che hanno a che vedere con il funzionamento degli algoritmi o con l’interazione tra uomo e macchina (che andrà, col tempo, a influire su determinate dinamiche comportamentali), rischi legati ai requisiti di sicurezza dei materiali con i quali vengono costruiti i robot e rischi causati da comportamenti non regolamentati da parte di questi.
Applicazione dell’intelligenza artificiale in ambito healthcare: qui potenzialità e rischi sono più evidenti
In quanto vede al centro le vite umane, la salute e il benessere pisco-fisico di pazienti affetti da patologie più o meno gravi e invalidanti, quello dell’assistenza sanitaria è, in questo momento, l’ambito di applicazione più delicato dell’intelligenza artificiale, in cui il suo lato chiaro – il suo essere fortemente innovativa – e il suo lato oscuro sono più lampanti, in cui un errore della macchina, un malfunzionamento, un cattivo utilizzo da parte del paziente o del medico, il rischio di pregiudizio non intenzionale da parte dell’algoritmo, il furto o la manipolazione dei dati da parte di terzi, possono costare cari.
Parlando di Umanesimo Digitale, lo Statuto Etico e Giuridico dell’Intelligenza Artificiale illustra alcuni esempi di IA in ambito healthcare, esplicativi circa l’importanza della consapevolezza delle concrete potenzialità e dei i rischi reali di tale tecnologia, oltre che della supervisione puntuale e del controllo costante dei sistemi e delle macchine utilizzati. Perché al centro ci sono il malato e le sue vulnerabilità psico-fisiche.
Un esempio interessante, per la delicatezza e la complessità della patologia presa in esame, è quello di un sistema composto da smartphone, cloud e algoritmi di IA, recentemente sviluppato da una startup spagnola con l’obiettivo di cambiare radicalmente il metodo di monitoraggio dei pazienti affetti da patologie psichiatriche, i quali, ad oggi, si sottopongono a visite mediche in ambulatorio per monitorare le proprie condizioni.
Ma – è stato notato da studi di settore – che il fatto di trovarsi vis-à-vis col proprio medico, fuori dalla propria routine quotidiana, induce questi pazienti a tenere sotto controllo il proprio comportamento durante gli incontri, dando luogo a falsi positivi nei test.
Il nuovo sistema, invece, poggia sul monitoraggio da remoto: tramite un’app appositamente creata e installata su smartphone, vengono raccolte, durante tutta la giornata, una serie di informazioni sullo stato del paziente, sui suoi comportamenti e sull’andamento della sua patologia. Raccolti i dati, questi vengono poi inviati su cloud e, successivamente, elaborati in tempo reale attraverso l’utilizzo di specifici algoritmi. I risultati di questa analisi saranno poi inviati al medico specialista.
Un altro esempio è dato da un sistema – sviluppato da una startup francese – che permette di personalizzare e ottimizzare le dosi di insulina in base all’effettivo bisogno del paziente diabetico. Tre gli strumenti utilizzati: un sensore per misurare il livello di glicemia nel sangue, in grado di inviare anche i dati raccolti; un erogatore di insulina, anch’esso con funzioni IoT e, infine, il sistema software, in cui una serie di algoritmi di intelligenza artificiale elaborano l’enorme quantità di dati raccolti dal paziente e calcolano in anticipo il momento in cui sarà necessario assumere la dose di insulina e la quantità esatta della stessa.