Da cosa ha origine il timore per i futuri sviluppi dell’intelligenza artificiale e come superarlo

Da un confronto tra esperti in discipline diverse (un ingegnere informatico, un ricercatore nel campo dell’AI policy e un professore di statistica), un’inedita riflessione sulla paura dell’intelligenza artificiale, sui timori che l'AI genera in chi, non sempre, possiede le conoscenze e le competenze atte a smontarli e ad analizzarli.

TAKEWAWAY

  • La paura dell’intelligenza artificiale, il timore riguardo a suoi possibili sviluppi malevoli, continua ad accompagnare il pensiero dei non addetti ai lavori.
  • Sull’argomento, un paper dello European Parliamentary Research Service (EPRS) riporta il contenuto di un dibattito tra diverse figure professionali, tenutosi presso il Parlamento europeo con l’obiettivo di sondare l’origine di tale paura.
  • Al di là delle diverse tesi emerse, il dibattito al quale si accenna suggerisce la necessità di dare vita ad altri confronti simili, al fine di costruire una discussione permanente sul tema, generando conoscenza e consapevolezza per affrontare quello che verrà.

Nonostante siano passati ormai diversi anni dalle prime applicazioni dell’AI in settori ritenuti cruciali per l’umanità intera (si pensi soltanto alla diagnostica medica) e sebbene, oggi, essa supporti obiettivi di valenza mondiale nel campo della sostenibilità sociale, ambientale ed economica e sia sempre vivo il dibattito sull’eticala paura dell’intelligenza artificiale, il timore riguardo alla messa in atto  – da parte sua – di processi decisionali senza trasparenza, a suoi possibili sviluppi malevoli, al suo rivoltarsi contro l’essere umano, non abbandonano né la sfera inconscia, né il pensiero razionale dei non addetti ai lavori [per approfondimenti sull’AI, consigliamo la lettura della nostra guida all’intelligenza artificiale che spiega cos’è, a cosa serve e quali sono gli esempi applicativi – ndr].

A tale proposito, in un documento dal titolo “Should we fear artificial intelligence?”, a cura dello European Parliamentary Research Service (EPRS), è riportato il contenuto di un interessante dibattito tra figure professionali appartenenti a discipline diverse, tenutosi presso il Parlamento europeo con l’obiettivo di sondare l’origine delle preoccupazioni nei confronti dei risvolti negativi che, in futuro, potrebbero assumere le tecniche che fanno capo all’ambito di studi dell’intelligenza artificiale e di suggerire possibili vie per superarle.

L’esperto in computer science: sfatiamo il falso mito dell’AI destinata a diventare super-intelligente e distruttiva

Tra gli attori del dibattito interdisciplinare in tema di paura dell’intelligenza artificiale, anche un docente presso il department of computer science dell’University College di Londra (Peter J. Bentley), il quale, criticando il fatto che, spesso, il confronto sul tema non vede la partecipazione di esperti della materia, di coloro che più di tutti ne possiedono le competenze tecniche, rivendica la centralità dell’opinione di scienziati e di ingegneri informatici, ossia di coloro che – per lavoro – trascorrono intere giornate mettendo a punto tecnologie e sviluppando algoritmi AI.

Secondo l’esperto di computer science, la paura dell’intelligenza artificiale, in particolare di quello che potrebbe diventare in futuro (“un pericolo per l’umanità”, una “minaccia esistenziale”, “la nuova bomba atomica”), deriva dal confondere realtà e fantasia, dal non sapere distinguere tra «la vera intelligenza artificiale che abbiamo intorno a noi, che ‘vediamo’, data, ad esempio, da sistemi di riconoscimento vocale, sistemi di rilevamento delle frodi nascoste, sistemi di lettura targhe utilizzati dalla Polizia, sistemi, insomma, in grado di risolvere problemi concreti, che ci aiutano a vivere meglio e in maggiore sicurezza» e il mito, la fantascienza dell’AI.

In tema di paura dell’intelligenza artificiale, Bentley insiste sullo sfatare i falsi miti che aleggiano attorno alle nuove tecnologie, ai quali i non addetti ai lavori spesso finiscono per credere perché non possiedono il sapere necessario per smontarli. Uno di questi è il mito di “un’AI auto-modificante, che renderà se stessa super-intelligente”, al punto da sovrastare l’essere umano. Osserva lo scienziato:

«Anche se fossimo in grado di creare una super-intelligenza, non abbiamo alcuna prova che un’AI di questo tipo desidererebbe farci del male. Questa è una credenza derivante dall’osservazione del comportamento umano. Ma le AI non avranno intelligenza umana. Il nostro vero futuro sarà quasi certamente una continuazione della situazione odierna, in cui i sistemi di intelligenza artificiale co-evolvono con noi e saranno progettati per adattarsi alle nostre esigenze, allo stesso modo in cui abbiamo manipolato colture, bovini e animali domestici per soddisfare le nostre esigenze»

Paura dell’intelligenza artificiale: l’AI come tecnologia trasformativa benefica se sapremo farne un uso etico

Dal parere dell’informatico sulla paura dell’intelligenza artificiale a quello del ricercatore in materia di AI policy presso l’Università di Oxford (Miles Brundage), il quale sostiene la tesi per cui l’AI è una tecnologia “trasformativamente” benefica per l’umanità. Ma dipenderà da noi. Dal modo in cui sapremo affrontare le sfide che pone, dal nostro rispetto di regole e linee guida per un suo utilizzo responsabile. A cominciare dalla scelta di esempi e modelli corretti dal punto di vista etico da somministrare alla macchina, in modo tale da non metterla nelle condizioni di operare scelte discriminatorie basate su etnia, genere, ceto sociale, età.

È possibile – afferma Brundage – che, in futuro, vengano inventati sistemi di intelligenza artificiale in grado di eseguire qualsiasi compito svolto dagli esseri umani. Il che, in parte, già accade nel mondo del lavoro, con la convergenza tra automazione e intelligenza artificiale per l’automatizzazione e la semplificazione dei processi in azienda: «Ma se sapremo gestire, in tutti i campi, le nuove competenze dell’intelligenza artificiale, se sceglieremo la via della governance, lasceremo all’AI solo quei compiti che, per noi, comportano rischi per la sicurezza, quelli noiosi e ripetitivi o che non siamo in grado di svolgere per mancanza di tempo e dei nostri limiti cognitivi e organizzativi». Nessuno rimpiazzerà nessuno. Ed è l’essere umano che tiene le fila.

E riguardo alle preoccupazioni per una futura AI pericolosa, che si trasforma in mostro, fa riflettere il pensiero del ricercatore:

«Anche senza l’intelligenza artificiale, in passato, con le armi nucleari, abbiamo avuto fra le mani la capacità di autodistruggerci. Certo, si potrebbe abusare, in futuro, delle nuove tecnologie per creare uno stato autoritario su scala globale, basandosi sull’automazione della sorveglianza, sulla coercizione e sulla repressione del dissenso. E si possono immaginare molti altri possibili scenari negativi. Ma è l’eterna scelta fra il bene e il male che spetta all’essere umano».

La visione dell’esperto di AI policy è ottimistica. Se l’umanità riuscirà a fare un “uso buono”, cioè “rivolto al bene”, l’intelligenza artificiale è destinata a generare benessere per la collettività in molteplici ambiti, «tracciando un nuovo corso della civiltà».

Paura dell’intelligenza artificiale: non confondiamo il mezzo con gli obiettivi

Olle Häggström, professore di statistica alla Chalmers University di Göteborg (Svezia), intervenuto in seno al dibattito presso il Parlamento europeo, si focalizza, in particolare, su due rischi maggiormente percepiti a livello globale e dai quali origina – a suo avviso – la paura dell’intelligenza artificiale.

Il primo di tali rischi ha a che vedere col mercato del lavoro. Nello specifico, il docente fa l’esempio del settore trasporti, «che rischia, in un arco temporale di forse non più di vent’anni, di essere completamente spazzato via dai veicoli a guida autonoma, con milioni di camionisti, autisti di autobus e tassisti che rimarranno senza lavoro».

E se quello delle macchine che sostituiscono il lavoro umano non è certo un fenomeno nuovo nella storia dell’umanità – fa notare – «la rivoluzione dell’intelligenza artificiale porterebbe un cambiamento epocale, in quanto non sarebbe più solo il lavoro manuale ad essere trasferito alle macchine, ma sempre più il lavoro intellettuale».

In tema di paura dell’intelligenza artificiale, un altro rischio percepito, posto in rilievo da Häggström, è quello che vedrebbe le tecniche di intelligenza artificiale trasformarsi in uno strumento per future “armi autonome”, con conseguente corsa agli armamenti a livello globale. «E, a differenza delle armi nucleari, le armi AI non richiederebbero materie prime costose e difficili da reperire, quindi potrebbero, potenzialmente, essere prodotte in serie da tutti i Paesi».

Due paure che riflettono uno scenario futuro fosco, che merita di essere analizzato per comprendere come prevenirlo. A tale riguardo, a differenza dell’esperto in AI policy, il professore di statistica non chiama in causa l’etica, né i comportamenti virtuosi nell’utilizzo dell’intelligenza artificiale. Più pragmaticamente, fa riferimento agli “obiettivi” che sapremo affidare alle nuove tecnologie, chiarendo che la macchina è soltanto un mezzo per raggiungerli e che «la sua intelligenza è data proprio dalla capacità di dirigere il mondo verso obiettivi non distruttivi, non contrari a quelli dell’umanità».

Al di là delle diverse tesi e indicazioni emerse su come superare la paura dell’intelligenza artificiale, il dibattito al quale si è accennato suggerisce la necessità di dare vita ad altri confronti come questo – eventualmente aperti a più partecipanti e a rappresentanti di più discipline – al fine di costruire una discussione permanente sul tema.

Oggi, a nessuno è dato sapere quali saranno, fra venti o trent’anni, gli impatti sull’umanità dell’utilizzo dell’AI. Né fino dove questa potrà spingersi. Ma la formulazione di ipotesi genera conoscenza e le riflessioni portano all’acquisizione di consapevolezza, che sono le basi per essere preparati a quello che verrà.

Default image
Paola Cozzi
Giornalista dal solido background acquisito lavorando presso i più prestigiosi Editori italiani | Ventidue anni di esperienza nello sviluppo di prodotti editoriali b2b, cartacei e digitali | Vent'anni alla direzione di una testata b2b in tema di Sicurezza anticrimine di tipo fisico | Attualmente si dedica al Giornalismo Digitale ed esplora nuove tecniche e nuovi stili di comunicazione
Articles: 195