L’AI a supporto dell’Obiettivo 16 dell’Agenda 2030: la tecnologia al servizio della pace e dell’inclusività

“Senza una comunità pacifica e inclusiva, non può esservi sviluppo sostenibile” recita l’Obiettivo 16 dei Sustainable Development Goals. L’intelligenza artificiale, certo, non ha la bacchetta magica, ma, per questo SDG dell’Agenda ONU, può intervenire, ad esempio, quantificando, attribuendo un numero e una precisa area geografica alle manifestazioni di odio e di intolleranza in Rete, indicando, a chi di dovere, “dove” intervenire per scardinare il sistema.

TAKEAWAY

  • È sempre maggiore il contributo che l’intelligenza artificiale è in grado di fornire all’Agenda 2030, per il conseguimento dei 17 Obiettivi ONU in essa contenuti.
  • A livello globale, sono tanti gli esempi di progetti realizzati per ogni singolo obiettivo grazie all’AI. Tra questi, il progetto “Mappa italiana dell’intolleranza”, all’interno del filone di studi volti al conseguimento dell’SDG 16 per la “promozione di società pacifiche e inclusive orientate allo sviluppo sostenibile”.
  • Il progetto ha lo scopo di individuare ed esaminare – mediante algoritmi AI – gli hate speech pubblicati online, per poi estrarli e geolocalizzarli in modo da “mappare” l’intolleranza del nostro Paese, identificando quelle aree in cui è necessario intervenire con politiche che promuovano tolleranza e inclusività.

Il contributo che le tecniche che fanno capo all’ambito di studi dell’intelligenza artificiale sono in grado di fornire all’Agenda 2030, per i 17 Obiettivi ONU in essa contenuti (i Sustainable Development Goals – SDGs nell’acronimo inglese), sta divenendo, soprattutto negli ultimi due anni, fatto sempre più concreto.

In Italia e nel mondo, sono ormai numerosi gli esempi di progetti realizzati per ogni singolo obiettivo grazie all’AI, alcuni dei quali sono oggetto di riflessione all’interno dello studio “L’intelligenza artificiale per lo sviluppo sostenibile”, realizzato da AIxIA (Associazione Italiana per l’Intelligenza Artificiale) e dal Dipartimento di Informatica dell’Università degli Studi di Bari Aldo Moro, con il supporto del Ministero degli Affari Esteri e della Cooperazione Internazionale (MAECI) e con il contributo del CNR.

In particolare, tra i 17 SDGs, colpisce, per la complessità e, insieme, la levatura dei traguardi che si pone, il numero 16 – Pace, giustizia e Istituzioni solide, la cui base poggia sulla tesi secondo la quale «senza una comunità pacifica e inclusiva, non può esservi sviluppo sostenibile».

E “pacifica e inclusiva” è – per cominciare – quella comunità impegnata a ridurre tutte le forme di violenza e di intolleranza nei confronti di donne, uomini e bambini, compresi disabili, fragili e persone di etnia, fede e orientamento sessuale diverso.

Intelligenza artificiale per i 17 Obiettivi ONU: l’esempio del progetto che mappa l’intolleranza a partire dall’analisi degli hate speech online

In tema di applicazione delle tecniche di intelligenza artificiale per i 17 Obiettivi ONU, un esempio concreto è dato dal progetto “Mappa italiana dell’intolleranza” che, più nel dettaglio, si colloca all’interno del filone di studi atti al conseguimento dell’SDG 16 per la «promozione di società pacifiche e inclusive orientate allo sviluppo sostenibile».

L’iniziativa, coordinata da VOX – Osservatorio Italiano per i Diritti, vede la collaborazione dell’Università’ degli Studi di Milano, dell’Università Sapienza di Roma, dell’Università Aldo Moro di Bari e del Centro Itstime dell’Università Cattolica di Milano.

Partito nel 2015 (quest’anno è giunto alla sua sesta edizione), il progetto si prefigge di individuare ed esaminare in profondità – mediante un sistema di intelligenza artificiale – gli hate speech (letteralmente “discorsi d’odio”) pubblicati prevalentemente sul canale social Twitter, per poi estrarli e geolocalizzarli in modo tale da “mappare” l’intolleranza del nostro Paese, identificando quelle aree in cui è più elevato il livello di espressione di odio a sfondo omofobo, razzista, sessista, antisemita e abilista e in cui è necessario intervenire con precise politiche che promuovano la tolleranza e l’inclusività.

Lo strumento principe utilizzato a tale scopo è un software (più precisamente, una piattaforma di Social Network Analytics & Sentiment Analysis), messo a punto dal Dipartimento di Informatica dell’Università degli Studi di Bari, che coniuga tre tecniche di elaborazione del linguaggio scritto, afferenti all’elaborazione del linguaggio naturale (NLP), all’analisi semantica dei contenuti e alla “sentiment analysis”. Quest’ultima tecnica, in particolare, conosciuta anche come “opinion mining”, nella definizione che ne dà wikipedia «è un campo dell’elaborazione del linguaggio naturale che si occupa di costruire sistemi per l’identificazione e l’estrazione di opinioni dal testo, basati sui principali metodi di linguistica computazionale e di analisi testuale» [per approfondimenti sull’AI, consigliamo la lettura della nostra guida all’intelligenza artificiale che spiega cos’è, a cosa serve e quali sono gli esempi applicativi – ndr].

Il lavoro di mappatura dei contenuti d’odio

In tema di intelligenza artificiale per i 17 Obiettivi ONU, il progetto focalizzato sull’SDG 16 dell’Agenda 2030 è stato scandito da più fasi. Nel dettaglio, la mappatura dei contenuti d’odio ha visto, dapprima, l’individuazione – a cura del dipartimento di Diritto Pubblico italiano e sovranazionale dell’Università degli Studi di Milano – di quei diritti della persona che, se calpestati, anche attraverso la violenza verbale, hanno un impatto negativo sull’intera comunità.

A questa è seguita una fase in cui è stato isolato un dato numero di espressioni e di termini ritenuti “sensibili” dai ricercatori del dipartimento di Psicologia Dinamica e Clinica della Facoltà di Medicina e Psicologia presso la Sapienza di Roma e legati a determinate emozioni negative da parte di coloro che li subiscono.

La fase di mappatura vera a propria dei contenuti è stata possibile per mezzo del software al quale si è accennato, mentre l’analisi sociologica di tutti i dati raccolti è stata realizzata dai ricercatori di ItsTime, Italian Team for Security, Terroristic Issues & Managing Emergencies, del Dipartimento di Sociologia dell’Università Cattolica di Milano.

Nello specifico, le mappe sono state mese a punto ricorrendo alla tecnica in base alla quale le tonalità più vicine al colore rosso stanno a indicare una maggiore concentrazione dei contenuti in questione. A tale proposito, i ricercatori specificano che, sulla mappa, la segnalazione delle aree del Paese in cui sono stati prodotti maggiori hate speech non dipende dalla “quantificazione” dei contenuti correlati a quella specifica zona, ma dal tenere in considerazione l’attività social complessiva di quell’area, nonché il totale del suo numero di utenti social attivi.

Intelligenza artificiale per i 17 Obiettivi ONU: elaborazione del linguaggio naturale, analisi semantica e opinion mining in aiuto al Goal 16

In tema di tecniche di intelligenza artificiale per i 17 Obiettivi ONU, i tre algoritmi sviluppati per analizzare i discorsi d’odio in Rete hanno, nello specifico, il compito di rilevare quei contenuti ritenuti – in base ai parametri definiti dagli psicologi dell’Ateneo di Roma – “potenzialmente intolleranti”, quelli classificati come “ambigui” e, infine, di filtrare quelli reputati “non intolleranti”. Dopo tali operazioni, il software geolocalizza i contenuti analizzati e procede con la costruzione delle mappe.

In tutti e tre i casi, la sfida è stata quella cogliere il pieno significato di alcune sfumature, di alcune pieghe del linguaggio adoperato dagli utenti, per arrivare al nocciolo dei concetti espressi e poterli definire “contenuti d’odio” oppure solo battute ironiche. In questo lavoro, è stato decisivo l’algoritmo di opinion mining, in grado di giudicare “positivo” o “negativo” il contenuto analizzato, sulla base di ciascuno dei significati con i quali lo stesso termine viene utilizzato dalla lingua in questione (emblematico, a tale riguardo, è il vocabolo “finocchio”).

La combinazione delle tre tecniche AI di elaborazione del linguaggio naturale ha reso possibile una classificazione particolarmente accurata e puntuale degli hate speech online, riuscendo a “rendere non ambigue” molteplici espressioni e vocaboli rilevati.

La recente edizione del progetto ha visto – a partire dalla metà di gennaio alla metà di ottobre 2021 – l’estrazione di ben 797.326 tweet, di cui la percentuale con contenuti d’odio è del 31%, in calo rispetto allo scorso anno e con alcune variazioni nella distribuzione: nel 2020, le categorie maggiormente vessate dalla Rete sono state le donne (49,91%), gli ebrei (18,45%) e i migranti (14,40%), mentre quest’anno – a esclusione delle donne, sempre al primo posto, (43,70%) – in seconda e terza posizione troviamo islamici (19,57%) e disabili (16,43%).

La geolocalizzazione dei tweet ricalca una mappa già nota dell’Italia, ossia con maggiore concentrazione di hate speech di natura omofoba al Nord e al Sud della penisola, di natura antisemitia al Nord e nel Lazio e xenofobia in Campania, Puglia e Sicilia.

La portata di tale progetto sta nell’attribuire un “numero” e una precisa area del Paese alle manifestazioni di violenza verbale in Rete, potendo così fornire – alle Istituzioni preposte – precise su “dove” intervenire, sotto il profilo formativo ed educativo, per scardinare il “sistema” d’odio cristallizzatosi, passaggio determinante per la costruzione di una comunità tesa allo sviluppo sostenibile.

Default image
Paola Cozzi
Giornalista dal solido background acquisito lavorando presso i più prestigiosi Editori italiani | Ventidue anni di esperienza nello sviluppo di prodotti editoriali b2b, cartacei e digitali | Vent'anni alla direzione di una testata b2b in tema di Sicurezza anticrimine di tipo fisico | Attualmente si dedica al Giornalismo Digitale ed esplora nuove tecniche e nuovi stili di comunicazione
Articles: 195