Deep learning, big data analytics, data science e intelligenza artificiale possono contribuire a impiegare i dati provenienti dai social network per migliorare la resilienza delle nostre società. La ricerca offre un aiuto importante, come testimonia Stefano Cresci, fresco vincitore del premio che “incorona” il più interessante giovane ricercatore europeo.

Big data analytics, deep learning, data science possono migliorare o rendere più critica la nostra vita. Già oggi il tessuto stesso della società è rimodellato dalla tecnologia, ma è destinato a esserlo ancora di più.

Pensiamo solo all’impatto dei social network nella nostra vita quotidiana. Tante conversazioni, tante informazioni, vere o fasulle circolano in rete. Nei primi nove mesi del 2020 Facebook ha cancellato 4,5 miliardi e mezzo di account falsi. Lo stesso problema lo registrano Twitter & C. Un bel problema anche per la cyber security. Eppure gli stessi social network possono essere utili anche per aiutare a gestire i momenti immediatamente successivi a un disastro o a un attacco terroristico.

Negli ultimi anni, i lati online e offline delle nostre vite tendono progressivamente a unirsi, in una convergenza socio-tecnica tale che diventano indistinguibili. Per migliorare la resilienza delle nostre società, non si può più ignorare la parte online, dato che moltissimi aspetti della nostra esistenza sono influenzati dai dati e dagli algoritmi

A dirlo è Stefano Cresci, ricercatore dell’Istituto di informatica e telematica del Consiglio Nazionale delle Ricerche. È il neo vincitore del “Cor Baayen Young Researcher Award” di ERCIM – The European Research Consortium for Informatics and Mathematics, consorzio composto da diciassette Enti di ricerca europei.

È un premio particolarmente prestigioso, riconosciuto dal 1995 a giovani ricercatori particolarmente promettenti: erano nove anni che un italiano non lo vinceva. Cresci lo ha ottenuto grazie alla “eccezionale qualità scientifica delle sue ricerche e dell’impatto sulla scienza e sulla società”, sottolinea lo stesso Ercim.

I suoi algoritmi hanno trovato impiego presso l’Istituto nazionale di geofisica e vulcanologia (Ingv) ma anche presso la Polizia di Stato, l’Europol e l’European Monitoring Centre for Drugs and Drug Addiction.

È anche coautore di un libro fresco di stampa intitolato “New Dimensions of Information Warfare”, ovvero le nuove dimensioni della guerra dell’informazione. Attualmente è coinvolto, col team di ricerca guidato da Dino Pedreschi, docente presso il Dipartimento di Informatica dell’Università di Pisa, al progetto europeo SoBigData++ il cui obiettivo è creare un’infrastruttura di ricerca per la big data analytics in ambito social.

Dottor Cresci, qual è il focus della sua attività di ricerca, che fa uso di deep learning, AI e big data analytics?

stefano cresci
Stefano Cresci, ricercatore presso il Consiglio Nazionale delle Ricerche

Mi occupo fondamentalmente di social media e online social network e della gestione dei dati, relativamente a due aspetti: uno riguardante lo sfruttamento dei dati per scopi benefici, in particolare per migliorare la gestione delle emergenze; l’altro riguardante il “lato oscuro” del Web. Non tutte le informazioni reperibili dalle piattaforme social sono credibili: quindi, bisogna affrontare il problema di comprenderne l’attendibilità, l’autorevolezza, la veridicità per evitare di cadere in inganno. Nella mia ricerca adotto e sviluppo tecniche di web crawling e web scraping, big data analytics, nuove tecniche di intelligenza artificiale (in particolare machine learning, deep learning, computer vision) e data science.

Partiamo dall’impatto positivo dell’AI e di altre tecniche: come possono aiutare nel gestire eventi critici estremi e su cosa si è orientata la sua ricerca?

Innanzitutto ho cercato di focalizzare l’attenzione sulla possibilità di sfruttare le informazioni presenti sulle piattaforme social in situazioni di particolare stress. A seguito di situazioni estreme quali un terremoto o un attacco terroristico c’è un bisogno informativo enorme. Le piattaforme social consentono di soddisfare questa “fame di notizie”, in quanto su di essi circolano rapidamente informazioni, più o meno attendibili. Così moltissime persone si ritrovano sui social network a scambiarsi informazioni su quanto è accaduto. Da qui abbiamo lavorato per sfruttare questa mole di informazioni a beneficio di chi deve gestire al meglio e in maniera più tempestiva l’emergenza, dando loro gli strumenti per avere un quadro quanto più aggiornato ed efficace sulla situazione. Pensiamo solo alla condivisione social di foto e video amatoriali relativi a zone diverse dove è accaduto un sisma: questi si rivelano preziosi per comprendere quali aree abbiano subito maggiori danni e abbiano bisogno in maniera prioritaria di un intervento. Per questo si impiegano varie tecniche, in primis di big data analytics e poi di data science, di AI e machine learning in modo da selezionare le info davvero importanti e sottoporle al personale addetto all’emergenza. Si tratta di milioni di informazioni, video e testuali, da verificare e selezionare in un arco temporale assai ristretto, operazioni altrimenti impossibili. In questo caso gli algoritmi aiutano gli esseri umani a selezionare e capire per poi programmare meglio gli interventi.

Può fare un esempio di impiego?

Il nostro staff dell’IIT-CNR ha collaborato con l’Istituto nazionale di geofisica e vulcanologia, i cui analisti erano interessati a capire quali erano le conversazioni social a seguito di terremoti di magnitudo significativa. In questo caso intendevano capire come gestire la comunicazione per evitare la diffusione di false informazioni, fornendo invece notizie vere e puntuali. Il rischio in questi momenti è che circolino notizie inattendibili e, ancor peggio, che vengano veicolati – in buona fede – persino da autorevoli personaggi istituzionali. All’estero, so che la Protezione civile degli USA o quella del Qatar sfrutta queste informazioni per mappare in maniera rapida i danni causati. Partendo da algoritmi di Intelligenza Artificiale cerca di comprendere lo stato dell’arte dell’evento, ricavando appunto info da immagini messe in rete dagli utenti sui social. Attraverso un processo di geocodifica si cerca di capire da quali aree è arrivata una determinata foto o video in modo poi da costituire delle mappe di crisi visualizzando le aree più o meno critiche. Deep learning e computer vision sono le tecniche maggiormente utilizzate per monitorare queste situazioni.

Veniamo, invece, al “lato oscuro”: la pandemia delle informazioni da cui occorre difendersi, vedi fake news o campagne elettorali pilotate da informazioni create ad arte da bot. Come ridurre il rischio?

Va precisato innanzitutto, che il problema delle fake news non è esclusivamente di natura tecnologica, ma soprattutto socio-culturale. La disinformazione è un problema presente da tempo. I social network svolgono una funzione di cassa di risonanza, aumentando terribilmente la scala e la portata di questo problema. Quindi, la soluzione deve essere trovata innanzitutto a livello sociale e culturale, con strategie a medio e lungo termine e di ampia portata. La tecnologia può solo porre rimedio per quel che può, ma non può agire a un livello decisamente più ampio e profondo. Occorre sviluppare una maggiore consapevolezza degli strumenti tecnologici, ma ancor più serve aumentare la conoscenza necessaria per discernere ciò che è vero da ciò che è falso.

Nel futuro, come si orienterà l’impiego di big data analytics & C. in aiuto a chi opera al disaster management? 

Sicuramente si lavorerà ancora più attentamente al processo di raccolta dati e di selezione, non solo per affrontare i momenti post disastri naturali, ma anche per la prevenzione di situazioni pericolose per l’ordine pubblico che possono accentuare l’estremizzazione di persone e il manifestarsi di azioni pericolose. L’informatica viene in soccorso perché fornisce gli algoritmi utili a monitorare i post condivisi sui social con contenuti rischiosi e permette di capire chi sono gli utenti che più spesso li condividono, per comprendere se sono potenzialmente pericolosi.

Nella sua ricerca adotta e sviluppa tecniche di web crawling e scraping, big data analytics, così come nuove tecniche di AI e data science, dando diversi contributi ampiamente acclamati a queste aree di ricerca. Quali saranno le tecniche e metodi maggiormente adottati in futuro?

Il deep learning svolgerà un ruolo fondamentale in tutti gli ambiti dove è e sarà applicabile, comprese le tecnologie per il disaster management che per la cyber security. Come per attività virtuose, esso viene usato purtroppo anche per scopi malevoli. Pensiamo per esempio ai deep fake, ovvero la possibilità di generare dei contenuti audio/video o testuali completamente fasulli, generati da una macchina, che consente di “simulare” un importante personaggio, il suo stile, le sue caratteristiche peculiari, esprimendo però contenuti o giudizi lesivi o capaci di screditarlo. L’elemento cruciale che permette di mettere in campo sistemi raffinati come questi richiede competenze molto elevate oltre che risorse economiche ingenti, appannaggio per ora di pochi attori importanti (per esempio, grandi agenzie governative). Il pericolo sempre più concreto è che questi strumenti saranno a una sempre più ampia portata, grazie allo sviluppo tecnologico.

Scritto da:

Andrea Ballocchi

Giornalista Leggi articoli Guarda il profilo Linkedin