Comprendere i meccanismi di accumulo di tante, lievi e continue scosse sismiche nel corso di decenni o di secoli, potrebbe essere la chiave per ridurre i danni causati da terremoti di forte intensità. Un aiuto, in questo, proviene dall’intelligenza artificiale che, per mezzo di algoritmi di machine learning, supporta i sismologi nel raccogliere più informazioni possibili sui movimenti delle strutture profonde delle faglie.

L’ambito di studio dell’intelligenza artificiale trova applicazione anche in una disciplina così specialistica e verticale come la sismologia. E lo fa mediante una delle sue declinazioni, il machine learning (o “apprendimento automatico“), capace, attraverso la creazione di algoritmi, di “imparare”, di apprendere dai dati con i quali tali algoritmi vengono allenati.

Nella mappa dei fenomeni sismici su scala globale, la California, a causa della sua posizione sopra la faglia di Sant’Andrea, rappresenta un’area particolarmente critica, soggetta a frequenti e ripetute scosse sismiche di lieve entità e, talora, di forte intensità, come è accaduto nel 1989 a Loma Prieta, nella Baia di San Francisco, colpita da quello che è considerato uno dei terremoti più distruttivi nella storia degli Stati Uniti e uno dei più violenti del secolo scorso nella California settentrionale.

I grandi terremoti, in realtà, sono rari. Nel frattempo, si verificano continui movimenti impercettibili sulle stesse faglie dei terremoti più intensi, caratterizzati dalle medesime dinamiche fisiche e dagli stessi meccanismi. Questi microterremoti sono importanti per noi scienziati, perché rappresentano una miniera di informazioni – ad oggi inutilizzate – su come si evolvono i fenomeni sismici. Ma solo se questi microterremoti vengono rilevati…”

spiega Mostafa Mousavi, ricercatore di geofisica e sismologia presso la Stanford’s School of Earth, Energy & Environmental Sciences dell’Università di Standford, in California.

Già alla fine degli anni ’80, in California, i computer erano al lavoro per analizzare i dati sismici registrati digitalmente, riuscendo a determinare in pochi minuti la posizione esatta di terremoti come quello Loma Prieta. Ma le limitazioni delle macchine utilizzate e le imprecisioni nella rilevazione delle tipologie di onde sismiche, non hanno permesso di intercettare i numerosi e continui microterremoti di quell’area, né prima dello storico terremoto distruttivo, né durante gli anni successivi.

Solo uno su cinque dei circa 500.000 terremoti rilevati a livello globale dai sensori sismici ogni anno, produce scosse abbastanza forti da essere captate. Eppure, arrivare a comprendere i modelli di accumulo di lievi e ripetute scosse sismiche nel corso di decenni o di secoli, potrebbe essere la chiave per ridurre i danni dei terremoti di forte intensità, spiegano i sismologi.

Artificial intelligence e sismologia: è in fase di test un rilevatore sismico ad apprendimento automatico

In un recente articolo pubblicato su Nature Communications, Mostafa Mousavi e i suoi colleghi descrivono un nuovo metodo, basato su algoritmi di intelligenza artificiale, in grado di aiutare a mettere a fuoco i milioni di sottili cambiamenti delle fratture presenti nella crosta terrestre.

Solo migliorando la capacità di rilevare e di localizzare i microterremoti, possiamo ottenere una visione più chiara di come i fenomeni sismici interagiscono e si estendono lungo la faglia, come hanno origine e persino come si arrestano” precisa Gregory Beroza – sismologo e professore di geofisica presso la Stanford University, nonché condirettore del Centro antisismico della California meridionale – riferendosi, nello specifico, alla zona sismica della California, in cui opera da sempre.

Lo strumento di rilevazione sviluppato dal team di ricercatori è denominato “trasformatore antisismico” (Earthquake Transformer) e lavora sfruttando, in particolare, algoritmi di machine learning per intercettare e mappare terremoti di bassissima intensità, i cui segnali deboli vengono trascurati dagli strumenti normalmente utilizzati.

Per determinare l’esatta posizione e l’esatta magnitudo di un terremoto di grande intensità, gli attuali algoritmi dei sensori sismici lavorano sulla base dell’orario di arrivo di due tipi di onde sismiche: il primo tipo – noto come “onde primarie” o “onde P” – avanza rapidamente, spingendo e comprimendo il terreno mentre le onde si muovono attraverso di esso; il secondo tipo – “onde di taglio” o “onde S” – pur viaggiando più lentamente rispetto al primo tipo di onde, agendo con movimenti ondulatori o sussultori risulta più distruttivo e pericoloso.

Ebbene, per allenare l’algoritmo di apprendimento automatico dell’Earthquake Transformer, i ricercatori non hanno preso in considerazione quei dati normalmente utilizzati per trasferire agli algoritmi il modello “classico” – e percettibile – di terremoto, caratterizzato da forti scosse e dal susseguirsi delle due tipologie di onde descritte.

I dati di addestramento selezionati dal team includono un milione di sismogrammi etichettati a mano, registrati negli ultimi due decenni e relativi a terremoti – leggeri e intensi – verificatisi in tutto il mondo, non solo in California. E, per la fase di test, sono stati scelti i dati registrati per cinque settimane consecutive nella regione del Giappone colpita, vent’anni fa, da un terremoto di magnitudo 6.6 e dalle sue ripetute scosse di assestamento.

Mano di robot umanoide che indica il pianeta terra, con scritta "intelligenza artificiale e sismologia"
Lo strumento di rilevazione sviluppato dai ricercatori della Stanford University (Earthquake Transformer) lavora sfruttando algoritmi di machine learning per intercettare e mappare terremoti di bassissima intensità, i cui deboli segnali vengono trascurati dai sensori sismici normalmente utilizzati.

AI e sismologia: si va verso il monitoraggio dei terremoti in tempo reale

Elaborare la registrazione di terremoti del passato mediante il trasformatore antisismico sviluppato, sta aiutando a rendere più accurate le mappe che ne derivano, portando alla luce eventuali falle nel processo di rilevazione che, altrimenti, verrebbero a galla solo dopo il verificarsi di terremoti ancora più intensi.

In particolare, durante la fase di test, tuttora in corso, lo strumento messo a punto dai ricercatori di Standford ha rilevato e localizzato 21.092 eventi sismici (più di due volte e mezzo il numero di terremoti rilevati a mano), utilizzando i dati di solo 18 delle 57 stazioni prese in considerazione originariamente dagli scienziati giapponesi per studiare la sequenza.

Il trasformatore antisismico si è dimostrato particolarmente efficace nel rilevare quelle scosse sismiche impercettibili, difficili da intercettare da parte dei tradizionali sensori e impossibili da avvertire dall’essere umano. Sottolinea William Ellsworth, ricercatore di geofisica all’Università di Stanford e membro del gruppo di studio:

“In passato, sono stati sviluppati algoritmi allenati a individuare le onde primarie dei fenomeni sismici, le onde P per intenderci. Ma questo è, oggi, un problema superato. Più complesso è, invece, individuare il principio, la fase di inizio esatta delle onde di taglio – le onde S – perché emergono dagli ultimi sussulti irregolari delle onde P in rapido movimento. Da qui la difficoltà nell’individuare le scosse lievi”

Con Earthquake Transformer in esecuzione su un solo computer, l’analisi che normalmente richiederebbe mesi di lavoro è stata completata in venti minuti, velocità resa possibile da algoritmi che ricercano contemporaneamente l’esatto momento di origine del terremoto e la tempistica esatta delle due fasi sismiche (onde P e onde S).

I ricercatori hanno addestrato e testato Earthquake Transformer su dati storici, relativi a eventi sismici del passato. Ma la tecnologia – avverte il sismologo Gregory Beroza – è “quasi pronta” a segnalare terremoti lievi non appena questi si verificano. E conclude:

“Il monitoraggio dei terremoti utilizzando l’apprendimento automatico in tempo reale, arriverà molto presto

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin