Comprendere i meccanismi di accumulo di tante, lievi e continue scosse sismiche nel corso di decenni o di secoli, potrebbe essere la chiave per ridurre i danni causati da terremoti di forte intensità. Un aiuto, in questo, proviene dall’intelligenza artificiale che, per mezzo di algoritmi di machine learning, supporta i sismologi nel raccogliere più informazioni possibili sui movimenti delle strutture profonde delle faglie.
L’ambito di studio dell’intelligenza artificiale trova applicazione anche in una disciplina così specialistica e verticale come la sismologia. E lo fa mediante una delle sue declinazioni, il machine learning (o “apprendimento automatico“), capace, attraverso la creazione di algoritmi, di “imparare”, di apprendere dai dati con i quali tali algoritmi vengono allenati.
Nella mappa dei fenomeni sismici su scala globale, la California, a causa della sua posizione sopra la faglia di Sant’Andrea, rappresenta un’area particolarmente critica, soggetta a frequenti e ripetute scosse sismiche di lieve entità e, talora, di forte intensità, come è accaduto nel 1989 a Loma Prieta, nella Baia di San Francisco, colpita da quello che è considerato uno dei terremoti più distruttivi nella storia degli Stati Uniti e uno dei più violenti del secolo scorso nella California settentrionale.
“I grandi terremoti, in realtà, sono rari. Nel frattempo, si verificano continui movimenti impercettibili sulle stesse faglie dei terremoti più intensi, caratterizzati dalle medesime dinamiche fisiche e dagli stessi meccanismi. Questi microterremoti sono importanti per noi scienziati, perché rappresentano una miniera di informazioni – ad oggi inutilizzate – su come si evolvono i fenomeni sismici. Ma solo se questi microterremoti vengono rilevati…”
spiega Mostafa Mousavi, ricercatore di geofisica e sismologia presso la Stanford’s School of Earth, Energy & Environmental Sciences dell’Università di Standford, in California.
Già alla fine degli anni ’80, in California, i computer erano al lavoro per analizzare i dati sismici registrati digitalmente, riuscendo a determinare in pochi minuti la posizione esatta di terremoti come quello Loma Prieta. Ma le limitazioni delle macchine utilizzate e le imprecisioni nella rilevazione delle tipologie di onde sismiche, non hanno permesso di intercettare i numerosi e continui microterremoti di quell’area, né prima dello storico terremoto distruttivo, né durante gli anni successivi.
Solo uno su cinque dei circa 500.000 terremoti rilevati a livello globale dai sensori sismici ogni anno, produce scosse abbastanza forti da essere captate. Eppure, arrivare a comprendere i modelli di accumulo di lievi e ripetute scosse sismiche nel corso di decenni o di secoli, potrebbe essere la chiave per ridurre i danni dei terremoti di forte intensità, spiegano i sismologi.
Artificial intelligence e sismologia: è in fase di test un rilevatore sismico ad apprendimento automatico
In un recente articolo pubblicato su Nature Communications, Mostafa Mousavi e i suoi colleghi descrivono un nuovo metodo, basato su algoritmi di intelligenza artificiale, in grado di aiutare a mettere a fuoco i milioni di sottili cambiamenti delle fratture presenti nella crosta terrestre.
“Solo migliorando la capacità di rilevare e di localizzare i microterremoti, possiamo ottenere una visione più chiara di come i fenomeni sismici interagiscono e si estendono lungo la faglia, come hanno origine e persino come si arrestano” precisa Gregory Beroza – sismologo e professore di geofisica presso la Stanford University, nonché condirettore del Centro antisismico della California meridionale – riferendosi, nello specifico, alla zona sismica della California, in cui opera da sempre.
Lo strumento di rilevazione sviluppato dal team di ricercatori è denominato “trasformatore antisismico” (Earthquake Transformer) e lavora sfruttando, in particolare, algoritmi di machine learning per intercettare e mappare terremoti di bassissima intensità, i cui segnali deboli vengono trascurati dagli strumenti normalmente utilizzati.
Per determinare l’esatta posizione e l’esatta magnitudo di un terremoto di grande intensità, gli attuali algoritmi dei sensori sismici lavorano sulla base dell’orario di arrivo di due tipi di onde sismiche: il primo tipo – noto come “onde primarie” o “onde P” – avanza rapidamente, spingendo e comprimendo il terreno mentre le onde si muovono attraverso di esso; il secondo tipo – “onde di taglio” o “onde S” – pur viaggiando più lentamente rispetto al primo tipo di onde, agendo con movimenti ondulatori o sussultori risulta più distruttivo e pericoloso.
Ebbene, per allenare l’algoritmo di apprendimento automatico dell’Earthquake Transformer, i ricercatori non hanno preso in considerazione quei dati normalmente utilizzati per trasferire agli algoritmi il modello “classico” – e percettibile – di terremoto, caratterizzato da forti scosse e dal susseguirsi delle due tipologie di onde descritte.
I dati di addestramento selezionati dal team includono un milione di sismogrammi etichettati a mano, registrati negli ultimi due decenni e relativi a terremoti – leggeri e intensi – verificatisi in tutto il mondo, non solo in California. E, per la fase di test, sono stati scelti i dati registrati per cinque settimane consecutive nella regione del Giappone colpita, vent’anni fa, da un terremoto di magnitudo 6.6 e dalle sue ripetute scosse di assestamento.
AI e sismologia: si va verso il monitoraggio dei terremoti in tempo reale
Elaborare la registrazione di terremoti del passato mediante il trasformatore antisismico sviluppato, sta aiutando a rendere più accurate le mappe che ne derivano, portando alla luce eventuali falle nel processo di rilevazione che, altrimenti, verrebbero a galla solo dopo il verificarsi di terremoti ancora più intensi.
In particolare, durante la fase di test, tuttora in corso, lo strumento messo a punto dai ricercatori di Standford ha rilevato e localizzato 21.092 eventi sismici (più di due volte e mezzo il numero di terremoti rilevati a mano), utilizzando i dati di solo 18 delle 57 stazioni prese in considerazione originariamente dagli scienziati giapponesi per studiare la sequenza.
Il trasformatore antisismico si è dimostrato particolarmente efficace nel rilevare quelle scosse sismiche impercettibili, difficili da intercettare da parte dei tradizionali sensori e impossibili da avvertire dall’essere umano. Sottolinea William Ellsworth, ricercatore di geofisica all’Università di Stanford e membro del gruppo di studio:
“In passato, sono stati sviluppati algoritmi allenati a individuare le onde primarie dei fenomeni sismici, le onde P per intenderci. Ma questo è, oggi, un problema superato. Più complesso è, invece, individuare il principio, la fase di inizio esatta delle onde di taglio – le onde S – perché emergono dagli ultimi sussulti irregolari delle onde P in rapido movimento. Da qui la difficoltà nell’individuare le scosse lievi”
Con Earthquake Transformer in esecuzione su un solo computer, l’analisi che normalmente richiederebbe mesi di lavoro è stata completata in venti minuti, velocità resa possibile da algoritmi che ricercano contemporaneamente l’esatto momento di origine del terremoto e la tempistica esatta delle due fasi sismiche (onde P e onde S).
I ricercatori hanno addestrato e testato Earthquake Transformer su dati storici, relativi a eventi sismici del passato. Ma la tecnologia – avverte il sismologo Gregory Beroza – è “quasi pronta” a segnalare terremoti lievi non appena questi si verificano. E conclude:
“Il monitoraggio dei terremoti utilizzando l’apprendimento automatico in tempo reale, arriverà molto presto“