Considerazioni poco scientifiche ma molto logiche

Considerazioni poco scientifiche ma molto logiche

Queste considerazioni partono da lontano, dal 2009 con le ricerche di Giampaolo Giuliani, passando per quelle di Gagliardi-Calandra,  fino alle più recenti di Dutchsinse.

Riepilogando, la predittività del terremoto è legata ad aspetti “causali” ed “effettivi”. Quelli causali indagano l’elemento scatenante di un terremoto, e sono aspetti rappresentati dalle ricerche sulle emissioni “radon” (teoria Giuliani) e sugli allineamenti dei pianeti con luna e terra (unitamente all’azione della luna stessa – teoria Gagliardi-Calandra). Quelli “effettivi” indagano l’accaduto e sono rappresentati in prima istanza dalla prevedibilità derivata su base statistica dal numero di eventi verificatisi in un arco di tempo (50 anni per le abitazioni, 200 per gli edifici pubblici), come dire che più stretto è il delta temporale/territoriale e meno probabilità ci saranno che si possano verificare terremoti in quel periodo/luogo (teoria politica, che di scientifico non ha nulla). In altri termini, statisticamente si ritiene una data zona (in genere stretta all’interno della singola faglia) a rischio bassissimo poiché soggetta a terremoti ogni 300 anni. Ma la valenza statistica non è indicativa di nulla se non di un “alibi/volontà” politico/operativa, e questo per la semplice inapplicabilità di un principio statistico in luogo di un fenomeno naturale. Peraltro è la scienza ufficiale stessa a ritenere che i terremoti non si possano prevedere, allora perché ricorrere alla “statistica” per rappresentarne la manifestazione e quindi la predittività? Inoltre la mappa della sismicità nazionale si basa su un arco di tempo globale (storico di tutti i terremoti di tutta Italia e zone confinanti interessate per faglia) sfettucciato in “n” archi temporali/territoriali. È evidente che se vario il delta varia anche il rischio, più amplio il delta è più aumento il rischio sismico. In poche parole, il delta temporale “n” dovrebbe semplicemente coincidere con quello globale e si dovrebbe dichiarare sismica tutta Italia. In seconda istanza dalla ricerca di Michael Janitch, detto Dutchsinse  (ha un canale su youtube, quanto di meno scientifico si possa immaginare in termini di comunicazione scientifica), che avrebbe messo in correlazione gli eventi sismici globali, planetari, unitamente alle faglie interessate, per derivarne possibili concatenazioni. Come dire che se da una parte qualcosa si muove, all’estremo opposto, o in qualche altro punto correlato, ci sarà una reazione. In fondo le faglie non sono altro che una sorta di “catena”. Il suo principio è interessante e sdogana la questione sismica troppo spesso stretta su analisi “locali”. D’altronde gli studi sono stati fino ad oggi molto locali per struttura intrinseca alle modalità di “ricerca” strette sui singoli poli universitari, fin troppo autoreferenziali. Ma l’effetto “esteso” del web qualcosa ha smosso. Il gruppo italiano di FB che segue Dutchsinse (“Gruppo Monitoraggio Terremoti per l’Italia – Michael Janitch – Dutchsinse”) nei giorni precedenti il 15 gennaio diceva che in Italia ci sarebbero stati ulteriori terremoti di magnitudo 4-5-6 nelle zone già interessate dagli ultimi sismi. E lo stesso aveva fatto per i precedenti all’interno di un arco previsionale di qualche giorno (in genere 24/48 ore). Ebbene, questo Dutchsinse, dal nome improbabile (Dutch = Olandese, Michael Janitch ha origini olandesi), sembra aver individuato, benché in modo ancora perfettibile, o comunque fisiologicamente non puntuale (è già un successo enorme che la predizione si collochi all’interno di archi temporali di qualche giorno), la correlazione tra movimenti locali e planetari. Il che è un pò l’uovo di colombo, ma nessuno era riuscito a mettere a sistema il tutto. Interessante e credibile il principio sostenuto da risultati verificati almeno sugli ultimi terremoti, e non solo italiani.

Quindi, le prime due teorie, Gagliardi-Caladra e Giuliani, cercano la causa, mentre (tralasciando la statistica) la teoria di Dutchsinse deriverebbe dagli effetti (da terremoti già avvenuti) altri effetti (terremoti che avverranno). Non si cura delle loro cause, individua direttamente le concatenazioni tra eventi che, in quanto in fieri, sono dinamici e quindi soggetti a concatenazioni. Ora, tutti e tre i metodi avrebbero mostrato, per eventi diversi, una attendibilità entro archi temporali di 24/48 ore. Un arco temporale da intendere come molto piccolo rispetto all’arco temporale annuale, figuriamoci rispetto ai 50 o 200 anni del delta statistico. In tutto questo la teoria di Michael Janitch, di cui non trovo nulla di ufficiale e che ho per lo più derivato per logica ripulendo testi improbabili, sarebbe davvero l’uovo di colombo. Un terremoto è un evento dinamico determinato da una azione meccanica. Le faglie sono elementi tutti concatenati tra loro, e questo è noto, meno nota è l’effettiva correlazione sistematica tra loro. Tipicamente viene dedotta dallo studio del sottosuolo (fino a circa 10 Km) ma la perforazione è indagine puntuale che non riesce a dare indicazioni che superino la valenza locale. Mentre lo spostamento dell’attenzione alla dinamica dei movimenti delle faglie, trascurando la loro consistenza e conformazione “sottile”, immaginandole per semplificazione come infinitamente rigide, permette di derivarne i punti di scarico (azione/reazione). La questione non è evidentemente semplice ma è logica in sé. Come dire che è difficile da gestire in termini di variabili, ma non per questo le variabili non possono essere progressivamente individuate e dimensionate. E questo sembra in parte il lavoro che starebbe alla base di Janitch che una settimana fa aveva preannunciato entro 24/48 un terremoto nelle zone interessate oggi, e poi, notando ulteriori variazioni nelle ore successive che modificavano le sue proiezioni, aveva annullato la previsione, per poi rilanciarla e ieri si è verificata. Ora, c’è da aggiungere che né Giuliani né Calandra-Gagliardi avevano fatto previsioni, ma anche loro hanno avuto modo di prevedere altri terremoti (Calandra-Gagliardi quelli di questa estate e Giuliani quello del 2008). La questione è complessa, ma prevedere un terremoto entro 24/48 ore non è casualità, non si può applicare la teoria della redistribuzione gaussiana su andamenti estremamente ampi (tempo di acquisizione – nel nostro caso anni), a risoluzione unica (picco) e dalla dimensione piccola (2 giorni). E sono in tre, non l’Enalotto del sisma. Prevedere un evento ogni qualche anno, ovvero “indovinare” la sua manifestazione all’interno di un arco di 2 giorni su migliaia non può essere da “indovini”. E gli errori (pochi, una decina) ci dicono che il metodo è perfettibile ma non insostenibile. Ne consegue che i tre metodi non siano in concorrenza ma siano contigui, complementari. E che non è detto che debbano sussistere tutte e tre le condizioni, causali (emissioni radon-allineamento pianeti) ed effettive (concatenazione planetaria faglie), perché si possa verificare un terremoto. Una condizione di equilibrio è tale da perdere il suo stato di immobilità in relazione alle condizioni al contorno e alle condizioni meccaniche che regolano l’equilibrio stesso. Insomma, direi che gli elementi predittivi siano stati individuati e che la loro perfettibilità non sia motivo per affossarli ma il dato sui cui lavorare.

Marco Valerio Masci

(Pubblicato su FB il 19 GENNAIO 2017)

Foto di testa: Marco Valerio Masci, Sisma, fotografia digitale (Canon Ixus 400), 17 ‎September ‎2006 – “Abruzzo, Autostrada Roma-L’Aquila

Comments are closed.