Tutti gli articoli di agrimensoreg

PERCHE’ E’ RAGIONEVOLE DUBITARE DELLE STIME SULLA SENSIBILITA’ CLIMATICA – II parte: i modelli GCM

di agrimensore g., con la collaborazione di Fano

Nella prima parte,  abbiamo visto che la stima del valore della climate sensitivity (sensibilità climatica), cioè il coefficiente relativo all’aumento delle temperature a fronte di una maggiore quantità di IR (Infrared radiation), è particolarmente ardua se effettuata confrontando il comportamento della Terra col passato. Quello che si riesce a fare è trovare una funzione di distribuzione del valore che dovrebbe almeno essere sottoposta ad una verifica sperimentale, molto difficile da progettare.

Un metodo alternativo, o a integrazione, è quello di utilizzare i modelli GCM (General Circulation Model)

I modelli GCM, come noto, sono quei modelli che prevedono alcune grandezze climatiche (di norma venti, temperature, precipitazioni e pressione) attraverso i relativi valori statistici in un orizzonte temporale di più decadi (venti o trent’anni). In genere le elaborazioni vengono effettuate su potenti computer per permettere il calcolo numeriche delle legge fisiche che interessano il clima.

Funzionano bene?

Il modo più naturale per capire se funzionano è confrontarli con la realtà. Può sembrare una banalità, ma spesso per valutare il loro grado di funzionamento si giudicano le discrepanze tra i vari modelli, il fatto che siano diminuite viene giudicato un buon risultato. Oppure vengono confrontate le medie dei modelli con un super-modello ( http://scienceofdoom.com/2010/03/23/models-on-and-off-the-catwalk-part-two/) per evidenziare come la media sia migliore del singolo.

Mi sembra ovvio che tutto ciò non implichi affatto che i modelli GCM funzionino. Sarebbe opportuno  il confronto con la realtà oggetto delle previsioni.

Purtroppo, per riscontrare  con gli output dei modelli sarebbe necessario aspettare parecchi anni, perché le loro previsioni si riferiscono a  medie e grandezze statistiche da applicare a periodi multidecadali. Anziché attendere venti o più anni, possiamo cominciare a verificare i cosiddetti hindcast, cioè gli output dei modelli che si riferiscono al passato. Riprendo dallo stesso sito precedente, sostenitore dell’AGWT, la figura riportata nell’AR 2007 IPCC in merito ai modelli:

 

 

Nelle figura le parti in blu rappresentano una sottostima e le parti in rosso una sovrastima delle temperature. Come si vede non c’è nessun modello che abbia solo colori tenui, chiari. Anche quello che viene considerato il migliore (in alto a destra) presenta vari punti deboli, ad esempio ha sottostimato le temperature in Groenlandia e le ha sovrastimate in Antartide. La circostanza che per qualcuno la media generale sia simile a quella osservata non può essere considerata come la prova che i modelli GCM funzionino.

Prendiamo un’altra grandezza prognostica importante, le precipitazioni.

Qui  in generale i modelli GCM sembrano aver sottostimato l’incremento delle precipitazioni avvenuto in questi anni. Lo evidenzia il lavor di Frank J. Wentz, Lucrezia Ricciardulli, Kyle Hilburn, Carl Mears (http://www.remss.com/papers/wentz_science_2007_paper+som.pdf)

con il seguente abstract (già riportato in originale in un precedente articolo di NIA):

Sia i modelli climatici, sia le osservazioni satellitari indicano che la totalità dell’acqua in atmosfera aumenterà del 7% per grado Kelvin di riscaldamento della superficie. Tuttavia, i modelli climatici prevedono che le precipitazioni globali aumenteranno a un tasso molto più lento, da 1 a a 3% per Kelvin (n.d.r: significherebbe più vapor acqueo e meno pioggia). Un’analisi recente delle osservazioni satellitari non conferma questa previsione di una mutata risposta delle precipitazioni a fronte del global warming. Piuttosto, le osservazioni suggeriscono che le precipitazioni e la totalità dell’acqua totale in atmosfera sono aumentate circa dello stesso tasso nelle precedenti due decadi.

D’altra parte, anche le istituzione favorevoli all’AGWT, ammettono che c’è ancora parecchio da sviluppare. Un esempio è contenuto  nella lettera (cfr. http://www.aps.org/about/pressreleases/haroldlewis.cfm)  con cui l’APS (American Phisycal Society) ha risposto alle critiche del professor Lewis, dimessosi proprio per contrasti in merito alle posizioni dell’associazione sui cambiamenti climatici. Dopo una serie di contestazioni al professore Lewis, l’APS scrive che

However, APS continues to recognize that climate models are far from adequate

Perché i modelli GCM non sono adeguati?

Senza inserire i vari link, è quasi unanimemente riconosciuto che uno dei problemi maggiori dei modelli GCM sia la simulazione del processo di formazioni delle nubi. Questo processo, da un punto di vista algoritmico, è parametrizzato. In sostanza, non è implementato solo attraverso leggi fisiche, ma è stato necessario utilizzare delle formule empiriche che dipendono da alcuni parametri e sono state costruite con algoritmi complessi (es.: reti neurali) cercando di renderle efficaci nel simulare il passato.

Però qualcosa non va.

Il processo di formazione delle nubi è importante perché a secondo di come viene implementato può rappresentare un rilevante feed-back positivo o negativo. Secondo una teoria condivisa da molti, almeno quelle medio-basse rappresentano un rilevante feed-back negativo, mentre per molti dei modelli sono un feed-back positivo.

Una possibile spiegazione di questa discrepanza si trova nella teoria di Svensmark e Shaviv circa la capacità dei GCR (Galactic Cosmic Rays) di favorire la formazioni di nubi. L’ingresso dei GCR in atmosfera è modulato dal vento solare; in sostanza,  a un’attività solare intensa corrisponde una diminuzione del livello dei GCR, mentre in periodi di scarsa attività solare, i GCR aumentano e di conseguenza si formano più nubi.

Poiché nessun modello GCM considera questa teoria, se essa fosse vera, la parametrizzazione, basata su dati di anni precedenti, avrebbe mascherato la carenza di conoscenza e quindi, la bontà delle proiezioni fornite sarebbe compromessa dal fatto di non aver considerato un input fondamentale. Ovviamente il livello dei GCR in atmosfera è difficilmente prevedibile, cosicché dovrebbe essere incluso come una delle grandezze per definire i vari scenari.

Naturalmente, ci sono altre possibili motivazioni per spiegare la discrepanza tra realtà e proiezioni dei modelli, tuttavia l’elemento più incerto al momento rimane il processo di formazione delle nubi.

Ma i modelli GCM non sono verificati e validati (V&V)?

Si legge e si sente dire spesso che, poiché i modelli GCM riescono a “ricostruire” il clima dell’ultimo secolo, allora possono essere impiegati per provare a prevedere il clima nel futuro. Questa circostanza, comproverebbe che nei GCM sono implementati tutti i processi fisici necessari, inclusi quelli che determinano un aumento delle temperature globali all’aumentare della CO2.

Una prima considerazione è che quanto viene ricostruito dai GCM è il trend crescente della temperatura (a parte le diminuzioni dovute a forte eruzioni vulcaniche), non le oscillazioni di breve periodo, che sono considerate come variabilità interannuali, e quindi pseodocasuali. Però, in questo modo qualunque grandezza abbia avuto un andamento crescente nell’ultimo secolo, e in particolare negli ultimi trent’anni (ad esempio, il debito pubblico italiano), risulterà in correlazione col clima, non solo la CO2, e di conseguenza le temperature ricostruite dai GCM. Per trovare una prova più convincente sarebbe opportuno che i GCM riuscissero a seguire le variazioni del clima (es.: riscaldamento anni ’40), non solo il trend di fondo, corretto col contributo delle eruzioni vulcaniche.

Per chiarire il concetto, esaminiamo la figura che riporta l’IPCC nell’AR 2007

Questo grafico è inteso essere una sorta di validazioni dei modelli perchè si vede che la linea rossa (la ricostruzione media da parte di 14 modelli GCM) segue “piuttosto bene”, la linea nera, ciò che è successo in realtà. Notate però che il “piuttosto bene” è riferito ad un valor medio, mentre le variazioni sono seguite molto bene, solo quando si tratta di eruzioni vulcaniche, e praticamente per nulla negli altri casi. Ad esempio, il riscaldamento avvenuto prima del ’40 non è stato colto dai modelli e nemmeno il raffreddamento nella decade successiva. Certamente si può spiegare quasto scostamento con una variabilità interannuale pseudocasuale. A questo punto, però, se si costruisce un modello facendo dipendere la temperatura da una qualsiasi grandezza che è stata crescente nell’ultimo secolo, e in particolare nelle ultime decadi, ottengo un risultato simile (purchè inserisca la variabile “eruzione vulcanica”).  Detta in termini statistici, è l’analisi spettrale quella che più mi convince di aver trovato una buona correlazione. Insomma, come validazione un risultato quale quello esposto in figura non è il massimo, ed oltre tutto si tratta di una media di modelli.

Ma c’è un problema più sottile e decisivo, che si colloca a metà tra l’epistemologia e le tecniche di data mining.

I GCM (così come molti altri tipi di modelli) vengono sviluppati in due fasi:

– la fase di “training” ove il modello “impara” qual è il valore corretto da assegnare ai parametri, a volte con tecniche  proprie dell’intelligenza artificiale (la parametrizzazione sopra menzionata);

– la fase di “test” ove il modello viene “collaudato” con dati diversi da quelli utilizzati per la fase di training (backtesting, da cui gli hindcast suddetti).

I dataset utilizzati per le due fasi sono, ovviamente, distinti e si chiamano rispettivamente “training data” e “test data”.

Per capire l’importanza della fase di test, è opportuno ricordare che i modelli, di qualsiasi tipo, debbono affrontare un problema comune: l’overfitting.

Dalla definizione di wikipedia, sappiamo che:

…si parla di overfitting (eccessivo adattamento) quando un modello statistico si adatta ai dati osservati (il campione) usando un numero eccessivo di parametri. Un modello assurdo e sbagliato può adattarsi perfettamente se è abbastanza complesso rispetto alla quantità di dati disponibili.

 

Overfitting. La curva blu mostra l’andamento dell’errore nel classificare i dati di training, mentre la curva rossa mostra l’errore nel classificare i dati di test o validazione. Se l’errore di validazione aumenta mentre l’errore sui dati di training diminuisce, ciò indica che siamo in presenza di un possibile caso di overfitting.

A tal proposito, rimando al’articolo di Nitopi per la parte matematica propedeutica :http://daltonsminima.altervista.org/?p=12172

L’articolo ci mostra come riusciamo ad approssimare i dati sperimentali rendendo più complicata la funzione, senza però poter affermare di aver migliorato la capacità predittiva della funzione stessa.

E’ un po’ come cercare di insegnare a guidare un ubriaco: durante le guide di prova non va a sbattere perchè l’istruttore prende il volante e frena al posto suo. Però quando è solo, rischia di andare contro un muro o cadere in un fosso alla prima curva.

Ebbene, durante lo sviluppo dei primi modelli GCM, è stato presumibilmente possibile procedere correttamente.  I dati a disposizione sono stati suddivisi in “training data” e “test data”.

Successivamente, sono stati sviluppati nuovi modelli, a partire, tra l’altro dagli errori riscontrati nei modelli precedenti. Solo che a questo punto tutti i dataset utilizzati dal primo modello, avrebbero dovuto essere riutilizzati come training data, non come test data. Questa criterio deve essere rispettato, altrimenti sarebbe come se le prove sperimentali di una teoria fossero le stesse osservazioni cha hanno indotto la ridefinizione della teoria. Per analogia col metodo scientifico:

1- si fanno delle osservazioni

2- si formula una teoria che le possa spiegare

3- si progetta un esperimento

4- l’esperimento evidenzia delle lacune nella teoria

5- si raffina la teoria

6- si riesegue lo stesso esperimento.

Il punto (6) è sbagliato! Bisogna progettare un nuovo esperimento. Altrimenti abbiamo trovato quella che si definisce una teoria “ad hoc”.

Da qui la domanda conclusiva: da dove sono stati acquisiti i “nuovi” dataset da utilizzare come “test data”, considerato che il modello ha un orizzonte temporale di decenni?

Allora nessun tipo di modello implementato su computer funziona?

I modelli GCM hanno una difficoltà in più rispetto a quelli utilizzati in altre discipline. I loro risultati possono essere verificati solo dopo 20 o 30 anni. Ciò significa che il loro processo di raffinamento è più difficoltoso. Chi lavora nel campo dell’informatica, ha esperienza che persino software molto più semplici, hanno bisogno di essere migliorati dopo la prima istallazione confrontando il loro funzionamento con quanto atteso. Man mano che si scoprono gli errori, il software viene adeguato e funziona meglio.

Dato il vasto orizzonte temporale, questa fase, comune a tutti i modelli, per i GCM è particolarmente complicata. In altri termini, per i GCM, come per tutti i modelli impiegati per previsioni a lungo periodo, è difficile ottenere nuovi dataset utilizzabili come test data. E’ per questo motivo che, ad una prima analisi, appare ancora prematuro pretendere da essi delle previsioni affidabili.

Conclusioni

Abbiamo visto, in questo articolo e nella prima parte, quanto sia arduo fornire una stima della sensibilità climatica e, di conseguenza, come sia azzardato supporre che le stime fornite godano di un elevato livello di confidenza. Quindi non è anti-scientifico, o irrazionale, o ideologico dubitare del livello di confidenza con cui sono presentate le stime sulla sensibilità climatica. Tuttavia, va sottolineato che un ragionamento del genere non è una prova che esse siano errate. Insomma, stiamo affrontando una tematica tecnica, nulla a che vedere con suggerimenti di politiche di riduzione gas serra, valutazione dei rischi, ecc. La critica all’AGWT riguarda principalmente il concetto che il “debate is over” in merito alle previsioni. La conclusione non è un invito ad abbandonare i GCM, ma a continuare a migliorarli, con la consapevolezza che ci potrebbe essere parecchia strada da fare prima di poterli ritenere adeguati allo scopo.

PERCHE’ E’ RAGIONEVOLE DUBITARE DELLA STIMA SULLA SENSIBILITA’ CLIMATICA – parte I: i confronti col passato

di agrimensore g., con la collaborazione di Fano

La “sensibilità”, in generale, è un parametro che indica come varia una grandezza a seguito della variazione di un’altra grandezza. In matematica è paragonabile alla derivata in un punto di una funzione.

Per quanto riguarda il clima, la sensibilità è spesso definita come quel parametro che ci dice di quanto aumenta la temperatura se raddoppia la concentrazione di CO2 in atmosfera. Più in dettaglio, tale parametro ne comprende due:

1) quello che ci dice di quanto aumentano le radiazioni ricevute (IR) dalla superficie all’aumentare della concentrazione della CO2 in atmosfera (forcing radiativo);

2) quello che ci dice di quanto aumenta la temperatura all’aumentare delle radiazioni che raggiungono la superficie (punto precedente).

Riassumendo, secondo l’AGWT abbiamo che: + CO2 –> + IR –> + T

In questa coppia di articoli ci occuperemo esclusivamente di analizzare il secondo punto, cioè dei problemi inerenti la valutazione dell’aumento delle temperature all’aumentare delle IR ricevute dalla superficie.

Come si è calcolato, fino ad oggi, questo parametro?

In due modi distinti:

– o con i modelli GCM (General Circulation Model)

– o col raffronto col passato.

Il tema dei modelli GCM verrà affrontato nella seconda parta, ove tratteremo dei problemi di V&V, over-fittng, training data vs. test data, variabili di input, confronto previsioni-realtà, ecc.

In  questa prima parte, invece, ci occupiamo di discutere la modalità con cui si è calcolata la sensibilità climatica a partire dai dati del passato.

In sostanza, si è stabilito, con un certo margine di incertezza, che in un certo lasso di tempo (in genere di parecchi anni) si è verificato un certo forcing radiativo che ha portato ad un range di aumento delle temperature del pianeta. A questo punto, si è applicata la le legge trovata nel passato al periodo attuale.

Le stime considerate dall’IPCC per l’aumento di temperatura a fronte di un raddoppio di concentrazione di C02 vanno da 0.1C a oltre 7C, e l’IPCC assume ragionevole il range 2-4,5C. Riporto di seguito la figura, ove sono riportate anche le stime ottenute con modelli GCM, contenuta nel rapporto IPCC:

Fig.1

Come si vede dalla figura, ciò che è stato stimato non è proprio il valore parametro, quanto la probabilità (tramite la funzione densità di probabilità) che il parametro assuma un determinato valore. Già da questi studi si nota una certa discrepanza tra le conclusioni dei vari lavori, ma ne esistono altri che si differenziano ancora di più: Schwarz 2007, stima in 1.1 C +/- 0.5C (poi corretto nel 2008 in 1.9C +/- 1.1C), Shaviv ancora molto meno.

Questo grafico ci dice, tra l’altro, che un aumento minore di 1°C è improbabile per tutte le stime riportate. Ad esempio, per il lavoro di Andronova del 2001, c’è una buona probabilità che il raddoppio della CO2 inneschi un aumento della temperatura media globale di 1.5°C circa

Cosa c’è che non va in questo tipo di ragionamento?

Il clima della Terra può essere esaminato dal punto di vista dell’evoluzione dei sistemi dinamici. Riassumendo la definizione di wikipedia di sistema, sappiamo che possiamo rappresentarlo come

“… una ‘scatola nera’ con ingressi  ed uscite. Lo stato del sistema è descritto da un insieme di variabili, dette appunto di stato che definiscono la “situazione” in cui si trova il sistema ad un certo istante temporale. Gli ingressi agiscono sullo stato del sistema e ne modificano le caratteristiche ovvero i valori in un dato istante temporale: queste modifiche vengono registrate dalle variabili di stato. I valori delle uscite del sistema, solitamente le uniche variabili misurabili (ingressi esclusi) dipendono a loro volta dalle variabili di stato del sistema e dagli ingressi (in maniera più o meno diretta).”

Il senso delle variabili di stato è quello di costituire la memoria stessa del sistema dinamico, cioè le variabili di stato dipendono non solo dagli ingressi ad un certo istante, ma anche dal valore delle stesse variabili di stato in istanti precedenti.

Nel caso della Terra, possiamo immaginare, ad esempio, di essere in una situazione del genere:

Fig. 2a

Non è detto che i sistemi debbano essere qualcosa di particolarmente complesso. Un sistema può essere anche una semplice palla, che prendiamo a calci, su un terreno accidentato In questo caso, ad esempio, possiamo immaginare che il sistema sia di questo tipo:

Fig.2b

I sistemi si possono trovare in equiibrio oppure no, e l’equilibrio può essere stabile o instabile.

Il paragone più semplice per definire uno stato di equilibrio stabile è quello della palla in una buca: se gli si dà un calcio, la palla ritorna nella buca. A meno che il calcio non sia abbastanza forte (o tanti calcetti un appresso all’altro, prima che la palla ritorni indietro) da farla uscire dalla buca: a quel punto la palla uscirà dalla prima buca e si fermerà solo dopo aver trovato un’altra buca (nuovo stato d’equilibrio).

Viceversa, uno stato instabile può essere paragonato a quello della palla in cima ad una collina: basta un piccolo calcetto e la palla si allontanerà.

La Terra si trova, approssimativamente, in un equilibrio stabile. Ad esempio, a seguito dell’eruzione del Pinatubo, per un periodo la media delle temperature globali è diminuita a causa di quanto emesso del vulcano, ma, terminata l’eruzione, al depositarsi delle ceneri, la temperatura è tornata all’incirca come prima.

Nel corso degli anni però la Terra ha attraversato vari stati di equilibrio, passando per Younger Dryas, episodi di snowball earth, periodi caldi, ecc.

Ora, cosa accade quando uno scienziato cerca di scoprire cosa è successo migliaia, o milioni di anni fa a fronte di un forcing sul clima terrestre? Beh, se il forcing è stato abbastanza intenso, troverà che la Terra è passato in un nuovo stato di equilibrio. Viceversa, se il forcing è debole,  sarà difficile  isolare i suoi effetti da quelli prodotti dalla variabilità naturale.

Quindi i lavori per stimare la sensibilità riguarderanno, generalmente, casi nel passato in cui il forcing è stato così intenso che il sistema Terra ha perso il suo precedente equilibrio.

Vi sono anche delle eccezioni, come quelle che riguardano studi sul passato molto recente (es.: reazione del sistema all’eruzione del Pinatubo, risposta degli oceani, ecc.). Per il resto, i casi in cui il sistema nel corso dei millenni ha reagito ad una piccola perturbazione esterna mantenendo l’equilibrio, non sono significativi per gli studi sulla sensibilità, semplicemente perchè non lasciano una traccia chiara.

Facciamo un esempio.

Fig.3

La Terra (o la palla) è rappresentata dal cerchio blu, la freccia rossa indica il forcing intenso ,  la freccia verde la reazione del sistema (Terra o palla che sia) per ritrovare l’equilibrio.

Da questi dati, (intensità del forcing indicato dalla freccia rossa e conseguente risposta del sistema indicato dalla freccia verde) possiamo ricavarne una legge tra forcing (perturbazione) ed evoluzione del sistema (cambiamento della temperatura o spostamento della palla)? Cioè, immaginando di avere i dati su:

–  quanta energia abbiamo impresso alla palla e il percorso che ha fatto o, parallelamente

quanto energia in più ha ricevuto la Terra e la variazione di temperatura

si può ricavare una formula (o meglio, la densità di probabilità del valore di un parametro) che lega:

l’energia impressa –> conseguente spostamento della palla? o

l’energia ricevuta –> la conseguente variazione della temperatura?

La risposta la possiamo immaginare guardando gli effetti di perturbazioni meno intense (freccia arancione): qui la Terra (o la palla) ritorna al punto di partenza. Come si vede non c’è nessuna proporzionalità, nessuna formula, ed in particolare la traiettoria che assumerà la palla dipende dal “tipo di buca” in cui si trova. Quindi è molto complicato trovare una regola, dipende dall’evoluzione del sistema che risponde in maniera diversa in base agli altri input e allo stato in cui si trova.

Com’è possibile ciò?

Questo  avviene quando sul sistema agiscono dei feed-back negativi (controreazioni) che costringono il sistema al suo punto di equilibrio.

Nel caso della palla, il feed-back è la sua stessa posizione rispetto al terreno, a fronte della traittoria. Insieme alla gravità, determina il riposizionamento alla posizione iniziale, se l’intensità del calcio non è troppo forte.

Nel caso del clima, posso immaginare un feed-back dato dal ciclo idrico, cioè dal vapor acqueo. Ora se il vapor acqueo si trasforma in:

–  “nubi medio-basse”, allora avremo un feed-back negativo per aumento dell’albedo

– “gas in atmosfera”, allora avremmo un feed-back positivo perché aumenta l’effetto serra.

Poiché la Terra si è dimostrata abbastanza stabile, almeno nelle ultime migliaia di anni, appare ragionevole che si verifichi la prima ipotesi, ma si può fare un’ulteriore congettura: può darsi che il trasformarsi o meno del vapore in nube dipenda da un fattore esterno, come ad esempio i GCR (cfr. esperimento Cloud al Cern). Ultimamente se n’è parlato anche su CM, a proposito di un nuovo studio http://www.climatemonitor.it/?p=14202

Nell’AGWT, invece vengono descritti molti feed-back positivi, il più importante dei quali è il seguente:

+ CO2  –> + temp –> + CO2  –> +temp –> + CO2 –>…

Il feed-back positivo è proprio di un sistema in uno stato instabile: qualsiasi perturbazione, anche casuale e minima, aumenti  il livello di CO2 o temperatura, conduce ad un incremento di ambedue le grandezze fino a trovare un nuovo equilibrio. In questo caso, è ancora più difficile trovare un legame tra input e output, giacchè uno amplifica l’altro.

Ma il problema di fondo è che anche nel caso di un sistema semplice, come una palla presa a calci su un terreno sconnesso, è sostanzialmente impossibile, soltanto con l’osservazioni di qualche esperienza precedente, trovare la legge universale che regola il processo. Cioè, non c’è una formula che permette di ricavare a fronte di un calcio (rasoterra) la traiettoria della palla: bisogna conoscere il “terreno” in ogni suo punto, altrimenti non ci si riesce.

E’ come se volessimo stimare il risultato finale di una partita, basandoci sulla serie storica degli incontri tra le due avversarie. Anche se i giocatori fossero sempre gli stessi, quanto può essere efficace tale strategia, senza conoscere la forma fisica degli atleti, le motivazioni, ecc.? Persino all’interno di un periodo di tempo breve, due squadre che si affrontano ottengono risultati completamente diversi tra “andata e “ritorno”, non tanto per l’alea, quanto per il diverso rendimento dei giocatori (è diverso il loro “stato”).

In sostanza, a livello teorico è lecito provare a trovare una somiglianza (likelihood) di comportamento delle variabili di stato in due diversi istanti basandosi sui dati passati, ma è necessario avere la conoscenza più completa possibile del sistema.

Riportato alla sensibilità climatica, questo significa che bisogna conoscere come funziona nella sua interezza il sistema Terra per provare a stimare tale parametro. Presumibilmente, non basta confrontarsi col passato,  è necessario comprendere ogni meccanismo che possa influenzare il clima.

Questo non significa che gli scienziati non abbiano fatto un buon lavoro, o, peggio siano in malafede. Semplicemente, i loro risultati non vanno considerati come definitivi, ma qualcosa da dover comprovare tramite una fase sperimentale, che però è estremamente difficile perchè non abbiamo a disposizione un altro pianeta da laboratorio.

E quindi?

N.Scafetta (Duke University) scrive così:

http://www.fel.duke.edu/~scafetta/pdf/21mo-secolo.pdf

Secondo l’IPCC se la concentrazione atmosferica di CO2 raddoppia la temperatura media del pianeta potrebbe aumentare tra 1,5 e 4,5 oC. La distribuzione della sensibilità climatica al CO2 (…) varia entro un intervallo perfino più largo di 1,5 e 4,5 oC. Se gas serra come la CO2 sono la maggiore causa del riscaldamento globale, una sensibilità climatica alla CO2 con un errore minimo del 50% non può che suscitare forti perplessità sulla robustezza delle interpretazioni dei cambiamenti climatici dell’IPCC. Questo errore macroscopico è dovuto al fatto che non si sanno modellare bene i principali meccanismi climatici di feedback, cioè il vapore acqueo e le nuvole.

Inoltre, come si vede in fig.1, per ogni studio i valori più probabili non sono nemmeno vicini ai valori medi (max di densità rispetto al valore segnato dal pallino). Prendendo per buoni i lavori dei vari scienziati riportati e anche non considerando i lavori degli scienziati considerati scettici, diventa davvero difficile, a fronte di risultati così variabili, trarne delle indicazioni.

Riassumendo, benché non proprio impossibile in via teorica, in pratica, dal confronto col passato, appare davvero complicato trovare una legge affidabile che lega il forcing radiativo con i suoi effetti sulla temperatura in un sistema così complesso come la Terra. Se si vuole ottenere un ragionevole livello confidenza della stima prodotta, bisognerebbe pensare ad un esperimento (attività sperimentale), che possa comprovarla.

In assenza di questo, si è trovata un’altra possibilità: l’uso di modelli GCM che cercano di simulare il sistema Terra, o meglio individuare dei valori statistici affidabili di alcune grandezze fisiche proprie del clima.

Ma di questo parleremo nella seconda parte.

SECONDO ME LA TERRA SUDA, MA NON HA LA FEBBRE ALTA

di agrimensore g.

Pur essendo scettico sull’AGWT, non dubito che l’effetto serra esista. Cioè, l’atmosfera, con i suoi gas serra agisce sulla superficie terrestre come una coperta (qualcuno parla di effetto coperta, come ha sottolineato l’articolo di Claudio Costa su NIA): parte delle radiazioni che emette la superficie terrestre le vengono restituite dall’atmosfera. Questo effetto permette alla temperatura del pianeta di rimanere all’incirca a 15C (o 288K). Per riassumere i termini della questione, inserisco di seguito lo schema riportato da Wikipedia

Fig. 1

Fin qui, personalmente, non ho motivi per essere perplesso. Concettualmente le cose funzionano. Però, ATTENZIONE: nella figura tratta da wikipedia i numeri tornano, ma alla parte emessa dalla superficie (quella in marrone chiaro e scuro che piega a sinistra) manca la didascalia. Cosa esce dalla superficie terrestre? Perché solo “350” (tutte le misure sono espresse in W/m^2) sono assorbiti dai gas serra? Cosa sono gli altri “102”, rispetto ai “452” emessi?

Leggeremo sotto le risposte. Ora, ci chiediamo cosa succede se immettiamo gas serra nell’atmosfera, cioè rendiamo più spessa la coperta, o, se volete, mettiamo un’altra coperta (magari molto più sottile) sopra l’attuale.

Bene, consideriamo la nostra esperienza personale. Immaginiamo di farci una bella dormita avvolti da una coperta e di aver raggiunto il nostro equilibrio termico. C’è il termosifone acceso, col termostato a 20 gradi, quindi abbiamo scelto una coperta molto leggera. Stiamo bene e dormiamo. Purtroppo quando siamo ancora nel mondo dei sogni, qualcuna ci mette sopra un’altra coperta, diciamo pure un piumone (tanto per esagerare). Adesso, ci vengono riflesse dalle coperta molte più radiazioni.

Riprendendo il paragone col sistema Terra,  siamo nel caso in cui si rilascia in atmosfera CO2 (la coperta più spessa:) la parte indicata nel disegno di fig.1 come “directly radiated from surface” diminuirebbe mentre la parte “greenhouses gas absorption” aumenterebbe.  Però tutto l’equilibrio si è perso, nel senso che l’atmosfera adesso dovrà irradiare di più e… insomma, bisogna che succeda qualcosa per ritrovare l’equilibrio perduto.

Questo precisazione di effetto serra à effetto coperta, è in genere molto cara ai sostenitori dell’effetto serra. Ad esempio, il prof. Bardi (che ogni tanto legge NIA) ne scrive in questo articolo, già citato dall’articolo di Costa: http://aspoitalia.blogspot.com/2007/12/leffetto-coperta-gi-effetto-serra.html, ove si spiegano alcuni dei fondamentali principi fisici che regolano il clima.

Bene, riprendiamo con la nostra esperienza virtuale.

Quando ci sveglieremo la mattina, il nostro corpo si sarà scaldato? Cioè, se prendiamo il termometro, scopriremo di avere la febbre? Beh, io immagino che anziché i soliti 36C, forse avremo 36.5C, magari, 36.8C, ma non penso scopriremo di avere la febbre. Più probabilmente, scopriremo di aver sudato durante la notte. Già, perché, com’è noto, il nostro corpo usa uno stratagemma per riportarsi all’equilibrio: suda, cosicché il calore in eccesso viene ceduto come calore latente, senza alzare la propria temperatura. L’alternativa, quella di emettere più radiazioni, comporta, per la legge di Boltzmann, la necessità di aumentare la temperatura (con danni fisiologici, a cominciare dal cervello).

E la Terra che farà? Una volta resa più spessa la coperta, quindi aumentando le radiazioni in ingresso, come reagirà? Per riprendere l’analogia sopra descritta, come ritroverà il suo equilibrio? Mi sembra ci siano due possibilità, che possono anche coesistere.

1) Emetterà più radiazioni e quindi innalzerà la temperatura (legge di Boltzmann) oppure

2) Utilizzerà lo stratagemma del calore latente (+ vapore acqueo) per cederlo all’atmosfera (+ pioggia)

Nel secondo modo, la superficie riesce a trasferire il calore in eccesso  senza alzare la temperatura. Il prof.Miskolczi, come riportato nell’articolo di NIA (http://daltonsminima.wordpress.com/2010/06/11/ex-scienziato-della-nasa-dimostra-che-non-esiste-l%C2%B4effetto%C2%A0serra/), ha dato la sua risposta: la Terra, così come ogni pianeta dotato di atmosfera semitrasparente (la coperta) e riserve di gas serra, cioè gli oceani, (i liquidi attraverso i quali si suda) non si scalda, piuttosto diminuisce la quantità di vapor acqueo in atmosfera per reagire all’incremento di CO2 e tornare in equilibrio.

Rimane ancora un altro punto da verificare. Premesso che è plausibile una maggiore evaporazione, chi ci dice che il vapore acqueo, non rimanga in questo stato contribuendo ad aumentare i gas serra (lo spessore della coperta)? Chi ci dice che si formino le nubi e piova? In fondo, il cuore dell’AGWT è proprio questo: prevede un feed-back positivo( +CO2 –> +effetto serra  –> +caldo –>  +vapor acqueo –> +effetto serra –> +caldo –> +…) dovuto al vapor acqueo.

Beh, io non credo molto ai feed-back positivi se un sistema ha dimostrato la propria stabilità (mi sembrano più probabili quelli negativi), e poi sono affascinato dalla teoria di Svensmark che dice che la formazione delle nubi è favorita dalla quantità di raggi cosmici in ingresso in atmosfera. Poichè tale ingresso è a sua volta modulato dall’attività solare, la nostra stella diventa decisiva per regolare il clima terrestre.

Tuttavia, queste sono solo delle mie opinioni, ci sono scienziati che hanno affrontato e stanno affrontando la questione da vari punti di vista. Quello che vorrei mettere in evidenze è che, per quanto mi riguarda, il dibattito sull’AGWT dovrebbe innanzi tutto approfondire questi temi, prima di poter dire che essa sia una teoria consolidata.

Quasi dimenticavo… dobbiamo scoprire che fine ha fatto la didascalia mancante della figura 1. Fortuna che Internet è grande, così ho trovato una figura più completa:

fig.2: schema di Kihel, Trenberth, 1997

Questa figura è piuttosto famosa (molti lettori già la conosceranno) e la trovata anche sotto wikipedia, oltre ad averne parlato in un precedente post di NIA.

Se facciamo il confronto con la fig.1, troviamo la natura dei “452” uscenti dalla superficie: “350” sono le radiazioni emesse dalla superficie, “24” il calore termale e “78” il calore latente. Ora le due possibilità che ha il pianeta per ritrovare l’equilibrio sono un po’ più chiare:

1) aumentare le radiazioni emesse, cioè i “390” di cui fanno parte i 350 (avere la febbre);

2) aumentare l’evaporazione, cioè i “78” (sudare), e con essi la parte riflessa dalle nubi.

Un’idea di come stanno andando le cose, ce la può dare l’articolo di Science

How Much More Rain Will Global Warming Bring” (Frank J. Wentz,* Lucrezia Ricciardulli, Kyle Hilburn, Carl Mears) del 12/7/07, che potete leggere qui:

http://www.remss.com/papers/wentz_science_2007_paper+som.pdf

e che comincia così:

Climate models and satellite observations both indicate that the total amount of water in the atmosphere will increase at a rate of 7% per kelvin of surface warming. However, the climate models predict that global precipitation will increase at a much slower rate of 1 to 3% per kelvin. A recent analysis of satellite observations does not support this prediction of a muted response of precipitation to global warming. Rather, the observations suggest that precipitation and total atmospheric water have increased at about the same rate over the past two decades.

In sostanza,  i modelli hanno sottostimato le precipitazioni atmosferiche. Ecco perchè penso che la Terra sudi, ma non abbia la febbre alta.

Prima di concludere, ritengo opportuno precisare che:

a) il rif. al prof. Bardi è dovuto al fatto che è esperto di scienza del clima e ogni tanto legge gli articoli di NIA (cfr. http:/ugobardi.blogspot.com/2010/11/astrofili-e-climofobi-un-altro-autogoal.html), quindi, se ne ha voglia e tempo, può commentare chiarendo qualche aspetto, ed eventualmente, sottolineando gli errori;

b) non entro nel merito della discussione se sia giusto e in che misura ridurre le emissioni di CO2 o su come ridurre i rischi, nè tanto meno voglio suggerire che non esistono rischi; più in generale, non ho risposte, ho solo interrogativi;

c) l’articolo riporta le mie congetture personali, rispetto a quanto mi è capitato di leggere sul tema; tra l’altro ho privilegiato la leggibilità al rigore scientifico; quindi in alcun modo questo articolo intende essere un riassunto sullo stato dell’arte del dibattito AGW;

d) non metto in dubbio l’attuale aumento delle temperature globali (GW), pongo solo delle questioni su come possa evolvere in futuro.

POSSIAMO FARE A MENO DEL METODO SCIENTIFICO? (Ecco spiegato perchè sinora l'AGW è solo una fede)

La scienza, da Galileo in poi (e forse anche prima), applica due metodi per ottenere quello che comunemente chiamiamo progresso scientifico. Il primo è il cosiddetto metodo induttivo. Il seguente schema, tratto da wikipedia, credo sia abbastanza chiaro anche senza commenti:

Metodo induttivo

Russell obiettò che la scienza, molto spesso, lavora per generalizzazioni sempre più ampie. In pratica, quando si scopre un caso (problema) che non si adatta alla teoria fino ad allora sviluppata, allora la teoria stessa viene riformulata per includere anche la nuova casistica, e in qualche caso viene rivisitata completamente. Di seguito, lo schema, anch’esso tratto da wikipedia, del metodo deduttivo, secondo la definizione di Russel:

Metodo deduttivo

Il metodo deduttivo ci dice che possiamo anche raffinare la teoria se troviamo un caso che la mette in discussione, ma poi dobbiamo di nuovo affrontare la fase sperimentale. Nessuno può dire: “l’esperimento non è riuscito, ma ho capito perchè, quindi la teoria, così migliorata, è validata”. La comunità scientifica risponderebbe: ” se hai capito perchè, allora migliora la teoria e pensa ad un altro esperimento”. Naturale, no?

Come si può notare, in ambedue i casi, un passo importante è il controllo sperimentale di una previsione ottenuta utilizzando la teoria. Se la previsione non si avvera, allora la teoria non è validata. In ogni caso, ci deve essere qualcuno che si ingegna per inventarsi un esperimento o per definire una qualche osservazione specifica di fenomeni, spiegabili con la nuova teoria, da riscontrare in natura.

Lo so che sembra banale, ma ho l’impressione che, per quanto riguarda la teoria dell’effetto serra, sovente si confondano le osservazioni che producono le ipotesi della teoria (primo passo del metodo induttivo) con le prove sperimentali che dovrebbero validare tali ipotesi. In sostanza, se mi accorgo di un fenomeno, e poi dico “ecco, questo è dovuto all’effetto serra”, dovrebbe essere ovvio che non ho effettuato una previsione successivamente riscontrata, come impongono sia il metodo induttivo, sia quello deduttivo, ed in generale ogni metodo scientifico, per la validazione di una teoria. Carotaggi, dati paleo climatici in genere, ricerca di isotopi, sono utilissimi per costruire l’ipotesi, ma non servono per validarla, a meno che non si preveda in anticipo il risultato qualitativo, e soprattutto quantitativo, della ricerca.

Inoltre, sempre più spesso si legge: “le cose non sono andate come ci aspettavamo (es.: ghiacci antartici in aumento anzichè in diminuzione), ma ho capito perchè (colpa del buco dell’ozono), e quindi la teoria è confermata”. Come visto sopra, Russell ci insegna che non funziona così. Perciò, dire che i modelli hanno sovrastimato le previsioni delle temperatura globali perchè, all’epoca, hanno usato parametri troppo elevati per la sensibilità climatica, significa dover effettuare un ulteriore periodo di prova. Non basta affermare che adesso si conoscono i parametri giusti e che se si sarebbero usati all’epoca la previsione sarebbe stata corretta.

Infine, frequentemente per l’effetto serra viene sottolineato il “peggio di quanto pensavamo” per affermare che la teoria è a maggior validata (ghiacci marini artici, livelo degli oceani). Invece dovrebbe essere chiaro che anche in questo caso la teoria non è validata, al contrario, è messa in discussione.

Quali sono le previsioni effettuate dalla teoria del Global Warming di origine antropica (AGW)?

Il senso della teoria AGW, allo stato dell’arte, è che la sensitività del clima rispetto alla CO2, cioè di quanto aumentano le temperature globali a fronte di un raddoppio di concentrazione è (molto probabilmente) inclusa nel range 2.5-4° C. Di conseguenza la continua immissione di CO2 e altri gas serra ai ritmi attuali produce un riscaldamento globale insostenibile.

Da laboratorio, cioè dall’esperimento di Tyndall, sappiamo che in realtà questo valore è di circa 1°C. Il resto è ipotizzato essere dovuto a meccanismi di feed-back (positivi o negativi) presenti in atmosfera, che considerati nella loro complessità gistificherebbero la differenza rispetto a quanto osservato in via sperimentale.

In particolare, l’effetto dei gas serra sarebbe quello di aver avvolto l’atmosfera terrestre con una sorta di coperta virtuale. Per adottare il metodo scientifico bisogna pensare ad esperimenti/effetti che comprovino l’esistenza di questa “coperta”, non al fatto che aumentino le temperature o si sciolgano i ghiacci. L’aumento della temperatura può avvenire per vari motivi, il senso della teoria AGW è che avviene per i gas serra presenti in atmosfera. L’attenzione va posta, quindi, su quanto succede nella troposfera e nella stratosfera. A tal proposito, riporto tre previsioni effettuate dalla teoria dell’AGW in base a modelli o altre considerazioni.

Previsione: esistenza ai tropici di hot-spot (zone calde) posizionati a circa 10km sopra la superficie terrestre.

Riscontrata? No, le radiosonde dell’Hadley Centre non hanno riscontrato hotspot nella zona suddetta. Più in generale, l’andamento termico della media troposfera è ciclico.

Previsione: Raffreddamento della bassa stratosfera.

Riscontrata: No, dal ’94 (fine dell’effetto eruzione Pinatubo) la temperatura in bassa stratosfera è stata sostanzialmente costante, cioè non mostra alcun trend a parte la naturale variabilità.

Previsione: diminuzione dei tempi media di vita di alcuni gas nella stratosfera.

Riscontrata? No, in un articolo di Science Daily viene messo in evidenza che tale diminuzione non esiste ( http://www.sciencedaily.com/releases/2008/12/081215111305.htm e se ne parla su climate monitor http://www.climatemonitor.it/?p=1007)

Anche altre previsione dei modelli o di teorie correlate all’AGW si sono rivelate errate, ma si tratta di effetti generici ipotizzati in base all’aumento di temperatura (es.: gli uragani non sono aumentati negli ultimi due anni, le temperature medie sono sostanzialmente stabili nell’ultimo decennio), e quindi, poiché non sono collegate ai gas serra (cioè non si riferiscono alla “coperta”), non le ho considerate nell’elenco.

Non essendo né un ricercatore, né tanto meno uno scienziato, ma un semplice appassionato, ho trovato naturale domandarmi se esistano altre previsioni di questo tipo che viceversa confermino la teoria AGW e che io non conosca. Ho provato a richiederle in blog sostenitori della teoria. Purtroppo, spesso le risposte confondono osservazioni e previsioni. A volta la risposta è che per l’AGW non è possibile pensare a degli esperimenti. In altri casi, ho ricevuto degli insulti più o meno velati. Alla fine, ho lasciato perdere.

Data, l’importanza della posta in gioco, non credo possiamo fare a meno del metodo scientifico. Quindi vi chiedo: conoscete previsioni successivamente riscontrate, nel senso illustrato sopra, della teoria AGW?

Agrimensore g.

Conferenza Allumiere 2010 con i Prof. Scafetta e Mazzarella tra i Relatori: Giove e Saturno, i burattinai del Sole…

Premessa la personale e sincera ammirazione che nutro per i tre scienziati intervenuti alla conferenza, vorrei riferirvi le impressioni ricevute durante la conferenza esaminando i tre interventi con lo stesso spirito con cui si parla al bar di un film o di una partita. E’ ovvio che il mio punto di vista è di molto ristretto rispetto a quello di un ricercatore climatologo, tuttavia penso di poter ugualmente commentare gli interventi dei relatori, così come, pur non avendo mai recitato in un set, e pur giocando a calcetto malissimo, non rinuncio a dare giudizi su film o partite di calcio.

Anche altri interventi sono stati interessanti, a cominciare da quelli del moderatore Ten.Col. Guidi, ma, per brevità, preferisco focalizzarmi sui tre relatori.

Prof. Adriano Mazzarella, direttore dell’Osservatorio Meteorologico dell’Università di Napoli

Il primo intervento è stato quello di Mazzarella, che ha esposto le correlazioni che ha trovato tra attività solare, lunghezza del giorno (LOD, length of day) e temperatura, ove come temperatura ha privilegiato quella degli oceani, secondo me correttamente, in quanto, come ha ricordato, l’oceano funziona bene da filtro passa-basso, cioè attenua la variabilità inter-annuale (rumore ad alta frequenza) delle temperature, fornendo così un trend già definito. Mazzarella ha definito il suo approccio olistico per differenziarlo da quello dei modelli, che tendono a indagare a partire dal singolo fenomeno e dal singolo elemento di globo terracqueo.

Le correlazioni illustrate da Mazzarella sono state molto convincenti, talora impressionanti, tuttavia va ricordato che, come si suol dire, “correlation is not causation”. A tal proposito, ricordo una nota regola di tipo metodologico. Se si trova una correlazione tra due grandezze A e B, può essere che:

1- A è causa di B

2- B è causa di C

3- esiste una terza grandezza C che è causa di A, B

4- è una combinazione delle tre precedenti possibilità (meccanismi di feedback)

5- è un caso

Ciò premesso, mi pare che quando Mazzarella ipotizza che variazioni di pochi millisecondi della LOD possano provocare cambiamenti climatici, faccia fatica a convincere l’uditorio. Direi che la correlazione da lui trovata circa la LOD (grandezza A) con le temperature (grandezza B) possa essere giustificata da altri tipi di causa effetto. Ad esempio, secondo un’ipotesi credo propria dello stesso Mazzarella, se l’attività solare (grandezza C), tramite la variazione solar wind (o l’attività geomagnetica), fosse la causa della variazione dei millisecondi sulla LOD , potremmo supporre che:

– l’attività solare modula la LOD

– l’attività solare modula la temperatura

– LOD e temperatura sono in correlazione

Credo che questa, a mio modestissimo parere, sia l’ipotesi più probabile, cioè siamo nel caso (3) dei punti summenzionati, ma ognuno potrà formarsi la propria idea.

Quella che ho trovato più interessante, fra le varie correlazioni esposte da Mazzarella, è stata quella che includeva le orbite di Giove e Saturno. La sottolineo, perché qualche ora più tardi è stata ripresa dallo stesso Scafetta.

Dr. Carlo Cacciamani, direttore del Servizio Idro Meteorologico dell’ARPA Emilia Romagna

Il secondo intervento è stato quello di Cacciamani che si è soffermato lo stato dell’arte dei modelli GCM (global circulation models).

Così come il relatore che lo ha preceduto, anche Cacciamani ha dimostrato, oltre all’indiscussa competenza, quel misto di passione e simpatia che è indispensabile per coinvolgere il pubblico. Tuttavia, la parte di relazione volta a suffragare la bontà dei modelli si è basata su delle argomentazioni che non condivido. In particolare, cito due punti sostenuti da Cacciamani:

1. I modelli funzionano in maniera non perfetta, ma già abbastanza accettabile, perché si sono sempre più evoluti fino a raggiungere un elevato grado di complessità, ed, in particolare, includono le principali equazioni della fisica dell’atmosfera.

Cacciamani ha anche illustrato le equazioni differenziali implementate sui modelli, forse nel tentativo di far comprendere quanto essi siano complicati. Premesso che basta essersi occupato un poco di fisica, ad esempio aver trattato le equazioni di Maxwell, per non impressionarsi più di tanto nel vedere operatori matematici quali rotore e divergenza, va detto che nessuno ha messo in dubbio la complessità dei modelli, nonché lo sforzo implementativo per farli funzionare sui calcolatori. Ma la complessità, da sola, non è una prova della correttezza. Al contrario, più un modello è complesso, più va verificato attentamente.

2. I modelli sono già attendibili per alcune zone di mondo, ad esempio il Mediterraneo, giacchè in tali zone i risultati di tutti i modelli convergono.

A me pare normale che i modelli tendano a convergere, dato che si basano all’incirca sulle stesse equazioni differenziali, le quali prevedono l’attività solare come costante, o quasi. In questo caso la convergenza dei modelli implica solo la sostanziale corrispondenza degli algoritmi adottati, non la loro correttezza.

Il problema che invece speravo Cacciamani affrontasse, è la questione cui ho provato ad accennare negli articoli su NIA

http://daltonsminima.wordpress.com/2010/02/19/lo-scetticismo-sui-gcm-parte-ii/

http://daltonsminima.wordpress.com/2010/02/18/lo-scetticismo-sui-gcm-parte-i/

e che sintetizzo in un’unica domanda:

“Chi ci assicura che i GCM non siano affetti da problemi di over-fitting, cioè, che non abbiano così tanti parametri che con un tuning opportuno non si riesca ad ottenere il fit delle curve (dei trend) indipendentemente dalla bontà del modello?”

Dr. Nicola Scafetta, ricercatore della Duke University.

Nel pomeriggio, Scafetta ha presentato la sua chiara e brillante relazione che dividerei in tre parti.

All’inizio ha messo in evidenza alcuni punti che vengono dati per scontati nella teoria AGW e che invece dovrebbero essere tema di approfondimento. Ad esempio, la climate sensitivity , cioè l’aumento della temperatura relativo ad un raddoppio di concentrazione di CO2, in laboratorio, è solo di un grado C. Vari studi, hanno fornito per il clima, includendo i feedback, valori da 0 a 9 gradi C, e l’IPCC ha assunto come statisticamente valido il range da 2,5 a 4 gradi C.

Poi, Scafetta ha ricordato la teoria dei Galactic Cosmic Rays (GCR) quali elementi che facilitano la formazioni di nubi basse, corredandola di grafici e correlazioni. Di seguito, per chi non la conosce, provo a descrivere la teoria che, come ho avuto già modo di scrivere, reputo molto promettente, sotto forma di catena causa/effetto:

più attività solare -> più campo magnetico del sistema solare in grado di deviare i raggi cosmici -> meno GCR sulla Terra -> meno nubi basse -> più temperature

Ovviamente, vale la stessa catena logica con segni invertiti.

Infine, Scafetta ha illustrato la sua teoria così come descritto anche nel relativo articolo di NIA (http://daltonsminima.wordpress.com/2009/10/26/).

In pratica, Scafetta ha messo in rilievo come esistono dei cicli nelle temperature che combaciano, quasi perfettamente, con i cicli orbitali dei maggiori pianeti del sistema solare. La metodologia di analisi statistica di Scafetta non cerca soltanto correlazioni su trend ricavati da grafici già smoothed, ma si basa sull’analisi spettrale. In pratica, un conto è correlare due grandezze rispetto a un trend, cioè una retta, un conto è far vedere in un arco di tempo che quando aumenta una, aumenta anche l’altra, e viceversa, verificando che i due andamenti abbiano la stessa frequenza. E’ stato davvero istruttivo vedere come Scafetta sia riuscito a scomporre un segnale (l’andamento della temperatura) nelle varie componenti, anche se aver enucleato anche l’aumento delle temperature a fronte di fenomeni intensi di El Nino può dar luogo a delle perplessità.

La conclusione dell’intervento è stata focalizzata sulla combinazione dell’orbita Giove-Saturno, della loro influenza sull’attività solare e sul ciclo di sessanta anni che ne deriva. Scafetta, se ho ben compreso, giustifica tale influenza con forze gravitazionali. Secondo me, sarebbe stato ancora più convincente se avesse accennato all’interazione magnetica tra i tre maggiori corpi del sistema solare.

Il ciclo di sessanta anni è importante perchè una scala di tempo umana. Inoltre, mentre i GCM riescono a cogliere i trend di lungo periodo parametrizzando opportunamento il modello, un ciclo di qualche decina di anni viene difficilmente simulato se non è compreso nel modello stesso. In particolare, Scafetta ha mostrato come col suo metodo, che include tale ciclo, si riesca a ricostruire il clima molto più a lungo nel passato, e molto meglio, di quanto riescano a fare i GCM. L’importanza di questo lavoro risiede nel fatto che ha messo in risalto come sia impossibile riuscire a costruire un modello predittivo sul clima trascurando la variabilità dell’attività solare. La successiva domanda di Cacciamani è stata in merito alla sostanziale incompletezza nella definizione fisica del fenomeno attraverso il quale i pianeti, soprattutto Giove/Saturno, possano influenzare il comportamento del Sole. Di conseguenza Cacciamani ha sottolineato l’impossibilità di considerarla in un modello GCM. Scafetta ha replicato che non è per questa carenza che si può pensare a definire un modello predittivo ignorando la questione. In sostanza, secondo Scafetta, postulare l’attività solare come una costante conduce inevitabilmente ad errori di previsione in merito al clima.

Alla fine, la mia impressione più forte è stata che, affrontando il problema da due prospettive diverse, quelle di Mazzarella e di Scafetta, si giunge ad ipotizzare Giove e Saturno come i maggiori burattinai che sollecitano il Sole a darsi da fare o a riposare, con conseguenze evidenti per quanto riguarda il clima terrestre.

E i GCM, prima o poi, dovranno affrontare il tema…

Agrimensore