Tutti gli articoli di agrimensoreg

Lo scetticismo sui GCM – parte II

Ho esposto nella prima parte alcuni problemi di ordine, per così dire, epistemologico che affliggono i modelli GCM. Essi si traducono sostanzialmente in dubbi circa:

– la correttezza dei parametri usati (problema del tuning dei parametri)

– la completezza dei fenomeni fisici/atmosferici considerati

Tuning dei parametri

E’ evidente che il parametro più importante è la sensibilità del clima rispetto all’aumento di concentrazione della Co2 (climate sensitivity), cioè il parametro che stabilisce di quanto aumentano le temperature se se la concentrazione della Co2 nell’atmosfera dovesse raddoppiare. Questo parametro, cruciale per tutta la teoria dell’AGW, è stato stimato in molti modi, a partire dai dati paleo climatici, ma i risultati sono molto differenti. A seconda degli studi, abbiamo valori che vanno da 0.01° a 7° o poco più. L’IPCC fornisce per questo parametro un range di valori probabile che va da 2° a 4.5°. Al di là delle questioni ideologiche, io credo che una delle maggiori difficoltà nello stabilire il valore corretto sia connaturata nel meccanismo stesso con cui la teoria AGW prova a descrivere il fenomeno: l’aumento delle T globali provoca un aumento della concentrazione della Co2 e viceversa. A questo punto, per quanto si provi a stabilire un’elevata correlazione tra T globali e concentrazione di Co2, diventa difficile stabilire fino a che punto è la temperatura che induce l’aumento di Co2, e fino a che punto la Co2 induce l’aumento delle T globali. Ricordo che è dai dati paleoclimatici emerge che prima aumenta la temperatura del pianeta e poi la concentrazione di Co2.

Completezza dei fenomeni

Ovviamente, i fenomeni non considerati potrebbero essere innanzi tutto quelli di origine solare. Da parte mia tendo a sottolineare l’importanza dell’indice geomagnetico Ap. A tal proposito, Nicola Scafetta, noto scienziato piuttosto critico in merito alla teoria AGW, ha proposto un’ipotesi di modello che tenga in considerazione gli effetti della variabilità dei parametri solari.

I due temi, in realtà si potrebbero fondere per generare un’unica domanda (magari un po’ lunga…), del tipo:

“Chi ci assicura che il valore assunto nel modello dalla climate sensitivity non sia più elevato del valore reale perché in tal modo si riesce a mascherare l’assenza di un fenomeno fisico-atmosferico non implementato dal modello?”

Per evitare malintesi, preciso che il quesito non è rivolto alla buona fede del ricercatore, ma alle modalità di costruzione del modello.

Dopo aver descritto problemi intrinseci alla definizione di un GCM, vorrei completare il discorso affrontando problemi più specificatamente tecnici, relativi allo stato dell’arte di questo tipo di strumenti.

Mancanza di feedback da parte degli RCM

Gli RCM, Regional Climate Model, sono quei modelli che vengono impiegati per previsioni meteorologiche a breve su scale regionale. In genere, contengono ancora più “fisica” di quanto sia implementata nei GCM. In alcuni casi, la simulazione globale prevede di includere gli RCM, ma solo per verificare gli effetti su una determinata zona dell’output prodotto dalla simulazione del GCM. Tuttavia, da quanto mi risulta, non viene simulato, per problemi di complessità computazionale, il feed-back inverso. Cioè, nella simulazione non si tiene conto di come i cambiamenti a livello regionale possano influenzare il clima. Con questo non voglio dire che le variazione climatiche siano sovrastimate dai modelli. Potrebbero essere anche sottostimate. Semplicemente le simulazioni prodotte, per come sono state costruite, non tengono conto di una serie di controreazioni del sistema.

Provo a spiegarmi con un esempio che, per sgombrare il campo da equivoci, va nel senso di una sottostima. L’esempio è a scopo puramente esplicativo, non tratto dalla realtà.

Immaginiamo che il GCM preveda un aumento di temperatura tale per cui l’RCM relativo alla penisola antartica ne preveda il completo scioglimento dei ghiacci relativi. Tale situazione diminuirebbe l’albedo che a sua volta ha influenza sul clima. Ecco, questo tipo di situazione non è implementata.

Limitatezza del numero delle variabili prognostiche oggetto di evoluzione.

Da quanto ho avuto modo di apprendere, i GCM, sempre per problemi di complessità computazionale, in genere prevedono l’evoluzione di un numero limitato di variabili climatiche, diciamo all’incirca quattro o cinque (temperatura, umidità, velocità del vento, ecc.). A mio parere, questa è una diviene una restrizione grave soprattutto nel momento in cui ci si ponga l’obiettivo di una previsione a lungo termine. In pratica, mi sembra difficile prevedere come sarà il clima nella seconda metà del secolo se non riesco ad ottenere una rappresentazione globale di come si evolve il pianeta, dal punto di vista climatico, nella varie decadi.

In conclusione, benché i modelli GCM abbiano raggiunto un notevole grado di complessità, credo che sia ragionevole nutrire dei dubbi sull’affidabilità dei risultati prodotti, specie quelli a lungo termine.

Agrimensore g

Lo scetticismo sui GCM – parte I

I Global Circulation Model (GCM) sono quei modelli attraverso i quali i climatologi, in special modo i sostenitori dell’AGW, cercano di prevedere il clima della Terra anche a parechie decine di anni di distanza dal presente.

Vorrei spiegarvi alcuno dei motivi del mio scetticismo in merito.

Innanzi tutto, perdonatemi una premessa di tipo matematico, che segue il discorso iniziato nel post sulla interpolazione lineare ( http://daltonsminima.wordpress.com/2010/01/19/la-rubrica-di-nia-alcune-basi-statistiche-per-studiare-un-clima/#comments )

Riporto, l’estratto da wikipedia sull’interpolazione polinomiale

L’interpolazione polinomiale costituisce un’alternativa dell’interpolazione lineare: mentre per questo metodo si usa una sequenza di funzioni lineari si tratta ora di servirsi di un polinomio di un opportuno grado più alto.

Di una funzione f che in altra sede è nota si supponga di conoscere alcuni valori; in particolare si considerino i seguenti valori tabulati

Diagramma dei punti dati.

x f(x)
0 0
1 0.8415
2 0.9093
3 0.1411
4 -0.7568
5 -0.9589
6 -0.2794

Ci si chiede, per esempio: quanto vale la funzione in x = 2.5? L’interpolazione risolve problemi come questo.

Il seguente polinomio di sesto grado passa attraverso tutti i sette punti dati:

f(x) = – 0.0001521x6 – 0.003130x5 + 0.07321x4 – 0.3577x3 + 0.2255x2 + 0.9038x.

Sostituendo x = 2.5, troviamo che f(2.5) = 0.5965.

In generale, se abbiamo n punti dati, esiste esattamente un polinomio di grado n-1 che passa attraverso tutti i punti dati.

Fin qui l’estratto da wikipedia.

I lettori con qualche conoscenza di matematica avranno già riconosciuto che c’è un’altra funzione, che, più elegantemente, include i punti del diagramma, ed è la sinusoide, sen(x), un grafico che ha la forma di un’onda.

La f(x) e la sinusoide si assomigliano molto SOLTANTO nell’insieme considerato, cioè per x compreso tra 0 e 6 (quasi 6,28, un ciclo intero di 2p). In effetti, l’esempio di wikipedia ci fa vedere come fa (o potrebbero fare) una macchinetta calcolatrice a calcolare con buona approssimazione i valori di una funzione trigonometrica, o comunque periodica. Però fuori dall’insieme considerato, la f(x) e la sinusoide divergono completamente. Più ci si allontana dall’insieme considerato per l’interpolazione, più aumentano le probabilità che le due funzioni differiscano. Ad esempio per x= 9,42 (cioè 3p) abbiamo che:

sen(9,42) = 0 f(9,42) = -32,452

In sostanza, se l’interpolazione funziona, non è detto che funzioni anche l’estrapolazione.

Immaginiamo ora che il diagramma dei punti si riferisca a dati sperimentali di due grandezze fisiche, X e Y, cioè nella colonna a destra abbiamo i dati sperimentali dei valori assunti dalla grandezza Y al variare di X.

Utilizzando l’interpolazione, potremmo ipotizzare che la polinomiale f(x) sia la legge che interpreta il fenomeno fisico che lega le due grandezze, cioè Y=f(x). Tuttavia, senza un fase sperimentale a posteriori (cioè fuori dal range utilizzato per costruire l’ipotesi) non potremmo validare tale ipotesi. Magari la legge corretta, cioè quella più efficace nel prevedere i valori di Y, è Y=sen(x). In tal caso solo un’ulteriore verifica sperimentale, fuori dal range, ci farà capire che il modello Y=f(x) è sbagliato.

Conclusa la premessa, affrontiamo il tema dei modelli di tipo GCM utilizzati per prevedere l’evoluzione del clima.

Da quanto ho avuto modo di apprendere, tale modelli sono estremamente complessi e si basano sul tentativo di prevedere l’evoluzione del clima in base a leggi fisiche che determinano le principali grandezze climatiche (temperatura, umidità,ecc.) da un punto di vista statistico, su un periodo venti/trentennale. Naturalmente tutto è suddiviso per la varie zone del pianeta. Sono implementati, e di volta in volta raffinati, tenendo presente i dati climatologici disponibili, a partire grosso modo dal 1900, oltre ai dati paleoclimatici ottenuti con varie tecniche. In genere, propongono diversi scenari, a secondo dei valori assunti da varabili esogene.

L’idea di fondo è:

beh, se sono riuscito ad implementare un modello che si correla bene, o abbastanza bene, con un intero secolo, allora saprò farlo evolvere in maniera abbastanza corretta per prevedere statisticamente il futuro climatico.

Non sembra una cattiva idea, no?

Ora dimentichiamo per un attimo climategate, problema coi dati proxy, ipotesi di cherry-picking e via dicendo. Mettiamoci nell’ottica che coloro i quali hanno costruito i modelli siano programmatori, statistici, ricercatori in gamba e in buona fede.

Perché la cosa non dovrebbe funzionare?

Per rispondere, vediamo intanto come vengono raffinati i modelli. Laddove si nota uno scostamento tra quanto dice il modello e la realtà, quello che si fa, in genere, è cercare di capirne le cause, verificando se sia il caso di introdurre nel modello un nuovo fenomeno fisico-atmosferico se sia il caso di variare qualche parametro. Pare ragionevole. Se una volta inserito il nuovo fenomeno, il modello combacia meglio con il set di dati noto al ricercatore, verrebbe da dire che il modello è stato migliorato.

Ora, vediamo che significa fare questa operazione andando per analogia (sottolineo che è un’analogia non un confronto) con l’interpolazione polinomiale. Diciamo che la sinusoide è la legge fisica reale che lega le grandezze e la f(x) in un certo senso è il modello (è ovviamente un’iper-semplificazione, i modelli GCM sono effettivamente molto complicati). Immaginiamo che aumentando di poco il range di osservazione, mi sia accorto di uno scostamento tra la realtà e la f(x). Allora, cerco di capire il valore della realtà e prendo in considerazione un altro paio di punti ottenuti per via sperimentale, il 7 e l’8. Ricalcolo la f(x) ed ottengo una polinomiale di grado più alto (pari ad 8), cioè ho inserito nuovi parametri. A questo punto la mia f(x) assomiglia ancora di più alla realtà che conosco per certo, giacchè ho esteso il range da O-6 a O-8. Ma è migliorata da un punto di visto predittivo, cioè, è efficace nel prevedere i valori molto fuori dal range?

No, la funzione (il modello) continua a divergere completamente dalla realtà (la sinusoide) fuori dal range O-8, in particolare se si va molto fuori.

In sostanza, aumentare il numero di parametri per far aderire meglio il modello al set di dati noto al ricercatore non può servire per validare il modello stesso, nel senso che continuiamo a non conoscere la sua reale efficacia. Detto in altri termini, per validare qualsiasi legge fisica, o modello, serve la fase sperimentale. Mi rendo conto che può sembrare una banalità, eppure è utile ribadirlo.

Se un modello riesce a descrivere in maniera soddisfacente la realtà per il secolo passato, dove mai potrebbe essere l’errore?

Ad esempio, se non considerasse tutti i principali fenomeni fisici che influenzano il clima. In questo caso la correlazione con le grandezze prognostiche sarebbe ottenuta forzando i parametri che costituiscono i modelli per ottenere la correlazione cercata. A questo punto, il modello funziona solo se il fenomeno fisico ignorato rimane costante durante il periodo che viene considerato per la fase predittiva. Però, il modello non è più predittivo, cioè non risponde più alla domanda “COSA SUCCEDERA’?“, ma alla domanda “SE TUTTO CIO’ CHE IGNORO VA AVANTI COSI’, COSA SUCCEDERA’?”. In sostanza, il modello può essere utilizzato solo per fare proiezioni (projections), da non confondere con le previsioni (predictions).

Applichiamo queste considerazioni nella realtà dei GCM. Ipotizziamo che il clima dipenda dall’attività geomagnetica (come effettivamente credo) e che il modello non prenda in considerazione tale fenomeno, allora il modello potrà funzionare solo se il trend dell’indice si mantiene costante. Ma se l’indice cambia trend, ad esempio anziché continuare ad aumentare prende a diminuire velocemente, il modello, com’è ovvio, non funziona più. Il fatto che esso abbia prodotto risultati aderenti alla realtà già riscontrata in passato, non è una prova che abbia considerato tutti i fenomeni, specialmente se vi sono inclusi parecchi parametri sottoposti a tuning.

Tutto ciò, non è nemmeno una prova che i GCM non funzionino (forse prendono davvero in considerazione tutti i principali fenomeni che determinano il clima). E’ solo un ragionamento che giustifica un certo scetticismo su tali modelli.

Ma allora cosa si può fare per validare un modello?

La cosa più semplice sarebbe confrontarlo con la realtà successiva rispetto alla definizione del modello. Purtroppo, nei casi dei modelli GCM non si può fare, per lo meno breve. Il modello GCM si propone di individuare grandezze statistiche nell’arco di un trentennio (circa). Quindi, bisogno aspettare (almeno) trent’anni per potere verificare la bontà del modello. Tra l’altro, un periodo di trenta anni come tempo necessario per la verifica dei risultati, rende breve persino un periodo si cento anni come base per il modello.

In sostanza, al GCM, quali che siano i risusltati non si potrà mai dire:

“Guarda che negli ultimi dieci anni non ci hai azzeccato…”

Perché la risposta sarà

“E no! Devi aspettare trent’anni per giudicare”

A parte al fatto che durante i trent’anni il modello viene ulteriormente rivisto, è chiaro che nessuno ha tanto tempo da aspettare per validare il modello.

Ebbene, è evidente che se una teoria o un modello è costruito in maniera tale che, quale che siano i risultati, non si possa metterla in discussione, qualche problema c’è.

Su questo punto, però, lascio la parola agli epistemologi.

Agrimensore g.

LA LEZIONE CECA – COME L’ATTIVITA’ GEOMAGNETICA DEL SOLE INFLUENZA IL CLIMA

Il nostro ALE ci parla spesso della scuola astrofisica russa rivelandoci studi interessantissimi e colgo l’occasione per ringraziarlo ancora una volta.

Da parte mia, invece, vorrei segnalare i progressi della scuola ceca. Mi sembrano siano andati molto avanti su parecchi temi inerenti la relazione tra attività geomagnetica solare ed il clima terrestre

Vi riporto due studi provenienti da Università di Praga.

Nel primo, i ricercatori H. Davidkovova, J. Bochnicek, (Istituto di Geofisica),P. Hejda, R. Huth (Istituto di fisica dell’atmosfera) nell’articolo “The Possible Effect of Geomagnetic Activity on Stratospheric Major Mid-Winter Warmings: a Case Study” descrivono il processo che lega l’incremento dell’attività geomagnetica alla stabilità e intensità del vortice polare (VP). Tanto per fare un esempio , per noi europei un vortice polare stabile e forte (indice AO positivo) produce inverni meno rigidi (mi scuso con i meteorologi per l’eccessiva semplificazione). Riassumendo:

aumento dell’attività geomagnetica –> VP stabile (AO+) –> inverno mite

diminuzione dell’attività geomagnetica –> VP instabile (AO-) –>inverno rigido

Naturalmente la relazione non è così stretta, nel senso che insiame all’indice AO (Artic Oscillation), vanno considerati gli altri vari indici tele connettivi a partire dal NAO (North Atlantic Oscillation). Però un indice AO molto basso, da solo è già sintomo di un probabile split del vortice polare, con conseguenza discesa del freddo artico .

Lo studio continua mostrando come il cosiddetto strat-warming (fenomeno attraverso il quale il centro del vortice polare si spinge a sud fino a 6O° gradi N) sia legato all’attività geomagnetica solare.

Questo lavoro è stato presentato a marzo 2009. Ebbene, anche chi non è meteorologo, può andare in giro per la rete alla ricerca di siti meteo che propongono editoriali (il NIA stesso riporta dei link) e verificare come quasi tutti mettano in risalto come questo inverno sia segnato da split polari, centro del vortice che si spinge a sud, e strat-warming ripetuti, fino ad un prossimo probabile major strat-warming. E, a volte, ipotizzano, proprio che questa peculiarità sia indotta dal minimo solare.

Nel secondo (Common oscillatory modes in solar/geomagnetic activity and climate

variability and their relations) i ricercatori M. Palus (Istituto di Scienze del computer), D. Novotna (Istituto di Fisica del’Atmosfera) mostrano come l’oscillazione mensile dell’attività geomagnetica solare sia statisticamente legata con l’oscillazione dell’indice NAO. Ricordo che l’indice NAO è assai importante per il clima in Europa. Ad esempio, in teoria, un NAO positivo in estate apre le porte all’alta africana. Ma, di nuovo, i meteorologi saranno certo più precisi di me.

Di nuovo, abbiamo evidenza di come l’attività geomagnetica del sole influenzi il nostro clima, anche se, sottolineo, parliamo di oscillazioni, non di intensità.

Rispetto alla TSI, che è quasi una costante, l’attività geomagnetica del sole è variabile ed è considerevolmente aumentata, in media, negli ultimi cento anni. Viceversa, anche grazie a NIA, osserviamo come a partire da questo profondo minimo sia considerevolmente diminuita.

Provo ad indovinare una domanda dei lettori NIA: quanto dobbiamo aspettare prima che tale diminuzione provochi delle modifiche a livello di temperatura? Anche qui, c’è uno studio (On the response of the European climate to the solar/geomagnetic long-term activity) di un’Università dell’Est che ci aiuta a rispondere. I ricercatori V. Dobrica, C. Demetrescu, G. Maris (Istituto geofisica di Bucarest) hanno stimato che il lag temporale tra variazione attività geomagnetica e temperature (almeno in Europa) varia dai 5 ai 9 anni.

Rispetto ai modelli sul clima, che effettuano la loro attività predittiva su un periodo multidecadale, mi sembra che questo tipo di lavori abbia almeno un vantaggio: non è necessario aspettare venti trent’anni per verificarne la correttezza. Insomma, per controllare se le ipotesi riportate sono vere, non dobbiamo attendere la pensione (semmai ne avremo una): possiamo osservare gli strat-warming, la copertura di nubi basse (teoria di Svensmark sui GCR, galactic cosmic rays) e, tra qualche anno, l’eventuale diminuzione delle temperature.

Sì, viviamo proprio in tempi interessanti…

Nota: tutti gli articoli summenzionati sono stati presentati al “Third International Symposium on Space Climate”

Agrimensore g