Archivio mensile:Febbraio 2010

Lo scetticismo sui GCM – parte I

I Global Circulation Model (GCM) sono quei modelli attraverso i quali i climatologi, in special modo i sostenitori dell’AGW, cercano di prevedere il clima della Terra anche a parechie decine di anni di distanza dal presente.

Vorrei spiegarvi alcuno dei motivi del mio scetticismo in merito.

Innanzi tutto, perdonatemi una premessa di tipo matematico, che segue il discorso iniziato nel post sulla interpolazione lineare ( http://daltonsminima.wordpress.com/2010/01/19/la-rubrica-di-nia-alcune-basi-statistiche-per-studiare-un-clima/#comments )

Riporto, l’estratto da wikipedia sull’interpolazione polinomiale

L’interpolazione polinomiale costituisce un’alternativa dell’interpolazione lineare: mentre per questo metodo si usa una sequenza di funzioni lineari si tratta ora di servirsi di un polinomio di un opportuno grado più alto.

Di una funzione f che in altra sede è nota si supponga di conoscere alcuni valori; in particolare si considerino i seguenti valori tabulati

Diagramma dei punti dati.

x f(x)
0 0
1 0.8415
2 0.9093
3 0.1411
4 -0.7568
5 -0.9589
6 -0.2794

Ci si chiede, per esempio: quanto vale la funzione in x = 2.5? L’interpolazione risolve problemi come questo.

Il seguente polinomio di sesto grado passa attraverso tutti i sette punti dati:

f(x) = – 0.0001521x6 – 0.003130x5 + 0.07321x4 – 0.3577x3 + 0.2255x2 + 0.9038x.

Sostituendo x = 2.5, troviamo che f(2.5) = 0.5965.

In generale, se abbiamo n punti dati, esiste esattamente un polinomio di grado n-1 che passa attraverso tutti i punti dati.

Fin qui l’estratto da wikipedia.

I lettori con qualche conoscenza di matematica avranno già riconosciuto che c’è un’altra funzione, che, più elegantemente, include i punti del diagramma, ed è la sinusoide, sen(x), un grafico che ha la forma di un’onda.

La f(x) e la sinusoide si assomigliano molto SOLTANTO nell’insieme considerato, cioè per x compreso tra 0 e 6 (quasi 6,28, un ciclo intero di 2p). In effetti, l’esempio di wikipedia ci fa vedere come fa (o potrebbero fare) una macchinetta calcolatrice a calcolare con buona approssimazione i valori di una funzione trigonometrica, o comunque periodica. Però fuori dall’insieme considerato, la f(x) e la sinusoide divergono completamente. Più ci si allontana dall’insieme considerato per l’interpolazione, più aumentano le probabilità che le due funzioni differiscano. Ad esempio per x= 9,42 (cioè 3p) abbiamo che:

sen(9,42) = 0 f(9,42) = -32,452

In sostanza, se l’interpolazione funziona, non è detto che funzioni anche l’estrapolazione.

Immaginiamo ora che il diagramma dei punti si riferisca a dati sperimentali di due grandezze fisiche, X e Y, cioè nella colonna a destra abbiamo i dati sperimentali dei valori assunti dalla grandezza Y al variare di X.

Utilizzando l’interpolazione, potremmo ipotizzare che la polinomiale f(x) sia la legge che interpreta il fenomeno fisico che lega le due grandezze, cioè Y=f(x). Tuttavia, senza un fase sperimentale a posteriori (cioè fuori dal range utilizzato per costruire l’ipotesi) non potremmo validare tale ipotesi. Magari la legge corretta, cioè quella più efficace nel prevedere i valori di Y, è Y=sen(x). In tal caso solo un’ulteriore verifica sperimentale, fuori dal range, ci farà capire che il modello Y=f(x) è sbagliato.

Conclusa la premessa, affrontiamo il tema dei modelli di tipo GCM utilizzati per prevedere l’evoluzione del clima.

Da quanto ho avuto modo di apprendere, tale modelli sono estremamente complessi e si basano sul tentativo di prevedere l’evoluzione del clima in base a leggi fisiche che determinano le principali grandezze climatiche (temperatura, umidità,ecc.) da un punto di vista statistico, su un periodo venti/trentennale. Naturalmente tutto è suddiviso per la varie zone del pianeta. Sono implementati, e di volta in volta raffinati, tenendo presente i dati climatologici disponibili, a partire grosso modo dal 1900, oltre ai dati paleoclimatici ottenuti con varie tecniche. In genere, propongono diversi scenari, a secondo dei valori assunti da varabili esogene.

L’idea di fondo è:

beh, se sono riuscito ad implementare un modello che si correla bene, o abbastanza bene, con un intero secolo, allora saprò farlo evolvere in maniera abbastanza corretta per prevedere statisticamente il futuro climatico.

Non sembra una cattiva idea, no?

Ora dimentichiamo per un attimo climategate, problema coi dati proxy, ipotesi di cherry-picking e via dicendo. Mettiamoci nell’ottica che coloro i quali hanno costruito i modelli siano programmatori, statistici, ricercatori in gamba e in buona fede.

Perché la cosa non dovrebbe funzionare?

Per rispondere, vediamo intanto come vengono raffinati i modelli. Laddove si nota uno scostamento tra quanto dice il modello e la realtà, quello che si fa, in genere, è cercare di capirne le cause, verificando se sia il caso di introdurre nel modello un nuovo fenomeno fisico-atmosferico se sia il caso di variare qualche parametro. Pare ragionevole. Se una volta inserito il nuovo fenomeno, il modello combacia meglio con il set di dati noto al ricercatore, verrebbe da dire che il modello è stato migliorato.

Ora, vediamo che significa fare questa operazione andando per analogia (sottolineo che è un’analogia non un confronto) con l’interpolazione polinomiale. Diciamo che la sinusoide è la legge fisica reale che lega le grandezze e la f(x) in un certo senso è il modello (è ovviamente un’iper-semplificazione, i modelli GCM sono effettivamente molto complicati). Immaginiamo che aumentando di poco il range di osservazione, mi sia accorto di uno scostamento tra la realtà e la f(x). Allora, cerco di capire il valore della realtà e prendo in considerazione un altro paio di punti ottenuti per via sperimentale, il 7 e l’8. Ricalcolo la f(x) ed ottengo una polinomiale di grado più alto (pari ad 8), cioè ho inserito nuovi parametri. A questo punto la mia f(x) assomiglia ancora di più alla realtà che conosco per certo, giacchè ho esteso il range da O-6 a O-8. Ma è migliorata da un punto di visto predittivo, cioè, è efficace nel prevedere i valori molto fuori dal range?

No, la funzione (il modello) continua a divergere completamente dalla realtà (la sinusoide) fuori dal range O-8, in particolare se si va molto fuori.

In sostanza, aumentare il numero di parametri per far aderire meglio il modello al set di dati noto al ricercatore non può servire per validare il modello stesso, nel senso che continuiamo a non conoscere la sua reale efficacia. Detto in altri termini, per validare qualsiasi legge fisica, o modello, serve la fase sperimentale. Mi rendo conto che può sembrare una banalità, eppure è utile ribadirlo.

Se un modello riesce a descrivere in maniera soddisfacente la realtà per il secolo passato, dove mai potrebbe essere l’errore?

Ad esempio, se non considerasse tutti i principali fenomeni fisici che influenzano il clima. In questo caso la correlazione con le grandezze prognostiche sarebbe ottenuta forzando i parametri che costituiscono i modelli per ottenere la correlazione cercata. A questo punto, il modello funziona solo se il fenomeno fisico ignorato rimane costante durante il periodo che viene considerato per la fase predittiva. Però, il modello non è più predittivo, cioè non risponde più alla domanda “COSA SUCCEDERA’?“, ma alla domanda “SE TUTTO CIO’ CHE IGNORO VA AVANTI COSI’, COSA SUCCEDERA’?”. In sostanza, il modello può essere utilizzato solo per fare proiezioni (projections), da non confondere con le previsioni (predictions).

Applichiamo queste considerazioni nella realtà dei GCM. Ipotizziamo che il clima dipenda dall’attività geomagnetica (come effettivamente credo) e che il modello non prenda in considerazione tale fenomeno, allora il modello potrà funzionare solo se il trend dell’indice si mantiene costante. Ma se l’indice cambia trend, ad esempio anziché continuare ad aumentare prende a diminuire velocemente, il modello, com’è ovvio, non funziona più. Il fatto che esso abbia prodotto risultati aderenti alla realtà già riscontrata in passato, non è una prova che abbia considerato tutti i fenomeni, specialmente se vi sono inclusi parecchi parametri sottoposti a tuning.

Tutto ciò, non è nemmeno una prova che i GCM non funzionino (forse prendono davvero in considerazione tutti i principali fenomeni che determinano il clima). E’ solo un ragionamento che giustifica un certo scetticismo su tali modelli.

Ma allora cosa si può fare per validare un modello?

La cosa più semplice sarebbe confrontarlo con la realtà successiva rispetto alla definizione del modello. Purtroppo, nei casi dei modelli GCM non si può fare, per lo meno breve. Il modello GCM si propone di individuare grandezze statistiche nell’arco di un trentennio (circa). Quindi, bisogno aspettare (almeno) trent’anni per potere verificare la bontà del modello. Tra l’altro, un periodo di trenta anni come tempo necessario per la verifica dei risultati, rende breve persino un periodo si cento anni come base per il modello.

In sostanza, al GCM, quali che siano i risusltati non si potrà mai dire:

“Guarda che negli ultimi dieci anni non ci hai azzeccato…”

Perché la risposta sarà

“E no! Devi aspettare trent’anni per giudicare”

A parte al fatto che durante i trent’anni il modello viene ulteriormente rivisto, è chiaro che nessuno ha tanto tempo da aspettare per validare il modello.

Ebbene, è evidente che se una teoria o un modello è costruito in maniera tale che, quale che siano i risultati, non si possa metterla in discussione, qualche problema c’è.

Su questo punto, però, lascio la parola agli epistemologi.

Agrimensore g.

La legge del "recinto di Carrington" colpisce ancora…

Quella che era stata per più giorni una semplice plage nell’emisfero meridionale, una volta giunta in quello spazio di sole definito dal nostro Ale recinto “Recinto di Carrington” ha improvvisamente preso vigore dando origine alla nuova AR 1049!

Mentre entro domani saranno definitivamente scomparse le altre regioni attive la 1046 e la 1048.

Dando una sguardo al Behind si nota invece come la AR 1041 (già 1039) sta approcciando il lat visibile del sole per la terza volta da quando si è formata, sotto il periodo di Natale, eguagliando così la mitica AR 9393, la regione da post massimo del ciclo 23 definita la AR che non voleva mai morire, altro tassello che non fa altro che avvalorare la teoria di Ale:

Sempre più intrigante questo ciclo 24!

Simon

Ghiacci Marini Antartici – Situazione Gennaio 2010

Estensione:

Anomalia Concentrazione:

Area:

Trend Anomalia Estensione:

Curiosità:

Rispetto a 10 anni fa abbiamo 0.1milioni di kmq di estensione in più e 0.4 in più di area

Rispetto a 20 anni fa abbiamo 0.2milioni di kmq di estensione in meno e 0.1 in meno di area.

Rispetto a 30 anni fa abbiamo 0.2milioni di kmq di estensione in più e 0.2 in più di area

FABIO

NOAA prevede un ciclo 24 di oltre 13 anni. Minimo di Dalton in arrivo?

Il NOAA dopo varie modifiche sulle sue previsioni del ciclo 24, finalmente sembra aver trovato concordamente una ipotesi sulle date e sui massimi del ciclo.

I dati salienti sono questi:

Inizio del ciclo 24 dicembre 2008, previsione della data del massimo a maggio 2013, susnspot massimo tra 88 e 90, un solar flux massimo intorno a 140.

http://www.swpc.noaa.gov/SolarCycle/

Non ci sarebbe nulla da ridire, anche con i vari cambiamenti, che hanno denotato una certa incertezza degli scienziati solari se non fosse che una cosa mi lascia con molti dubbi.

Il massimo del ciclo 23 é stato indicato sia dal NOAA che da SIDC nel mese di marzo/aprile 2000, se adesso il massimo del ciclo 24 viene indicato per maggio 2013 ció significa che stanno prevedendo una durata da massimo 23 a massimo 24 di ben 13 anni e 2 mesi!!

Mi sembra sinceramente che sia esagerato.

Guardiamo i dati ufficiali dei cicli solari.

CICLI SOLARI
Ciclo Inizio Fine Durata (anni) Massimo SSN mensile Minimo (SSN mensile) Giorni Spotless
1 March 1755 June 1766 11.3 86.5 11.2
2 June 1766 June 1775 9.0 115.8 7.2
3 June 1775 Septem 1784 9.3 158.5 9.5
4 Septemb 1784 May 1798 13.7 141.1 3.2
5 May 1798 Decem 1810 12.6 49.2 0.0
6 Decem 1810 May 1823 12.4 48.7 0.1
7 May 1823 Novemb 1833 10.5 71.5 7.3
8 Novem 1833 July 1843 9.8 146.9 10.6
9 July 1843 Dicem 1855 12.4 131.9 3.2 ~654
10 Decem 1855 March 1867 11.3 97.3 5.2 ~406
11 March 1867 Dicem 1878 11.8 140.3 2.2 ~1028
12 Decem 1878 March 1890 11.3 74.6 5.0 ~736
13 March 1890 Febr 1902 11.9 87.9 (Jan 1894) 2.7 ~938
14 Febr 1902 August 1913 11.5 64.2 (Feb 1906) 1.5 ~1019
15 August 1913 August 1923 10.0 105.4 (Aug 1917) 5.6 534
16 August 1923 Sett. 1933 10.1 78.1 (Apr 1928) 3.5 568
17 Septem 1933 Febr 1944 10.4 119.2 (Apr 1937) 7.7 269
18 Febr 1944 April 1954 10.2 151.8 (May 1947) 3.4 446
19 April 1954 October 1964 10.5 201.3 (Mar 1958) 9.6 227
20 October 1964 June 1976 11.7 110.6 (Nov 1968) 12.2 272
21 June 1976 Sett. 1986 10.3 164.5 (Dec 1979) 12.3 273
22 Septem 1986 May 1996 9.7 158.5 (Jul 1989) 8.0 309
23 May 1996 Dicem 2008 12.6 120.8 (Mar 2000) 1.7 802 fino al 10/2/2010
24 Decem 2008
Media 10.4

In questo modo a meno che la fase di decadenza del ciclo 24 sia particolarmente violenta il nuovo minimo solare andrebbe a febbraio del 2022 visto che il minimo ´del ciclo 23 é stato nel dicembre 2008 aggiungendo 13 anni e 2 mesi andremmo proprio a quella data.

Solo il ciclo 4 ha avuto una durata di oltre 13 anni, ma in quel periodo non si avevano certo le strumentazioni odierne, ma se per il NOAA il ciclo 23 é durato 12 anni e 6 mesi e il ciclo 24 durerá 13 anni e 2 mesi il paragone con i cicli 4 – 5 – 6 – 7 é doveroso farlo.

E guarda caso quelli furono i cicli del minimo di Dalton tra il 1790 e il 1830 in cui il primo ciclo del minimo di Dalton, il ciclo 4 ebbe un numeo di sunspot e SF da paragonare a questo ciclo 24.

E durante il minimo di Dalton Giove e Saturno furono allineati ma nessuno dei due era prossimo a perielio come si verificherá tra qualche mese, configurazione che si ebbe invece durante il minimo di Maunder.

SAND-RIO

Ghiacci Marini Artici – Situazione Gennaio 2010

Estensione:

Anomalia Concentrazione:

Area:

Trend Anomalia Estensione:

Curiosità:

Rispetto a 10 anni fa abbiamo 0.6milioni di kmq di estensione in meno e 0.6 in meno di area

Rispetto a 20 anni fa abbiamo 1.1milioni di kmq di estensione in meno e 1.1 in meno di area.

Rispetto a 30 anni fa abbiamo 1.2milioni di kmq di estensione in meno e 0.2 in meno di area

FABIO

NB. La situazione momentanea di metà febbraio è la seguente:

Questo primo mese e mezzo dell’anno non vede l’artico in ottima forma, ma era prevedibile visto l’AO super negativo che praticamente ci ha accompagnato dall’autunno.

Ricordo già da ora che anche il picco stagionale che si avrà attorno marzo-aprile ha una importanza relativa, ciò che conta è come reggerà la banchisa drante l’estate e quindi il suo minimo in quei di settembre.

Infine mi aspetto una ripresa del VP proprio durnte la primavera…

Simon