PERCHE’ E’ RAGIONEVOLE DUBITARE DELLE STIME SULLA SENSIBILITA’ CLIMATICA – II parte: i modelli GCM

di agrimensore g., con la collaborazione di Fano

Nella prima parte,  abbiamo visto che la stima del valore della climate sensitivity (sensibilità climatica), cioè il coefficiente relativo all’aumento delle temperature a fronte di una maggiore quantità di IR (Infrared radiation), è particolarmente ardua se effettuata confrontando il comportamento della Terra col passato. Quello che si riesce a fare è trovare una funzione di distribuzione del valore che dovrebbe almeno essere sottoposta ad una verifica sperimentale, molto difficile da progettare.

Un metodo alternativo, o a integrazione, è quello di utilizzare i modelli GCM (General Circulation Model)

I modelli GCM, come noto, sono quei modelli che prevedono alcune grandezze climatiche (di norma venti, temperature, precipitazioni e pressione) attraverso i relativi valori statistici in un orizzonte temporale di più decadi (venti o trent’anni). In genere le elaborazioni vengono effettuate su potenti computer per permettere il calcolo numeriche delle legge fisiche che interessano il clima.

Funzionano bene?

Il modo più naturale per capire se funzionano è confrontarli con la realtà. Può sembrare una banalità, ma spesso per valutare il loro grado di funzionamento si giudicano le discrepanze tra i vari modelli, il fatto che siano diminuite viene giudicato un buon risultato. Oppure vengono confrontate le medie dei modelli con un super-modello ( http://scienceofdoom.com/2010/03/23/models-on-and-off-the-catwalk-part-two/) per evidenziare come la media sia migliore del singolo.

Mi sembra ovvio che tutto ciò non implichi affatto che i modelli GCM funzionino. Sarebbe opportuno  il confronto con la realtà oggetto delle previsioni.

Purtroppo, per riscontrare  con gli output dei modelli sarebbe necessario aspettare parecchi anni, perché le loro previsioni si riferiscono a  medie e grandezze statistiche da applicare a periodi multidecadali. Anziché attendere venti o più anni, possiamo cominciare a verificare i cosiddetti hindcast, cioè gli output dei modelli che si riferiscono al passato. Riprendo dallo stesso sito precedente, sostenitore dell’AGWT, la figura riportata nell’AR 2007 IPCC in merito ai modelli:

 

 

Nelle figura le parti in blu rappresentano una sottostima e le parti in rosso una sovrastima delle temperature. Come si vede non c’è nessun modello che abbia solo colori tenui, chiari. Anche quello che viene considerato il migliore (in alto a destra) presenta vari punti deboli, ad esempio ha sottostimato le temperature in Groenlandia e le ha sovrastimate in Antartide. La circostanza che per qualcuno la media generale sia simile a quella osservata non può essere considerata come la prova che i modelli GCM funzionino.

Prendiamo un’altra grandezza prognostica importante, le precipitazioni.

Qui  in generale i modelli GCM sembrano aver sottostimato l’incremento delle precipitazioni avvenuto in questi anni. Lo evidenzia il lavor di Frank J. Wentz, Lucrezia Ricciardulli, Kyle Hilburn, Carl Mears (http://www.remss.com/papers/wentz_science_2007_paper+som.pdf)

con il seguente abstract (già riportato in originale in un precedente articolo di NIA):

Sia i modelli climatici, sia le osservazioni satellitari indicano che la totalità dell’acqua in atmosfera aumenterà del 7% per grado Kelvin di riscaldamento della superficie. Tuttavia, i modelli climatici prevedono che le precipitazioni globali aumenteranno a un tasso molto più lento, da 1 a a 3% per Kelvin (n.d.r: significherebbe più vapor acqueo e meno pioggia). Un’analisi recente delle osservazioni satellitari non conferma questa previsione di una mutata risposta delle precipitazioni a fronte del global warming. Piuttosto, le osservazioni suggeriscono che le precipitazioni e la totalità dell’acqua totale in atmosfera sono aumentate circa dello stesso tasso nelle precedenti due decadi.

D’altra parte, anche le istituzione favorevoli all’AGWT, ammettono che c’è ancora parecchio da sviluppare. Un esempio è contenuto  nella lettera (cfr. http://www.aps.org/about/pressreleases/haroldlewis.cfm)  con cui l’APS (American Phisycal Society) ha risposto alle critiche del professor Lewis, dimessosi proprio per contrasti in merito alle posizioni dell’associazione sui cambiamenti climatici. Dopo una serie di contestazioni al professore Lewis, l’APS scrive che

However, APS continues to recognize that climate models are far from adequate

Perché i modelli GCM non sono adeguati?

Senza inserire i vari link, è quasi unanimemente riconosciuto che uno dei problemi maggiori dei modelli GCM sia la simulazione del processo di formazioni delle nubi. Questo processo, da un punto di vista algoritmico, è parametrizzato. In sostanza, non è implementato solo attraverso leggi fisiche, ma è stato necessario utilizzare delle formule empiriche che dipendono da alcuni parametri e sono state costruite con algoritmi complessi (es.: reti neurali) cercando di renderle efficaci nel simulare il passato.

Però qualcosa non va.

Il processo di formazione delle nubi è importante perché a secondo di come viene implementato può rappresentare un rilevante feed-back positivo o negativo. Secondo una teoria condivisa da molti, almeno quelle medio-basse rappresentano un rilevante feed-back negativo, mentre per molti dei modelli sono un feed-back positivo.

Una possibile spiegazione di questa discrepanza si trova nella teoria di Svensmark e Shaviv circa la capacità dei GCR (Galactic Cosmic Rays) di favorire la formazioni di nubi. L’ingresso dei GCR in atmosfera è modulato dal vento solare; in sostanza,  a un’attività solare intensa corrisponde una diminuzione del livello dei GCR, mentre in periodi di scarsa attività solare, i GCR aumentano e di conseguenza si formano più nubi.

Poiché nessun modello GCM considera questa teoria, se essa fosse vera, la parametrizzazione, basata su dati di anni precedenti, avrebbe mascherato la carenza di conoscenza e quindi, la bontà delle proiezioni fornite sarebbe compromessa dal fatto di non aver considerato un input fondamentale. Ovviamente il livello dei GCR in atmosfera è difficilmente prevedibile, cosicché dovrebbe essere incluso come una delle grandezze per definire i vari scenari.

Naturalmente, ci sono altre possibili motivazioni per spiegare la discrepanza tra realtà e proiezioni dei modelli, tuttavia l’elemento più incerto al momento rimane il processo di formazione delle nubi.

Ma i modelli GCM non sono verificati e validati (V&V)?

Si legge e si sente dire spesso che, poiché i modelli GCM riescono a “ricostruire” il clima dell’ultimo secolo, allora possono essere impiegati per provare a prevedere il clima nel futuro. Questa circostanza, comproverebbe che nei GCM sono implementati tutti i processi fisici necessari, inclusi quelli che determinano un aumento delle temperature globali all’aumentare della CO2.

Una prima considerazione è che quanto viene ricostruito dai GCM è il trend crescente della temperatura (a parte le diminuzioni dovute a forte eruzioni vulcaniche), non le oscillazioni di breve periodo, che sono considerate come variabilità interannuali, e quindi pseodocasuali. Però, in questo modo qualunque grandezza abbia avuto un andamento crescente nell’ultimo secolo, e in particolare negli ultimi trent’anni (ad esempio, il debito pubblico italiano), risulterà in correlazione col clima, non solo la CO2, e di conseguenza le temperature ricostruite dai GCM. Per trovare una prova più convincente sarebbe opportuno che i GCM riuscissero a seguire le variazioni del clima (es.: riscaldamento anni ’40), non solo il trend di fondo, corretto col contributo delle eruzioni vulcaniche.

Per chiarire il concetto, esaminiamo la figura che riporta l’IPCC nell’AR 2007

Questo grafico è inteso essere una sorta di validazioni dei modelli perchè si vede che la linea rossa (la ricostruzione media da parte di 14 modelli GCM) segue “piuttosto bene”, la linea nera, ciò che è successo in realtà. Notate però che il “piuttosto bene” è riferito ad un valor medio, mentre le variazioni sono seguite molto bene, solo quando si tratta di eruzioni vulcaniche, e praticamente per nulla negli altri casi. Ad esempio, il riscaldamento avvenuto prima del ’40 non è stato colto dai modelli e nemmeno il raffreddamento nella decade successiva. Certamente si può spiegare quasto scostamento con una variabilità interannuale pseudocasuale. A questo punto, però, se si costruisce un modello facendo dipendere la temperatura da una qualsiasi grandezza che è stata crescente nell’ultimo secolo, e in particolare nelle ultime decadi, ottengo un risultato simile (purchè inserisca la variabile “eruzione vulcanica”).  Detta in termini statistici, è l’analisi spettrale quella che più mi convince di aver trovato una buona correlazione. Insomma, come validazione un risultato quale quello esposto in figura non è il massimo, ed oltre tutto si tratta di una media di modelli.

Ma c’è un problema più sottile e decisivo, che si colloca a metà tra l’epistemologia e le tecniche di data mining.

I GCM (così come molti altri tipi di modelli) vengono sviluppati in due fasi:

– la fase di “training” ove il modello “impara” qual è il valore corretto da assegnare ai parametri, a volte con tecniche  proprie dell’intelligenza artificiale (la parametrizzazione sopra menzionata);

– la fase di “test” ove il modello viene “collaudato” con dati diversi da quelli utilizzati per la fase di training (backtesting, da cui gli hindcast suddetti).

I dataset utilizzati per le due fasi sono, ovviamente, distinti e si chiamano rispettivamente “training data” e “test data”.

Per capire l’importanza della fase di test, è opportuno ricordare che i modelli, di qualsiasi tipo, debbono affrontare un problema comune: l’overfitting.

Dalla definizione di wikipedia, sappiamo che:

…si parla di overfitting (eccessivo adattamento) quando un modello statistico si adatta ai dati osservati (il campione) usando un numero eccessivo di parametri. Un modello assurdo e sbagliato può adattarsi perfettamente se è abbastanza complesso rispetto alla quantità di dati disponibili.

 

Overfitting. La curva blu mostra l’andamento dell’errore nel classificare i dati di training, mentre la curva rossa mostra l’errore nel classificare i dati di test o validazione. Se l’errore di validazione aumenta mentre l’errore sui dati di training diminuisce, ciò indica che siamo in presenza di un possibile caso di overfitting.

A tal proposito, rimando al’articolo di Nitopi per la parte matematica propedeutica :http://daltonsminima.altervista.org/?p=12172

L’articolo ci mostra come riusciamo ad approssimare i dati sperimentali rendendo più complicata la funzione, senza però poter affermare di aver migliorato la capacità predittiva della funzione stessa.

E’ un po’ come cercare di insegnare a guidare un ubriaco: durante le guide di prova non va a sbattere perchè l’istruttore prende il volante e frena al posto suo. Però quando è solo, rischia di andare contro un muro o cadere in un fosso alla prima curva.

Ebbene, durante lo sviluppo dei primi modelli GCM, è stato presumibilmente possibile procedere correttamente.  I dati a disposizione sono stati suddivisi in “training data” e “test data”.

Successivamente, sono stati sviluppati nuovi modelli, a partire, tra l’altro dagli errori riscontrati nei modelli precedenti. Solo che a questo punto tutti i dataset utilizzati dal primo modello, avrebbero dovuto essere riutilizzati come training data, non come test data. Questa criterio deve essere rispettato, altrimenti sarebbe come se le prove sperimentali di una teoria fossero le stesse osservazioni cha hanno indotto la ridefinizione della teoria. Per analogia col metodo scientifico:

1- si fanno delle osservazioni

2- si formula una teoria che le possa spiegare

3- si progetta un esperimento

4- l’esperimento evidenzia delle lacune nella teoria

5- si raffina la teoria

6- si riesegue lo stesso esperimento.

Il punto (6) è sbagliato! Bisogna progettare un nuovo esperimento. Altrimenti abbiamo trovato quella che si definisce una teoria “ad hoc”.

Da qui la domanda conclusiva: da dove sono stati acquisiti i “nuovi” dataset da utilizzare come “test data”, considerato che il modello ha un orizzonte temporale di decenni?

Allora nessun tipo di modello implementato su computer funziona?

I modelli GCM hanno una difficoltà in più rispetto a quelli utilizzati in altre discipline. I loro risultati possono essere verificati solo dopo 20 o 30 anni. Ciò significa che il loro processo di raffinamento è più difficoltoso. Chi lavora nel campo dell’informatica, ha esperienza che persino software molto più semplici, hanno bisogno di essere migliorati dopo la prima istallazione confrontando il loro funzionamento con quanto atteso. Man mano che si scoprono gli errori, il software viene adeguato e funziona meglio.

Dato il vasto orizzonte temporale, questa fase, comune a tutti i modelli, per i GCM è particolarmente complicata. In altri termini, per i GCM, come per tutti i modelli impiegati per previsioni a lungo periodo, è difficile ottenere nuovi dataset utilizzabili come test data. E’ per questo motivo che, ad una prima analisi, appare ancora prematuro pretendere da essi delle previsioni affidabili.

Conclusioni

Abbiamo visto, in questo articolo e nella prima parte, quanto sia arduo fornire una stima della sensibilità climatica e, di conseguenza, come sia azzardato supporre che le stime fornite godano di un elevato livello di confidenza. Quindi non è anti-scientifico, o irrazionale, o ideologico dubitare del livello di confidenza con cui sono presentate le stime sulla sensibilità climatica. Tuttavia, va sottolineato che un ragionamento del genere non è una prova che esse siano errate. Insomma, stiamo affrontando una tematica tecnica, nulla a che vedere con suggerimenti di politiche di riduzione gas serra, valutazione dei rischi, ecc. La critica all’AGWT riguarda principalmente il concetto che il “debate is over” in merito alle previsioni. La conclusione non è un invito ad abbandonare i GCM, ma a continuare a migliorarli, con la consapevolezza che ci potrebbe essere parecchia strada da fare prima di poterli ritenere adeguati allo scopo.

28 pensieri su “PERCHE’ E’ RAGIONEVOLE DUBITARE DELLE STIME SULLA SENSIBILITA’ CLIMATICA – II parte: i modelli GCM

  1. @Giovanni

    Io non sono uno specialista di Scienze della Terra per cui posso sempre incorrere in qualche cantonata. Come capita a chiunque. In questo caso, però, non credo di aver sbagliato. Non posso certamente citare tutto l’articolo che, ti assicuro, ho letto e riletto, per cui riporto solo l’abstract ed i riferimenti bibliografici reperibili liberamente nel sito di “Le Scienze”:

    Le Scienze, aprile 2009, n. 488

    La discontinuità del 1945
    La curva delle temperature globali degli ultimi 150 anni presentava un picco inspiegabile intorno al 1940. Analizzando i dati si è scoperto che era dovuto a una discontinuità nei rilevamenti delle temperature marine. Di Antonio Zecca e Luca Chiari

    Tra 1940 e 1945, la serie delle temperature medie globali superficiali mostra un periodo caldo che non è riconducibile alle emissioni antropogeniche di gas serra. In passato sono state proposte diverse spiegazioni ma nessuna ha soddisfatto i climatologi. Ora si è scoperto che all’origine dell’improvvisa riduzione termica del 1945 c’è una transizione nelle tecniche strumentali di misura delle temperature oceaniche avvenuta al termine del secondo conflitto mondiale. Questa transizione spiega l’anomalia e dopo le necessarie correzioni, le conoscenze relative all’entità, rapidità e origine del riscaldamento globale non dovranno essere riviste.

    Non mi sembra di aver sparato nel mucchio. Né di aver detto fesserie. Sono un lettore di “Le Scienze” da moltissimi anni e prima di “Le Scienze” sono stato un lettore di “Scienza e Vita” gloriosa rivista di divulgazione che, ormai, non viene più pubblicata da anni.
    Tutte queste letture hanno avuto il merito di aver contribuito a rafforzare quello spirito critico che i miei insegnanti mi hanno trasmesso durante i lunghi anni trascorsi tra i libri (scuole superiori ed Università, in particolare). Io non metto in dubbio il rigore scientifico di “Le Scienze” (in caso contrario avrei smesso di comperarla da un pezzo) ma mi arrogo il diritto di dissentire da ciò che non mi convince. Anche se pubblicato da “Le Scienze”. E l’articolo in questione non mi convince affatto. Ho imparato a diffidare di tutti gli “Ipse dixit” da molti decenni e ne vado fiero. Reputo questa diffidenza come una delle più grandi virtù che un uomo possa avere: è l’unica arma che ci consente di essere uomini liberi, di uscire sbattendo la porta quando chi ci ospita non merita più la nostra presenza, di ribellarci alle imposizioni ed ai soprusi. Guai a noi se dovessimo inchinarci ossequiosi ogni volta che un tizio, ammantato di qualche principio di autorità, venisse a propinarci qualche “verità rivelata”. Io la vedo così e non posso farci niente, anzi non voglio farci niente.
    Ciao, Donato

      (Quote)  (Reply)

  2. @Donato

    Ciao Donato

    Ti ringrazio per la risposta. Anch’io mi ricordo benissimo quell’articolo, e anch’io sono un lettore affezionato delle scienze. Quello che volevo dire e’ che quell’articolo riportava dati di altre persone, e specialmente quelli di David Thompson. Ora, tutti gli articoli originali sono qui:

    http://www.atmos.colostate.edu/faculty/thompson.php

    La mia osservazione voleva sollecitare ad andare alla fonte delle informazioni, ed approfondire prima di dire che c’e’ puzza di bruciato. Mi fa sempre strano che magari un ricercatore lavori 5 anni ad un articolo, e poi arrivi qualcuno su un blog a spiegargli come in realta’ funzionano le cose. Questo poi stranamente succede solo per alcuni campi. Non ho mai visto nessuno scaldarsi molto, che ne so, per l’ottica, tanto per citare il mio campo. Tra l’altro, per quello che posso capire (sono un fisico, ma con altre competenze) i metodi sviluppati da thompson servono per studiare il segnale in temperatura, ripulito da fenomeni come ENSO ed eruzioni vulcaniche. In alcuni casi emergono dati sospetti, come nel 1940, dove il problema pare dovuto (ed in realta’ nessuno ne dubita, nemmeno gli scettici) alle procedure di misurazione. in altri casi emergono altri segnali, come attorno al 1970, che devono per forza essere attribuiti ad altre cause, come ad esempio il cambiamento di dinamiche oceaniche. Ti invito a spulciare quegli articoli, anche solo le figure sono molto esplicative.

    @Roberto Frigerio

    Nessuno mette in dubbio che sia difficile risolvere numericamente delle equazione differenziali non lineari alle derivate parziali. Fattosta’ che software e hardware si sono aggiornati. E che si possono fare delle stime sull’accuratezza delle soluzioni. Comunque la stragrande maggioranza dei codici dei Global Climate Model sono la. Basta andare a darci un’occhiata e criticare nel merito. Altrimenti ovviamente ognuno e’ liberissimo di dire la sua, un po’ in stile “bar sport” della climatologia.

    Cordiali Saluti

      (Quote)  (Reply)

  3. @ Giovanni

    Ho dato un’occhiata al tuo curriculum. Impressionante. Non ho la presunzione di dire ad uno che lavora cinque anni intorno ad un articolo (anzi ad una pubblicazione) che non ha capito niente e che le cose stanno in modo diverso per il semplice fatto che non ho le competenze adeguate per poterglielo dire. Per carità, io sono un semplice appassionato di questioni scientifiche. Non sono nè uno scienziato, né un ricercatore. Ciò che sostengo mi viene suggerito dal buon senso e da quel poco di senso critico di cui parlavo nella precedente replica. Ciò che, però, mi lascia perplesso nell’articolo citato è la considerazione che le temperature medie negli anni quaranta erano viziate da errori strumentali o, per essere più precisi, la loro improvvisa variazione (aumento) è da imputarsi ad un cambio di metodologia nelle misurazioni. E la diminuzione successiva come si spiega? Preciso meglio il mio pensiero. Gli equipaggi delle navi prima di un certo periodo utilizzavano campionatori manuali e misuravano certe temperature (imprecise perché i campionatori prima che venissero eseguite le misurazioni erano esposti all’atmosfera ecc. ecc.). Da un certo momento in poi, gradualmente, furono modificati i sistemi di misurazione e le temperature cominciarono a salire. Poi le temperature cominciarono a scendere. Perché? Non mi sembra che ci siano state altre modifiche nelle strumentazioni o nelle metodologie di misura. Altro problema riguarda le misurazioni di temperatura precedenti agli anni quaranta. Se la vecchia metodologia sottostimava le temperature, allora bisogna correggere quelle precedenti e non eliminare il “panettone”. In caso contrario bisogna ritornare alla vecchia metodologia. Comunque mi riservo di seguire il tuo consiglio. Purtroppo, per cause a me ignote, il computer non riesce a scaricare i pdf del sito da te segnalato. Proverò in altra occasione e ti farò sapere. Per adesso lasciamo la questione in sospeso.
    Ciao, Donato.

      (Quote)  (Reply)

  4. @Donato

    Sono a casa malato…quindi ho il tempo per risponderti. L’anomalia delle misurazioni va dal 38 al 45 circa. Questo perche’ in quel periodo sono rimaste molte meno navi a fare le misurazioni a causa della guerra. Quindi, percentualmente, le misure venivano in gran parte effettuate da navi americane (circa il 40%), la cui metodologia di misurazione causava dei drift positivi. Dopo il 45 la situazione e’ tornata alla normalita’, ed il bias positivo e’ sparito. Per quello il drift in temperatura prima sale e poi sparisce, perche’ le navi americane erano in proporzione normale, poi molte, e poi di nuovo in quantita’ normale.

    Cordiali Saluti

      (Quote)  (Reply)

  5. Giovanni, senza nesuna voglia di polemica, mi piacerebbe che un sostenitore dell’AGWT (come credo tu sia) mi indicasse quali sono le eventuali pecche che trova nei mie due articoli. Vorrei che fosse chiaro che, pur credendo fermamente in ciò che ho scritto, non penso di avere la verità in tasca e sarei curioso di sentire delle critiche puntuali, ovviamente evitando toni sprezzanti. Buona guarigione!

      (Quote)  (Reply)

  6. @ Giovanni

    Prima di tutto auguri di pronta guarigione. Veniamo, poi, al corpo della tua risposta. Si tratta di una spiegazione convincente (se non ricordo male era anche quella dell’articolo pubblicato da “Le Scienze”, ma non ci giurerei). Potremmo, però, trovarci di fronte ad una variazione reale delle temperature? Mi spiego meglio. Quelle misurazioni di temperatura sono state inserite negli archivi e considerate valide per decenni. Ad un certo punto, poiché i modelli non riuscivano a simulare il “panettone”, si sono riprese in considerazione tutte quelle misurazioni e si è cercato di capire il perché facessero le bizze (rispetto al modello). Senza le previsioni dei modelli sarebbero state messe in discussione? Non credo. E veniamo ad una altro campo scientifico. Supponiamo di compiere delle misurazioni di una particolare grandezza fisica. Diciamo che quelle misurazioni sono errate perché non concordano con una nostra previsione o buttiamo a mare la previsione? Mi sembra che scegliamo la seconda strada. Se proprio vogliamo essere pignoli ripetiamo le misurazioni e solo se la nuova serie di misurazioni è difforme dalla serie precedente prendiamo in considerazione l’ipotesi che potremmo aver sbagliato la prima serie di misurazioni. Questo capita in tutte le branche della fisica e della scienza in genere. In ambito climatologico no: sono sbagliate le misurazioni se non concordano con il modello e, quindi, si cerca di trovare il motivo per cui esse non collimano con le previsioni. E con questo credo di aver chiarito la mia posizione anche rispetto alla domanda che facevi qualche post fa: perché si contestano i risultati di ricerche scientifiche in ambito climatologico e non in altri ambiti (es. ottica)? Per concludere il mio ragionamento credo che possiamo considerare le seguenti due ipotesi:
    a) le misurazioni di temperatura sono accettabili ed effettivamente negli anni quaranta vi fu un innalzamento delle temperature medie seguito da una loro riduzione;
    b) le misurazioni erano affette da errore perché a causa della guerra la metodologia che sovrastimava la temperatura era prevalente rispetto a quelle che le sottostimavano. Cessata la guerra tutto torna come prima.
    Domanda finale (ecco perché l’articolo non mi convince): perché debbo considerare valida l’ipotesi b) e non quella a)? Come faccio a falsificare una delle due visto che dopo sessanta anni non riesco più a ripetere le misurazioni di quelle particolari grandezze fisiche?
    Ciò non toglie che l’autore della ricerca, in perfetta buona fede, optando per l’ipotesi b), lo ha fatto in base ad un processo logico inappuntabile ma, purtroppo, non falsificabile. E per questo motivo suscettibile di critiche. Anche da parte di un qualsiasi frequentatore di blog o “bar dello sport” climatico come io mi considero. In altri termini se una cosa non può essere dimostrata al di la’ di ogni ragionevole dubbio può essere sempre messa in …. dubbio!
    Spero di essere riuscito a chiarire la mia posizione. Ciao, Donato.

      (Quote)  (Reply)

  7. @Donato

    Da profano, provo a spiegare quello che ho capito.

    1) Innanzitutto non so dire se sia stata la discrepanza con i modelli a stimolare questi studi, tuttavia le anomalie in temperature sono determinate a partire da serie sperimentali quindi, da un certo punto in poi, i modelli non centrano piu’ niente. Quindi, riassumendo: i modelli non centrano.

    2) Sono state sviluppate delle metodologie per sottrarre i contributi della variabilita’ naturale (nino nina) alle serie di temperatura. Tolti questi contributi, si guardano le variazioni. Mi pare di capire che questo sia un campo molto vasto, che vada oltre la questione delle variazioni dovute alle tecniche di misura, che comunque si inseriscono in questo contesto. Molte variazioni corrispondono ad eruzioni vulcaniche, ad esempio. In altri casi forti variazioni corrispondono al cambiamento delle tecniche di misura, come nel nostro caso. Sempre nel nostro caso si nota inoltre che il salto di temperatura e’ solo per il mare, e non per la terra ferma, il che alimenta ulteriormente il sospetto che ci sia stato un problema nelle tecniche di misura.

    3) Per le misure sono presenti molti metadata, cioe’ informazioni riguardo al processo della misurazione. Non posso dirlo con certezza. ma penso che in realta’ la sua ipotesi b) sia verificabile, (non falsificabile): in alcuni articoli di Thompson (mi auguro che ora tu possa aprire i pdf, io non ho problemi) ci sono delle referenze precise riguardo agli errori di misura, ad esempio:

    Folland, C. K. & Parker, D. E. Correction of instrumental biases in historical sea
    surface temperature data. Q. J. R. Meteorol. Soc. 121, 319–367 (1995).

    Smith, T. M. & Reynolds, R. W. Bias corrections for historical sea surface
    temperatures based on marine air temperatures. J. Clim. 15, 73–87 (2002).

    Rayner, N. A. et al. Improved analyses of changes and uncertainties in sea surface
    temperature measured in situ since the mid-nineteenth century: The HadSST2
    data set. J. Clim. 19, 446–469 (2006).

    Quindi penso effettivamente che le correzioni siano verificabili, o siano state verificate (o falsificate) dal punto di vista sperimentale.

    Vorrei farti notare una cosa. E’ proprio vero che questi metodi di analisi dei segnali in temperatura vanno oltre questa questione. recentemente e’ uscito questo nature

    Thompson, D.W.J., J.M. Wallace, J.J. Kennedy, and P.D. Jones, 2010: An abrupt drop in Northern Hemisphere sea surface temperature around 1970. Nature, 467 444-447 doi:10.1038/nature09394.

    Dove si registra un rapido calo di temperature nord oceanica negli anni settanta, ma non se ne capiscono le cause, e si escludono errori di misurazione.

    Cordiali Saluti

      (Quote)  (Reply)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Immagine CAPTCHA

*

Aggiungi una immagine

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.