PERCHE’ E’ RAGIONEVOLE DUBITARE DELLE STIME SULLA SENSIBILITA’ CLIMATICA – II parte: i modelli GCM

di agrimensore g., con la collaborazione di Fano

Nella prima parte,  abbiamo visto che la stima del valore della climate sensitivity (sensibilità climatica), cioè il coefficiente relativo all’aumento delle temperature a fronte di una maggiore quantità di IR (Infrared radiation), è particolarmente ardua se effettuata confrontando il comportamento della Terra col passato. Quello che si riesce a fare è trovare una funzione di distribuzione del valore che dovrebbe almeno essere sottoposta ad una verifica sperimentale, molto difficile da progettare.

Un metodo alternativo, o a integrazione, è quello di utilizzare i modelli GCM (General Circulation Model)

I modelli GCM, come noto, sono quei modelli che prevedono alcune grandezze climatiche (di norma venti, temperature, precipitazioni e pressione) attraverso i relativi valori statistici in un orizzonte temporale di più decadi (venti o trent’anni). In genere le elaborazioni vengono effettuate su potenti computer per permettere il calcolo numeriche delle legge fisiche che interessano il clima.

Funzionano bene?

Il modo più naturale per capire se funzionano è confrontarli con la realtà. Può sembrare una banalità, ma spesso per valutare il loro grado di funzionamento si giudicano le discrepanze tra i vari modelli, il fatto che siano diminuite viene giudicato un buon risultato. Oppure vengono confrontate le medie dei modelli con un super-modello ( http://scienceofdoom.com/2010/03/23/models-on-and-off-the-catwalk-part-two/) per evidenziare come la media sia migliore del singolo.

Mi sembra ovvio che tutto ciò non implichi affatto che i modelli GCM funzionino. Sarebbe opportuno  il confronto con la realtà oggetto delle previsioni.

Purtroppo, per riscontrare  con gli output dei modelli sarebbe necessario aspettare parecchi anni, perché le loro previsioni si riferiscono a  medie e grandezze statistiche da applicare a periodi multidecadali. Anziché attendere venti o più anni, possiamo cominciare a verificare i cosiddetti hindcast, cioè gli output dei modelli che si riferiscono al passato. Riprendo dallo stesso sito precedente, sostenitore dell’AGWT, la figura riportata nell’AR 2007 IPCC in merito ai modelli:

 

 

Nelle figura le parti in blu rappresentano una sottostima e le parti in rosso una sovrastima delle temperature. Come si vede non c’è nessun modello che abbia solo colori tenui, chiari. Anche quello che viene considerato il migliore (in alto a destra) presenta vari punti deboli, ad esempio ha sottostimato le temperature in Groenlandia e le ha sovrastimate in Antartide. La circostanza che per qualcuno la media generale sia simile a quella osservata non può essere considerata come la prova che i modelli GCM funzionino.

Prendiamo un’altra grandezza prognostica importante, le precipitazioni.

Qui  in generale i modelli GCM sembrano aver sottostimato l’incremento delle precipitazioni avvenuto in questi anni. Lo evidenzia il lavor di Frank J. Wentz, Lucrezia Ricciardulli, Kyle Hilburn, Carl Mears (http://www.remss.com/papers/wentz_science_2007_paper+som.pdf)

con il seguente abstract (già riportato in originale in un precedente articolo di NIA):

Sia i modelli climatici, sia le osservazioni satellitari indicano che la totalità dell’acqua in atmosfera aumenterà del 7% per grado Kelvin di riscaldamento della superficie. Tuttavia, i modelli climatici prevedono che le precipitazioni globali aumenteranno a un tasso molto più lento, da 1 a a 3% per Kelvin (n.d.r: significherebbe più vapor acqueo e meno pioggia). Un’analisi recente delle osservazioni satellitari non conferma questa previsione di una mutata risposta delle precipitazioni a fronte del global warming. Piuttosto, le osservazioni suggeriscono che le precipitazioni e la totalità dell’acqua totale in atmosfera sono aumentate circa dello stesso tasso nelle precedenti due decadi.

D’altra parte, anche le istituzione favorevoli all’AGWT, ammettono che c’è ancora parecchio da sviluppare. Un esempio è contenuto  nella lettera (cfr. http://www.aps.org/about/pressreleases/haroldlewis.cfm)  con cui l’APS (American Phisycal Society) ha risposto alle critiche del professor Lewis, dimessosi proprio per contrasti in merito alle posizioni dell’associazione sui cambiamenti climatici. Dopo una serie di contestazioni al professore Lewis, l’APS scrive che

However, APS continues to recognize that climate models are far from adequate

Perché i modelli GCM non sono adeguati?

Senza inserire i vari link, è quasi unanimemente riconosciuto che uno dei problemi maggiori dei modelli GCM sia la simulazione del processo di formazioni delle nubi. Questo processo, da un punto di vista algoritmico, è parametrizzato. In sostanza, non è implementato solo attraverso leggi fisiche, ma è stato necessario utilizzare delle formule empiriche che dipendono da alcuni parametri e sono state costruite con algoritmi complessi (es.: reti neurali) cercando di renderle efficaci nel simulare il passato.

Però qualcosa non va.

Il processo di formazione delle nubi è importante perché a secondo di come viene implementato può rappresentare un rilevante feed-back positivo o negativo. Secondo una teoria condivisa da molti, almeno quelle medio-basse rappresentano un rilevante feed-back negativo, mentre per molti dei modelli sono un feed-back positivo.

Una possibile spiegazione di questa discrepanza si trova nella teoria di Svensmark e Shaviv circa la capacità dei GCR (Galactic Cosmic Rays) di favorire la formazioni di nubi. L’ingresso dei GCR in atmosfera è modulato dal vento solare; in sostanza,  a un’attività solare intensa corrisponde una diminuzione del livello dei GCR, mentre in periodi di scarsa attività solare, i GCR aumentano e di conseguenza si formano più nubi.

Poiché nessun modello GCM considera questa teoria, se essa fosse vera, la parametrizzazione, basata su dati di anni precedenti, avrebbe mascherato la carenza di conoscenza e quindi, la bontà delle proiezioni fornite sarebbe compromessa dal fatto di non aver considerato un input fondamentale. Ovviamente il livello dei GCR in atmosfera è difficilmente prevedibile, cosicché dovrebbe essere incluso come una delle grandezze per definire i vari scenari.

Naturalmente, ci sono altre possibili motivazioni per spiegare la discrepanza tra realtà e proiezioni dei modelli, tuttavia l’elemento più incerto al momento rimane il processo di formazione delle nubi.

Ma i modelli GCM non sono verificati e validati (V&V)?

Si legge e si sente dire spesso che, poiché i modelli GCM riescono a “ricostruire” il clima dell’ultimo secolo, allora possono essere impiegati per provare a prevedere il clima nel futuro. Questa circostanza, comproverebbe che nei GCM sono implementati tutti i processi fisici necessari, inclusi quelli che determinano un aumento delle temperature globali all’aumentare della CO2.

Una prima considerazione è che quanto viene ricostruito dai GCM è il trend crescente della temperatura (a parte le diminuzioni dovute a forte eruzioni vulcaniche), non le oscillazioni di breve periodo, che sono considerate come variabilità interannuali, e quindi pseodocasuali. Però, in questo modo qualunque grandezza abbia avuto un andamento crescente nell’ultimo secolo, e in particolare negli ultimi trent’anni (ad esempio, il debito pubblico italiano), risulterà in correlazione col clima, non solo la CO2, e di conseguenza le temperature ricostruite dai GCM. Per trovare una prova più convincente sarebbe opportuno che i GCM riuscissero a seguire le variazioni del clima (es.: riscaldamento anni ’40), non solo il trend di fondo, corretto col contributo delle eruzioni vulcaniche.

Per chiarire il concetto, esaminiamo la figura che riporta l’IPCC nell’AR 2007

Questo grafico è inteso essere una sorta di validazioni dei modelli perchè si vede che la linea rossa (la ricostruzione media da parte di 14 modelli GCM) segue “piuttosto bene”, la linea nera, ciò che è successo in realtà. Notate però che il “piuttosto bene” è riferito ad un valor medio, mentre le variazioni sono seguite molto bene, solo quando si tratta di eruzioni vulcaniche, e praticamente per nulla negli altri casi. Ad esempio, il riscaldamento avvenuto prima del ’40 non è stato colto dai modelli e nemmeno il raffreddamento nella decade successiva. Certamente si può spiegare quasto scostamento con una variabilità interannuale pseudocasuale. A questo punto, però, se si costruisce un modello facendo dipendere la temperatura da una qualsiasi grandezza che è stata crescente nell’ultimo secolo, e in particolare nelle ultime decadi, ottengo un risultato simile (purchè inserisca la variabile “eruzione vulcanica”).  Detta in termini statistici, è l’analisi spettrale quella che più mi convince di aver trovato una buona correlazione. Insomma, come validazione un risultato quale quello esposto in figura non è il massimo, ed oltre tutto si tratta di una media di modelli.

Ma c’è un problema più sottile e decisivo, che si colloca a metà tra l’epistemologia e le tecniche di data mining.

I GCM (così come molti altri tipi di modelli) vengono sviluppati in due fasi:

– la fase di “training” ove il modello “impara” qual è il valore corretto da assegnare ai parametri, a volte con tecniche  proprie dell’intelligenza artificiale (la parametrizzazione sopra menzionata);

– la fase di “test” ove il modello viene “collaudato” con dati diversi da quelli utilizzati per la fase di training (backtesting, da cui gli hindcast suddetti).

I dataset utilizzati per le due fasi sono, ovviamente, distinti e si chiamano rispettivamente “training data” e “test data”.

Per capire l’importanza della fase di test, è opportuno ricordare che i modelli, di qualsiasi tipo, debbono affrontare un problema comune: l’overfitting.

Dalla definizione di wikipedia, sappiamo che:

…si parla di overfitting (eccessivo adattamento) quando un modello statistico si adatta ai dati osservati (il campione) usando un numero eccessivo di parametri. Un modello assurdo e sbagliato può adattarsi perfettamente se è abbastanza complesso rispetto alla quantità di dati disponibili.

 

Overfitting. La curva blu mostra l’andamento dell’errore nel classificare i dati di training, mentre la curva rossa mostra l’errore nel classificare i dati di test o validazione. Se l’errore di validazione aumenta mentre l’errore sui dati di training diminuisce, ciò indica che siamo in presenza di un possibile caso di overfitting.

A tal proposito, rimando al’articolo di Nitopi per la parte matematica propedeutica :http://daltonsminima.altervista.org/?p=12172

L’articolo ci mostra come riusciamo ad approssimare i dati sperimentali rendendo più complicata la funzione, senza però poter affermare di aver migliorato la capacità predittiva della funzione stessa.

E’ un po’ come cercare di insegnare a guidare un ubriaco: durante le guide di prova non va a sbattere perchè l’istruttore prende il volante e frena al posto suo. Però quando è solo, rischia di andare contro un muro o cadere in un fosso alla prima curva.

Ebbene, durante lo sviluppo dei primi modelli GCM, è stato presumibilmente possibile procedere correttamente.  I dati a disposizione sono stati suddivisi in “training data” e “test data”.

Successivamente, sono stati sviluppati nuovi modelli, a partire, tra l’altro dagli errori riscontrati nei modelli precedenti. Solo che a questo punto tutti i dataset utilizzati dal primo modello, avrebbero dovuto essere riutilizzati come training data, non come test data. Questa criterio deve essere rispettato, altrimenti sarebbe come se le prove sperimentali di una teoria fossero le stesse osservazioni cha hanno indotto la ridefinizione della teoria. Per analogia col metodo scientifico:

1- si fanno delle osservazioni

2- si formula una teoria che le possa spiegare

3- si progetta un esperimento

4- l’esperimento evidenzia delle lacune nella teoria

5- si raffina la teoria

6- si riesegue lo stesso esperimento.

Il punto (6) è sbagliato! Bisogna progettare un nuovo esperimento. Altrimenti abbiamo trovato quella che si definisce una teoria “ad hoc”.

Da qui la domanda conclusiva: da dove sono stati acquisiti i “nuovi” dataset da utilizzare come “test data”, considerato che il modello ha un orizzonte temporale di decenni?

Allora nessun tipo di modello implementato su computer funziona?

I modelli GCM hanno una difficoltà in più rispetto a quelli utilizzati in altre discipline. I loro risultati possono essere verificati solo dopo 20 o 30 anni. Ciò significa che il loro processo di raffinamento è più difficoltoso. Chi lavora nel campo dell’informatica, ha esperienza che persino software molto più semplici, hanno bisogno di essere migliorati dopo la prima istallazione confrontando il loro funzionamento con quanto atteso. Man mano che si scoprono gli errori, il software viene adeguato e funziona meglio.

Dato il vasto orizzonte temporale, questa fase, comune a tutti i modelli, per i GCM è particolarmente complicata. In altri termini, per i GCM, come per tutti i modelli impiegati per previsioni a lungo periodo, è difficile ottenere nuovi dataset utilizzabili come test data. E’ per questo motivo che, ad una prima analisi, appare ancora prematuro pretendere da essi delle previsioni affidabili.

Conclusioni

Abbiamo visto, in questo articolo e nella prima parte, quanto sia arduo fornire una stima della sensibilità climatica e, di conseguenza, come sia azzardato supporre che le stime fornite godano di un elevato livello di confidenza. Quindi non è anti-scientifico, o irrazionale, o ideologico dubitare del livello di confidenza con cui sono presentate le stime sulla sensibilità climatica. Tuttavia, va sottolineato che un ragionamento del genere non è una prova che esse siano errate. Insomma, stiamo affrontando una tematica tecnica, nulla a che vedere con suggerimenti di politiche di riduzione gas serra, valutazione dei rischi, ecc. La critica all’AGWT riguarda principalmente il concetto che il “debate is over” in merito alle previsioni. La conclusione non è un invito ad abbandonare i GCM, ma a continuare a migliorarli, con la consapevolezza che ci potrebbe essere parecchia strada da fare prima di poterli ritenere adeguati allo scopo.

28 pensieri su “PERCHE’ E’ RAGIONEVOLE DUBITARE DELLE STIME SULLA SENSIBILITA’ CLIMATICA – II parte: i modelli GCM

  1. Bellissimo!
    Sospettavo che fosse un procedimento simile a quello descritto…
    Ma secondo voi gli addetti ai lavori si rendono conto “di quello che fanno” ?
    Cioe’ , dei limiti dei delle conclusioni a cui arrivano?
    O le conclusioni vengono, a loro volta, selezionate dai media per “amplificare” quello che DEVE essere il CREDO comune ?

    Ciao
    Luca

      (Quote)  (Reply)

  2. Ottimo Agrimensore e Fano bella seconda parte

    “La conclusione non è un invito ad abbandonare i GCM, ma a continuare a migliorarli, con la consapevolezza che ci potrebbe essere parecchia strada da fare prima di poterli ritenere adeguati allo scopo.”

    Speriamo che li correggano, me lo auguro 🙂 ma temo che continueranno a farli claudicanti per giustificare le loro teorie ad hoc …….

      (Quote)  (Reply)

  3. Molto bello l’articolo e le riflessioni che introduce sull’utilizzo dei GCM e del metodo “scientifico” che ci sta dietro.
    Rispetto al metodo scientifico consiglio di leggere questo “schema” che mi sembra molto calzante ( e che in qualche modo ho provato sulla mia pelle)
    http://www.pensee-unique.fr/methode.html
    Rispetto ai GCM e ai modelli previsionali di questo tipo in genere, io sono invece estremamente scettico oltre che timoroso per l’utilizzo smodato, sabagliato e pericoloso che se sta facendo. Io come già detto modelli simili li ho studiati ( in corsi) e utilizzati, anzi in parte li utilizzo ancora pe ril rempote sensing e lo sviluppo di carte tematiche di rischio.
    Personamlmente ritengo che questi modelli previsionali vadano bene se utilizzati per sistemi antropici anche complessi, ma pur sempre generati e dipendenti dall’uomo ( studi sociali, economici, industriali, agricoli, di mobilità ecc.ecc.ecc.) IN questo caso i dati di input sono in qualche modo determinati dall’uomo cosi come le regole che il modello deve seguire ( cioè le equazioni e le estrapolazioni statistiche che il modello utilizza per produrre i risultati): ben diverso è utilizzare questi modelli per dei fenomeni naturali globali e complessi, dove le variabili rispondono a leggi chimico-fisiche indipendenti dall’uomo, a elementi ciclici, ini aprte casuali e in dipendenza e correlazione reciproca variabile. IN questo caso l’uiomo è nuovamente obbligato a scegliere i dati, le ponderazioni e i sistemi di calcolo per necessarei approssimazioni, visto che il fenomeno naturale non l’ha creato lui e quindi non ne può conoscere a fondo i meccanismi e l’evoluzione. Inoltre spesso il fenomeno naturale ha scale di sviluppo spazio temporali a volte incoonesurabili rispetto a quelle dell’attività umana. Questo riduce ulteriomente la capacità di precisione e previsine dei modelli.
    Ora il problema di questi sistemi GMG ( non so se qualcuno di voi ha avuto occasione di utilizzarli), per quanto belli, intriganti, dalla resa grafica stupefacente sono pour sempre dei programmi di computer, cioè ninet’altro ch eprogrammi di calcolo, anceh se sofisticati. E come ben sappiamo il computer e i programmi non sanno ragionare, ma eseguono semplicemente degli ordini, quelli del programmatore e dell’utilizzatore, e questi programmi non si chiedono e non ti dicono se quel calcolo abbia senso o meno. Il punto è ch eindipendentemente dal senso il rpgramma farà il calcolo e fornirà un risultato. MA questo risultato non sarà un semplce numero o grafico, magari poco convincente, sarà invece una spendida mappa colorata, dettaglaita magari anche interattiva e magari anche in 3D, animata multifattoriale ecc.ecc.ecc. insomma un qualcosa di FALSO ma MOLTO CONVINCENTE ( come le mappe globali dell’IPCC) proposte da Agrimensore . E qui sta il punto, questi risultati hanno un potere di attrazione e convincimento apparenti e superficiali, estremamente forti e magnetici e per questo li prendiamo cove verità assolute, come predizioni di un mago che è il progrmama e il pc ultrapotente, quando invece non sono che risultati grafici di calcoli, di cui nulla si sa sui numeri che sono tati immessidentro, del loro peso del loro rapporto reciproco, della loro validità sprimentale. Poi possiamo pure aggiungere che chi elabora questi dati spesso è un esperto di elaboratione ma nulla sa del significato intrinseco del dato stesso. PEr lui 100 mele o 100 bombe valgono uguale, valbono cento, e cosi vale per il computer e il programma che elabora. Per questi motivi sono estremamente scettico e preoccupato dell’avvento e dell’espansione di questo modo di fare modelli scienza e predizioni, un modo molto conincente ma poco o per nulal reale che potrebbe portare a scelte politiche catastrofiche. L’AGW è un esempio di tutto ciò, nel suo piccolo al Hokey stick di MAnn è stato un’altro esempio. Tutti ben ricorderanno infatti che la curva trovata da Mann non dipendeva dai dati inseriti ma dal tipo di euqzione utilizzata per elaborare questi dati. In sostanza la curva avrebbe avuto la stessa forma sia inserendo 100 mele che 100 bombe.

      (Quote)  (Reply)

  4. @nitopi
    Fermo restando puà esserci qualcosa che ci sfugga (per quello ho posto la questione dell’acquisizione nuovi dataset in forma interrogativa), mi sono fatto anch’io la stessa domanda
    @sand-rio
    Forse qualche “very likely” potrebbe diventare un “maybe”…

    Una precisazione: in questo articolo, che tratta un tema delicato assai dibattuto, sono stati considerati, eventualmente per poi contestarli, solo link di siti pro AGWT, così da evitare polemiche sulle fonti.
    P.S.: scusate la lunghezza, non siamo riusciti a riassumere…

      (Quote)  (Reply)

  5. Ighina:
    http://www.conchiglia.us/C_DOCUMENTI/MONOS_Ighina_Centenario_della_nascita_A.Tavanti.pdf
    Gigi sosteneva che la Terra era l’unico pianeta in cui la vita si era sviluppata anche in superficie. Diceva che i corpi celesti avevano un vuoto all’interno, al centro del quale pulsava come un piccolo sole. Essi avevano una conformazione simile ad una enorme cellula e la crosta piu o meno solida che li delimitava era una specie di grossa membrana sulla cui superficie interna si sviluppava la vita.

      (Quote)  (Reply)

  6. @rick
    Scusa con tutto il rispetto, si è parlato spesso di fede, dottrina, credo nel AGW, si è parlato di come I pro AGW siano catastrofisti, guru, profeti piuttosto che ricercatori e scienziati. Non capisco ora cosa c’entri questo tuo link su Ighina che fa riferimento oltrettutto alla MAdonna di Guadalupa……

      (Quote)  (Reply)

  7. Articolo molto interessante e ben impostato, complimenti agli autori (ma siete davvero voi? Quelli che prendevano sempre di mira IlikeCO2? Gli dirò che è accaduto un miracolo, ora siete buoni e ben informati! :-))))

    Cmq., del tutto condivisibile l’analisi sui limiti dei modelli, è ciò che diciamo da sempre…

    I modelli meteo negli ultimi anni sono diventati decisamente molto più affidabili, e le previsioni nel complesso molto più precise, anche perchè si basano su estrapolazioni di tipo statistico e serie storiche che in genere danno ottimi risultati per previsioni a breve, quando hai parametri come le pressioni atmosferiche su zone determinate, la velocità di spostamento di onde e perturbazioni, ecc.

    Ma i modelli climatici, eh, quelli sono tutta un’altra cosa!

    Un modello climatico, in quanto tale, per definizione è generale, e abbraccia l’intero globo, inoltre le previsioni vorrebbero estendersi su un arco temporale molto lungo…

    Quindi, usare solo 2-3 parametri rozzi e limitatissimi, come l’andamento % di un gas (CO2) nel tempo, e i flussi radiativi che si associano alle sue variazioni, non è scienza, è più o meno astrologia, anzi, forse l’astrologia è perfino più precisa!!

    Ora vi dico una cosa, su cui stavo parlando proprio qualche giorno fa e proprio con IlikeCO2.

    Guardate questo articolo del rettore del Politecnico, prof. Ballio
    http://www.diiar.polimi.it/franz/MdFII/appunti/seminari/Nav-St.PDF

    E’ un seminario dedicato alle equazioni di Navier-Stokes.

    Cosa sono?

    Sono equazioni molto complesse, equazioni differenziali alle derivate parziali, che si usano per calcoli ingegneristici, tra cui quelli che riguardano la fluidodinamica, ma anche gli spostamenti convettivi di calore, ecc.

    Si possono usare anche per fare calcoli su variabili climatiche e meteo.

    Ma se andate a pag. 14 di questo articolo di Ballio, noterete che lo stesso rettore del Politecnico osserva che la soluzione di queste equazioni – ad esempio per i moti turbolenti – è possibile ma impraticabile, perchè richiede migliaia di migliaia di calcoli, e anche i supercomputers Cray ci mettono mesi per quelli relativamente meno complessi.

    Ecco perchè io rido quando vedo modellini (come quelli IPCC o simili), che vorrebbero pronosticare il clima da qui fino a fine secolo, usando solo la CO2…

    E’ un po’ come pronosticare quanto camperà la prima persona che passa per strada, sapendo solo quanto è alto e quanto pesa….

      (Quote)  (Reply)

  8. Bell’articolo. Esso, tra prima e seconda parte, riassume in modo chiaro e preciso lo “stato dell’arte” della modellistica climatica ed illustra il problema della sensibilità climatica. Altrettanto interessanti i commenti di giovanni geologo. Abbiamo potuto capire che i modelli sono un surrogato dell’evidenza sperimentale. In mancanza di dati e di certezze ci affidiamo alla statistica correggendo le equazioni in modo da adattarle ai pochi dati sperimentali in nostro possesso. Quando non si riesce in alcun modo a “sintonizzare” i dati sperimentali con i risultati dei modelli si … modificano i dati. Non sto dicendo una sciocchezza. Nell’articolo si fa riferimento alla discrasia tra la curva di temperatura generata dai modelli e le temperature reali, cioè misurate. In particolare si fa riferimento alle temperature misurate a cavallo degli anni quaranta del secolo scorso. Qualche tempo fa “Le Scienze” ha pubblicato un articolo a firma di un noto scienziato italiano (di cui, purtroppo, non ricordo il nome) che aveva studiato proprio questa discrasia. Dopo un’analisi piuttosto approfondita della questione l’autore dell’articolo concludeva che non era il modello a sbagliare ma erano sbagliati i dati reali! Secondo la sua analisi, infatti, il “panettone” che rappresenta l’andamento reale delle temperature negli anni quaranta DOVEVA essere corretto in quanto dovuto ad errori nella raccolta dei dati. Sosteneva l’autore, infatti, che l’incremento di temperatura non era reale ma dipendeva dalla metodologia di prelievo dei campioni d’acqua (si faceva riferimento ai dati di temperatura delle acque marine). In particolare il presunto “raffreddamento” successivo agli anni quaranta dipendeva dal fatto che in precedenza le acque da esaminare venivano prelevate con campionatori calati dalle murate delle navi, successivamente venivano spillate dalle condotte di carico delle turbine. Applicando “opportuni coefficienti correttivi” il “panettone” spariva e la realtà si adattava al modello. Ultimamente ho saputo che è in atto una sistematica “revisione” dei dataset per “giustificare” i risultati dei modelli. Per rispondere a Nitopi (primo post) il guaio è che sanno perfettamente quello che fanno ma, come si suol dire, se ne fregano.
    Ciao, Donato.

      (Quote)  (Reply)

  9. @ roberto frigerio
    Sono sempre io, e, come vedi, nei due articoli non ho messo in discussione il concetto di effetto serra, ma solo l’affidabilità delle stime relative alle conseguenze di un amento di CO2

      (Quote)  (Reply)

  10. @Roberto Frigerio

    “e anche i supercomputers Cray ci mettono mesi per quelli relativamente meno complessi.”

    Forse potrebbe essere utile aggiornare il parco hardware. Il Cray t90 in questione era il piu’ potente supercomputer nel 1997, con circa 30gflops. Ore un intel i7 ne fa 100. Nel 2011 il piu’ potente computer installato avra’ 20pflops, cioe’ circa 1.000.000 di volte piu’ potente del cray t90. Quindi anche problemi di quel tipo adesso, con le dovute cautele ovviamente, sono affrontabili dal punto di vista numerico.

    @Donato

    Invece di criticare l’articolo de “Le Scienze”, che tra l’altro si distingue per essere una rivista di divulgazione particolarmente rigorosa, ricca, ed interessante, potrebbe essere utile leggere gli articoli originali, e nel caso qualcosa non vada, criticare nel merito senza sparare nel mucchio. La gran parte di quei lavori sono dovuti a David Thompson. Alla sua homepage di trovano tutti gli articoli, con accesso libero:

    http://www.atmos.colostate.edu/faculty/thompson.php

    Cordiali Saluti

      (Quote)  (Reply)

  11. @ Giovanni

    Forse è il caso che tu legga meglio quell’articolo.
    Il prof. Ballio notava che il Cray del ’97 ci metteva 54 giorni per un problema relativamente semplice di moti turbolenti che riguardava un solido di piccole dimensioni, di poco più di 2 metri di lunghezza per 50 cm. di larghezza e 40 di altezza, più o meno.
    Quindi, se il problema riguardasse moti turbolenti di enormi dimensioni, come possono essere i moti atmosferici, una soluzione anche con un computer 1 milione di volte più potente di quello del 1997 non è possibile, oppure è inservibile, poichè i risultati sono inutilizzabili dal punto di vista pratico.

    E cmq. tutto questo non c’entra proprio nulla con ciò che ho detto io, e cioè che un modellino con CO2 + radiazioni IR è del tutto ridicolo per prevedere il futuro del clima, visto che nemmeno con le equazioni di Navier-Stokes ci si riesce.

    @ agrimensore

    Ma allora cadi in contraddizione, perchè da un lato accetti un concetto (effetto serra) smentito da tutte le leggi fisiche, fin dal 1909, ma al tempo stesso noti che i modelli di sensibilità climatica – che pure si basano tutti proprio sul concetto di effetto serra – sono lacunosi e inadeguati.

      (Quote)  (Reply)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Immagine CAPTCHA

*

Aggiungi una immagine

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.