Archivi giornalieri: 19 Febbraio 2010

E' rimasta la 1049, attività solare che torna a livelli davvero bassi!

L’immagine del Gong Continum ci mostra come al momento e ormai da alcuni giorni siano presenti solo le sterili macchiette dell’AR 1049, tra l’altro già in netta fase di decadenza.

Gli X-Ray sono ripiombati ai valori minimi (Classe A):

Il Planetary K-index pure:

Il vento solare oggi ha dato una leggera impennata a valori prossimi ai 500 km/s, direi niente di eclatante, anzi….

E pure dal behind si nota come anche la formazione di nuve regioni solari si sia momentaneamente interrotta, anche se va detto che in questa nuova fase bastano poce ora a formare una nuova AR:

Stay tuned, Simon

Lo scetticismo sui GCM – parte II

Ho esposto nella prima parte alcuni problemi di ordine, per così dire, epistemologico che affliggono i modelli GCM. Essi si traducono sostanzialmente in dubbi circa:

– la correttezza dei parametri usati (problema del tuning dei parametri)

– la completezza dei fenomeni fisici/atmosferici considerati

Tuning dei parametri

E’ evidente che il parametro più importante è la sensibilità del clima rispetto all’aumento di concentrazione della Co2 (climate sensitivity), cioè il parametro che stabilisce di quanto aumentano le temperature se se la concentrazione della Co2 nell’atmosfera dovesse raddoppiare. Questo parametro, cruciale per tutta la teoria dell’AGW, è stato stimato in molti modi, a partire dai dati paleo climatici, ma i risultati sono molto differenti. A seconda degli studi, abbiamo valori che vanno da 0.01° a 7° o poco più. L’IPCC fornisce per questo parametro un range di valori probabile che va da 2° a 4.5°. Al di là delle questioni ideologiche, io credo che una delle maggiori difficoltà nello stabilire il valore corretto sia connaturata nel meccanismo stesso con cui la teoria AGW prova a descrivere il fenomeno: l’aumento delle T globali provoca un aumento della concentrazione della Co2 e viceversa. A questo punto, per quanto si provi a stabilire un’elevata correlazione tra T globali e concentrazione di Co2, diventa difficile stabilire fino a che punto è la temperatura che induce l’aumento di Co2, e fino a che punto la Co2 induce l’aumento delle T globali. Ricordo che è dai dati paleoclimatici emerge che prima aumenta la temperatura del pianeta e poi la concentrazione di Co2.

Completezza dei fenomeni

Ovviamente, i fenomeni non considerati potrebbero essere innanzi tutto quelli di origine solare. Da parte mia tendo a sottolineare l’importanza dell’indice geomagnetico Ap. A tal proposito, Nicola Scafetta, noto scienziato piuttosto critico in merito alla teoria AGW, ha proposto un’ipotesi di modello che tenga in considerazione gli effetti della variabilità dei parametri solari.

I due temi, in realtà si potrebbero fondere per generare un’unica domanda (magari un po’ lunga…), del tipo:

“Chi ci assicura che il valore assunto nel modello dalla climate sensitivity non sia più elevato del valore reale perché in tal modo si riesce a mascherare l’assenza di un fenomeno fisico-atmosferico non implementato dal modello?”

Per evitare malintesi, preciso che il quesito non è rivolto alla buona fede del ricercatore, ma alle modalità di costruzione del modello.

Dopo aver descritto problemi intrinseci alla definizione di un GCM, vorrei completare il discorso affrontando problemi più specificatamente tecnici, relativi allo stato dell’arte di questo tipo di strumenti.

Mancanza di feedback da parte degli RCM

Gli RCM, Regional Climate Model, sono quei modelli che vengono impiegati per previsioni meteorologiche a breve su scale regionale. In genere, contengono ancora più “fisica” di quanto sia implementata nei GCM. In alcuni casi, la simulazione globale prevede di includere gli RCM, ma solo per verificare gli effetti su una determinata zona dell’output prodotto dalla simulazione del GCM. Tuttavia, da quanto mi risulta, non viene simulato, per problemi di complessità computazionale, il feed-back inverso. Cioè, nella simulazione non si tiene conto di come i cambiamenti a livello regionale possano influenzare il clima. Con questo non voglio dire che le variazione climatiche siano sovrastimate dai modelli. Potrebbero essere anche sottostimate. Semplicemente le simulazioni prodotte, per come sono state costruite, non tengono conto di una serie di controreazioni del sistema.

Provo a spiegarmi con un esempio che, per sgombrare il campo da equivoci, va nel senso di una sottostima. L’esempio è a scopo puramente esplicativo, non tratto dalla realtà.

Immaginiamo che il GCM preveda un aumento di temperatura tale per cui l’RCM relativo alla penisola antartica ne preveda il completo scioglimento dei ghiacci relativi. Tale situazione diminuirebbe l’albedo che a sua volta ha influenza sul clima. Ecco, questo tipo di situazione non è implementata.

Limitatezza del numero delle variabili prognostiche oggetto di evoluzione.

Da quanto ho avuto modo di apprendere, i GCM, sempre per problemi di complessità computazionale, in genere prevedono l’evoluzione di un numero limitato di variabili climatiche, diciamo all’incirca quattro o cinque (temperatura, umidità, velocità del vento, ecc.). A mio parere, questa è una diviene una restrizione grave soprattutto nel momento in cui ci si ponga l’obiettivo di una previsione a lungo termine. In pratica, mi sembra difficile prevedere come sarà il clima nella seconda metà del secolo se non riesco ad ottenere una rappresentazione globale di come si evolve il pianeta, dal punto di vista climatico, nella varie decadi.

In conclusione, benché i modelli GCM abbiano raggiunto un notevole grado di complessità, credo che sia ragionevole nutrire dei dubbi sull’affidabilità dei risultati prodotti, specie quelli a lungo termine.

Agrimensore g