Archivio mensile:Dicembre 2010

L´industria dell´apocalisse climatica

Durante le ultime decadi gli allarmisti del clima hanno cercato di terrorizzarci con storie orribili di catastrofi imminenti: l´apocalisse climatica che sta arrivando!

A causa del Riscaldamento Globale (Riscaldamento Globale si scrive con lettere maiuscole perché é la norma principale della Bibbia Climatica) terre fertili agricole diventeranno aride e sterili, mentre aree del deserto avranno esperienze di piogge torrenziali e inondazioni incontrollabili. Le foreste  tropicali seccheranno nel caldo che piú caldo non si puó e il ghiaccio dei poli si scioglierá come un gelato infornato. Le zone costiere e le isole coralline spariranno inondate dal mare sempre piú alto, le grandi cittá del mondo cercheranno di proteggersi dietro enormi pareti e dighe per evitare le inondazioni. La furia della Natura porterá miliardi di rifugiati a migrare verso terre meno arruginite, inseguiti da malattie conosciute e sconosciute, peste, colera e guerre. A caua dell´arroganza umana la nostra civiltá entrerá in collasso, come é accaduto tante volte nel passato. O FORSE NO….Una rivoluzione silenziosa tra antropologie e archeologi ha distrutto il DOGMA SCIENTIFICO su quanto riguarda come crollarono le antiche civilizzazioni, con alcune lezioni per coloro che attualmente pregano ardentemente nella nuova chiesa evangelica dell´AGW affinché sorga l´ultima purificatrice e apocalittica CATASTROFE CLIMATICA.

Le storie delle antiche civiltá sono state anche  uno dei temi favoriti da scienziati e cineasti di Hollywood. Nulla é piú tragico della storia di una grande civiltá che, per ignoranza o orgoglio, abusó del mondo naturale attorno a loro fino a che un  disastro ambientale li porta alla loro  autodistruzione. La lista di queste civiltá é lunga: lantico impero egiziano, l´impero accadiano in Mesopotamia, i Maya, gli Anasazi, Angkor Wat, e anche la leggendaria Atlantide.

Film epici e molte carriere accademiche si basarono nel romanticizzare l´ascensione e la caduta inevitabile delle antiche civilizzazioni. Roma cadde e Atlandide affondó sotto le onde di film catastrofistici, e la nostra moderna civiltá raccoglie grandi guadagni iniziando dalla distruzione in massa.


 Le rovine di  Angkor Wat,i n Cambogia.

Poul Holm, uno storico del  Trinity College Dublin, ha descritto questa ossessione sulle cadute delle civilizzazioni che influenza le religioni, le Universitá e Hollywood, come una industria dell´Apocalisse. In un interessante articolo del 12 Novembre sulla rivista Science , Andrew Lawler descrive il lavoro di Holm e altri studiosi che rigettano questa Industria dell´Apocalisse, per lo meno nel campo scientifico. Negli articoli, “Collapse? What Collapse? Societal Change Revisited,” comincia la sua discussione sul collasso della Societá con una riunione di archeologi nel Regno Unito:

Un gruppo eclettico di specialisti che si riunirono recentemente nella Universitá di Cambridge, allega che il vero collasso sociale e in realtá molto raro.  Loro dicono che i nuovi dati dimostrano che gli esempi classici di massiccio collasso, come la disintegrazione dell´Antico Impero egiziano, la fine del periodo classico dei Maia e la sparizione delle societá pre-colombiane del Sudest degli Stati Uniti, non furono né repentini né disastrosi per tutti i segmenti delle sue  popolazioni.

Gli archeologi stanno collocando una nuova enfasi nella riduzione e trasformazione anziché della mancanza bruta e collasso. Secondo Lawler, questo rappresenta una specie di rezione contro una recente onda di rivendicazioni secondo cui i disastri ambientali, naturalie creati dall´uomo, sono i veri colpati dietro dei molti antichi collassi sociali. L´archeologo Harvey Weiss dell´Universitá di yale, per esempio, in un articolo pubblicato su Science nel 1993, ha indicato una siccitá regionale come la ragione che causó il collasso dell´Impero Accadiano della Mesopotamia.

Il geografo Jared Diamond della UCLA, che ha fatto una carriera con le cronache del fracasso delle antiche societá, nel suo libro Collapse: How Societies Choose to Fail or Succeed. del 2005 cita vari esempi delle cattive decisioni prese in ecosistemi fragili che portarono al disastro,

Diamond ha pubblicato vari libri che coprono differenti periodi e differenti popoli. Mentre i suoi discepoli non hanno dubbi e i suoi libri sono abbastanza chiarificatori, ci sono quelli che discordano con il suo costante tema che la deviazione ecologica porta al collasso.  In  Guns, Germs, and Steel, forse la sua opera piú popolare, Diamond argomenta contro le tradizionali spiegazioni storiche sul fracasso delle societá passate e si concentra sul fattore ecologico. Tra le societá che furono esaminate ci sono i nordici della Groenlandia, i Maia, gli Anasazi, il popolo indigeno di Rapa Nui (Isola di Pasqua), il Giappone, Haiti, la Repubblica Dominicana e infine il moderno Montana. La descrizione di Diamond sulla scomparsa degli abitanti dell´Isola di Pasqua e particolarmente spaventosa.

Tra le civiltá scomparse, una delle piú misteriose è quella della societá dell´Isola di Pasqua che é la piú isolata del mondo, lontana dalle terre abitabili. Con una area di appena 64 Km2, si trova nell´Oceano Pacifico a piú di 2000 km a ovest dell´America del Sud e 1400 Km dall´isola piú vicina abitabile (Pitcairn). Ha un clima ameno sub tropicale ed é un vero paradiso con un fertile suolo vulcanico, una vera e propria mimiatura, isolata dai problemi del mondo.

Gli esploratori polinesiani incontrarono l´isola circa nel 400 D.C. e lá fiorí con un picco attorno al 1200 D.C.  Ma subito dopo la societá dell´Isola di Pasqua entró in una spirale discendente da cui non si recuperó mai piú. Durante alcuni secoli, il popolo dell´Isola di Pasqua liquidò le sue foreste, portò le piante e gli animali all´estinzione, e vide la sua societá complessa scendere nel caos e nel cannibalismo. Loro lasciarono le gigantesche statue di pietra, enigmaticamente sparse nel paesaggio desolante di quell´isola desolata che una volta fu prospera.

Ma l´Isola di Pasqua puó essere una eccezione dal contesto delle civiltá collassate, perché é un piccolo punto di terra isolato con riserve limitate e nessuna via di figa in tempi difficili. Di fatto, molti degli esempi indicati come precauzione contro l´eccesso di allarmi  ecologici sono cosí. I Vichinghi della groenlandia e dell´America del Nord furono certamente isolati e fuori di qualsiasi aiuto delle loro terre natali. Altri, come i Maia e Hohokom, non essendo chiusi in territori geograficamente isolati, possono essersi semplicemente trasferiti verso terre e pascoli piú verdi.  ” I collassi sono forse piú apparenti che reali” afferma l´archeologo Colin Renfrew di Cambridge.

La fine del periodo piú classico, intorno al 900 A.D. é stato per molto tempo un poster del collasso. “Grandi cittá nelle montagne del nord furono abbandonate, le monumentali architetture finirono” scrive Lawler, “Línvasione straniera, le epidemie, la rivolta sociale e il collasso del commercio sono stai identificati come fattori chiave”.


Rovine Maia invase dalla foresta.

Ma un archeologo,  Elizabeth Graham, dellaa Universitá College London, concordacon le spiegazioni tradizionali sul declino Maia. Graham, che lavora nelle basse terre del Belize, dice che “Non esiste una risposta” nella occupazione delle aree dei Maya che lei ha scavato lungo la costa. Oltretutto lei é convinta che piú aree abitazionali esistettero durante e dopo la fine del periodo classico. Nei siti archeologi che ha scavato non ci sono segni di crisi alla fine del periodo classico. Di nuovo come ha scritto da Lawler:

Gli scheletri non mostrano nessuno stress alimentare, le popolazioni sembrano essere numericamente costanti, i terrazzamenti e le dighe continuano ad essere mantenute, e la ceramica sofisticata continua ad essere fabbricata. La siccitá del clima non sembra aver provocato alcuna rottura sociale. “Queste nuove conclusioni sono incredibilmente importanti” dice Norman Yoffee, un archeologo della Universitá del Michigan. Queste nuove rilevazioni e studi sfidano molte delle idee catastrofistiche di Diamond.

I Maya non sono le uniche popolazioni di cui la scomparsa viene adesso rivista in base a nuovi é piú approfonditi studi. I popoli Hohokam occupavano una vasta area dell´attuale Arizona vicino alla frontiera col Messico. Loro furono immaginati originalmente come un popolo che aveva migrato verso il nord uscendo dal Messico nel periodo del 300 A.C. circa. Loro costruirono vasti sistemi di irrigazione con estesi canali e villaggi con tribune per il gioco della palla, piazze, e monti piattaforma. Era una societá complessa che durá fino al 1450D.C. circ. Intanto la popolazione sparí, i canali furono dimenticati, e anche le aree periferiche furono abbandonate. L´abbandono sembró totale.


Gli Hohokam canali complessi e villaggi.

La spigazione tradizionale sul collasso di Hohokam é che inondazioni improvvise distrussero i canali e in piú apportarono una salinizzazione delle terre agricole e una sovrapopolazione. Altri vedono le malattie che gli europei portarono con le invasioni del 1500 come il colpevole finale per la scomparsa di queste antiche civiltá. Ma l´archeologo Randall McGuire della Universitá di Binghamton a Neu York, difende l´idea che i dati non confermano nessuna di queste teorie. Come scritto nell´articolo su Science:

“lui (McGuire) dice che la mancanza della permanenza dopo il 1450 ha reso insostenibile l´idea della malattia e che non c´é nessuna evidenza per la distruzione dei canali. Basandosi su dati del Centro Archeologico del deserto di Tucson (Arizona) lui immagina la scomparsa degli Hohokam con il cambiamento piú ampio che avvenne in tutto il Sudest verso il 1250 e il 1450 D.C. quando la popolazione diminuí di un 75%. Questo non é un evento catastrofico, ma un processo lento, di 150 anni o anche piú. E certamente gli Hohokam non erano coscienti che si trattava di un “collasso”.

 


L´ Europa riuscí a sopravvivere alla fame, alla peste e alla guerra senza entrare in collasso.

Lá rticolo di Science enumera una serie di altri esempi sui disputati collassi. ” la raritá di un collasso dovuto alla resistenza delle popolazioni ai cambiamenti ambientali o alle malattie é considerevole” dice lo storiografo di Cambridge, Jonh Hatcher, che studia la Peste Nera. Tanto nell´ Europa medioevale che l´Asia furono devastate da questa piaga. Molti paesi perdettero 1/3 della sua popolazione, ma gli ordini sociali non furono abbattuti.  Jonh Baines dell´Universitá di Oxford, dice che la transizione piú graduale é piú o meno un consenso nei nostri giorni. Vi sono molte lezioni da apprendere con questa interpretazione evolutiva del passato.

Primo, gli esseri umani sono molto piú resistenti di quanto si pensava. In veritá l´adattabilitá é indiscitibile nell´Homo Sapiens. Gli esseri umani si sparpagliarono in tutti i posti del mondo proprio perché é adattabile. La nostra specie ha sofferto con la peste, la fame, le guerre, con le catastrofi naturali e anche con i cambiamenti climatici, come abbiamo visto anche in precedenti articoli pubblicati qui su NIA. Intanto ancora siamo qui e sempre piú numerosi. Secondo, il clima non cambia tanto rapidamente che non possiamo costruire dighe e trasferirci verso l´interno. La pioggia e l´uso della terra possono cambiare da una regione all´altra, ma non tanto rapidamente che le altre aree non possno essere trasformate in terre agricole. Intanto se il clima cambia rapidamente potremo addattarci anche noi piú rapidamente, oppure dobbiamo lasciare il nostro posto nel mondo ai nostri successori evolutivi.

Infine osserviamo quello che é cambiato nel consenso nel campo dell´archeologia. è cambiato perché migliori informazioni sono diventate disponibili, la scienza é migliorata e le vecchie risposte si sono dimostrate imprecise se non addirittura sbagliate. In veritá, poiché la scienza sta costantemente cercando nuove teorie e raffinando le antiche, la visione di un consenso in un determinato momento é GARANTITO che tra qualche tempo sará provato che é errata.  Ricordatevi di questo quando qualche giornalista o scienziato o qualche accademico pedante di qualche Universitá che anche noi di NIA conosciamo, tenterá usare l´argomento “CONSENSO” per dire che tutte le storie di orrore in relazione al riscaldamento globale antropogenico sono VERE e la scienza é CONFERMATA!

La scienza mai é finita e il consenso é un argomento per gli idioti fatta per chi é intellettualemnte pregiudicato o inferiore. RIVENDICAZIONI DI UN IMMINENTE APOCALISSE CLIMATICA NON HANNO NESSUNA BASE NELLA SCIENZA O NELLA STORIA. Queste esistono solo per impaurire i disinformati in conformitá, in una soggezione politica, di quelli che vorrebbero rifare il mondo secondo i loro propri desideri egoisti. È l´ora di collocare una volta per tutte il clima fuori dall´industria dell´apocalisse, degli affari puliti o sporchi, dai finanziamenti per ricerche inutili, fuori dal mondo di quei professori universitari che si sentono chissá che solo perché sono arrivati (chissá come?) a insegnare qualcosa senza neanche capire cosa dicono o che non si informano, quei professorini che hanno invidia dei veri scienziati che umilmente dicono: queste sono le conclusioni dei miei studi ma voglio ricevere dai miei colleghi critiche piuttosto che consensi.

Non credete che esiste una industria dell´apocalisse climatica anche per le piccole cose?  Il pacco sopra: “Guardate l´effetto del Riscaldamento Globale! Comprate questo prodotto e con una buona bevanda potrete vedere come la massa terrestre e le coste scompaiono davanti ai vostri occhi con un aumento di 100 metri del livello dei mari!!!”

Insomma, una buona apocalisse non deve essere perduta e allora approfittiamone…. vendiamo qualsiasi cosa col marchio AGW.

Fonte: http://theresilientearth.com/?q=content/climate-apocalypse-industry

SAND-RIO

L’ EFFETTO-SERRA NON ESISTE NEPPURE SU VENERE!

L’amico e collega Alberto (IlikeCO2) scriveva qui giustamente qualche tempo fa che è difficile per molte persone liberarsi dagli schemi mentali più radicati, anche se vengono fornite tutte le prove scientifiche dell’erroneità di tali convinzioni, e sulla base di calcoli precisi, leggi fisiche e matematiche.

E infatti l’idea che l’atmosfera sia una serra, o una “coperta” i cui gas sarebbero in grado di “intrappolare” le radiazioni infrarosse ed accrescere le temperature, per quanto smentita da varie leggi fisiche, da precisi esperimenti (come quello di Wood del 1909), e da molti studi autorevoli al riguardo (Siddons, Nahle, Schreuder, Gehrlich, Tscheuschner, Miskolczi, Thieme, Claes Johnson, ‘O Sullivan, etc.) sembra tuttora affascinare – nel suo rozzo semplicismo –”climatologi” (peraltro piuttosto privi di cognizioni matematiche e fisiche adeguate) e molte persone che si limitano a citare pezzi di articoli e diagrammi trovati nei vari blog, senza neppure capirne l’erroneità (come l’improponibile diagramma di Kiehl e Trenberth, che anche la NASA ha messo in cantina da diversi anni).

Ma il pezzo forte di questi sostenitori della teoria dell’effetto-serra, è senz’altro rappresentato dalla proposizione dell’esempio del pianeta Venere.

Una delle affermazioni più comuni nei blog, ed anche in moltissimi testi ed articoli, è quella secondo cui Venere, la cui atmosfera è al 96.5% composta da CO2, e la cui temperatura alla superficie raggiunge i 464° C (737°K) sarebbe proprio la dimostrazione indiscutibile ed assoluta sia dell’esistenza dell’effetto serra, che della capacità della CO2 di intrappolare le radiazioni solari, innalzando le temperature.

Non solo, ma un’altra delle affermazioni più diffuse – tra i serristi più convinti – è proprio la lugubre profezia del destino rovente che ci attenderebbe, qualora la CO2 prodotta dall’uomo aumentasse ancora.

Peccato che molti di questi personaggi dimentichino in primo luogo che la CO2 presente sulla Terra è solo lo 0.04% di tutti i gas atmosferici, cioè poco più di 4/10000simi di quella presente su Venere, e che peraltro vi furono epoche preistoriche anche sulla Terra in la CO2 nell’atmosfera era oltre 20 volte maggiore di quella attuale, senza che vi fosse alcun danno per le specie animali.

Chiusa parentesi.

Ma il problema è un altro.

Venere – per quanto diverso dalla Terra – è davvero la dimostrazione dell’esistenza di un ipotetico effetto serra?

Le temperature roventi su Venere sono davvero causate dalla spaventosa concentrazione di CO2 nell’atmosfera?

In realtà si può facilmente dimostrare che le cose non stanno affatto così, e solo chi non sa nulla delle condizioni fisiche di Venere, e non possiede adeguate cognizioni matematiche e fisiche, poi se ne esce ripetendo meccanicamente il solito refrain sulla CO2 e sull’effetto serra.

Ma vediamo rapidamente i dati precisi che riguardano Venere (tratti dal sito della NASA, e dalle rilevazioni delle varie sonde spaziali, quindi sperimentalmente documentati e inattaccabili).

http://nssdc.gsfc.nasa.gov/planetary/factsheet/venusfact.html

La prima cosa che colpisce, chi analizza le condizioni di Venere, è il fatto che le temperature del pianeta sono UNIFORMI, sia l’emisfero irradiato dal Sole, che quello in oscurità, hanno le medesime temperature, ovvero circa 460°-465° C.

Questo dovrebbe immediatamente fare riflettere chiunque sia in buona fede, e voglia comprendere la realtà dei fatti senza pregiudizi.

Ora, se fosse l’atmosfera e la CO2 di Venere ad “intrappolare” le radiazioni solari e a causare un enorme effetto serra, allora non si spiega come mai anche la parte oscura non irradiata dal Sole ha LA STESSA temperatura della parte illuminata.

Dove non arrivano radiazioni solari, ovviamente non vi può essere innalzamento di temperature, ma anzi si dovrebbe rilevare un freddo notevole.

E dove non arrivano radiazioni infrarosse, ovviamente queste non possono nemmeno venire “intrappolate”, non si può intrappolare ciò che non esiste.

Eppure su Venere abbiamo ovunque le medesime temperature, sia dove c’è Sole che dove c’è ombra!

Inoltre, su Venere i venti soffiano a velocità ridottissime, inferiori ad 1 m./sec., quindi è escluso ovviamente che vi possa essere un effetto convettivo, di “rimescolamento” e trasporto di calore da parte dell’atmosfera, anche perchè là il giorno dura 2802 ore, la rotazione è lentissima, e il giorno venusiano è pari ad oltre 116 giorni terrestri.

E ancora, la densità estrema dell’atmosfera di Venere, che raggiunge i 67/70 kg./m^3 (la Nasa dà circa 65 kg/m^3 sul suo sito, ma altri fonti danno una densità un po’ più alta), impedisce ai raggi solari di raggiungere la superficie, su Venere c’è buio anche nell’emisfero irradiato dal Sole, alla superficie avete solo una sorta di sauna a 464°C e con un buio quasi assoluto

E allora, quale può essere la causa delle enormi temperature di Venere?

Semplicemente le enormi pressioni che l’atmosfera raggiunge alla superficie, pari a ben 92 atmosfere (mentre la Terra ha solo 1 atmosfera di pressione al livello del mare).

Infatti, utilizzando l’equazione generale dei gas: PV = nRT, che è la legge universale dei gas perfetti, valida per i gas al di sotto di temperature e pressioni troppo elevate (come possono essere quelle stellari, dove l’equazione non è applicabile), e usando i parametri di Venere, abbiamo:

P (pressione) = 92 atmosfere

V (volume) = 1 m^3 (1000 dm^3, oppure 1000 L)

n (numero di mole): che è dato dal rapporto tra la massa reale del gas (che in questo caso è pari a 67.000 grammi/m^3) e la massa molecolare della CO2, che è pari a 44, quindi il numero di mole/m^3 su Venere è 1522.7

R (costante universale dei gas) = 0.082

In base a questi parametri, ed effettuando una semplice operazione di moltiplicazione e divisione:

92 * 1000/1522.7 * 0.082

abbiamo 92000/124.8 e il risultato è 737 gradi Kelvin, cioè appunto 464° C, che è la temperatura uniforme che si trova sulla superficie di Venere!

Ma ciò dimostra matematicamente che le temperature tanto elevate di Venere non sono per nulla dovute né ai raggi solari (sulla superficie i raggi solari non arrivano per nulla, perché l’atmosfera è troppo densa e non li lascia passare, così come i raggi solari non arrivano in fondo al mare, dove è buio e freddo), né ad un fantasioso effetto serra!

Sono le pressioni gigantesche che l’atmosfera di Venere raggiunge alla superficie a causare le temperature superiori a 460° C che le sonde spaziali hanno evidenziato, e cambierebbe ben poco se al posto della CO2 ci fosse l’aria terrestre (che ha massa molecolare di 28.9 anziché 44). Se comprimete un gas come l’aria fino a 92 atmosfere (anziché solo 1 come abbiamo sulla Terra, avreste comunque temperature superiori a 300°C.

Quindi, chi cita Venere come esempio perfetto di “effetto-serra”, non ha la minima idea di cosa parla, e parla ripetendo luoghi comuni e senza sapere usare la propria testa, poiché i 464°C di Venere sono al 100% causati dalla pressione di 92 atmosfere che esiste là, le radiazioni solari e il fantomatico “effetto-serra” non c’entrano proprio nulla.

Roberto Frigerio

IL LIVELLO DEI MARI e Le Proiezioni Catastrofiche dell’IPCC!

Le proiezioni dell’IPCC sul clima del futuro sono catastrofiche fin dal 1995, si afferma che per colpa dei gas serra antropogenici, la terra andrà incontro all’aumento del riscaldamento, alla desertificazione, alla siccità, allo scioglimento delle calotte polari, con conseguente innalzamento dei livelli dei mari e inondazione delle città costiere.

Il livello di massimo innalzamento dei mari è stato stimato dall’IPCC nel 2007 in circa 0,58 m. entro il 2100, ma su Nature nel 2006 era stata pubblicata una ricerca che stimava l’innalzamento massimo intorno ai 0,051 m entro il 2100, 10 volte di meno. (forse perché non contavano lo scioglimento dei ghiacci terrestri)

Holgate afferma che l’innalzamento annuo dei livelli dei mari, dovuto alla dilatazione per il riscaldamento e allo scioglimento dei ghiacci terrestri, è stato inferiore (1,5 mm) nella seconda metà del novecento rispetto alla prima metà (2 mm) che non può essere colpa dell’uomo, la crescita più lenta ci fu proprio negli anni 60’ in pieno boom economico con l’ascesa della CO2 antropogenica.

Malgrado questo, A. Cianciullo ha scritto su Repubblica che il livello del mare potrebbe salire di 1,8 mt entro il 2100, addirittura Mario Tozzi, in stile catastrofista, ha mandato in onda, su rai tre, una ricostruzione di Milano (122 m. s.l.m) sommersa dal mare! Che dire? Pescheremo le sarde dalle guglie del duomo. Al Gore nel suo film invece afferma che il livello dei mari potrebbe salire fino ad un massimo di 6 mt (100 volte di più) sommergendo le Maldive e le Tuvalu.

Nils Morner il massimo esperto mondiale di variazioni nel livello del mare, dopo questi falsi allarmismi, si è sdegnato e ha scritto che la temperatura è correlata linearmente con le variazioni solari e non con la CO2, che il livello dei mari è stabile da 60 anni e non sta subendo nessun aumento repentino, concludendo amaramente che la scienza fatta di osservazioni, interpretazioni e conclusioni è stata sostituita dai dogmi con chiari interessi politici.

Anche analizzando i periodi con i ratei più ripidi si evince che i 30 anni dal 1910 al 1940 sono comunque più ripidi rispetto al periodo dei 30 anni dal 1975-1995.

http://www.pnas.org/content/early/2009/12/04/0907765106.full.pdf

(Martin Vermeer, and Stefan Rahmstorf “Global sea level linked to global temperature” PNAS October 26, 2009)

Nel grafico postato non c’è nessun segno di particolari accelerazioni nella fine del ‘900, quindi se il trend proseguirà come nel ‘900 avremo a fine secolo 15-20 cm di più di ora, ma mettiamo anche 30 cm che però è sempre 20 volte meno di quello stimato da Al Gore cioè 6 mt. previsione con la quale ha terrorizzato il mondo.

Del resto quello era il suo scopo.

 Fonti e link utili:

http://www.nature.com/nature/journal/v439/n7074/abs/nature04448.html

(Sarah C. B. Raper, Roger J.Braithwaite, “Low sea level rise projections from mountain glaciers and icecaps under global warming” Nature 439, 311-313 (19 January 2006) | doi:10.1038/nature04448;)

http://meteo.lcd.lu/globalwarming/Holgate/sealevel_change_poster_holgate.pdf
(Holgate, S. J. (2007), On the decadal rates of sea level change during the twentieth century, Geophys. Res. Lett., 34, L01602, doi:10.1029/2006GL028492.)

ANTONIO CIANCIULLO “WORLDWATCH Emissioni, mari, gas, il clima è nel caos” Repubblica 13 gennaio 2009

http://www.cosis.net/abstracts/EGU06/08676/EGU06-J-08676.pdf

/Nils-Axel Mörner “The most severe climatic extreme and its effects” Geophysical Research Abstracts, Vol. 8, 08676, 2006 SRef-ID: 1607-7962/gra/EGU06-A-08676)

Nigel Lawson “Nessuna emergenza clima “ ed Brioschi 2008

http://www.pnas.org/content/early/2009/12/04/0907765106.full.pdf

(Martin Vermeer, and Stefan Rahmstorf “Global sea level linked to global temperature” PNAS October 26, 2009)

Claudio Costa

Sarà solo un caso… (+ Nowcasting Solare)

…ma ghiaccio e neve stanno colpendo di più in questi ultimi anni, compice un AO- spesso a fondo scala e un conseguente VP spappolato che favorisce la meridianalizzazione del getto anche alle latitudini più meridionali, Italia, Spagna e Grecia comprese, il cuore del mediterraneo quindi, alle volte interessando pure le zone del nord Africa che subiscono così l’azione delle correnti polari con isoterme negative!

Qui vi sono 2 link sulla copertura nevosa dell’emisfero boreale:

http://www.meteogiornale.it/notizia/17036-1-innevamento-eccezionale-per-l-emisfero-nord

http://daltonsminima.altervista.org/?p=7649

E quando è estate da noi, non è che l’emisfero australe resta a guardare con neve a quote collinari anche in Brasile:

http://micheledechiara.blogspot.com/2010/08/brasile-neve-quote-collinari.html

Insomma, come da titolo, tutto ciò sarà un caso o forse il sole ci sta iniziando a mettere lo zampino?

Di certo, come più volte discusso qui su NIA, certi conti guardando soprattutto gli indici teleconnettivi non tornano.

Un AO- che ormai da 2 anni in pieno inverno vede valori record in senso negativo, una Nina tra le più forti di sempre, lo strano comportamento della corrente del golfo, e a tal proposito vorrei anche riproporre un articolo uscito recentemente  qui nel blog:

http://daltonsminima.altervista.org/?p=12616

Di carne al fuoco ce n’è, di sicuro come direbbe il buon Fabio 2, non bastano pochi anni per definire una tendenza chiara e certa, però noi intanto annoveriamo…

Veniamo al Sole:

che già da ieri è tornato spotless per il nia’s count, mentre ancora oggi non lo sarà per i centri ufficiali a causa di quel microscopico moscerino che mai e dico mai avrebbero visto o contato ai tempi di Wolf!

Già da ieri il solar flux è in vistoso calo ed attenzione perchè il record di febbraio non è più così sicuro che venga battuto!

Inoltre al momento, il SN del mese di dicembre per il Sidc è in fase calante rispetto ai mesi precedenti (ricordiamo che anche novembre ha chiuso al ribasso rispetto a settembre ed ottobre), ed Hathatway non passa mese o quasi che rivede in costante ribasso le sue previsioni per il massimo del ciclo solare 24!

Il behind appare abbastanza pulito:

tranne che per la vecchia regione 1130 che entro domani dovrebbe comparire nella parte visibile del sole e potrebbe contenere qualche macchia al suo interno, staremo a vedere.

Vento solare, K-index e X-ray flux a valori soprattutto bassi o molto bassi!

Sty tuned, Simon

PERCHE’ E’ RAGIONEVOLE DUBITARE DELLE STIME SULLA SENSIBILITA’ CLIMATICA – II parte: i modelli GCM

di agrimensore g., con la collaborazione di Fano

Nella prima parte,  abbiamo visto che la stima del valore della climate sensitivity (sensibilità climatica), cioè il coefficiente relativo all’aumento delle temperature a fronte di una maggiore quantità di IR (Infrared radiation), è particolarmente ardua se effettuata confrontando il comportamento della Terra col passato. Quello che si riesce a fare è trovare una funzione di distribuzione del valore che dovrebbe almeno essere sottoposta ad una verifica sperimentale, molto difficile da progettare.

Un metodo alternativo, o a integrazione, è quello di utilizzare i modelli GCM (General Circulation Model)

I modelli GCM, come noto, sono quei modelli che prevedono alcune grandezze climatiche (di norma venti, temperature, precipitazioni e pressione) attraverso i relativi valori statistici in un orizzonte temporale di più decadi (venti o trent’anni). In genere le elaborazioni vengono effettuate su potenti computer per permettere il calcolo numeriche delle legge fisiche che interessano il clima.

Funzionano bene?

Il modo più naturale per capire se funzionano è confrontarli con la realtà. Può sembrare una banalità, ma spesso per valutare il loro grado di funzionamento si giudicano le discrepanze tra i vari modelli, il fatto che siano diminuite viene giudicato un buon risultato. Oppure vengono confrontate le medie dei modelli con un super-modello ( http://scienceofdoom.com/2010/03/23/models-on-and-off-the-catwalk-part-two/) per evidenziare come la media sia migliore del singolo.

Mi sembra ovvio che tutto ciò non implichi affatto che i modelli GCM funzionino. Sarebbe opportuno  il confronto con la realtà oggetto delle previsioni.

Purtroppo, per riscontrare  con gli output dei modelli sarebbe necessario aspettare parecchi anni, perché le loro previsioni si riferiscono a  medie e grandezze statistiche da applicare a periodi multidecadali. Anziché attendere venti o più anni, possiamo cominciare a verificare i cosiddetti hindcast, cioè gli output dei modelli che si riferiscono al passato. Riprendo dallo stesso sito precedente, sostenitore dell’AGWT, la figura riportata nell’AR 2007 IPCC in merito ai modelli:

 

 

Nelle figura le parti in blu rappresentano una sottostima e le parti in rosso una sovrastima delle temperature. Come si vede non c’è nessun modello che abbia solo colori tenui, chiari. Anche quello che viene considerato il migliore (in alto a destra) presenta vari punti deboli, ad esempio ha sottostimato le temperature in Groenlandia e le ha sovrastimate in Antartide. La circostanza che per qualcuno la media generale sia simile a quella osservata non può essere considerata come la prova che i modelli GCM funzionino.

Prendiamo un’altra grandezza prognostica importante, le precipitazioni.

Qui  in generale i modelli GCM sembrano aver sottostimato l’incremento delle precipitazioni avvenuto in questi anni. Lo evidenzia il lavor di Frank J. Wentz, Lucrezia Ricciardulli, Kyle Hilburn, Carl Mears (http://www.remss.com/papers/wentz_science_2007_paper+som.pdf)

con il seguente abstract (già riportato in originale in un precedente articolo di NIA):

Sia i modelli climatici, sia le osservazioni satellitari indicano che la totalità dell’acqua in atmosfera aumenterà del 7% per grado Kelvin di riscaldamento della superficie. Tuttavia, i modelli climatici prevedono che le precipitazioni globali aumenteranno a un tasso molto più lento, da 1 a a 3% per Kelvin (n.d.r: significherebbe più vapor acqueo e meno pioggia). Un’analisi recente delle osservazioni satellitari non conferma questa previsione di una mutata risposta delle precipitazioni a fronte del global warming. Piuttosto, le osservazioni suggeriscono che le precipitazioni e la totalità dell’acqua totale in atmosfera sono aumentate circa dello stesso tasso nelle precedenti due decadi.

D’altra parte, anche le istituzione favorevoli all’AGWT, ammettono che c’è ancora parecchio da sviluppare. Un esempio è contenuto  nella lettera (cfr. http://www.aps.org/about/pressreleases/haroldlewis.cfm)  con cui l’APS (American Phisycal Society) ha risposto alle critiche del professor Lewis, dimessosi proprio per contrasti in merito alle posizioni dell’associazione sui cambiamenti climatici. Dopo una serie di contestazioni al professore Lewis, l’APS scrive che

However, APS continues to recognize that climate models are far from adequate

Perché i modelli GCM non sono adeguati?

Senza inserire i vari link, è quasi unanimemente riconosciuto che uno dei problemi maggiori dei modelli GCM sia la simulazione del processo di formazioni delle nubi. Questo processo, da un punto di vista algoritmico, è parametrizzato. In sostanza, non è implementato solo attraverso leggi fisiche, ma è stato necessario utilizzare delle formule empiriche che dipendono da alcuni parametri e sono state costruite con algoritmi complessi (es.: reti neurali) cercando di renderle efficaci nel simulare il passato.

Però qualcosa non va.

Il processo di formazione delle nubi è importante perché a secondo di come viene implementato può rappresentare un rilevante feed-back positivo o negativo. Secondo una teoria condivisa da molti, almeno quelle medio-basse rappresentano un rilevante feed-back negativo, mentre per molti dei modelli sono un feed-back positivo.

Una possibile spiegazione di questa discrepanza si trova nella teoria di Svensmark e Shaviv circa la capacità dei GCR (Galactic Cosmic Rays) di favorire la formazioni di nubi. L’ingresso dei GCR in atmosfera è modulato dal vento solare; in sostanza,  a un’attività solare intensa corrisponde una diminuzione del livello dei GCR, mentre in periodi di scarsa attività solare, i GCR aumentano e di conseguenza si formano più nubi.

Poiché nessun modello GCM considera questa teoria, se essa fosse vera, la parametrizzazione, basata su dati di anni precedenti, avrebbe mascherato la carenza di conoscenza e quindi, la bontà delle proiezioni fornite sarebbe compromessa dal fatto di non aver considerato un input fondamentale. Ovviamente il livello dei GCR in atmosfera è difficilmente prevedibile, cosicché dovrebbe essere incluso come una delle grandezze per definire i vari scenari.

Naturalmente, ci sono altre possibili motivazioni per spiegare la discrepanza tra realtà e proiezioni dei modelli, tuttavia l’elemento più incerto al momento rimane il processo di formazione delle nubi.

Ma i modelli GCM non sono verificati e validati (V&V)?

Si legge e si sente dire spesso che, poiché i modelli GCM riescono a “ricostruire” il clima dell’ultimo secolo, allora possono essere impiegati per provare a prevedere il clima nel futuro. Questa circostanza, comproverebbe che nei GCM sono implementati tutti i processi fisici necessari, inclusi quelli che determinano un aumento delle temperature globali all’aumentare della CO2.

Una prima considerazione è che quanto viene ricostruito dai GCM è il trend crescente della temperatura (a parte le diminuzioni dovute a forte eruzioni vulcaniche), non le oscillazioni di breve periodo, che sono considerate come variabilità interannuali, e quindi pseodocasuali. Però, in questo modo qualunque grandezza abbia avuto un andamento crescente nell’ultimo secolo, e in particolare negli ultimi trent’anni (ad esempio, il debito pubblico italiano), risulterà in correlazione col clima, non solo la CO2, e di conseguenza le temperature ricostruite dai GCM. Per trovare una prova più convincente sarebbe opportuno che i GCM riuscissero a seguire le variazioni del clima (es.: riscaldamento anni ’40), non solo il trend di fondo, corretto col contributo delle eruzioni vulcaniche.

Per chiarire il concetto, esaminiamo la figura che riporta l’IPCC nell’AR 2007

Questo grafico è inteso essere una sorta di validazioni dei modelli perchè si vede che la linea rossa (la ricostruzione media da parte di 14 modelli GCM) segue “piuttosto bene”, la linea nera, ciò che è successo in realtà. Notate però che il “piuttosto bene” è riferito ad un valor medio, mentre le variazioni sono seguite molto bene, solo quando si tratta di eruzioni vulcaniche, e praticamente per nulla negli altri casi. Ad esempio, il riscaldamento avvenuto prima del ’40 non è stato colto dai modelli e nemmeno il raffreddamento nella decade successiva. Certamente si può spiegare quasto scostamento con una variabilità interannuale pseudocasuale. A questo punto, però, se si costruisce un modello facendo dipendere la temperatura da una qualsiasi grandezza che è stata crescente nell’ultimo secolo, e in particolare nelle ultime decadi, ottengo un risultato simile (purchè inserisca la variabile “eruzione vulcanica”).  Detta in termini statistici, è l’analisi spettrale quella che più mi convince di aver trovato una buona correlazione. Insomma, come validazione un risultato quale quello esposto in figura non è il massimo, ed oltre tutto si tratta di una media di modelli.

Ma c’è un problema più sottile e decisivo, che si colloca a metà tra l’epistemologia e le tecniche di data mining.

I GCM (così come molti altri tipi di modelli) vengono sviluppati in due fasi:

– la fase di “training” ove il modello “impara” qual è il valore corretto da assegnare ai parametri, a volte con tecniche  proprie dell’intelligenza artificiale (la parametrizzazione sopra menzionata);

– la fase di “test” ove il modello viene “collaudato” con dati diversi da quelli utilizzati per la fase di training (backtesting, da cui gli hindcast suddetti).

I dataset utilizzati per le due fasi sono, ovviamente, distinti e si chiamano rispettivamente “training data” e “test data”.

Per capire l’importanza della fase di test, è opportuno ricordare che i modelli, di qualsiasi tipo, debbono affrontare un problema comune: l’overfitting.

Dalla definizione di wikipedia, sappiamo che:

…si parla di overfitting (eccessivo adattamento) quando un modello statistico si adatta ai dati osservati (il campione) usando un numero eccessivo di parametri. Un modello assurdo e sbagliato può adattarsi perfettamente se è abbastanza complesso rispetto alla quantità di dati disponibili.

 

Overfitting. La curva blu mostra l’andamento dell’errore nel classificare i dati di training, mentre la curva rossa mostra l’errore nel classificare i dati di test o validazione. Se l’errore di validazione aumenta mentre l’errore sui dati di training diminuisce, ciò indica che siamo in presenza di un possibile caso di overfitting.

A tal proposito, rimando al’articolo di Nitopi per la parte matematica propedeutica :http://daltonsminima.altervista.org/?p=12172

L’articolo ci mostra come riusciamo ad approssimare i dati sperimentali rendendo più complicata la funzione, senza però poter affermare di aver migliorato la capacità predittiva della funzione stessa.

E’ un po’ come cercare di insegnare a guidare un ubriaco: durante le guide di prova non va a sbattere perchè l’istruttore prende il volante e frena al posto suo. Però quando è solo, rischia di andare contro un muro o cadere in un fosso alla prima curva.

Ebbene, durante lo sviluppo dei primi modelli GCM, è stato presumibilmente possibile procedere correttamente.  I dati a disposizione sono stati suddivisi in “training data” e “test data”.

Successivamente, sono stati sviluppati nuovi modelli, a partire, tra l’altro dagli errori riscontrati nei modelli precedenti. Solo che a questo punto tutti i dataset utilizzati dal primo modello, avrebbero dovuto essere riutilizzati come training data, non come test data. Questa criterio deve essere rispettato, altrimenti sarebbe come se le prove sperimentali di una teoria fossero le stesse osservazioni cha hanno indotto la ridefinizione della teoria. Per analogia col metodo scientifico:

1- si fanno delle osservazioni

2- si formula una teoria che le possa spiegare

3- si progetta un esperimento

4- l’esperimento evidenzia delle lacune nella teoria

5- si raffina la teoria

6- si riesegue lo stesso esperimento.

Il punto (6) è sbagliato! Bisogna progettare un nuovo esperimento. Altrimenti abbiamo trovato quella che si definisce una teoria “ad hoc”.

Da qui la domanda conclusiva: da dove sono stati acquisiti i “nuovi” dataset da utilizzare come “test data”, considerato che il modello ha un orizzonte temporale di decenni?

Allora nessun tipo di modello implementato su computer funziona?

I modelli GCM hanno una difficoltà in più rispetto a quelli utilizzati in altre discipline. I loro risultati possono essere verificati solo dopo 20 o 30 anni. Ciò significa che il loro processo di raffinamento è più difficoltoso. Chi lavora nel campo dell’informatica, ha esperienza che persino software molto più semplici, hanno bisogno di essere migliorati dopo la prima istallazione confrontando il loro funzionamento con quanto atteso. Man mano che si scoprono gli errori, il software viene adeguato e funziona meglio.

Dato il vasto orizzonte temporale, questa fase, comune a tutti i modelli, per i GCM è particolarmente complicata. In altri termini, per i GCM, come per tutti i modelli impiegati per previsioni a lungo periodo, è difficile ottenere nuovi dataset utilizzabili come test data. E’ per questo motivo che, ad una prima analisi, appare ancora prematuro pretendere da essi delle previsioni affidabili.

Conclusioni

Abbiamo visto, in questo articolo e nella prima parte, quanto sia arduo fornire una stima della sensibilità climatica e, di conseguenza, come sia azzardato supporre che le stime fornite godano di un elevato livello di confidenza. Quindi non è anti-scientifico, o irrazionale, o ideologico dubitare del livello di confidenza con cui sono presentate le stime sulla sensibilità climatica. Tuttavia, va sottolineato che un ragionamento del genere non è una prova che esse siano errate. Insomma, stiamo affrontando una tematica tecnica, nulla a che vedere con suggerimenti di politiche di riduzione gas serra, valutazione dei rischi, ecc. La critica all’AGWT riguarda principalmente il concetto che il “debate is over” in merito alle previsioni. La conclusione non è un invito ad abbandonare i GCM, ma a continuare a migliorarli, con la consapevolezza che ci potrebbe essere parecchia strada da fare prima di poterli ritenere adeguati allo scopo.