Archivi tag: Sole e Clima

I MITI DELL’OZONO

È un lungo post (forse troppo) ma la costruzione del mito del buco dell´ozono serve da esempio di come é nato un altro mito, quello del riscaldamento globale. A proposito lo dico da sempre che é esistito un riscaldamento globale negli anni 90 ma che in maggior parte questo é dipeso dalla fortissima attivitá solare nei cicli 20-21-22 e 23, e in minima parte dall´attivitá umana.

Negli anni ’70 la paura della desertificazione era ampiamente diffusa, quasi fosse una predicazione quasi religiosa. In seguito a questo test preliminare, l’ozono e la sua variabilità sono apparsi come un primo problema da risolvere in tutto il mondo, come se fosse causato direttamente dall’uomo. Questo fu a seguito da un ordine del giorno creato nel Club di Roma nel 1962, dove fu tracciato il futuro dell’umanità.

I MITI DELL’OZONO:
Proprio come non c’è vita come la conosciamo senza anidride carbonica (CO2), non c’è ozono naturale (O3) senza luce solare. Queste sono affermazioni che non possono essere confutate. In questo modo, è necessario comprendere il processo di formazione dell’ozono, la sua variazione e la storia che ha registrato il considerato “errore scientifico del XX secolo”, in cui un fenomeno naturale è stato trasformato in un’emergenza globale.

L’ozono è conosciuto giá dall’antica Grecia, e non era intesao come gas, ma già si associava la sua presenza al maltempo. Il prefisso “ozo” deriva dal significato di “con aroma o odore forte e caratteristico” ; alcune definizioni lo descrivono come penetrante e spiacevole. La letteratura riferiva al chimico tedesco Christian Friedrich Schönbein la scoperta di questa molecola, proprio come la percepivano i Greci: l’odore acre, forte, ossidante che appare durante i temporali, che, attraverso i loro fulmini causava l’elettrosintesi delle molecole, usando ossigeno molecolare (O2) presente nell’aria (TOMASONI, 2011). In questo modo, richiede energia per la sua formazione, e poiché è una sostanza altamente reattiva, è una delle componenti variabili dell’atmosfera terrestre, che viene continuamente riciclata nei processi naturali, di cui il principale, la radiazione sarà discusso in questo articolo.

. I primi strati dell’atmosfera e la formazione dell’ozono

Comprendere la formazione dell’ozono richiede l’interpretazione di alcuni punti fondamentali e importanti nella fisica e della chimica dell’atmosfera. La formazione di gas atmosferici è praticamente stabile fino all’altitudine di 80 km. I principali gas sono l’azoto, con il 78,0% e l’ossigeno, con il 21,0%. L’argon è la terza e la più bassa, con solo lo 0,93%. Tutti gli altri sono chiamati trattini, contenuti in 0,07%. Il gas dissigeno, con due atomi nella sua formazione, è chiamato ossigeno molecolare. Agisce come materia prima per la formazione del gas dell’ozono, che diventerà uno stato transitorio di ossigeno, quando capita di avere tre atomi nella sua formazione. La durata dell’ozono nell’atmosfera è molto breve perché la sua molecola è altamente reattiva. L’ozono ha bisogno di energia che possa causare instabilità nell’ossigeno molecolare stabile. L’unica fonte di energia è quella del sole, la frequenza delle onde corte, in particolare la radiazione ultravioletta. Poiché l’atmosfera terrestre agisce in modo selettivo sulle energie esterne al sistema, le frequenze ultraviolette sono le prime a essere bloccate, cominciando a verificarsi in alta quota. Questa interazione richiede massa, cioè  molecole.

La troposfera, il primo strato dell’atmosfera, vicino alla superficie della Terra, detiene circa il 90% dell’intera massa. Inoltre c’è uno strato intermedio chiamato tropopausa e sopra questo, la stratosfera, dove la pressione atmosferica può variare da 50mb nella parte inferiore, a 10mb nella parte più alta, essendo estremamente tenue, poiché la pressione del mare medio – PNMM è 1013.25mb. Tuttavia, anche con una densità sottile, la massa atmosferica è sufficiente in modo che le interazioni con le brevi lunghezze d’onda elettromagnetiche della radiazione ultravioletta dal Sole possano verificarsi in tutta la stratosfera. Poiché la densità è più alta nella stratosfera inferiore, avremo la più alta concentrazione di gas ozono. Per quanto riguarda le temperature, i valori più alti, intesi come energia cinetica, sono registrati nella parte più alta, perché queste molecole intercettano i raggi elettromagnetici di maggiore energia. In questo modo, la stratosfera presenta un profilo molto stabile, poiché è caldo nella parte superiore, presentando generalmente zero gradi Celsius e freddo nel fondo, con circa -56,0 ° C, valori medi verificati in un’atmosfera considerata standard dall’Organizzazione Meteorologica mondo.

Durante il processo di intercettazione delle radiazioni avviene la fotolisi o la fotodisessione, in cui le molecole si rompono formando alcuni radicali liberi o atomi. Nel processo, l’energia ultravioletta viene assorbita per rompere la stabilità molecolare, con conseguente emissione di radiazioni a onda lunga nella banda a infrarossi, che a sua volta riscalda notevolmente lo strato. In questo modo, dovrebbe essere compreso che tutte le molecole che raggiungono la stratosfera o qualsiasi strato superiore saranno fotodiallocate da radiazioni ad alta energia incidente. Quindi, i due principali gas, l’azoto e quindi l’ossigeno, sono molto più soggetti a questi processi. Poiché la quantità di ossigeno e radiazioni UV è molto grande, la formazione di ozono è stimata in circa diversi milioni di tonnellate al secondo, poiché solo allora potrebbe contribuire significativamente a riscaldare e stabilizzare la stratosfera.

Pertanto, l’ozono è un gas che si forma quando il secondo gas principale nell’atmosfera, il gas dell’ossigeno interagisce con la radiazione ultravioletta della banda C-UV C, altamente dannoso per gli esseri viventi. In questi termini, questa radiazione fatale non raggiunge la superficie a causa dell’ossigeno molecolare. Da questa interazione nasce l’ossigeno atomico (O “), altamente instabile, ma necessario per essere il precursore della formazione di ozono. Quindi, nella sua breve esistenza, l’ozono interagisce anche con le radiazioni ultraviolette, ma a causa delle sue proprietà chimiche, la frequenza dell’interazione si verifica nella banda B – UV B, ad un’altitudine di almeno 10 km superiore all’altitudine della sua formazione. In questo modo, il controllo dell’incidenza delle radiazioni ultraviolette B sulla superficie terrestre viene misurato dalla concentrazione di ozono nella stratosfera, che è altamente volatile, poiché le probabilità che una molecola ne trovi un’altra sono molto alte e quando questo si verifica, tre di nuovo le molecole di ossigeno, ritornando alla stabilità e rilasciando più calore nella stratosfera. Il processo di scambio tra questi gas è espressivo veloce. Poiché la concentrazione di gas è più elevata alla base della stratosfera, anche la concentrazione di ozono (O3) sarà così, e questa parte della base della stratosfera è conosciuta come ozonosfera perché contiene la maggior parte della concentrazione di nubi di ozono che si formano e scompaiono con incredibile velocità. Pertanto, non esiste un tale “strato di ozono”, ma è più probabile che questo settore osservi la sua formazione. Va notato che la radiazione UV-A non ha la stessa interazione con le molecole di O 2 come la radiazione UV C o UV B, partecipando così di più al processo di diffusione, che non è sufficiente a bloccare gran parte del suo flusso , che finisce sulla superficie terrestre (figura 4.1.1).

immagine 1

Fig.4.1.1 : Bande spettrali di radiazione ultravioletta e loro estinzione mentre attraversano gli strati inferiori dell’atmosfera. La più grande produzione di ozono si verifica alla base della stratosfera (Fonte: adattamento di Felicio, 2009).

La produzione eseguita dai processi fotochimici è solitamente insignificante sotto i 20 km di altitudine:

 

formula

In effetti, la quantità di ozono che esiste è così insignificante che Gordon Miller Bourne Dobson (1889-1976), un fisico britannico e meteorologo, uno dei principali ricercatori sull’argomento, ha creato una procedura per la sua valutazione. Se l’intera colonna di aria atmosferica fosse concentrata e ridotta ad una pressione atmosferica nota, il NMM, quindi 1atm o 1013.25mb, e ad una temperatura fissa nota, nel caso Celsius zero gradi, lo spessore della quantità totale di ozono sarebbe solo 3 mm. Dobson attribuiva ogni millimetro a 100 unità Dobson e trovava che la media di questa concentrazione sarebbe 300UD. Qui è importante sottolineare che, proprio come la scienza crea medie per essere in grado di fare riferimento, come l’esempio PNMM stesso, dove i valori superiori a 1013.25mb sono considerati come alta pressione superficiale o anticicloni, e al di sotto di questa, bassa pressione atmosferica in superficie, o cicloni, qualsiasi valore superiore a 300UD sono solo “anomalie” positive e valori al di sotto, anomalie “negative”. Tali anomalie non dovrebbero mai essere intese come un problema, ma come una variante di un sistema o di un processo che non è fisso e che si verifica migliaia di anni fa, se non di più. Questo è talmente ovvio per la Scienza che è sorprendente che non abbiamo ancora commentato la variabilità del parametro stesso, sebbene ci siano diversi articoli che riportano che tale variabilità è naturale, come dimostrerebbe lo stesso Dobson.

.

La variabilità dell’ozono è sempre stata naturale

Variazioni nella concentrazione di ozono sono sempre esistite e sono state segnalate giá dal 1930. Nel 1950, R. Penndorf del laboratorio United States Air Force (USAF) di Cambridge, USA, analizzò i dati del TronsØ , Norvegia settentrionale, da una serie dal 1926 al 1942. Durante questa valutazione, ha trovato valori inferiori a 50UD, seguiti nell’ora successiva da valori superiori a 500UD. Ha concluso che la variazione ha raggiunto il 1000% da un’ora all’altra, la dimensione era l’effetto reattivo di questa molecola come uno stato transitorio di ossigeno. Erano queste anomalie che chiamava “buchi nello strato di ozono” come espressione figurativa che non è mai stata presa in considerazione fino alla fine degli anni ’80.

Con la pianificazione dell’Anno geofisico internazionale – l’AGI, in programma dal 1957 al 1958, prorogato fino al 1959, Dobson decise di partire per lavorare nel continente antartico. Tra le misurazioni giornaliere, concordava con quella precedentemente verificata nell’emisfero settentrionale: la variazione oraria è sorprendente e non può essere utilizzata senza la realizzazione di somme orarie e medie. Registrò anche valori di 125UD al Polo Sud presso la stazione americana di Amundsen-Scott , mentre i francesi a Dumont d’Urville sulla costa antartica registrarono valori simili, come ad esempio quelli di Halley Bay . Pertanto, con le banche dati formate, comprese le misurazioni utilizzando la fase di Luna piena, è stato verificato che il conteggio dell’ozono dei periodi stagionali presentava una variazione significativa, con una grande perdita durante l’inverno e il recupero solo alla fine della primavera. Nel suo libro e articolo, Dobson ha riferito che le anomalie dell’ozono rispetto all’Antartide erano naturali. Dobson non ha mai usato il termine “buco”, sebbene queste anomalie sull’Antartide siano più espressive di quelle osservate nell’emisfero settentrionale (DOBSON, 1968a, 1968b). La variazione stagionale dell’ozono sull’Antartide è risultata molto più elevata in inverno, data l’assenza di luce solare (Fig. 4.2.2). Tuttavia, mentre la notte polare segna in modo significativo i mesi centrali dell’anno, con la presenza del Sole, l’incidenza dell’energia è vigorosa, presentando un equilibrio maggiore della parte equatoriale in energia ricevuta in 24 ore (Fig.4.2.2) raggiungendo il segno di 1.400 MJ.m-2 (KING e TURNER, 1997).

immagine 2

Fig.4.2.1 : La misurazione triennale dell’Anno Geofisico Internazionale. Le file complete sono misurazioni dell’ozono nell’emisfero settentrionale, a Spitzbergen , in Norvegia (78º45 “N 016º00” E). Notare i valori bassi durante i mesi invernali. Punti e pallini trapelati sono misurazioni dell’ozono a Halley Bay , in Antartide, durante lo stesso periodo. Nota i bassi valori di ozono nella primavera meridionale e quanto velocemente crescono a novembre, in un momento in cui la stratosfera si sta riscaldando. Notare anche il modello invertito tra gli emisferi, che dimostra la necessità della presenza di radiazione solare per la formazione di ozono. I granuli fuoriusciti vengono misurati nelle fasi lunari dell’Antartide (fonte: DOBSON, 1968a, p.401).

immagine 3

Fig.4.2.2 : Somma della radiazione solare mensile media globale nelle stazioni dell’Antartide. Linea continua, dati dalla stazione di Faraday britannica (Base “F” 65 ° 15 “S 064 ° 16” W) dal 1963 al 1982; linea tratteggiata, dati dalla stazione britannica di Halley (75 ° 35 “S 026 ° 34” W nel 2001, mentre Halley “Z” V si muove mentre sposta la piattaforma del ghiaccio di Brunt ) dal 1963 al 1982; e linea tratteggiata, dati dalla stazione russa Vostok (78º27 “S 106º50” E) dal 1963 al 1973 (fonte: KING e TURNER, 1997, p.

È anche importante sottolineare che durante il periodo invernale, a causa di un problema geometrico, la radiazione solare, anche in modo obliquo nella stratosfera, non è sufficiente a fornire la radiazione UV C per la formazione di ozono, proprio perché l’atmosfera intercetta questa radiazione in latitudini inferiori, consentendo solo il passaggio della radiazione infrarossa, che non viene utilizzata per la fotodiscitation, ma solo per il riscaldamento parziale della stratosfera durante l’inverno antartico. Pertanto, senza la radiazione UV C, non vi è alcun rinnovo dell’ozono, quindi durante l’inverno polare si prevede che la concentrazione di questo gas diminuisca bruscamente. Alleati a questo, i flussi di getto intorno all’Antartide isolano la base stratosferica polare della stratosfera a media latitudine, rendendo difficile lo scambio di aria rarefatta superiore, dove a bassa latitudine si ha una maggiore concentrazione di ozono, a differenza dell’alta latitudine, carente in inverno. Tuttavia, con l’arrivo della primavera, la situazione si stabilizza e le concentrazioni aumentano fino all’estate australe (Fig.4.2.3A a D). Non c’è da meravigliarsi se il vanto di tale anomalia si verifica a settembre, quando la differenza della parte polare rispetto alla parte delle latitudini medie è molto evidente. In anni di minimo solare, le concentrazioni sono basse sull’Antartico, ma non dovrebbero essere considerate allarmanti, ma piuttosto relative al loro ciclo naturale, cioè, sono anomalie della presunta normalità. Questa marcata differenza di ampia anomalia invernale differisce da quella dell’emisfero settentrionale.

 

A B

C D

Fig.4.2.3A a D : esempi di planisferi creati con dati medi dell’ozono, ottenuti mediante telerilevamento tramite lo spettrometro di mappatura dell’ozono totale – TOMS, nell’anno 2000. Si noti che mentre i mesi primaverili attraversano l’estate (A a D), c’è un aumento significativo dell’ozono medio sull’Antartide e, generalmente, nell’emisfero australe.E curiosamente, l’informazione dall’emisfero settentrionale è stata omessa quando a dicembre, passa attraverso il suo periodo invernale, dove le anomalie negative compaiono anche nel calcolo di ozono (Fonte: NASA, 2000).

.

Creare un’ipotesi fraudolenta.

È chiaro che le anomalie dell’ozono sono sempre state conosciute e che sono naturali. Era anche chiaro che le anomalie sono differenziate tra l’Artico e l’Antartico e sono stati condotti studi per comprendere e descrivere tali fenomeni, compresa la loro geometria. In questo modo, con l’avvento dell’era dei satelliti, sono stati creati diversi esperimenti di misurazione, teorie e procedure per essere in grado di rilevare da remoto una vasta gamma di fenomeni, molti dei quali, ovviamente, per scopi militari. Questi includono la misura passiva dell’ozono usando lo spettrometro di mappatura dell’ozono totale – TOMS, o spettrometro di mappatura dell’ozono totale . Questo lavoro è stato eseguito dal satellite Nimbus 7 , lanciato nel 1978, due anni dopo la morte di Dobson. Il Nimbus 7 era un satellite in orbita polare che passava in rassegna l’atmosfera terrestre con il suo TOMS incorporato, usando un complicato processo teorico in cui due radiometri venivano usati per bilanciare, il che alla fine generò una media. Queste medie dissimulano o attenuano l’informazione di alti e bassi, così importante nel calcolo dell’ozono e per la sua comprensione.

Ciò che seguì fu un completo allarmismo globale, in cui la frase “buchi nello strato di ozono”, coniata per la prima volta da R. Penndorf nel 1950, ma poi figurativamente, in modo impreciso e occasionale, divenne famosa dopo JB Farman , del British Antarctic Survey – BAS, ha pubblicato un articolo sulla rivista Nature nel 1985, utilizzando le informazioni di Nimbus 7 che stava assemblando una serie di dati dal 1979, chiudendola solo nel 1992. Farman ha usato i dati mensili dal 1980 al 1984, ottenuti dallo spettrometro TOMS per trarne le conclusioni. Ha trovato basse concentrazioni di ozono. Finora, nessuna notizia dopo aver controllato i lavori passati. Nota allora che sapeva già molto bene cosa avrebbe trovato, una significativa anomalia dell’ozono tra settembre e ottobre. Inoltre, sapeva anche che nel corso degli anni l’anomalia avrebbe avuto buone probabilità di essere più negativa, cioè di presentare una minore concentrazione di ozono sull’Antartide.

Ci sono informazioni precedenti che ci permettono di ricostituire queste affermazioni. Il primo dei quali, nel 1974, Molina e Rowland ha iniziato a evocare un problema di ozono, dovuto in particolare a una famiglia di sostanze contenenti cloro nella loro composizione. Solo tre anni dopo, nel 1977, a un anno dalla morte di Dobson, gli Stati Uniti vietarono l’uso di clorofluorocarburi (CFC) in aerosol non essenziali, e altri paesi come Canada, Norvegia e Svezia stavano riducendo la produzione e l’uso . Nello stesso anno iniziarono a formarsi alcune commissioni. Nel marzo 1985, in particolare, dopo la “segnalazione” di Farman, la Convenzione di Vienna stabilì il Protocollo di Montreal, che gestiva il mondo dietro ai firmatari. Nel 1987, la NASA è stata responsabile della creazione del primo pannello “scientifico” al mondo per risolvere un “problema”: Ozone Trends Panel – OTP, che è stato creato per supportare legittimità) per le decisioni politiche che sono state prese. Questo stesso pannello ha pubblicato nel 1988 che lo “strato di ozono” negli Stati Uniti e in Europa era diminuito di circa il 3% tra il 1969 e il 1986. Questi studi sono stati tenuti segreti e non sono stati pubblicati fino a due anni dopo ( FERREYRA, 2006). Curiosamente, hanno iniziato un anno dopo la chiusura della ricerca di Dobson, che ha funzionato con la misurazione dell’ozono dal 1928 al 1968 senza interruzioni (DOBSON, 1968a, 1968b).

In effetti, le informazioni scientifiche disponibili e pubblicate sulla rivista Science il 12 febbraio 1988 da J. Scotto del ramo biostatico del National Cancer Institute , hanno presentato forti prove scientifiche che la quantità di Le radiazioni UV B che raggiungevano la superficie negli Stati Uniti non solo non erano aumentate, ma erano anche diminuite del 7% tra il 1974 e il 1985. Questi studi, che erano completamente ignorati dai media internazionali, erano basati su una rete di monitoraggio della superficie che ha registrato le radiazioni ultraviolette quotidiane dal 1974 da  Robertson-Berger . Secondo lo stesso Scotto:

” I record annuali UV UV B ottenuti durante periodi consecutivi di sei anni (dal 1974 al 1979 e dal 1980 al 1985) mostrano un cambiamento negativo in ogni stagione, con diminuzioni che variano dal 2 al 7% (…) mostrano che non c’è una tendenza positiva nelle letture annuali UV B per il 1974 fino al 1985 (…) La variazione della media annuale stimata variava dal -1,1% a Minneapolis , Minnesota ; a -4,0% a Philadelphia, in Pennsylvania. Per tutte le stagioni, le letture dei raggi UV B sono diminuite dello 0,7% all’anno dal 1974. “(Fonte: SCOTTO et al ., 1988, p.762).

Oltre a Scotto, molti altri scienziati all’epoca stavano registrando una diminuzione dell’incidenza delle radiazioni ultraviolette che raggiungevano la superficie terrestre. Ha inoltre respinto in un altro articolo di Science la possibilità che la contaminazione dell’aria urbana potesse disperdere la radiazione UV B, causando l’effettiva riduzione della radiazione UV B alla superficie. Ha anche ricordato le informazioni dalla stazione di misurazione sull’isola vulcanica di Mauna Loa, nelle Hawaii, che misura l’anidride carbonica, “teoricamente” priva di contaminazione dell’aria, dove le analisi preliminari condotte non hanno mostrato alcun aumento dell’incidenza di Radiazione UV B tra il 1974 e il 1985 (FERREYRA, 2006). Prendendo in considerazione la spiegazione precedente, se una minore quantità di radiazione UV B raggiungesse la superficie, significherebbe che c’era un equilibrio positivo nella produzione di ozono stratosferico nei periodi menzionati (Fig.4.3.1).

Dopo questo fatto di “ribellione” scientifica, prendiamo nota di ciò che l’ establishment scientifico mondiale ha preparato per la voce dissenziente. Scotto non è stato in grado di continuare la sua ricerca dopo il 1985 perché i fondi per il finanziamento della maggior parte delle stazioni di monitoraggio della radiazione UV B sono stati cancellati e le stazioni, che erano ancora i resti dell’AGI, sono state chiuse. Lo stesso Scotto, uno specialista del cancro di fama mondiale, non ha ricevuto ulteriori sussidi per recarsi a congressi internazionali per presentare le sue scoperte sulla riduzione dell’incidenza delle radiazioni UV B inserendo il cosiddetto “cono d’ombra” progettato dalla potente lobby politica di Ecologia Internazionale, qualcosa di molto comune tra gli attuali scienziati climatici che non rimangono in silenzio davanti alla pseudoscienza dominante del “riscaldamento globale antropico” e dei “cambiamenti climatici”. Le voci degli scienziati che lavorano con la misurazione diretta dell’ozono sono state categoricamente silenziate (FERREYRA, 2006). Le stazioni furono chiuse solo perché le informazioni raccolte indicavano una situazione che non corroborava ciò che era politicamente ed economicamente necessario per vantarsi in quel momento: l’idea allarmistica che l’ozono si sarebbe assottigliato.

immagine 4

Fig.4.3.1 : serie di dati di diverse stazioni situate negli Stati Uniti d’America, dal 1974 al 1985. Il conteggio totale delle radiazioni ultraviolette B ha mostrato una riduzione nel corso degli anni, indicando chiaramente che ha aumentato la produzione di ozono, non al contrario, come annunciato dai media del tempo e da altri impegnati nella causa (Fonte: SCOTTO et al ., 1988).

Con il campo aperto e privo di ostacoli, Molina e Rowland hanno sollevato la questione, proprio quando la produzione di gas CFC ha raggiunto un milione di tonnellate all’anno, principalmente per soddisfare i paesi in via di sviluppo. Poiché entrambi non capivano l’atmosfera, come ci si poteva aspettare, con il loro lavoro passato per “l’era nucleare”, si consultarono con alcuni esperti di dinamiche atmosferiche e conclusero che i CFC rilasciati sulla Terra tendono ad essere dispersi dai venti in tutta l’atmosfera, indipendentemente da dove sono stati emessi ( FERREYRA). Tuttavia, è sufficiente eseguire un piccolo calcolo per vedere che i gas CFC, come Freon -11®, con peso molecolare 137,51 e Freon -12®, con 121.01, sono 4,66 e 4,10 tempi più pesanti dell’aria e che gli stessi gas siano 2.46 e 2.16 volte più pesanti del ferro. In questo modo, non è mai stato spiegato come questi gas, solitamente scartati in ambienti controllati, più pesanti dell’aria, possano viaggiare attraverso l’atmosfera in quantità eccezionali. Tendono a scendere ai livelli più bassi della troposfera e possono anche circolare all’interno dei fenomeni per un certo periodo, ma in un dato momento, alla fine, si stabiliranno, specialmente sugli oceani. Quindi, poiché sono troppo pesanti, i CFC antropogenici non salgono nella stratosfera. Notare la differenza tra questo processo di rilascio umano, che si verifica sulla superficie, e quello dei vulcani, che rilasciano i gas altamente energizzati e riscaldati nella stratosfera. Così, Molina e Rowland lanciano la prima ipotesi antropica per l’emergere del cloro nella stratosfera, come il grande cattivo del cosiddetto “buco dell’ozono”. I gas umani CFC, anche altamente stabili e non reattivi, in presenza della radiazione UV C, che si verifica nella parte più centrale e più alta della stratosfera, verrebbero interrotti, causando quello che chiamavano il “ciclo catalitico del cloro”:

34rf5f

Si noti che nel passaggio gli atomi di cloro rilasciati sono estremamente reattivi e devono scegliere le molecole di ozono per produrre il monossido di cloro del passaggio, anche se è altamente improbabile che ciò accada. Inoltre, il monossido di cloro avrebbe ancora bisogno di trovare un ossigeno atomico rilasciato per eseguire il passaggio .  Hanno inoltre affermato che un solo atomo privo di cloro sarebbe responsabile della distruzione di 100 (cento) migliaia di molecole di ozono. È interessante notare che hanno ancora affermato che il biossido di azoto (NO2), essendo uno dei molti gas atmosferici, potrebbe “dirottare” il cloro , producendo nitrato di cloro (ClNO3). Questa reazione è stata definita una “reazione di interferenza”. Ne consegue che non sono mai state trovate molecole di CFC sufficienti nei campioni di stratosfera che potrebbero avere alcun significato per tali reazioni catalitiche del cloro. Ciò che è stato dimostrato in tali campioni è che ci sono molti altri gas, come l’idrogeno, l’elio, il metano, il monossido di cloro, il biossido di cloro, tutti gli ossidi di azoto, nonché diverse famiglie di gas con bromo, fluoro, iodio, in aggiunta di anidride carbonica e tutti i nobili. Inoltre, la necessità della radiazione UV C sceglie il CFC come un grande galleggiante, il che non lo è, poiché le radiazioni di questa banda si verificano a circa 40 km di altitudine, dove l’ossigeno e l’azoto sono gli eletti ad arrivare (MADURO e SCHAUERHAMMER, 1992). In effetti, l’ipotesi chimica di Molina nell’ambiente naturale sarebbe impossibile da verificarsi, poiché richiede calore per il suo verificarsi. Ad alta quota della stratosfera sul polo sud, le temperature raggiungono -82,0 ° C nella notte polare. Quindi, mentre le magiche reazioni chimiche di Molina richiedono calore, l’ozono, da solo, reagisce con un’altra molecola, senza particolari esigenze. L’assenza di ozono nella stratosfera non può essere associata al cloro, ma piuttosto alla nullità che le molecole di ozono producono mediante intercettazione, insieme alla completa mancanza di radiazione UV C che farebbe rinnovamento dell’ozono, derivato dall’ossigeno molecolare.

Il problema va oltre. C’è il fatto che le caratteristiche estremamente particolari richieste per l’esaurimento dell’ozono sono possibili solo sul nucleo antartico entro circa tre o quattro settimane dopo la metà di settembre. Curiosamente, e mai divulgati dai media internazionali, in questo stesso periodo ci sono anche molte assenze di altri gas nell’alta stratosfera e che dovrebbero essere opportunamente chiamati anche “buchi”. Questi sarebbero i casi del “foro dell’ossido di azoto”, “foro del vapore acqueo”, non a caso gas derivati ​​dalle maggioranze nell’atmosfera, dove il vapore acqueo, come sostanza variabile, può entrare nell’atmosfera fino al 4%, superando qualsiasi altro gas, tranne i due principali, N2 e O2 (FERREYRA, 2006).

Non soddisfatta, Molina, da sempre assistente di Rowland, insiste ancora su un’ipotesi chimica incredibilmente complessa che definisce chimica “eterogenica” o “dimera” dove le temperature dovrebbero essere estremamente basse, sotto i -78,0 ° C. Questa situazione, come visto in precedenza, può verificarsi, in una remota possibilità, quando il Sole “ritorna” nell’emisfero australe, nelle prime settimane di settembre; queste sarebbero quindi le condizioni ideali per l’esaurimento dell’ozono per subire una nuova e più intricata combinazione di reazioni chimiche che esisterebbe solo nel mondo fantastico di Molina. Vediamo perché:

thu7i8i89i

Quindi, Eberstein giustamente critica:

Non esiste un meccanismo che giustifichi la creazione del “buco dell’ozono”. Questo è un enorme difetto. Se qualcuno ha una teoria, dovrebbe essere in grado di fornire un meccanismo definitivo. Altrimenti, è solo speculazione. Questo problema della riduzione dell’ozono in Antartide deve essere messo su basi scientifiche più solide. “(Fonte: EBERSTEIN, Geophysical Research Letters , maggio 1990).

C’era di più. Dopo una serie di esperimenti di laboratorio estremamente complessi, Lawrence, Clemitshaw e Apkarian (1990) arrivarono a una conclusione sulle ipotesi di Molina:

tyhyhy

Nell’intervallo spettrale riportato di recente, in cui il ClOO passerebbe attraverso una dissociazione monomolecolare per produrre Cl + O2 (…) abbiamo condotto studi per stabilire che se un tale canale di foto-dissociazione esiste realmente, allora la sua resa quantica è inferiore a 5 × 10 -4, un processo con una prestazione quantica così piccola sarebbe irrilevante per la fotochimica ClOO nella distruzione dell’ozono stratosferico. (Fonte: LAWRENCE, CLEMITSHAW, APKARIAN, Journal of Geophysical Research , 10/20/1990).

Infine, la luce del sole, che era così necessaria per l’ipotesi “dimera” chimica di Molina, come il grande innesco per l’emergere del “foro nello strato di ozono” massimizzato all’ingresso della primavera fu nuovamente rovesciato dalla Natura, che insiste nel non seguire le regole umane. I satelliti in orbita polare della National Oceanic and Atmospheric Administration (NOAA), o National Oceanic and Atmospheric Administration , hanno rilevato che l’apparizione della massima anomalia dell’ozono si è verificata per un intero mese prima della comparsa del Sole. Quindi, le anomalie sarebbero state molto ben sviluppate prima quella luce solare e la sua radiazione UV-C erano nella stratosfera, e questo è esattamente l’opposto dell’ipotesi “precedente” di Molina. Quindi, se si verificano reazioni chimiche per creare l’anomalia dell’ozono nella stratosfera, queste reazioni si verificherebbero nella piena oscurità, il che di per sé invalida completamente l’ipotesi, quindi deve essere scartata (FERREYRA, 2006).

Quindi, anche se non fosse possibile riprodurre l’ipotesi in laboratorio, come sarebbe possibile farlo nella stratosfera antartica? Inoltre, è stato verificato che la notte polare presentava temperature estremamente basse, non permettendo che l’energia fosse fornita alle reazioni suggestionabili (Fig.4.3.2). Questo ha dimostrato che se le reazioni si verificano per la diminuzione dell’ozono, si verificano dai loro stessi shock. Il recupero dell’ozonosfera avviene naturalmente con l’arrivo della luce solare, rinnovando la rapida azione di scambio tra l’ossigeno molecolare e lo stadio transitorio dell’ozono. Con la presenza del Sole, le temperature della stratosfera sono molto alte, data l’incidenza permanente di radiazioni. Così, ancora una volta, a temperature elevate, la teoria di Molina fallì, poiché non ci sono temperature inferiori a -78,0 ° C per tutto il periodo in cui il Sole è apparente (Fig. Di nuovo, l’ipotesi che queste condizioni siano stabilite nella stratosfera antartica è partita per il mondo surreale (KING e TURNER, 1997).

tj7jiki

Fig.4.3.2 : Profilo di temperatura sulla stazione russa di Vostok (78º27 “S 106º50” E) nel luglio 1989, piena notte invernale polare. C’era una forte inversione della temperatura più vicina alla superficie. La linea completa indica il profilo della temperatura media. Notare le bassissime temperature della stratosfera, dove la pressione è inferiore a 150mb, rendendo impossibile l’energia per l’ipotesi Molina (Fonte: KING e TURNER, 1997, p.86).

fjhjkukik

Fig.4.3.3 : Profilo di temperatura media sulla stazione di Halley britannica (75º30 “S 026º20” E, nel 1996) a luglio e gennaio, con dati del periodo dal 1957 al 1993. Si noti che in alta quota, alla base del stratosfera, anche ad una latitudine più bassa, le temperature sono molto basse in inverno per i mesi di luglio, ma aumentano significativamente in estate per i mesi di gennaio (Fonte: adattamento di FELICIO de KING e TURNER, 1997, p.88) .

Cloro naturale X antropico

E da dove è arrivata la CFC in questa storia? Come il presunto fornitore di cloro libero nella stratosfera. L’indagine diventa sorprendente quando si esaminano le fonti di cloro per l’atmosfera e le sue scale. Pertanto, si ritiene che sia stato molto finto pensare che il raro lancio di un gas magro nell’atmosfera avrebbe potuto, in meno di 50 anni, essere distrutto in un tale “strato di ozono”, qualcosa che non esiste nemmeno. Come, ad esempio, potrebbero pensare che la produzione di cloro, presumibilmente dai CFC, abbia superato la produzione di oceani e vulcani? Diamo un’occhiata agli ordini scalari e ad alcuni processi. Se i CFC potessero produrre al massimo 7,500 tonnellate all’anno al loro picco di produzione, solo il biota oceanico rilascia 5 (cinque) milioni di tonnellate di cloro; gli incendi boschivi aggiungono altri 9 (nove) milioni di tonnellate; i vulcani del mondo contribuiscono 36 (trentasei) milioni di tonnellate e infine, la stragrande maggioranza, gli oceani aggiungono 600 (seicento) milioni di tonnellate di cloro (Fig.4.4.1). Pertanto, la quantità di cloro naturale rilasciato nell’atmosfera supera di 80.000 volte i CFC incriminati. Non c’è da meravigliarsi se queste molecole di CFC non si trovano facilmente nell’atmosfera terrestre (MADURO e SCHAUERHAMMER, 1992).

ujghf hm

Fig.4.4.1 : Schema pittorico delle fonti atmosferiche di cloro, in milioni di tonnellate, confrontato in scala con il cloro immagazzinato in CFC e il rilascio teorico di cloro nell’atmosfera da parte degli stessi composti (Fonte: Adattamento di Félicio de Maduro e Schauerhammer, 1992 ).

La maggior parte del cloro nell’atmosfera è indiscutibilmente dagli oceani, perché durante il processo di evaporazione, che è immenso alla superficie del mare, le molecole altamente energizzate finiscono per trasportare sali di cloruro di sodio, uno dei principali aerosol marini. Il NaCl è facilmente caricato dai processi convettivi perché è leggero e partecipa in particolare ai processi di nucleazione delle goccioline. Un fatto che attirò l’attenzione fu la notizia che i telescopi terrestri ad alta definizione venivano calibrati dai fasci pulsanti di LASER, che ionizzava gli atomi (Na) liberi di sodio nella ionosfera, per simulare le stelle. La domanda che dovrebbe essere posta è: come è arrivato il sodio? Se troviamo che il cloruro di sodio potrebbe anche essere fotodissociato dall’UV C, avremmo un atomo di sodio libero e, categoricamente, anche il cloro libero.

Oltre agli oceani, abbiamo i vulcani. In Antartide, in particolare, il Monte Erebus , a un’altitudine di 3.794 metri sull’isola di Ross e attivo dalla data della sua scoperta nel 1841, rilascia circa 1.200 tonnellate al giorno di gas cloridrico (HCl) e 500 tonnellate al giorno di gas fluoridrico (HF) continuamente perché è un tipo a vapore. Poiché la troposfera è molto superficiale e la stratosfera diventa molto bassa a questa latitudine, specialmente durante l’inverno, solo il Monte Erebus rilascia 438.000 tonnellate di cloro all’anno direttamente nella fascia in cui si formerebbe l’ozono. Si noti che oltre all’elevata quantità di cloro, abbiamo ancora il lancio di 182.500 tonnellate di fluoro, più attivo persino del cloro stesso. Confrontando questi valori con il lancio annuale della stagione CFC di 7.500 tonnellate all’anno, si è riscontrato che solo Erebus copre la “fornitura” umana di cloro di circa 58,4 volte, cioè meno di uno settimana il vulcano avrebbe già rilasciato tutta la produzione umana annuale di gas CFC nell’atmosfera (MADURO e SCHAUERHAMMER, 1992). Ferreyra ha anche ricordato le tre campagne condotte dal Dr. Haroun Tazieff al vertice del Monte Erebus per studiare i gas liberati, dove ha dimostrato le quantità specificate, principalmente a causa della cura delle circolazioni sottovento verso la stazione statunitense McMurdo , che si trova vicino vulcano. Considerando che questo fatto era noto, Susan Solomon, un membro dell’OTP, eseguì palloni con sensore di cloro vicino alla stazione di McMurdo Sound e, naturalmente, “dimenticò” che il Monte Erebus si trovava nelle vicinanze. Né menzionò che i palloncini, quando gettati nel vento “favorevole” al sopravvento al Monte Erebus , entrarono nei pennacchi di gas lanciati dal vulcano, con le loro centinaia di tonnellate di HCl al giorno, che, in una troposfera estremamente secca, dato l’altitudine, hanno molte possibilità di rimanere più a lungo rispetto alle regioni tropicali. Convenientemente, ha anche dimenticato che la tropopausa a quelle fermate di solito si verifica molto più in basso. Quindi, i gas riscaldati attraverserebbero rapidamente questo strato e raggiungerebbero la base della stratosfera, che può essere alta circa 6 km. Quando il dott. Tazieff attirò l’attenzione sul contributo di Mount Erebus , lo ignorarono semplicemente, perché dopotutto, come Lino sottolineò, che cosa deve fare un vulcanologo a una domanda trascendentale? (MADURO e SCHAUERHAMMER, 1992).

Quindi, se c’è una presunta alta presenza di cloro nell’atmosfera antartica, potrebbe essere solo di origine naturale. Non avrebbe mai dovuto accettare che il 90% dei CFC che erano stati rilasciati nel mondo potessero viaggiare nella stratosfera antartica e venire fotodisocializzati lì, specialmente quando la maggior parte di questi gas veniva prodotta nell’emisfero settentrionale. Infatti, un certo numero di fattori importanti, come il cloro naturale proveniente da una varietà di fonti, sono stati deliberatamente trascurati , il che avrebbe invalidato i commenti di un regista di Du Pont ® al momento sostenendo che il 95% del cloro trovato in Antartide era di origine antropogenica (SAGAN, 1998).

Si può andare oltre? Sì, quando i vari gas che fanno parte delle grandi famiglie di CFC, i cosiddetti organofluorocarburi o anche gli alocarburi, sono stati studiati in letteratura, molti di essi fanno parte di cicli naturali come la “esplosione di bromo” (CHBr3) di cui l’origine è legata alle alghe. In aggiunta a ciò, le varie reazioni che si verificano nella neve e nel ghiaccio stesso quando sono appena precipitate e non maturate sotto forma di ghiaccio permanente e il CH3Cl appena scoperto, la cui fonte sarebbe piante tropicali e materiale vegetale in decomposizione, di cui ancora non si sa nulla ( TOMASONI, 2011, apud GEBHARDT, 2008). È stato notato che gli alocarburi hanno fonti naturali che non possono essere ignorate, anche se possono sembrare una grande sorpresa, sono state trovate nelle emissioni di Vulcano , in Italia e misurate direttamente. Le concentrazioni andavano da parti per trilione – pptv a parti per milione – ppmv. Tra i gas trovati abbiamo CH3Br3, CH3Cl, CH3I, C2H5Br, oltre al benzene-clorurato, oltre allo stesso CFC, Freon -11®. (Schwandner et al ., 2004). Tuttavia, altri ricercatori come Lutgen, Khalil e Rasmussen hanno dimostrato che la maggior parte dei CFC, poiché sono gas pesanti, come spiegato in precedenza, si depositano nel suolo e negli oceani e servono da cibo per i batteri. Nel caso degli oceani, possono ancora essere dissolti dall’acqua marina (LUDGEN, 2006). È anche noto dalla letteratura che ci sono batteri che vivono nei crateri vulcanici o negli sbocchi dei vulcani sottomarini, che consumano quantità estremamente elevate di zolfo, che sarebbe considerato tossico per altri esseri viventi, così come lieviti neri che si nutrono di sostanze estremamente diverse, come olio, benzene e altri prodotti altamente tossici. Altri esempi possono ancora essere elencati, come il microrganismo della specie Emiliania huxleyi , che vive in alte concentrazioni di anidride carbonica, nel caso in cui gli oceani potessero tenerlo, dove poi lo consumerebbero. Quindi, questi esseri viventi si sono adattati solo negli ultimi 60 anni all’apprendimento a mangiare i CFC, in particolare il Freon- 11®? Certo che no. Tali esseri viventi sono già stati adattati a questo per migliaia di anni, forse anche di più, così che ancora una volta la Natura ha presentato i suoi meccanismi di autoregolamentazione. Quindi, probabilmente dagli studi sui gas emessi dai vulcani, gli specialisti hanno trovato applicazioni specifiche per le caratteristiche dei materiali alogeni e li hanno brevettati, non essendo una scoperta chimica artificiale in particolare, ma qualcosa trovato o adattato dalla natura stessa.

Va anche notato che molti altri gas naturali, che rappresentano una porzione infinitamente maggiore dei gas di traccia, come NO2, CO2 e H2O, questi ultimi nel loro vapore acqueo formano fino al 4%, sono anche fotodistrati quando raggiungono la stratosfera o talvolta quando sono correlati alle attività elettriche del fulmine. La sua fonte principale è di nuovo gli oceani e i vulcani, che possono generare monossido di azoto (NO), monossido di carbonio (CO), ossigeno atomico (O “), radicale idrossile (OH) e idrogeno libero (H).

. CONCLUSIONE

In questo primo volume intendevamo dimostrare i fatti principali riguardanti la fisica e la chimica della formazione dell’ozonosfera altamente variabile, le fonti di cloro, la geometria della radiazione incidente e i lavori di lunga data sulla misurazione dell’ozono e la sua variazione, molto noti. È stato anche dimostrato che l’ipotesi antropica come fonte di cloro è totalmente fragile, specialmente contro le fonti naturali di cloro.

Nel corso della storia del lavoro, è stato dimostrato che l’atteggiamento scientifico nei confronti delle questioni relative all’ozono cambia. Lo spostamento di messa a fuoco da due diversi periodi è stato chiaro: dall’inizio del ventesimo secolo fino alla morte di Gordon Dobson e poi in sequenza, l’uso del satellite Nimbus 7 fino ai giorni nostri, con l’ambientalismo che guida le decisioni mondiali.

Viene nuovamente sottolineato che nella controversia sull’uso del satellite Nimbus 7 , sapevano esattamente cosa avrebbero trovato: un’anomalia dell’ozono sull’Antartide. Nel caso della stratosfera, la stessa cosa, cioè la presenza di cloro, ma in effetti, se fosse originata dai CFC, non è mai stata dimostrata . Un’assurda ipotesi fisico-chimica, che era difficile da eseguire in laboratorio, era necessaria in aggiunta alla presenza di cloro nell’atmosfera, misurata solo in Antartide, per corroborare la trasformazione dell’ipotesi fraudolenta in una teoria. Questo è stato un esempio della completa distorsione del metodo scientifico consacrato.

REFERÊNCIAS

DOBSON, G.M.B. (a) Forty years’ research on atmospheric ozone at oxford: a history. In: Applied Optics, Vol. 7, nº 3, março p.387-405, 1968.

(b) Exploring the atmosphere. Oxford University Press, Londres, Inglaterra, 1968.

EBERSTEIN, I. J. Photodissociation of Cl2O2 in the spring Antarctic lower stratosphere. In: Geophysical Research Letters, Vol. 17, (6) maio, p.721-724, 1990.

FERREYRA, E. El fraude del ozonio. In: Ecologia: mitos y fraudes, FAEC, México, Cap. 2, 2006.

KING, J. C. e TURNER, J. Antarctic meteorology and climatology, Cambridge Atmospheric and Space Science Series, Cambridge, Inglaterra, Cap. 1 e 2, 1997.

LAWRENCE, W. G., CLEMITSHAW, K. C. e APKARIAN, V. A. On the relevance of OClO photodissociation to the destruction of stratospheric ozone. In: Journal of Geophysical Research, Vol. 95 (D11):18, 20/outubro, p.591-595, 1990.

LUTGEN, P. El Agujero de Ozono se Cierra. 2006. Disponível em <http://www.mitosyfraudes.org/Ozo/OzonoLutgen.html> Acesso em 30 de julho de 2012.

Articolo originale qui https://fakeclimate.files.wordpress.com/2013/03/tupa2012-ricardo340-674-1-sm.pdf

SAND-RIO

UN NUOVO MODELLO CLIMATICO ALLA BASE DELLA PEG: PARTE III

Un saluto a voi, popolo di NIA.
Insieme agli amministratori del blog abbiamo deciso di ripubblicare le parti più salienti di questo mio lungo articolo, in attesa dell’uscita delle ultime inedite. Infatti, visto il tempo che è passato dall’ultima pubblicazione e vista la complessità dell’articolo, è stato deciso di comune accordo che sarebbe stato meglio riproporre almeno le parti più significative. Questo per consentirvi di ricordare i concetti appresi e di riprendere il filo logico. Le varie parti verranno pubblicate con una cadenza media di una a settimana.
Inoltre vi comunico già da ora che, ultimata la pubblicazione di tutte le parti di questo pezzo, ne uscirà a ruota uno nuovo in cui verranno ulteriormente approfonditi i meccanismi con cui la bassa attività solare influenza l’andamento delle stagioni invernali (e non solo). In quest’occasione verranno anche trattate alcune tematiche molto sentite (es: differenza tra Nino est-Nino ovest) e si prenderà spunto per fare delle riflessioni in merito al prossimo inverno.
Non mi resta che augurarvi una buona lettura.

Al fine della precedente parte ci eravamo lasciati con un interrogativo. Nello specifico ci eravamo chiesti quali situazioni e quali fenomeni possono favorire particolari configurazioni bariche, associate allo sviluppo di singolari onde di Rossby (stazionarie e retrograde) ed in grado di apportare ondate di freddo e di gelo sul continente europeo. A tale quesito cercheremo di rispondere in questa Parte dell’articolo. In generale cercheremo di capire quali sono i fenomeni che portano ad un consistente aumento della frequenza di eventi meteo “estremi” sul nostro vecchio continente.
Ritorniamo momentaneamente sul discorso delle onde di Rossby. Avevamo visto come le ondate di freddo e di gelo sull’Europa occidentale risultano strettamente legate allo sviluppo di particolari onde planetarie: onde stazionarie ed onde retrograde. Entrambi le onde sono onde straordinariamente lunghe nonché ampie, dove per ampiezza si intende lo sviluppo dell’onda in senso meridiano. Al riguardo è bene inoltre ricordare che quelle planetarie sono onde inerziali trasversali, ossia riferite al volume e non alla sola superficie della massa d’aria. Pertanto, nella fase di sviluppo le onde di Rossby non si propagano solo nel piano (ovvero longitudinalmente ed in senso meridiano), bensì anche in altezza. Pertanto le onde ampie e lunghe risulteranno molto sviluppate anche in altezza.
Tuttavia, alle medio-alte latitudini l’altezza della troposfera è abbastanza limititata (intorno ai 9 km). Pertanto, un onda di Rossby che tende a svilupparsi ampiamente in senso meridiano, alle alte latitudini troverà in altezza un “tappo” che tende a limitare il suo sviluppo verso l’alto e dunque il suo sviluppo in generale. Questo tappo è rappresentato proprio dalla tropopausa, che come detto alle alte latitudini è situata molto in basso. Oltre la tropopausa è situato il Vortice Polare Stratosferico (VPS), che caratterizzato nella stagione invernale da intensi venti occidentali. Maggiore è l’intensità (velocità) di tali venti e più grande risulterà la resistenza offerta dal “tappo” della tropopausa.
Quindi affinchè vada in porto la propagazione dell’onda, è necessario che tali venti stratosferici non risultino essere eccessivamente forti. Infatti, le onde non si propagano in presenza di elevate velocità zonali che procedendo con la quota divengano superiori ad un valore definito Velocità critica di Rossby. Oltre tale valore si ha il wave Breaking, ovvero l’ondulazione diviene evanescente. Infatti se le velocità zonali stratosferiche sulle zone polari sono troppo elevate, l’onda non riesce più a propagarsi verso l’alto ed al tempo stesso non riesce ad assumere elevate ampiezze e lunghezze divenendo in breve tempo evanescente. In altri termini, solo in presenza di venti zonali stratosferici abbastanza deboli si verificano, in genere, le condizioni ideali per la formazione di onde lunghe ed ampie e dunque di onde stazionarie e retrograde.

Le figure sopra riportate rappresentano i vettori dell’Ep-flux (Elliassen and Palm flux), che misurano il trasporto di “energia” che avviene dalla troposfera alla stratosfera, sia in termini dinamici (momento) che termodinamici (calore). L’EP-flux può essere visto come una misura della capacità dell’onda planetaria di propagarsi verso l’alto (e dunque di propagarsi in generale). Se i vettori (freccie) sono divergenti al limite della tropopausa, vorrà dire che siamo in condizioni di flusso zonale stratosferico tirato e che l’onda planetaria non riesce a propagarsi (ultimi 2 pannelli). Al contrario, vettori verticali convergenti oltre le quote stratosferiche, indicano che la propagazione dell’onda è “andata in porto” (primi pannelli).
La dinamica sin qui descritta è anche quella alla base dello sviluppo dei fenomeni di stratwarming.
Non ritengo questa la sede appropriata per approfondire nel dettaglio le dinamiche legate alla formazione e all’espansione degli stratwarming. Diciamo solo che detti fenomeni si originano a partire dall’espansione verso l’alto delle onde platenarie più energetiche. Quando l’onda raggiunge la stratosfera si “infrange” rallentando il VPS e “depositando” in esso una circolazione easterly. Dove l’ondulazione viene assorbita, infatti, si ha trasferimento di moto e l’onda può essere dissipata. Da ciò scaturisce la produzione di calore (attraverso l’attrito) ed il trasporto di quantità di moto. Quest’ultimo fattore fa sì che nel VPS, le normali correnti zonali, vengano sostituite dagli esterlies (circolazione da est verso ovest). L’effetto degli stratwarming è dunque di rallentare prima e di distruggere poi il Vortice Polare Stratosferico (inversione di circolazione da westerly ad esterly). Ci sono ovviamente diversi tipi di stratwarming. Diciamo solo che i più potenti ed efficaci sono in grado di distruggere completamente il VPS, con inversione dei venti da occidentali ad orientali fino a latitudini prossime ai 60° N, oltre che provocare intensi e repentini riscaldamenti stratosferici (anche 60° C in pochi giorni). Tali tipi di warming portano alla rottura ed allo split del vortice ciclonico stratosferico, che viene momentaneamente rimpiazzato da un anticiclone. Nella maggior parte dei casi inoltri, tali potenti warming stratosferici, sono in grado di istaurare una circolazione inversa a quella del Vortice Polare, non solo nella stratosfera, ma anche in tutta la troposfera sottostante, in quanto le particolari dinamiche innescatesi in stratosfera vengono trasferite alla sottostante troposfera. Infatti, alcuni giorni dopo, la cella anticiclonica stratosferica originata dall’intenso warming, si può ritrovare con simili caratteristiche a livelli troposferici polari, portando anche il vortice polare troposferico (VPT) ad essere letteralmente distrutto. In tali situazioni estreme dunque, l’anticiclone propaga la propria circolazione oraria (esterly) dalla stratosfera alla bassa troposfera nell’arco di 5-10 giorni, fino a sostituire, sulla verticale del polo, il VP a tutte le quote e quindi invertendo il verso della circolazione atmosferica polare (da ciclonica con venti dai quadranti occidentali, ad anticiclonica con venti dai quadranti orientali). Siccome il VP in condizioni normali ha in genere una forma ellittica (perché compresso tra l’anticiclone freddo canadese e l’anticiclone freddo siberiano), nella nuova situazione viene invece a trovarsi schiacciato tra il nuovo anticiclone polare e l’anticiclone freddo periferico siberiano, cosicchè viene spezzato in due lobi e costretto a riposizionarsi ai bordi del circolo (split del Vortice Polare). Anche l’anticiclone polare tende a sua volta a dividersi in due distinti centri, sempre interni al circolo polare: uno in genere su Alaska/Siberia orientale ed un altro su Nord Scandinavia/Russia. In definitiva la configurazione finale indotta da un violento SW è in genere quella formata da due possenti anticicloni caldi a tutte le quote sul polo e due altrettanto profondi centri depressionari colmi di aria gelida a tutte le quote, posti in genere uno sul nord-est del Canada e un altro sulla Siberia.


La figura evidenzia la configurazione di un potente Stratwarming: due anticicloni a tutte le quote sul polo e due centri ciclonici freddi, posti in genere+ uno sul nord-est del Canada e un altro sulla Siberia.

Detti split del VPT causano a loro volta il blocco delle correnti occidentali. Infatti con l’innesco della rotazione oraria anticiclonica anche nei piani più bassi, tutta la circolazione polare vedrà invertito il suo senso di rotazione (da Est verso Ovest), provocando un moto retrogrado dei lobi del VPT precedentemente formati. Nell’ambito europeo, una simile situazione può attivare un moto retrogrado del lobo freddo asiatico, che progressivamente comincia a muoversi verso la Russia europea ed il Baltico, lambendo e talvolta investendo con gelide correnti l’Europa occidentale. Tali situazioni danno luogo a periodi di freddo intenso ed estremo sull’Europa occidentale (Italia inclusa) della durata di molti giorni.
Tali eventi estremi, denominati dalla comunità scientifica ESEs (Extreme Stratospheric Events), si verificano in media una volta ogni 5-10 anni. Come vedremo tuttavia, la bassa attività solare è in grado di aumentare non di poco la loro frequenza.
È ovvio che non tutte le invasioni fredde in Europa sono collegate ai fenomeni di Stratwarming. Tuttavia la loro presenza aumenta di molto le probabilità che le gelide correnti artiche e siberiane si spingano sin sulle zone più occidentali d’Europa. A tal proposito è bene ricordare che gli eventi di gelo più eclatanti che hanno coinvolto l’Europa nell’epoca moderna sono stati quasi tutti dovuti a fenomeni di Stratwarming. Ad esempio alla fine del dicembre 1984 fu registrato sul polo nord, a 42 km di altezza, un riscaldamento di circa 70 °C in appena 5 giorni. Tra gli ultimi giorni del dicembre 1962 ed i primi giorni del gennaio 1963, sempre a 42km sopra il Polo Nord, la temperatura era salita di oltre 60°C in pochi giorni. Oltre che gli eventi leggendari del 63 e dell’85, fenomeni di stratwarming causarono altri eventi storici sul vecchio continente, come ad esempio marzo 1987, febbraio 1991 ecc..


La figura mostra la situazione meteo sull’intero emisfero nord svariar iati giorni dopo il violento stratwarming del dicembre 1984.

Alla luce di quanto sin qui analizzato mi preme sottolineare un fattore che ritengo cruciale per le dinamiche meteorologiche degli inverni europei: anche se non tutti gli eventi di gelo in Europa sono correlate ad eventi di Stratwarming, il Vortice Polare Stratosferico (VPS) gioca sempre un ruolo fondamentale. In altri termini, le vicende della stratosfera polare, anche in assenza di fenomeni eclatanti, hanno sempre una valenza cruciale nelle dinamiche meteo invernali. Infatti come si è detto prima, in presenza di elevate velocità zonali stratosferiche, le onde di Rossby non si propagano eccessivamente e non riescono ad acquisire quelle grandi ampiezze tipiche delle onde stazionarie e retrograde.
Detto in termini poco tecnici, il VPS riflette le sue caratteristiche nell’ambito dell’intero Vortice Polare (dunque a quote inferiori a quelle stratosferiche). Se il VPS è estremamente compatto e caratterizzato dunque da venti ciclonici occidentali molto forti, l’intera struttura del VP risulterà molto compatta e poco propensa alle oscillazioni meridiane (e viceversa).
Una situazione di questo tipo è quella che ci ha penalizzato nel cuore dell’inverno appena trascorso (da metà gennaio in avanti). Infatti, a fronte di un VPS eccezionalmente “veloce” e compatto, anche il VP alle quote troposferiche si è mostrato molto solido (AO sempre nettamente positivo). Chi, come me, ha seguito le vicende meteorologiche da vicino, ricorderà che da quel periodo in avanti il VP è risultato inattaccabile da ogni azione meridiana anticiclonica. Questo semplicemente perché le velocità zonali stratosferiche erano elevatissime ed ogni tentativo di approfondimento delle onde planetarie si dissolveva come neve al sole. In altre parole, in virtù di un VPS estremamente solido e “veloce”, ogni ondulazione meridiana diveniva evanescente in quanto non c’erano le condizioni necessarie per la formazione di onde lunghe ed ampie a carattere stazionario, le uniche in grado di bloccare la circolazione occidentale per più giorni e consentire le discese gelide. Ricorderete sicuramente come i modelli più volte erano propensi nel prevedere colate molto fredde che poi venivano regolarmente ridimensionate se non annullate completamente, a fronte di un hp oceanico eccessivamente invadente. Infatti, in quelle condizioni, riuscivano a formarsi solo onde corte e scarsamente ampie, che sono anche le più veloci. Ecco che in brevissimo tempo veniva ripristinata la consueta circolazione zonale e le correnti fredde riuscivano a mala pena a sfiorare il nostro paese.
Ora, quello che sta emergendo da innumerevoli studi scientifici condotti negli ultimi anni, è che la bassa attività solare sia in grado di apportare sostanziali modifiche al VPS, che ricordiamo essere il vortice atmosferico per eccellenza. Il passo che faremo ora sarà quello di capire come il sole (o meglio il numero di macchie solari) possa influenzare l’andamento del Vortice Polare Stratosferico.
Tra gli studi più significativi condotti in questo campo voglio ricordare quelli realizzati da Baldwin and Dunkerton della “Northwest Research Associates”, dalla Professoressa Karin Labitzke della “FU Berlin University” e dai Professori Salby e Callaghan dell’ “University of Colorado, USA”. Nelle loro ricerche i sopracitati ricercatori (non solo loro) hanno messo in evidenza coma l’attività solare sia in grado di alterare la composizione dell’aria e le modalità di circolazione atmosferica nell’ambito del VPS (con riferimento soprattutto a quello boreale). Nello specifico l’attività solare ha importanti ripercussioni su una particolare circolazione stratosferica chiamata Brewer Dobson Circulation (BDC).
La BDC, così chiamata per i suoi scopritori Brewer e Dobson, è una lenta circolazione emisferica agente a quote stratosferiche e disposta lungo i meridiani. Tale circolazione è responsabile del movimento di particelle d’aria dalle regioni equatoriali sino alle regioni polari ed maggiormente attiva nell’emisfero nord. In particolare detta circolazione è caratterizzata da moti ascendenti nelle regioni equatoriali e da moti discendenti nelle zone extratropicali (soprattutto polari). La BDC è molto importante perché influenza enormemente la chimica dell’atmosfera grazie al trasporto verticale e meridionale delle specie chimiche, tra cui l’ozono. Infatti la parte sommitale della stratosfera tropicale è la principale sorgente dell’ozono stratosferico, a causa dell’abbondanza di fotoni ad alta energia (per il maggior irradiamento solare) necessari per la fotolisi dell’ossigeno (reazione che porta alla formazione dell’ozono stratosferico). Al contrario, durante l’inverno per mancanza totale di radiazione solare, la stratosfera polare dovrebbe essere completamente priva di questo gas. In realtà, grazie alla BDC, aria ricca di ozono viene portata dalle regioni tropicali a quelle polari durante la stagione autunno-invernale (come detto polo nord in primis). La BDC fornisce così un motore fotochimico aumentando la concentrazione complessiva di ozono nella stratosfera polare durante l’inverno.
La seguente figura ritrae lo schema di funzionamento della Brewer Dobson Circulation (freccia tratteggiata). Si noti la differenza di altitudine tra troposfera tropicale e troposfera polare. Come si vedrà più avanti (prossima Parte), tale differenza di quota dipende molto dall’attività solare e gioca un ruolo fondamentale per le sorti del VPS .

Come detto la BDC non altera solo la composizione chimica della stratosfera polare, ma agisce anche da un punto di vista dinamico, alterando la temperatura e l’andamento circolatorio del VPS stesso. Per farvi capire questo fenomeno permettetemi di spiegarvi in grandi linee il funzionamento di questo affascinante tipo di circolazione.
La tropopausa è la più fredda regione della stratosfera e della troposfera equatoriale. Questo perché l’aria in ascesa all’equatore raffredda adiabaticamente a causa dell’espansione e ciò spinge le temperature della parte bassa della stratosfera equatoriale b\en al di sotto della temperatura di equilibrio locale. Non a caso, proprio l’osservato andamento medio zonale della temperatura, portò Brewer alla conclusione che l’aria stratosferica extratropicale doveva essere passata attraverso lo strato della tropopausa equatoriale. Solo questo fattore poteva spiegare infatti il basso tenore di vapore osservato nella miscela d’aria nella stratosfera equatoriale (solo nello strato della tropopausa equatoriale può avvenire il fenomeno della deidratazione attraverso il processo di “freeze dryng”). Ora, l’aria proveniente dalla stratosfera equatoriale e discendente sulle regioni polari è sottoposta al processo inverso di compressione adiabatica che la porta a riscaldarsi. Tale processo fa salire le temperature all’interno del VPS di alcune decine di gradi sopra la temperatura di equilibrio radiativo locale.
Inoltre, la maggiore quantità di ozono contribuisce non poco al riscaldamento della stratosfera polare nella seconda parte dell’inverno. Infatti, all’arrivo della prima radiazione solare sul polo, l’ozono presente assorbe la maggior parte della radiazione solare ultravioletta e la restituisce sotto forma di calore. Pertanto un elevata concentrazione di ozono può essere ritenuta un ulteriore causa di riscaldamento stratosferico e dunque di rottura dell’equilibrio radiativo locale.
In ultimo, la BDC è in grado di rimuovere le sostanze immesse in stratosfera dall’attività umana in grado di distruggere l’ozono (in base a quanto vedremo in seguito è questo di un fattore di notevole importanza).

Tornando al nostro discorso, l’attività di ricerca condotta negli ultimi anni da innumerevoli centri scientifici universitari, ha messo in evidenza come la bassa attività solare sia in grado di accelerare e rafforzare la Brewer Dobson Circulation. Per quanto si è visto, un rafforzamento della BDC implica un riscaldamento ed un indebolimento del VPS, rendendolo molto più vulnerabile all’azione forzante troposferica associata allo sviluppo delle onde di Rossby. Ciò rende l’intera struttura del VP più debole ed aumenta in maniera eclatante la probabilità che si sviluppino a latitudini medio-alte onde estremamente lunghe ed ampie (stazionarie e retrograde). Una situazione di questo tipo situazione porta inoltre il VPS ad essere molto più soggetto a fenomeni di stratwarming.
Purtroppo la correlazione sopra descritta non è così semplice e lineare. Infatti la bassa attività solare diviene estremamente efficace nel modulare la BDC e quindi le caratteristiche del vortice atmosferico qual’ è il Vortice Polare, solo in presenza di alcune condizioni esterne. Detta in altri termini, la capacità del sole di modulare l’intensità del VP e dunque le caratteristiche del clima alle medio-basse latitudini boreali, dipende fortemente da due fenomeni: la Quasi Biennal Oscillation ed il ciclo ENSO.
Nella successiva Parte IV tenteremo di approfondire questo discorso.

Riccardo

Il clima della Cina centrale durante gli ultimi 1800 anni: il ruolo del Sole

Alcuni di voi forse ricordano questo articolo: http://daltonsminima.altervista.org/?p=11420

Partendo dalla cronaca climatica di una località della Cina centrale, vi si conclude che il ruolo del Sole nel clima di quella località era probabilmente determinante per stabilire il limite settentrionale del monsone estivo. L’articolo originale in inglese risale al 2007. Quest’anno, un altro gruppo di studiosi cinesi ha pubblicato un articolo per certi versi analogo, ma questa volta le ricerche sono estese all’intera regione della Cina centrale, in cui si trova anche Pechino. Il link all’articolo originario è il seguente: http://www.clim-past.net/7/685/2011/cp-7-685-2011.pdf

La regione è quella indicata nella figura 1 a pag.2.

Per ora mi limito a tradurre le conclusioni, che trovo piuttosto interessanti, anche se sintetiche e tutto sommato non completamente nuove per chi aveva già letto l’articolo che ho citato sopra.

Sono state sintetizzate le registrazioni ad elevate risoluzione e a datazione certa delle stalagmiti, nonchè quelle dei documenti storici, provenienti dalla porzione settentrionale della Cina centrale (la zona intorno a Pechino e una porzione di entroterra ad ovest, si veda la mappa nella seconda pagina dell’articolo originario, ndr). Esse ricostruiscono le registrazioni di precipitazioni, con risoluzione decadale, degli ultimi 1800 anni (190-1980). Tali registrazioni sono in accordo con le registrazioni di precipitazione simulata e un’altra registrazione di precipitazioni ricostruita da sedimenti lacustri della medesima regione, indicando così che riflettono bene le variazioni di precipitazione in quella regione.

Tali registrazioni di precipitazione mostrano variazioni coincidenti e significative correlazioni positive con le variazioni di temperatura su scale da secolare a multidecadale. Ciò suggerisce che caldo-umido/freddo-asciutto sia stato il principale andamento climatico degli ultimi 1800 anni nella regione. I confronti mostrano che la precipitazione, durante l’ultimo millennio, sia stata controllata dai contrasti termici tra l’Asia ed il Pacifico settentrionale. Ciò è consistente con i risultati delle moderne osservazioni meteorologiche. L’attività solare può essere la forza dominante che guida le variazioni coordinate (da caldo-umido a freddo-asciutto e viceversa) di temperatura e precipitazione nella regione considerata.

In estrema sintesi, gli studiosi hanno individuato comportamenti ben correlati di precipitazioni, temperatura ed attività solare (la Total Solar Irradiance, in particolare), nel citato arco di 1800 anni: quando l’attività solare mostrava un trend calante, anche temperature e precipitazioni si comportavano complessivamente allo stesso modo, e viceversa; a tale proposito si veda nell’articolo originario la figura 6 a pagina 5.

Per concludere, mi chiedo se esistano studi analoghi relativi a regioni europee o americane. Finora non li ho trovati.

FabioDue

Il calore dell’ aria…Scacco matto all’AGW…

Le domande:

Ogni giorno sentiamo parlare di Riscaldamento Globale di quanto l’ uomo riesce a modificare il clima con le sua attività  … ma qualcuno si é preso la briga di fare due conti ? Se aumenta di un grado la temperatura globale quanta energia ci vuole ? L’ uomo é davvero in grado di produrre direttamente tanta energia per riscaldare la terra di due o tre gradi ?

Non trovando risposte mi é venuto in mente di buttare giù qualche conteggio per cercare di chiarirmi le idee.

Da notare che mi sono preso la briga di rifare i conti, ma tutti i risultati si possono trovare con un pò di pazienza sul web.

Spero quindi che questo articolo riesca a chiarire le idee sulle quantità di energia in gioco negli scambi termici del nostro pianeta.

Da dove cominciare ?

Intanto cerchiamo di conoscere un pò meglio  l’atmosfera, ovvero quanta aria c’ é sul nostro pianeta … quanto pesa.

Per calcolarlo abbiamo bisogno di un barometro e di un calcolo anche approssimativo della superficie terrestre.

La pressione atmosferica é mediamente di 1atm = 101 325 Pa = 101 325 N/m2= 10 332 kgf/m2 che per capirsi sono circa 10,332 tonnellate per metro quadrato di superficie.

L’ atmosfera lo sappiamo bene é composta d’aria che é un miscuglio di gas e conoscendo la composizione é facile calcolare il peso di ogni gas .

La tabella seguente l’ ho ricavata da wikipedia e ho tolto la componente di vapore acqueo e degli altri gas presenti in tracce. Un aria semplificata quindi …

 

Gas Percentuale molare Peso Molecolare Peso di ogni elemento per mole (g) Peso di ogni gas kg per m2
Azoto 78,084% 28,013 21,8737 7802,361
Ossigeno 20,945% 31,999 6,7022 2390,678
Argon 0,933% 39,948 0,3727 132,948
CO2 0,038% 44,010 0,0169 6,012
Totale 100,000% 28,9654 10332,000

Da notare che ogni m2 di superficie terrestre “gravano” 10 tonnellate di aria di cui solo 6 chilogrammi  sono di  CO2!

La prima volta che ho visto questi dati anni fa ho cominciato ad avere qualche perplessità  su come potesse la CO2 esser responsabile del riscaldamento globale.

Questi 6 kg di gas quasi inerte, secondo studi molto accurati,  riescono a scaldare  10 tonnellate d’ aria solo facendo rimbalzare la radiazione infrarossa !  La cosa é davvero incredibile ! (… Infatti io non ci credo 🙂 )

La superficie della terra é di 5,100 656 · 1014 m2.

Moltiplicando questo valore per il peso dell’ aria per metro quadro otteniamo circa 5,1 · 1015 tonnellate  e detto così non fa tanto effetto, ma dicendo 5,1 milioni di miliardi di tonnellate forse si capisce meglio. L’ aria non é così leggera … direi abbastanza pesante in fondo .

Spesso quando sentiamo parlare di riscaldamento globale vengono fuori percentuali, valori di watt per m2 che secondo me non rendono bene l’ idea dell’energia complessiva in gioco. Wikipedia ci aiuta ancora e troviamo  il valore del calore specifico dell’aria  che é di 1005 j/(kg·K) ( aria secca).

Abbiamo tutti i dati per calcolare la quantità di calore necessaria per scaldare di un grado l’ atmosfera del nostro pianeta … 1005 · 5,1 · 1015 = 5,125 · 18 j = 5,125 Ej = … sono 5,125 miliardi di miliardi di joule.

A questo punto voglio confrontare questo valore con l’ energia dissipata dall’ uomo sul nostro pianeta .. e su wikipedia troviamo il dato della produzione annua di energia elettrica che é di 471 Ej.

Tipo di combustibile Potenza in TW Energia/anno in EJ
Petrolio 5,60 180
Gas naturale 3,50 110
Carbone 3,80 120
Idroelettrico 0,90 30
Nucleare 0,90 30
Geotermia, eolico,
solare, legno
0,13 4
Totale 15,00 471

Da questo valore bisogna togliere i valori delle energie rinnovabile e quindi rimangono 437 Ej.   Per produrre energia elettrica in genere bisogna anche sprecare dell’ energia termica, presumendo un rendimento molto ottimistico del diciamo il 40-45 %. Dopo aver consumato l’ energia elettrica quest’ ultima si trasformerà nuovamente in termica e alla fine in atmosfera e negli oceani ce ne finiranno  circa 1000Ej complessivamente (elettrica consumata  + termica sprecata nella produzione tramite ciclo termodinamico )  .

Questo vuol dire che se l’ atmosfera fosse isolata, l’umanità in un anno la farebbe scaldare di circa 195°.

Nulla in confronto all’ energia che arriva sulla terra dal sole  al secondo che é di 0,174 Ej/s = Ew . Da notare che questo valore l’ ho calcolato perché sul wikipedia non mi sembrava esatto ed infatti ho ottenuto un valore diverso. Se il calcolo che ho fatto é giusto,  sulla terra in un giorno arrivano 0,174·84600=15033,6 Ej . Se davvero tutta questa energia finisse nell’atmosfera  e se l’ atmosfera fosse isolata in un giorno la temperatura dell’aria aumenterebbe di circa 3000°.

In realtà  le cosi non sono per niente  semplici e tutta l’energia solare viene dispersa dal nostro pianeta verso “l’ infinito”. La temperatura si stabilizza un punto di equilibrio nel quale  l’ energia radiativa entrante e  uscente sono uguali.  Una parte dell’ energia però rimane immagazzinata alla temperatura di equilibrio nei “materiali” in grado di trattenerla e questi sono l’aria dell’ atmosfera, l’acqua degli oceani e le rocce e i ghiacci della crosta terrestre.

Tutto questo ci fa capire come l’ umanità sia ancora un tantino “indietro come tecnologia” rispetto al Sole per la produzione di energia 🙂
Il sole invia i 1000Ej sulla terra in circa 1h e 35 min … e 1000Ej sono lo stesso quantitativo di energia che l’ uomo riesce a immettere nel nostro pianeta  producendo e consumando energia elettrica in un anno.

Conclusioni:

Se si spegnesse il Sole e dovessimo scaldare l’atmosfera con i con i nostri mezzi saremmo destinati a surgelare in poche ore! Questo dato ci dovrebbe far riflettere su quanta presunzione c’ é nell’affermare che l’ uomo é il responsabile dei cambiamenti climatici. L’ uomo con le emissioni termiche dirette probabilmente non riesce e a spostare il termometro di un millesimo di grado.

Ancora un dubbio:

Siamo davvero così sfortunati da riuscire indirettamente e con gli effetti non voluti delle  emissioni di CO2 a surriscaldare il nostro pianeta?

Con questo dubbio vi lascio !

Luci0 … Gabriele Santanché.

Riferimenti :

http://it.wikipedia.org/wiki/Aria
http://it.wikipedia.org/wiki/Calore_specifico
http://it.wikipedia.org/wiki/Risorse_e_consumo_di_energia_nel_mondo
http://it.wikipedia.org/wiki/Terra

Siamo vicini al massimo del ciclo 24, ma l´attivitá solare si mantiene bassa

Mentre le tempeste solari hanno attirato l´attenzione nei mesi di marzo ed aprile, a seguito di forti espulsioni di massa coronale, l’attività della stella non sembra puntare in futuro a un aumento delle tempeste. La causa può essere la diminuzione del vento solare e il ridotto  campo magnetico della stella, ma il meccanismo è ancora sconosciuto.

la misurazione globale di pressione del vento solare registrate dalla sonda spaziale Ulisse, fino al 2008. Verde, l’ampiezza del vento solare tra il 1992 e il 1998 e in azzurro, valori tra il 2004 e il 2008.

Le misurazioni solari sono iniziate ormai da più di 50 anni, e gli scienziati solari  hanno rilevato che la pressione media del vento solare è diminuita di oltre il 20% a partire dalla metà degli anni ’90, ma curiosamente questo indebolimento non è stato accompagnato da una riduzione della velocità che é stata ridotta di  solo il 3%.

Secondo i dati raccolti dalla sonda interplanetaria Ulisse tra il 2004 e il 2008, la riduzione della pressione del vento solare è principalmente dovuta alla diminuzione della temperatura e della densità del flusso. Secondo i dati, il vento solare è del 13% più fresco e del 20%  meno denso.

Nella visione di Arik Posner, scienziato della NASA legato al programma Ulisse, questo allentamento è una tendenza a lungo termine, una costante diminuzione della pressione che è iniziata nel 1990.  “E ‘difficile dire se questo è un evento raro”, ha detto Posner. “Stiamo  monitorando il vento solare da meno di 60 anni. Durante questo periodo, è la prima volta che questo fenomeno è stato osservato. Se questo è stato così per secoli o millenni, nessuno lo sa, perché non abbiamo dei dati che risalgono a tanto,” ha spiegato il ricercatore .

Conseguenze
L’indebolimento del vento solare può avere ripercussioni in tutto il sistema solare.

Sopra il diagramma mostra l’entità dell´ eliosfera e il suo meccanismo di protezione contro i raggi cosmici.

L´eliosfera è una sorta di bolla magnetica generata dal sole e gonfiata a proporzioni colossali per l’azione del vento solare. Tutti i pianeti del sistema, da Mercurio a Nettuno sono dentro questa bolla.

Particelle ad alta energia provenienti da buchi neri e supernove vengono gettati in direzione del sistema solare, ma la maggior parte vengono deviati dal campo magnetico della eliosfera, che avvolge il sistema.  Così, l’eliosfera agisce come uno scudo gigante dai raggi cosmici provenienti dallo spazio esterno.

L’indebolimento del vento solare “gonfia” meno l’eliosfera, il che significa meno protezione contro i raggi cosmici.

In effetti, i dati raccolti da Ulisse hanno mostrato che la media del campo magnetico solare si è indebolita di circa il 30% dal 1990, mentre la quantità di particelle ad alta energia (giga-elettron-volt) attorno la Terra sono aumentati di  circa il 20 % nel medesimo periodo.

Questa quantitá extra di  particelle  non rappresenta una minaccia per le persone sulla Terra, dato che  la nostra magnetosfera agisce come uno scudo.  Tuttavia, quantità maggiori di particelle possono avere conseguenze sulle attività svolte al di fuori della Terra, come le passeggiate spaziali degli astronauti e missioni robotiche su altri pianeti, che sarebbero soggetti ad una dose di radiazioni superiore.

In aggiunta, ci sono studi  che collegano i flussi dei raggi cosmici con l’aumento della copertura nuvolosa e dei cambiamenti climatici sulla Terra.

Le cause di indebolimento del vento solare, il calo del magnetismo e le sue conseguenze sulla Terra sono ancora sconosciute, ma i ricercatori sono abbastanza fiduciosi che con la nuova generazione di osservatori solari nello spazio, queste domande avranno una risposta.


SAND-RIO