Archivio mensile:Luglio 2010

“Diagnosi numerica” di tutti i cicli solari a partire dal minimo di Dalton!

Premessa

L’articolo seguente non ha certo la pretesa di trarre conclusioni definitive, nè di pronosticare

Si limita a confrontare gli smoothed sunspot number (SSN) calcolati 1 anno prima del minimo, quelli relativi al mese (o ai mesi) del minimo e quelli calcolati 1 anno dopo il minimo, per tutti i cicli dal 1798 ad oggi, cioè dal Minimo di Dalton fino ai giorni nostri. La motivazione di questa scelta risiede nel fatto che l’ultimo SSN disponibile risale a dicembre 2009, esattamente 1 anno dopo il minimo tra i cicli 23 e 24. E’ qualcosa di più che limitarsi a confrontare i soli valori di picco, ma non basta certo a tratteggiare un intero ciclo. E’ come se, per confrontare un certo numero di viaggi, della durata di svariati anni, sovrapponessimo il primo e l’ultimo anno di ciascuno di essi. Ci dice qualcosa, ma non tutto. E’ un po’ più di un gioco con i numeri, ma meno di un’analisi scientificamente completa e rigorosa.

A seguire, è riportata qualche considerazione, cercando di trarre qualche conclusione che possa aiutare a capire che razza di ciclo abbiamo di fronte.

La tabella

Senza ulteriori commenti, la tabella si presenta come segue:

(Per vederla ingrandita cliccare sopra)

Oltre ai dati citati in premessa, in tabella si trovano anche il SSN massimo e la sua data, nella speranza che i ragionamenti sul minimo possano in qualche modo aiutare a capire qualcosa di più sul massimo.

Cominciamo però a commentare i valori di SSN prima, durante e dopo i minimi.

Allo scopo, si è evidenziata l’ultima riga, in grassetto e carattere più grande: rappresenta il minimo appena trascorso, con un’occhio alla previsione (in giallo) sul prossimo massimo, l’ultima sfornata da David Hathaway della NASA. Il SSN è passato da 4,9 un anno prima del minimo (dicembre 2007) da 4,9 a 1,7 (al minimo, dicembre 2008) fino ad 8,3 (dicembre 2009), l’ultimo valore di SSN finora calcolabile.

Analisi

Scorrendo a ritroso la tabella, dalla riga 23-24, appare subito evidente come nessun ciclo, dal 15-16 in poi regga il confronto con la transizione 23-24 e con il nascente ciclo 24: i cicli sono nettamente più intensi, sia in “discesa” (1 anno prima, SSN ben oltre 10), sia come valore minimo (dal doppio fino a 6-7 volte il SSN del dicembre 2008) che in “salita” (1 anno dopo, SSN oltre 10 e in qualche caso oltre 20). Inoltre, con l’eccezione del primo, gli SSN dei rispettivi massimi sono risultati superiori a 100, in qualche caso anche largamente. Si tratta, come noto, dei cicli dell’ormai noto “Grande Massimo” dell’epoca moderna, cioè il periodo, grosso modo compreso tra gli anni ’30 ed i primi anni del XXI secolo, in cui i cicli sono risultati i più intensi da quando si calcola il sunspot number e, stando a recenti ricerche, i più intensi degli ultimi 8000 anni.

Scorrendo ancora più a ritroso la tabella, si incontrano due cicli, le cui righe sono in grassetto, corrispondenti alla porzione finale del cosiddetto “Minimo di Damon”. Essi furono caratterizzati da lunghi minimi (lo si nota già dal fatto che il valore minimo del SSN si è mantenuto immutato per più di un mese) e da massimi non particolarmente intensi. Confrontando i valori dei SSN, si nota come, nella fase di “discesa” ed al momento del minimo, i valori furono paragonabili o addirittura inferiori a quelli della transizione 23-24. Poi, però, in fase di “salita”, gli SSN risultano superiori, nel caso del 13-14 anche piuttosto nettamente. Dunque, con tutte le cautele del caso, sembrerebbe che l’approccio al minimo di tali transizioni di ciclo sia stato “morbido”, come e più di quella 23-24. Poi però sono ripartiti con più “brio” rispetto al nostro.

Dobbiamo per questo pensare che abbiano raggiunto un SSN massimo superiore a quello che raggiungerà il ciclo 24, oppure è una conclusione troppo azzardata?

Risalendo ancora la tabella, si incontrano le transizioni di ciclo comprese tra 6-7 e 12-13. Esse riguardano i due cicli (più buona parte di un terzo ciclo) che seguirono il Minimo di Dalton (1798-1823) ed il cosiddetto “Minimo di Damon” (1850-1913), nella sua parte iniziale e centrale.

Il confronto con la nostra transizione 23-24 consente di osservare come sia il SSN in “discesa”, sia quello del minimo che quello in “salita” risultino più elevati, in qualche caso nettamente, in qualche altro meno nettamente. A tale proposito occorre ricordare che ormai ci troviamo nel mezzo del XIX secolo e non è del tutto fuori luogo ritenere che il sunspot number, e dunque il SSN, possa essere un poco sottostimato rispetto a quello che si sarebbe ricavato disponendo dei mezzi moderni. Infatti, i SN ed SSN precedenti il 1844 sono ritenuti un po’ meno affidabili, per questa ragione, di quelli seguenti.

Rispetto alle altre transizioni di questo periodo, fa eccezione la 6-7, che ha un SSN del minimo inferiore, mentre gli SSN in “discesa” ed in “salita” possono essere ritenuti paragonabili, se non superiori, a quelli della 23-24, in considerazione della sopracitata sottostima.

Si giunge infine alle prime due righe in alto della tabella, cioè al noto “Minimo di Dalton”, caratterizzato da due cicli molto deboli, intervallati da lunghi e profondi minimi. In questo caso, pur considerando le approssimazioni già citate in termini di sottostima dei SSN, si nota che la transizione 5-6 appare più profonda della 23-24 attorno al minimo ed in “salita”, ma non in “discesa”. Mentre invece, la transizione precedente, la 4-5, è paragonabile alla 23-24, anzi i SSN in “discesa” ed in “salita” possono essere considerati senz’altro nettamente superiori a quelli della transizione 23-24 in quanto sottostimati, come già detto.

Conclusioni

Già, che cosa si può concludere?

Si premette che già è difficile stimare ora il massimo del ciclo 24 disponendo di ben altri dati e strumenti che non tre SSN, figuriamoci solo utilizzando questi tre numeri!

Peraltro, David Hathaway lo scrive chiaramente in uno degli articoli pubblicati sul sito della NASA: per stimare con ragionevole attendibilità il valore di un massimo, occorre attendere che il minimo sia trascorso da almeno 2-3 anni; nel nostro caso ciò non avverrà prima dell’inizio del 2011.

Tuttavia, si può subito osservare che,

  • nessuna transizione di ciclo, dal 1798 in poi, risulta avere tutti e tre i SSN inferiori ai corrispondenti della 23-24;
  • solo due transizioni (la 5-6 e la 14-15) hanno almeno due SSN nettamente inferiori a quelli della 23-24 (il SSN in salita della 4-5 si ritiene sia un po’ sottostimato, data la sua “età”, e dunque probabilmente paragonabile o superiore a quello del 23-24);
  • solo il ciclo 6, dopo la transizione 5-6, appare caratterizzato, un anno dopo il minimo, da una ripartenza nettamente più debole di quella del ciclo 24;
  • infine, sebbene ciò abbia ad oggi un valore ancora piuttosto relativo, solo i due cicli del minimo di Dalton hanno un SSN (finale) massimo inferiore a quello (stimato) per il ciclo 24.

Se le conclusioni non vi soddisfano, aggiungetene senz’altro delle altre, insieme alle vostre osservazioni e, naturalmente, le critiche.

Fabio2

La teoria del GW Antropogenico é falsa nelle sue parti e falsa nella sua totalitá. La teoria dell´IPCC é come il “VENTO”.

Ci sono molte variabili, ignorate, sottovalutate o semplicemente non capite nella scienza climatica e soprattutto nel modellini computerizzati che pretendono voler simulare il clima globale, e che distruggono qualsiasi pretesa di conoscere o comprendere il tempo e il clima.
Vediamo allora le osservazioni dei fanatici serristi e dei sostenitori accaniti del Riscaldamento Globale di origine Antropica tra cui spicca il il gruppo/lobby politico/affaristico dell´IPCC.
Nel rapporto dell´IPCC del 2001 hanno detto: “Nella ricerca sul clima e la sua modellazione dobbiamo riconoscere che si tratta di un sistema caotico non lineare e che quindi le previsioni a lungo termine dello stato climatico futuro non é possibile se non in misura approssimativa e probabilstica”.
Anche James Lovelock, l´inventore della speculazione ipotetica GAIA ha detto: ” È quantomeno ingenuo, scientificamente parlando, pensare che possiamo dare precise previsioni riguardo al clima futuro. Ci sono troppe incognite ed é sbagliato fare previsioni”.
Kevin Trenberth, uno dei piú importanti autori del rapporto dell´IPCC e socio del CRU, ha detto: ” È chiaro che non abbiamo una visione del sistema globale del clima… questo puó essere uno shock per tutte le persone che pensano che sappiamo adeguatamente quello che sta succedendo con il clima, ma in realtá non lo sappiamo a fondo”.
Ross McKitrick si chiede se esiste una temperatura globale, dati i molti rapporti che ci sono sulla inadeguatezza di come vengono raccolte le temperature.

http://www.uoguelph.ca/~rmckitri/research/globaltemp/globaltemp.html

Antony Watts mostra i gravi problemi che ci sono sulle stazioni meteo americane… che sono poi addirittura anche le migliori al Mondo, figuriamoci quelle in zone “disagiate”!

http://www.surfacestations.org/

Sappiamo anche come vengono adeguati i dati per sostenere la teoria e le tesi del Riscaldamento Globale.
Tuttavia la considerazione nei modellini da playstation di altre variabili é ancora peggio, proprio a causa della complessitá delle loro misurazioni. Gli strumenti per misurare con precisione le precipitazioni, in particolare quelle nevose, sono sempre state una sfida enorme. Ma forse la variabile piú dimenticata ma fondamentale se si vuole creare un modello un poco piú realistico del sistema climatico, é la VELOCITÀ DEL VENTO.
Gli antichi greci giá conoscevano l´importanza della direzione del vento e come esso determinasse il tempo e il clima in una determinata regione. Avevano anche costruito una Torre dei Venti ad Atene in onore alle otto divinitá dei venti.

La torre dei venti di Atene

La direzione dei venti era critica per chi andava a vela in quella epoca (ma anche dopo…) e cosí i marinai greci svilupparono la capacitá di leggere il vento da 32 punti cardinali.
L´intensitá era una questione diversa, i primi tentativi della sua misurazione furono fatti attaccando un puntatore ad una coppa e ad una scala dei venti e in cui il puntatore avrebbe dovuto indicare la forza del vento. Ma solo nel 1846 avvenne il grande cambiamento quando si inventó l´anemometro.

Anemometro del 1870

Anche se l´anemometro fornisce dati precisi, la registrazione della misurazione deve essere continua.
L´atmosfera si riscalda a contatto col suolo (conduzione) ma anche attraverso l´evaporazione dell´umiditá che viene poi rilasciata nell´atmosfera, in entrambi i casi il tasso di riscaldamento varia con la velocitá del vento. Anche una lieve variazione della velocitá del vento risulta in una variazione dello scambio termico e nella sua distribuzione nell´atmosfera.
Il vento si crea per una differenza di pressione che a sua volta si crea per una differenza di temperatura. Una alta temperatura crea una bassa pressione e allora il vento soffia da una zona di alta pressione con temperatura piú bassa. Cosí si corregge lo squilibrio.
Ci sono in generale dei venti a livello mondiale creati da questo differente riscaldamento. Se la Terra non ruotasse avremmo avuto una semplice circolazione dei venti con venti costanti dall´equatore verso i poli. Ma il risultato della rotazione terrestre fa sí che i venti spirino verso Est, sud-est nell´emisfero nord e verso ovest nord-ovest nell´emisfero sud.
Poi ogni regione terrestre ha differenti terreni, diverse quantitá di acqua e cosí ogni spostamento dei venti zonali influirá sul ruolo del vento e di conseguenza sul riscaldamento della atmosfera della zona.
La figura sotto mostra i grafici di frequenza percentuale dei venti provenienti da sud a York sulla riva sud-ovest della baia di Hudson per due decenni a 100 anni di distanza.
Nel primo decennio 1721-1731 e che rientra perfettamente nella LIA (Little Ice Age) i venti che soffiano da sud sono il 7% del tempo. Nel decennio 1841-1851 e quindi fuori dalla LIA, i venti che spirano da sud sono il 12% del tempo con un picco nel 1842 con il 27% del tempo.


Nella Fig. La percentuale dei venti provenienti da Sud a York Factory
Fonte: Ball (1986), Climate Change, Vol. 8 pp. 121-134.

Il rapporto dell´IPCC del 2007 riconosce gli spostamenti (http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch3s3-5-7.html) di alcuni venti e dei relativi sistemi meteorologici. Infatti dice:” In base a una serie di misurazioni nella superficie e nella troposfera superiore, è probabile che vi sia stato un aumento e uno spostamento verso il polo nell`Emisfero Nord delle tempeste invernali nella seconda metà del 20° secolo, ma vi sono ancora notevoli incertezze nella grandezza della crescita a causa del tempo occorrente per le rianalisi”. La parola “probabile” è definito come superiore al 66% di probabilità. Lo spostamento non é sorprendente perché il vento prevalente da ovest che accompagna le tempeste si sposterebbe a nord se la Terra si riscalda. Ma LORO riconoscono che ci sono “incertezze significative” sulla EFFETTIVA MAGGIORE FREQUENZA.
Loro non tentano neanche di discutere il significato che avrebbe per il clima terrestre, il trasferimento di calore dovuto allo spostamento delle tempeste verso Nord.
Noi sappiamo che il vento provoca lo spostamento di masse di ghiaccio galleggianti nell´artico che creano zone libere dove si creano nuovi ghiacci che aumentano la banchisa, ma quanto incide lo scambio di calore e evaporazione?? E questo é ancora peggio nell´emisfero meridionale. Analisi effettuate sui numeri di cicloni extratropicali nell´emisfero sud del pianeta, e gli aumenti delle circonferenze e profonditá di questi cicloni extratropicali nell´emisfero sud sono causa ancora di grande incertezza.
La misura in cui l´IPCC e il loro fans sostenitori o ultras da curva sud, hanno ingannato il mondo é incredibile.
Come ha dichiarato Jean-Francois Revel: “Come é possibile per una teoria, che é falsa nelle sue parti componenti, essere vera nel suo insieme?”.
Una scienza climatica vera ed ufficiale avrebbe dovuto aggiungere nei suoi rapporti che molte delle parti del “tutto” sono omesse o sbagliate o almeno incerte.
Ma la mentalitá perversa dei sostenitori dell´AGW si nota quando per loro un gruppo umano si trasforma in una folla quando si risponde ad un suggerimento piuttosto che al ragionamento, a un’immagine piuttosto che a un’idea, ad una affermazione piuttosto che a una prova, alla ripetizione di una frase piuttosto che agli argomenti, al prestigio piuttosto che alla competenza.

SAND-RIO

C14

Il C14 è un isotopo del carbonio.

I’isotopo principale del carbonio è il C12. Il suo nucleo è composto da 6 protoni e 6 neutroni. Poi c’è il C13 con 6 protoni e 7 neutroni nel nucleo. C12 e C13 sono stabili e si trovano in natura in un rapporto di 98,9% C12 e 1,1% C13.

Il C14 è un isotopo del carbonio con 6 protoni e 8 neutroni nel nucleo. Non è stabile. Si trasforma in azoto 14. Nel suo nucleo uno dei neutroni, che ovviamente è di troppo, si trasforma in un protone. Il nucleo che nasce, cioè quello del N14 (azoto 14) è composto da 7 protoni e 7 neutroni. La trasformazione del neutrone in un protone avviene con l’emissione di un elettrone e di un antineutrino. Il C14 decade direttamente nello stato fondamentale del N14. Questo ha la conseguenza che questo decadimento non è accompagnato da un’emissione di raggi gamma. Il decadimento con l’emissione di un elettrone e un antineutrino si chiama decadimento beta meno.

Da dove viene il C14?

In 5568 anni metà dei nuclei di C14 si si trasformano in N14. La nostra terra è vecchia circa 4,5 miliardi di anni. Gli elementi che compongono la nostra terra sono nati in una supernova poco prima. Del C14 di allora non c’è neanche più una traccia. Eppure si trova in concentrazioni che vanno da circa 1 parte su un milione di miliardi di C12 fino a circa 3 parti su mille miliardi.

Ci sono meccanismi che creano il C14. Il meccanismo principale si trova nell’atmosfera in altitudini da 9 a 15 km. Raggi cosmico urtano nuclei dell’atmosfera. L’energia d’urto può essere molto alta. Cioè molto più alta dell’energia di legame dei nuclei. I nuclei colpiti si disintegrano (“spallation”), i componenti volani in giro. Tra questi ci sono neutroni. Neutroni colpiscono nuclei di azoto 14. Dal nucleo di azoto 14 vola via un protone. Così il nucleo di azoto 14 è diventato un nucleo carbonio 14.

Se la radiazione cosmica è costante, troviamo nell’atmosfera una concentrazione costante di C14. Il carbonio 14 si ossida e diventa parte dell’anidride carbonica dell’atmosfera, che è la materia prima per la fotosintesi. La piante la assorbono e la trasformano in una varietà di sostanze organiche. Queste sono la base per la vita di tutti gli essere viventi. Tutti gli esseri viventi sono caratterizzati da una concentrazione di carbonio 14 uguale (incirca) a quella dell’atmosfera.

Dopo la morte non c’è più scambio con l’anidride carbonica dell’atmosfera. La concentrazione di carbonio 14 è costante durante la vita e diminuisce dopo la morte. Misurare la concentrazione del carbonio 14 serve a determinare il momento che un organismo ha smesso di vivere. Willard Frank Libby ha preso il premio Nobel nel 1960 per questo metodo.

I problemi

Il metodo C14 per la determinazione dell’età di oggetti di origine organica si basa sull’assunzione che il contenuto di carbonio 14 nell’atmosfera, quindi nelle piante viventi e quindi negli animali che si nutrono dalle piante sia costante. Non è vero.

Problema 1: I test nucleari

Intorno all’anno 1960 nell’atmosfera terrestre sono stati eseguiti test di bombe nucleari. Questi hanno prodotto un notevole numero di neutroni. Questi neutroni hanno reagito con nuclei di azoto 14 e li hanno trasformati in nuclei di carbonio 14. Il contenuto di carbonio 14 nell’atmosfera è raddoppiato.

Il grafico mostra che la concentrazione di C14 nell’atmosfera dal 1955 al 1963 – 1965 è raddoppiato.

1962: Accordo USA – Unione Sovietica a non eseguire più test nucleari nell’atmosfera. I picchi di concentrazione di carbonio 14 sono ritardati rispetto alla cessazione degli esperimenti. Ovviamente a causa di un ritardo nella distribuzione sul globo intero. Significa però che localmente le concentrazioni erano più alte.

La curva mostra deviazioni da un andamento esponenziale probabilmente a cause di esplosioni nucleari nell’atmosfera da parte della Francia nel 1974 e da parte della Cina nel 1980. Ma forse erano quantitativamente insignificanti rispetto alle 2044 esplosioni precedenti.

Il contenuto di carbonio 14 nell’atmosfera, che si trova integralmente nell’anidride carbonica, decade con una tempistica che ha niente a che fare con il decadimento radioattivo del carbonio 14. La diminuzione della concentrazione dell’anidride carbonica nell’atmosfera è causata dalla fotosintesi delle piante e dalla solubilizzazione nell’acqua.

Nei testi di climatologia che parlano dell’effetto serra causato dall’anidride carbonica si trovano valori sull’eliminazione dell’anidride carbonica dall’atmosfera estremamente discrepanti. Vanno da 10 a 100 anni di emivita. L’immissione artificiale di carbonio 14 nell’atmosfera tramite esplosioni nucleari, ha fornito i dati necessari per la determinazione della permanenza dell’anidride carbonica nell’atmosfera.

Risultato 1:

L’anidride carbonica nell’atmosfera ha un’emivita di 20 anni. L’incertezza di questo valore è dell’ordine di grandezza di un anno.

Risultato 2:

La formazione dell’equilibrio del contenuto di anidride carbonica tra l’emisfero nord e l’emisfero sud richiede circa due anni.

Risultato 3:

Il metodo C14 fa riferimento a BP (Before Present, si intende prima del 1950). Per campioni dopo il 1950 il metodo non potrà essere usato per diecine di migliaia di anni. I valore diventano ambigui.

Problema 2: La variazione dei raggi cosmici

Il campo magnetico del sole fa una parziale deviazione dei raggi cosmici. Quando il campo magnetico solare è debole, la terra è esposta di più ai raggi cosmici. L’aumento dei raggi cosmici fa aumentare la concentrazione del carbonio 14 nell’atmosfera.

Il grafico è rovescio. Sull’ordinata i valori più alti si trovano in basso. Il valore storicamente più alto (prima degli esperimenti nucleari dell’uomo) si trova alla fine del minimo di Maunder. L’aumento del circa 2% non corrisponde all’aumento dell’intensità della radiazione cosmica. Il motivo: La radiazione cosmica ad energia altissima non viene deviata dal campo magnetico solare. Ma è quella che produce più neutroni, che sono la causa della nascita del carbonio 14. Per gli acceleratori vale la regola che i neutroni vengono prodotti in misura di un neutrone ogni 25 MeV di energia del proiettile incidente.

La variazione di concentrazione del carbonio 14 causata dalla variazione della radiazione cosmica è modesta ed è possibile correggerla. Con l’aiuto di altri metodi di datazione è stata costruita una curva per la correzione dei dati:

Problema 3: La variazione del contenuto di C14 nelle piante

Le piante assorbono l’anidride carbonica dall’atmosfera, ma sono selettive per il carbonio 14 in maniera disuguale. Le bestie sono selettive nel mangiare le piante. Conseguenza: Il contenuto di carbonio 14 negli esseri viventi corrisponde al contenuto di C14 nell’anidride carbonica nell’atmosfera solo con approssimazione. Questo allarga le tolleranze nella determinazione dell’età con il metodo C14.

Problema 4: Il carbonio 14 che non proviene dalla vita

Rocce su base silice non sono mai state vive. Rocce calcaree, carbone fossile o petrolio sono nati da depositi di esseri viventi diecine o centinaia di anni fa. Tutti questi materiali non dovrebbero contenere carbonio 14. Eppure il carbonio 14, in concentrazione minima, è presente.

L’origine del carbonio 14 in questi materiali non può essere nell’anidride carbonica dell’atmosfera. Ci sono altre reazioni nucleari che l’hanno creato:

  • Radiazione cosmica non fermata dall’atmosfera
  • Fissione spontanea dell’uranio 238, dell’uranio 235 e del torio 232. Dopo ogni fissione nascono neutroni che possono trasformare azoto 14 in carbonio 14.
  • Bombardamento di elementi leggeri con particelle alfa. Le sorgenti di neutroni più classiche nei laboratori sono fatte da radio e berillio.

Nuclei che fanno decadimenti alfa sono presenti in natura: Uranio 238, uranio 235, torio 232 e le catene di decadimenti che nascono da questi.

Come determinare l’età di un oggetto con il C14

Se il contenuto di carbonio 14 nella materia vivente ha un rapporto fisso con il carbonio 12, e se dopo la vita il rapporto tra le concentrazioni di C14 e C12 diminuisce in maniera esponenziale (emivita del carbonio 14: 5568 anni), basta determinare questo rapporto per sapere quando un materiale ha smesso di partecipare al metabolismo della vita.

In Wikipedia c’era la notizia: Si usa un contatore Geiger e si misura la radioattività di una sostanza e si calcola l’età. Qualcuno diceva anche appoggio un contatore Geiger sulle pagine di un libro e dico l’età del libo. Sbagliato, così non va proprio.

Il metodo radioattivo

Nella trasformazione del nucleo del carbonio 14 in un nucleo di azoto 14 si libera un’energia di 667,474 keV. La trasformazione, un decadimento beta meno, avviene con l’emissione di un elettrone e un antineutrino. Per la creazione dell’elettrone servono 510,999 keV. Il resto dell’energia, 156,475 keV, si divide in energia cinetica dell’elettrone e dell’antineutrino. La divisione è casuale, cioè l’elettrone può muoversi con un’energia cinetica che va da zero a 156,475 keV. L’energia media degli elettroni è 49,47 keV. A queste energie gli elettroni non penetrano un bel niente (1,5 mm in aria). In materiali come l’alluminio fanno percorsi dell’ordine di grandezza del micron. Non è possibile fare finestre per i contatori che facciano passare questi elettroni. Con un normale contatore Geiger si vede niente.

La radioattività dei campioni è bassa. Un campione di carbonio del 1950, appena uscito dal ciclo della vita, ha una radioattività del carbonio 14 di 14 decadimenti al minuto per grammo. Un campione di materiale vecchio, al limite del metodo, è circa mille volte meno radioattivo.

Per vedere qualcosa ci vogliono campioni grandi, per materiale recente qualche grammo. Per materiale vecchio di più. Il problema con i campioni è che gli elettroni del decadimento beta non escono dal campione. Si fermano prima.

Per vedere qualcosa occorre mettere il campione dentro il contatore, in distribuzione molecolare. Si usano due tipi di contatore: uno, riempito di gas con un filo elettrico al centro, usato come “contatore proporzionale” (un contatore Geiger fa la stessa altezza di impulso per ogni energia di particella, in un contatore proporzionale l’impulso elettrico è proporzionale all’energia della particella), l’altro riempito con uno scintillatore liquido, che produce lampi di luce proporzionali all’energia delle particelle. Questi lampi di luce microscopici vengono percepiti da opportuni sensori di luce, per esempio da fotomoltiplicatori.

Gli elettroni che sono sotto la soglia (in questo caso 156,475 keV) non sono distinguibili da elettroni che vengono da altri decadimenti nucleari. Questo rende necessario lavorare con strumentazione e in ambienti con bassissima attività di fondo. In reazioni che producono anche raggi gamma distinguere le reazioni è molto più facile: I raggi gamma sono monoenergetici e un sensore ad alta risoluzione li distingue benissimo. Ma il decadimento beta del carbonio 14 avviene senza emissione successiva di raggi gamma.

Il metodo spettrometria di massa

Il metodo radioattivo è stato usato per la determinazione dell’età dei materiali nei primi decenni . Dopo è stato sostituito. Invece di contare i nuclei che decadono, misurando gli elettroni prodotti, si contano tutti i nuclei di carbonio 14 prima che facciano un decadimento radioattivo. Il metodo è la spettroscopia di massa. Il carbonio va portato alla forma di gas e ionizzato. Gli ioni di carbonio vanno accelerati con un campo elettrico. Il raggio di carbonio poi va in un magnete. Il campo magnetico curva le traiettorie. Nuclei con una massa maggiore fanno un raggio di curvatura maggiore. Così si dividono i nuclei di C12 da quelli di C14 e si contano. Per materiale fresco il rapporto è uno su mille miliardi. Il limite del metodo è un po’ prima di uno su un milione di miliardi.

Per il metodo radioattivo ci vogliono campioni di qualche grammo, per la spettroscopia di massa basta qualche milligrammo.

Elmar Pfletschinger

La teoria del Grande Nastro Trasportatore Oceanico è stata demolita. (3)

Gli oceani ricoprono il 71% della superficie della Terra, ma contengono una quantità smisurata di acqua, ossia circa il 96.5% di tutta l’acqua del pianeta: un enorme serbatoio di calore.
Gli oceani non si sono mai congelati neanche miliardi di anni fa, quando il Sole irradiava la Terra il 30 per cento di meno di oggi, grazie al loro meccanismo di circolazione delle correnti.
Ma questo non è una novità.

La novità è che il famoso Grande Nastro Trasportatore Oceanico (Great Ocean Conveyor Belt), conosciuto anche con molti nomi, come corrente meridionale di ribaltamento delle correnti (MOC – meridional overturning current) o come Circolazione Termoalina (CPT),.oggetto di innumerevoli documentari televisivi e lezioni di scienza a scuola ed all’università, non è proprio così semplice come credevano gli scienziati e, così com’è, è stato definitivamente archiviato.

Dopo 50 anni il vecchio modello di circolazione oceanica globale che prevede una profonda corrente atlantica che scorre al di sotto della Corrente del Golfo è stata messa in discussione da un’armata di sensori abbandonati appositamente nell’Oceano per essere trasportarti dalla corrente al di sotto della superficie del mare su boe di profondità, lasciando una traccia elettronica del loro percorso..

Per quanto scioccante sia la notizia per gli oceanografi è stato ancora peggio per i climatologi che hanno costruito diversi modelli climatici di circolazione. Per loro significa che tutti gli attuali modelli di previsione del clima sono completamente sbagliati, a cominciare da quelli utilizzati dall’IPCC (Intergovernamental Panel on Climate Change).


Figura 1 – Percorso del nastro trasportatore

Nella configurazione più conosciuta il cosiddetto “Grande Nastro Trasportatore Oceanico” è un colossale fiume subacqueo grande 20 volte più di tutti i fiumi terrestri messi assieme: si forma al caldo al centro del Pacifico, poi prosegue superficialmente aggirando l’Australia a nord e l’Africa a sud, risale l’Atlantico e infine si inabissa all’altezza della Groenlandia, ormai freddo e molto salato, pronto a ritornare al Pacifico, ma passando questa volta a sud dell’Australia. L’intero percorso richiede, si è calcolato, 500 anni.

Secondo i modelli più conosciuti, si pensava che fosse vulnerabile solo alle variazioni della produzione di acque dolci alle alte latitudini, con iniezione significativa di acqua non salina derivante dallo scioglimento dei ghiacci, decisamente in grado di perturbare il buon funzionamento del sistema. Mentre invece in condizioni normali il nastro trasportatore è stato pensato per funzionare costantemente e coerentemente proprio come un nastro trasportatore, con trasporto di acque fredde dall’equatore in profondità e acque calde verso i poli in superficie. Per questo si parla tecnicamente anche di circolazione meridionale di ribaltamento.

Il calcio finale gli è stato dato da M. Susan Lozier della Duke University che ha pubblicato su Science il 18 giugno 2010 un approfondito lavoro scientifico, i cui risultati erano già stati parzialmente diffusi un anno prima su Nature, dal titolo emblematico di “Demolizione del Nastro Trasportatore” (Science 18 June 2010: Vol. 328. no. 5985, pp. 1507 – 1511).

Con una serie di studi condotti negli ultimi anni ha messo in discussione il paradigma del nastro trasportatore, rivelando il ruolo vitale delle correnti parassite dell’oceano e delle correnti atmosferiche nello stabilire la struttura e la variabilità delle scambio tra le acque calde e quelle fredde all’interno degli oceani.
Susan M. Lozier è professore di Fisica dell’Oceanografia e presidente della Divisione di Scienze della Terra e degli Oceani della Duke University, università privata con più di 12.000 studenti fondata nel 1838, situata a Durham nella Carolina del Nord (USA).

Cinquant’anni fa, Henry Melsom Stommel (1920-1992) teorizzò che l’acqua raffreddata dalle alte latitudini dovesse essere trasportata in profondità lungo l’equatore occidentale e venisse intensificata dalle correnti di contorno.

Fig. 2 – Henry Melsom Stommel

Egli suppose che le masse d’acqua formatesi attraverso un meccanismo di convezione profonda in regioni isolate del Nord Atlantico e vicino all’Antartide essenzialmente finissero col colmare l’oceano più profondo. Stommel ipotizzò che, durante il trasporto nell’oceano profondo di queste acque, queste successivamente subissero una risalita ben distribuita in superficie. Poiché tale risalita produce un allungamento della colonna d’acqua che induceva una perdita del momento angolare, le profonde acque interne dovevano per forza compensare la perdita di flusso verso i poli dirigendosi verso le regioni di maggiore momento angolare.
Per questo motivo, all’equatore il trasporto delle masse d’acqua profonde è stata limitata ai confini occidentali dei bacini.

La teoria del ribaltamento dell’oceano di Stommel ha dato una struttura agli oceani, in precedenza considerati amorfi nelle tre dimensioni: le acque profonde sono trasportate verso l’equatore con una costante, continua intensificazione da parte di profonde correnti occidentali di confine provenienti dai loro siti di formazione posti a latitudini elevate.

Fig. 3 Overturning (rovesciamento o capovolgimento) delle correnti dell’oceano

Il secondo importante oceanografo che ha avvallato questa tesi fu il famoso Wallace “Wally” S. Broecker, professore emerito al Dipartimento della Terra e Scienze Ambientali presso la Columbia University (New York), una delle università più prestigiose e famose della Terra.
Probabilmente uno dei più grandi geologi del mondo ancora vivente che, da oltre mezzo secolo, ha indagato sul ruolo degli oceani nei cambiamenti climatici. Egli fu tra i pionieri nell’utilizzo della datazione al radiocarbonio e nell’uso di isotopi per monitorare i cambiamenti climatici storici, e l’influenza del cambiamento climatico sulla ghiacci polari e nei sedimenti oceanici.


Fig. 4 Wally Broecker

E ‘stato proprio Broecker a coniare il termine di “Grande Nastro Trasportatore dell’Oceano”.

Ma il lavoro della Lozier ha scosso la comunità del clima.
Nel suo lavoro un gran numero di boe sottomarine (RAFOS – SOund Fixing And Ranging), sono state disperse a 700 – 1500 metri di profondità ed hanno dimostrato che alcuni presupposti fondamentali sulla struttura della corrente sono sbagliati. Le RAFOS galleggianti sono strumenti mobili progettati per muoversi con l’acqua e tenere nota dei movimenti della corrente oceanica. Sembra che il 75% delle RAFOS siano sfuggite al Grande Nastro Trasportatore Oceanico e siano finite alla deriva in mare aperto. Solo l’8% delle boe RAFOS hanno seguito la corrente del nastro trasportatore come già pubblicato su Nature.

Fig.5 – Una boa RAFOS fatta discendere nell’Oceano
Le boe RAFOS sono state ideate per misurare la temperature, la salinità e la pressione nelle alte profondità fino a 3.000 metri sotto la superficie degli oceani.

Fig.6 – Struttura di una boa RAFOS

Secondo la Lozier, la teoria di Broecker sul capovolgimento (o rovesciamento) delle correnti dell’Oceano, così come è strutturata, va considerata solamente come principale agente responsabile per le fluttuazioni rapide del clima, come sperimentato durante l’ultimo periodo glaciale della Terra.

“Nonostante l’importanza della teoria del ribaltamento delle correnti dell’Oceano per il clima della Terra, …il lavoro di Broecker è da considerare essenzialmente solo come un agente dei cambiamenti climatici”, afferma la Lozier nella sua revisione. “Così come il lavoro di Stommel diede la struttura spaziale al capovolgimento delle correnti, Broecker ha fornito un contesto temporale”.

In base alla sua revisione, gli oceanografi hanno capito che il modello di trasporto con il rovesciamento delle correnti del mare è una semplificazione eccessiva del sistema. Ma si credeva fosse una semplificazione utile, in grado di fornire un modello globale di trasporto dell’oceano dell’energia termica. Ma ora pare che alcune caratteristiche principali del nastro trasportatore siano state messe in discussione.

Ecco una lista delle recenti scoperte che hanno scosso dalle fondamenta della teoria del nastro trasportatore.

· La maggior parte dello scambio subpolare-subtropicale nel Nord Atlantico si verifica lungo sentieri interni all’Atlantico stesso.
· La corrente occidentale profonda di confine (DWBC – Deep Western Boundary Current) si scompone in vortici intorno agli 11° di latitudine Sud.
· Vi è poca coerenza nel trasporto attraverso l’emisfero meridionale passando tra un rovesciamento a spirale al successivo.
· La forza del vento, piuttosto che favorire la spinta alla risalita delle acque, può svolgere un ruolo determinante nel modificare il fenomeno del rovesciamento delle correnti.
· Il trasporto verso sud delle acque profonde alla latitudine di 8° Sud, al largo della costa brasiliana, ha dimostrato di essere dovuto interamente a vortici aderenti alla corrente.
· Le boe di profondità lanciate nella DWBC (Deep Western Boundary Current) alla latitudine di 53° Nord, non seguono una corrente costante, ma prendono percorsi multipli verso i subtropici, compresi percorsi interni posti lontano dalla DWBC.
· Due ulteriori recenti studi hanno dimostrato percorsi del tutto inaspettati nella porzione nord degli oceani.
· Uno studio recente indica che il trasporto della corrente meridionale di ribaltamento (MOC – Meridional Overturning Circulacion) nel Nord Atlantico subtropicale, è suscettibile di variabilità con perdita di acqua tiepida e salata nel Sud Atlantico.
· Vari studi dimostrano poca o nessuna coerenza nella circolazione ai confini della corrente principale del grande nastro trasportatore ed hanno spinto a controllare la circolazione di ribaltamento della corrente nel Sud Atlantico e nel Nord Atlantico subpolare.
· La connessione tra il fenomeno del rovesciamento delle correnti e, soprattutto, il trasporto del calore proveniente dall’emisfero meridionale tra un bacino all’altro non può più essere assunta su scala una temporale interannuale (n.d.r. ossia può cambiare tutto molto rapidamente).

Nel prossimo articolo approfondiremo i materiali e i metodi di rilevazione, i risultati e le conclusioni del lavoro della Lozier.

Pablito

Nowcasting Solare del fine settimana (E Tanti Auguri a Fabio-Nintendo!!!!)

(Immagini Autoaggiornanti)

La regione 1087 seppur in lenta fase di decaduta, continua a tenere il flusso solare intorno ai 78-79, valori comunque ancora da minimo.

La media del solar flux aggiornata a ieri registra i 78.62, è ormai quasi certo che luglio chiuderà sopra al trittico aprile, maggio e giugno, ma sotto a quello di gennaio, febbraio e marzo.

La regione 1087 è stata un’ AR magneticamente molto estesa, ma proprio rispetto alla sua grandezza, poco attiva, non essendo riuscita a dare origine a macchie degne di particolare importanza e non avendo mosso più di tanto nè il solar flux nè gli X-ray. (Come infatti ricordato da Ale in un suo precedente intervento, tale regione aveva le dimensioni della mitica AR 9393 del ciclo 23, la quale però riuscì a produrre delle macchie notevoli che fecero per ben 2 volte e mezzo il giro del sole, con tanto di flare di classe M a ripetizione).

Insomma tutti ingredienti che ci continuano a confermare il trend di fondo del ciclo 24, ovvero di un ciclo che più di tanto finora non è riuscito a fare, pur ultimamente non essendo mancate le regioni attive.

Chiudo con la situazione del Behind: nel sud emisfero stano avanzando e saranno presto visibili nel lato non nascosto del sole altre 2 regioni che hanno discrete possibilità di avere delle macchie al loro interno. Staremo a vedere nei prossimi 2-3 giorni.

Dopo la relativa calma dei mesi di aprile e maggio, da giugno il sole sembra aver un pò incrementato il suo ritmo (aumento del numero di AR), pur rimanendo complessivamente in una situazione di stallo. Vedremo in seguito se tale andazzo rappresenti l’ennesimo fuoco di paglia o qualcosa di più concreto!

Stay tuned, Simon