Archivio mensile:Aprile 2011

La legge di Benford (o di Newcombe?) e il taroccamento dei dati sperimentali

Consideriamo una serie di numeri estratti casualmente, in un intervallo di valori diciamo da 1 a un numero molto grande, diciamo [(10 alla n ) -1 ], poi prendiamo questi numeri e consideriamo solo la prima cifra.

Poiche’ la prima cifra non puo’ essere mai zero, e poiche’ i numeri sono estratti casualmente, la frequenza con cui questa prima cifra sara’ 1 sara’ la stessa con la quale sara’ 2, e cosi’ via fino a 9.

Dunque la frequenza sara’ pari a 1/9 = 0,11 (periodico).

Insomma, ogni cifra da 1 a 9 avra’ l’11,11% (periodico) di probabilita’ di essere la prima cifra di uno di questi numeri.

Nel 1881 l’astronomo americano Simon Newcomb osservo’ uno strano fenomeno, che descrisse nell’American Journal of Mathematic; forse l’aneddoto alla base dell’articolo non e’ vero, comunque e’ plausibile.

Newcomb osservo’ che nella biblioteca universitaria le pagine della tavola dei logaritmi che riportavano i logaritmi di numeri che avevano 1 come prima cifra, erano molto piu’ sporche e usurate delle pagine I cui numeri iniziavano con un altra cifra.

Ne dedusse che, per qualche sconosciuto motivo, venivano consultate piu’ spesso.

Ma gli fu controribattuto che in qualsiasi libro al quale si accede alle pagine in modo sequenziale le prime sarebbero state più usate delle ultime (ovviamente nelle tavole dei logaritmi nelle prime pagine I numeri iniziano per 1, nessuno stampa delle tavole dei logaritmi “random” 🙂 ).

Nel 1938 il fisico Frank Benford analizzo’ molte distribuzioni empiriche di dati, e cosi’ gli venne attribuita la legge che porta il suo nome e che dice, piu’ o meno:

In una raccolta di dati reali, la probabilita’ che la cifra x sia la prima cifra del numero che costituisce il singolo dato, e’ pari a:

P(x) = Log10(x+1)-log10(x) = log10(1+1/x)

Per cui la probabilita’ che il primo numero del dato sia 1 e’ molto piu’ alta che non la probabilita’ che sia 2, e cosi’ via fino a 9.

Se non volete farvi i conti, ecco le probabilita’ per le 9 cifre:

P(1)=30,1%

P(2)=17,6%

P(3)=12,5%

P(4)=9,7%

P(5)=7,9%

P(6)=6,7%

P(7)=5,8%

P(8)=5,1%

P(9)=4,6%

Ed ecco un grafico a barre che mostra la distribuzione di probabilita’ in questione.

Non voglio fare un articolo di matematica, primo perche’ non sarei qualificato :-P, e secondo perche’ sono sicuro che annoierebbe la maggior parte di voi.

Pero’ posso dirvi, e potete approfondire nelle fonti, che si puo’ estendere la legge di Benford anche alla distribuzione di probabilita’ della seconda cifra, della terza, e cosi’ via (ovviamente la probabilita’ cambia per la seconda cifra, e per la cifra ennesima le varie probailita’ tendono ad equidistribuirsi, cioe’ a valere 11,11%).

Nel 1995 lo statistico americano Theodore Hill dimostro’ un teorema sulla legge di Benford, e porto’ avanti la teoria matematica sottostante la legge con varie pubblicazioni (di cui potete reperire i titoli sulla pagina di wikipedia dedicata a lui).

Esistono altre leggi simili alla legge di Benford, da utilizzare in altri ambiti.

Ad esempio in ambito linguistico esiste la legge di Zipf, descritta per la prima volta nel 1949 dal

linguista George Kingsley Zipf.

Benoit Mandelbroot, il padre per cosi’ dire della teoria dei frattali, dimostro’ negli anni ’50 che leggi simili possono essere dedotte a partire a dalla teoria dell’informazione di Claude Shannon.

Ma torniamo alla legge di Benford, che e’ quella che interessa a noi.

Questa legge si applica solo ad un insieme di numeri scelti a caso da una data variabile casuale, ma se vengono posti dei limiti, anche inconsapevoli, a questa variabile, l’insieme risultante potrebbe o meno obbedire alla legge..

Detta cosi’ e’ incomprensibile per molti. Cerchiamo di chiarire il punto.

Prendiamo come variabile casuale la profondita’ media di tutti i fiumi, ruscelli, fossi e rigagnoli italiani.

Otterro’ un insieme, che si suppone obbedire alla legge di benford (che, lo ripeto, e’ una legge empirica; cioe’ dedotta dalle osservazioni. In effetti la faccenda e’ piu’ complessa, ma questo non e’ un blog di matematica, quindi prendetevela cosi’ :-P; se invece non avete nulla da fare nel prossimo secolo, potete iniziare a studiarvi la funzione Z di Riemann e dimostrare la sua congettura).

Se adesso decido di prendere, come sottoinsieme, 1000 misure scelte a caso, questo sottoinsieme obbedira’ ancora alla legge di Benford.

Ma se decido di prendere, come sottoinsieme, quello delle misure comprese tra 1 e 4 metri, ovviamente questo sottoinsieme non obbedira’ piu’ alla legge di Benford (perche’ nessuna  misura inziera’ con 5,6,7,8 o 9).

Ora, un insieme di Benford ha una certa varianza, una certa asimmetria, e una certa distribuzione di probabilita’.

Benford mostro’ nella sua pubblicazione che moltissimi fenomeni naturali ubbidiscono alla legge di Benford; l’area dei fiumi; la popolazione dei comuni; il numero di copie stampate dai giornali; il peso atomico; i numeri civici; i tassi di mortalita’, ecc. ecc. ecc. ecc.

Nel 1972, l’economista Hal Varian, personalita’ piuttosto importante negli Stati Uniti, suggeri’ di utilizzare la legge di Benford per verificare i dati presentati a sostegno di iniziative politiche:

se infatti e’ piuttosto facile raccogliere dei dati reali, ed e’ anche molto facile taroccarli, e’ estremamente difficile taroccare dei dati reali in maniera che continuino ad obbedire alla legge di Benford.

Talmente difficile che nel 1992 il commercialista (e matematico) americano Mark Nigrini propose di utilizzare la legge di Benford per verificare le dichiarazioni dei redditi.

E dimostro’, usando dati reali, che le dichiarazioni che non si conformano alla legge di Benford sono fraudolente.

Oggi la California e altri stati americani usano un software che verifica la corispondenza della dechiarazione alla legge di Benford, e se non c’e’ corrispondenza scatta un accertamento fiscale.

Inoltre la legge di Benford puo’ essere estesa anche alle altre cifre, come gia’ detto.

Puo’ essere estesa alle prime x cifre, o alle ultime x cifre, e cosi’ via.

E presenta la notevole proprieta’ di essere invariante di scala: se cioe’ un insieme e’ un insieme di benford (esempio, la lunghezza media di tutti i corsi d’acqua espressa in metri), lo sara’ anche l’insieme ottenuto da quello moltiplicandolo per una qualsiasi costante x (esempio, la stessa lunghezza di prima ma ora espressa in piedi).

Bene, torniamo a noi, e ai dati del sole.

Sono andato al link gentirmente fornitomi da Andrea B (http://www.ngdc.noaa.gov/nndc/struts/results?t=102827&s=5&d=8,430,9 ) e mi sono scaricato i dati mensili del sidc a partire dal 1749.

I dati arrivano fino al 2011, sono abbastanza.

Nella figura, vediamo la distribuzione di benford teorica e quella reale, per tutti i dati a partire dal 1749:

Come potete vedere i dati seguono abbastanza l’andamento della legge di benford, almeno a occhio (francamente non mi va di riprendere in mano il manuale di statistica e mettermi a fare un’analisi piu’ approfondita; per i nostri scopi qui ed ora, l’occhio e’ piu’ che sufficiente :-P)

I valori oscillano tra 0 e 253,8, con un valore medio di 51,89.

Questo spiega perche’ le frequenze del 4 del 5 e del 6 siano leggermente superiori alla media.

Ora, ho diviso i dati in 3 sottoinsiemi: 1749-1849, 1850-1949, 1949-2005, e poi ho fatto un altro sottoinsieme, dal 2006 al 2011.

Ecco cosa accade tra il 1749 e il 1849:

 

Abbastanza simile all’immagine precedente.

Ora l’intervallo 1850-1949:

              

Questa immagine comincia ad essere un po’ diversa… Anche il 7, l’8 e il 9 hanno una frequenza maggiore.

Ad ogni modo, il pattern di Benford (la linea gialla) e ancora rispettato, piu’ o meno.

Ma vediamo cosa accade con i dati dal 1950 al 2005:

 

Abbiamo ancora, piu’ o meno, una curva di Benford, solo che l’1 va chiaramente fuori (piu’ del 10% di

differenza; tutti gli altri numeri, a parte l’8 e il 9, mostrano valori minori di quelli attesi, ma di poco.

E vediamo adesso I dati dal 2006 al 2011, quelli piu’ influenzati dai cambiamenti nel metodo di conteggio:

 

Dei vari grafici, questo e’ quello piu’ anomalo.

Chissa’ perche’?

Ma non e’ finita.

Abbiamo analizzato la distribuzione della prima cifra, vediamo ora la distribuzione della seconda cifra:

1749-1849

  

1849-1949

  

1949-2005

 

2006-2011

AAAAARGHHHHH!!!!!!!!!!!!!!

Cosa e’ successo???

E’ andato tutto in vacca!!!

L’andamento della seconda cifra, nei dati mensili del SIDC dal 2006 al 2011, non ha piu’ nulla a che fare con la legge di Benford.

Ora, una volta in rete si trovavano dei software (tipo quello che ho usato io per questi grafici) per calcolare vari parametri di una distribuzione e verificare che si conformasse alla legge di Benford.

Adesso, non esistono piu’: sono riuscito a trovarne solo uno, ma non funziona.

E il sw che ho utilizzato io (che essendo fortunatamente previdente avevo salvato in un vecchio backup) ora non e’ piu’ disponibile in rete.

Inoltre era stato fatto credo per il 486 e per una versione precedente di windows, infatti per reinstallarlo mi sono dovuto sbattere non poco, e alcune funzionalita’ non vanno piu’ (presumo siano cambiate alcune librerie con winzoz 7).

Spero comunque di avervi fatto conoscere qualcosa di nuovo, e di avervi indicato una strada.

Il punto e’: ma la legge di Benford e’ una vera legge fisica, che si applica a qualunque misura di un fenomeno naturale, o no?

Credo che al momento non si possa rispondere a questa domanda, ma I miei strumenti matematici sono piuttosto limitati, e soprattutto molto ma molto arruginiti. Magari qualcuno all’ascolto puo’ aiutarci.

Una cosa mi sento di poter affermare senza timore di essere smentito:

la legge di Benford e’ abbastanza valida da poter essere usata per stabilire se frodiamo il fisco, almeno negli USA.

Ma sono sicuro che se la usassimo per dimostrare che il fisco froda noi, cioe’ se la usassimo per dimostrare che I dati dell’AGW sono taroccati, allora qualche solerte istituzione statale prontamente dimostrerebbe che a tali dati non si puo’ applicare la legge di Benford.

Io personalmente ritengo che si applichi a qualunque misura di un fenomeno naturale, ma conto poco.

Di sicuro vi consiglio di applicarla ai prospetti informativi che vi fanno firmare prima di vendervi azioni, assicurazioni, e quant’altro ;-).

 Pierluigi

Fonti:

http://it.wikipedia.org/wiki/Hal_Varian

http://www.cut-the-knot.org/do_you_know/zipfLaw.shtml

http://it.wikipedia.org/wiki/Ted_Hill

http://it.wikipedia.org/wiki/Legge_di_Benford

http://it.wikipedia.org/wiki/Legge_di_Zipf

http://it.wikipedia.org/wiki/Hal_Varian

http://it.wikipedia.org/wiki/Mark_Nigrini

http://www.nigrini.com/

http://www.performancetrading.it/Documents/SanFF/188_Utilizzo_della_legge_di_Benford_in_ambito_economico.html

Terremoti e Centrali Nucleari in Italia

Rispondo all’invito di Simon e provo a scrivere qualcosa su un idea che mi frulla in testa da qualche settimana. E’ la prima volta che scrivo un articolo, quindi please, non linciatemi se scrivo castronerie.

Parto da due domande:

a)     E’ veramente impossibile che in Italia avvengano eventi catastrofici come quello avvenuto in Giappone?

b)     Se sul suolo italiano ci fossero centrali nucleari o depositi di scorie nucleari, la biosfera sarebbe al sicuro da contaminazioni radioattive?

La risposta alla prima domanda è: dipende dalla scala temporale che prendiamo come riferimento.

Sui media nelle ultime settimane ho letto dati discordanti, da 100 anni a un milione di anni. Sembra siano “un po’” di più gli anni che servono per neutralizzare le scorie.

Altro dato importante è sapere il quantitativo di scorie necessario per inquinare irreversibilente la biosfera, cioè tutto il pianeta Terra. Sempre dall’articolo di Elmar e relativi commenti: http://daltonsminima.altervista.org/?p=9946 mi sembra di capire che bastano circa 30 tonnellate di scorie altamente radioattive. Cioè la quantità di scorie prodotte in un anno da una centrale nucleare.

Mi sembrano poche, ma comunque la quantità di scorie presenti oggi nel mondo è vicina alle 200.000 tonnellate. E cresce di 15/20.000 tonnellate ogni anno.

Bene, ora vediamo cosa è successo in Italia negli ultimi dieci milioni di anni.

La risposta alla seconda domanda è: secondo me no.

Spiego perché.

Innanzi tutto dobbiamo stabilire la scala temporale che ci interessa. Da questo articolo di Elmar http://daltonsminima.altervista.org/?p=9946 vediamo che le scorie nucleari prodotte da una centrale atomica sono pericolose per più di dieci milioni di anni:

Movimenti tettonici

Cito da Wikipedia: http://it.wikiversity.org/wiki/Formazione_del_territorio_della_penisola_italica

Formazione del Mar Mediterraneo e del blocco Sardo-Corso

Una volta che l’Africa e l’Europa si furono ricongiunte la massa d’acqua che rimase all’interno del bacino formato dai due continenti prese il nome di Mar Mediterraneo, la morfologia del Mar Mediterraneo è dovuta a grandi avvenimenti geologici, il primo data tra i 15 e i 20 milioni di anni fa costituisce in una risalita di calore dal mantello terrestre, probabilmente prodotta dall’attrito della crosta oceanica della Tetide la quale si era immersa sotto a quella continentale, oppure ciò è stato prodotto dalle fratture formatesi nella zona compressa che si trova tra l’Africa e l’Europa, e tali fratture hanno prodotto l’inarcamento e la rottura della crosta terrestre facendo fuoriuscire il materiale dal mantello. Dal continente occidentale, a causa di questo fenomeno si stacca il blocco sardo-corso che viene spostato più o meno dove si trova attualmente, ed alle sue spalle si forma il bacino balearico. Il blocco sardo-corso termina in corrispondenza bordo occidentale irregolare nella zolla africana, qui il movimento di compressione ha iniziato a formare gli Appennini.

Formazione del Mar Tirreno

Un’altra frattura con andamento da Nord a Sud circa 8 milioni di anni fa separa la penisola italiana dalle terre che formano la Corsica e la Sardegna. Questa frattura allargandosi con il tempo darà forma al Mar Tirreno e spingerà la penisola italiana verso est. La rotazione antioraria della penisola, rotazione che è ancora in atto ai giorni nostri, spingendo provocherà un’ulteriore compressione deformando in due archi la catena Appenninica. I bordi continentali irregolari fanno si che il movimento di apertura del mar Tirreno da Nord a Sud non abbia una velocità uniforme. Con la maggiore distensione del Mar Tirreno meridionale si accentua la deformazione nell’arco appenninico meridionale e la Calabria si sposta progressivamente verso Sud-Est.

Evaporazione del Mar Mediterraneo

In contemporanea con l’apertura del Mar Tirreno comincia a manifestarsi un evento che muterà drasticamente la fisionomia dei territori che circondano il Mar Mediterraneo. Nel periodo che va da 5 a 7 milioni di anni fa, il bacino marino si trasforma in un basso lago salato con molte zone che via via affiorano alla superficie prosciugate. La causa dell’improvviso disseccamento è probabilmente legata a due fenomeni concomitanti: un aumento della temperatura globale con conseguente aumento dell’evaporazione delle acque e l’interruzione parziale, della comunicazione con l’Oceano Atlantico, al quale era legato il ricambio delle acque per cui vengono a trovarsi in questo luogo acque meno salate.

Circa 5 milioni di anni fa il bacino del Mar Mediterraneo parzialmente essiccatosi si apre sull’Oceano Atlantico il ritorno dell’acqua fu rapido ed isocrono in tutto il Mediterraneo, questo lo si rileva dall’osservazione di un brusco cambiamento nei sedimenti, con depositi di argille immediatamente sopra agli strati di evaporiti. La Zona di confine della placca africana è stata interessata in quell’epoca geologica da un movimento parallelo a quello della placca settentrionale, questo movimento ha determinato l’ampio sbocco verso l’oceano. 

Aspetti futuri e cambiamenti nella conformazione del territorio italiano 

La conformazione del territorio italiano è in continua evoluzione questo a causa degli eventi sopra descritti, affioreranno nuove terre a causa dell’aumento della salinità del Mar Mediterraneo e dell’evaporazione delle acque. Lo stesso territorio emerso è soggetto ancora alla spinta data dalla convergenza tra la zolla africana e quella europea che non è esaurita. La velocità del movimento di collisione è misurata in circa 3 cm all’anno e tende a chiudere il bacino del Mediterraneo. Inoltre gli sforzi che si accumulano nelle zone di contatto tra le due zolle si scaricano periodicamente in violenti terremoti che interessano continuamente il territorio del nostro paese.

Glaciazioni

Direi  che bastano gli ultimi due milioni di anni del Quaternario

Cito da: http://www.summagallicana.it/Volume1/A.I.8.0.htm (per non citare sempre Wikipedia)

Era Antropozoica – Quaternaria
inizio: 2 milioni di anni fa

Per cause non ancora ben definite si alternarono almeno 5 periodi freddi, glaciali, con 4 periodi caldi, interglaciali: si ebbero per conseguenza 5 vastissime espansioni glaciali separate da 4 lunghi intervalli durante i quali i ghiacci si ritirarono. I ghiacciai arrivarono a coprire un terzo dei continenti e si spinsero fin quasi al 39° parallelo nell’America settentrionale (all’altezza circa di New York) e al 52° in Europa (Berlino e Paesi Bassi), con segni evidenti nelle nostre Alpi e Prealpi. Per l’Europa, le glaciazioni del quaternario prendono il nome dal Danubio e dai suoi affluenti.

Le grandi glaciazioni del Quaternario
nome durata in anni fa
Donau 1.500.000 -> 1.000.000
Günz 650.000 -> 500.000
Mindel 400.000 -> 300.000
Riss 200.000 -> 120.000
Würm 75.000 -> 10.000

Come conseguenza delle glaciazioni si verificò più volte l’abbassamento del livello medio del mare toccando anche i 100 metri, mentre nelle fasi interglaciali si formarono potenti fiumane che coi materiali trasportati produssero estesi depositi alluvionali capaci di colmare golfi estesi come quello padano. La fusione dei ghiacciai del Pleistocene, sino a raggiungere le dimensioni attuali, ha causato l’innalzamento del livello del mare di circa 140 metri; dalla fine dell’ultima glaciazione la superficie marina è andata mediamente elevandosi di 1 cm per anno.

 Cito da: http://www.archeologia.com/~pantalica/glaciazioni.htm

Al culmine dell’ultima glaciazione l’abbassamento marino arrivò fino a 100 metri, tant’è che 20 000 anni fa laddove oggi troviamo lo stretto di Bering una continuità di terre collegava l’America settentrionale all’ Asia.

In Italia la pianura padana si estendeva per tutta la parte settentrionale dell’ Adriatico.

L’inversione climatica che dette l’avvio all’attuale periodo postglaciale, chiamato Olocene, iniziò secondo la maggior parte degli scienziati circa 15 000 anni fa. L’anno 8300 a. C. segna convenzionalmente per i climatologi la fine dell’ultima glaciazione. 

In conclusione, negli ultimi dieci milioni di anni abbiamo avuto la separazione della Sardegna e della Corsica dalla Francia, formazione e rotazione antioraria della catena appenninica. Espansione del Tirreno. Chiusura dello stretto di Gibilterra ed evaporazione del mar Mediterraneo. Nuovo allagamento del Mediterraneo. E’ “probabile” che mentre accadeva tutto questo, siano accaduti anche eventi catastrofici quali terremoti e tsunami, no?

Inoltre negli ultimi due milioni di anni abbiamo avuto quattro glaciazioni con avanzamento e arretramento dei ghiacciai, livello del mare che scende e poi sale, sedimenti che formano la pianura padana, etc. Anche qui qualche cataclisma sara accaduto no?

Ora, possiamo fornire una risposta alla domanda iniziale: se sul suolo italiano ci fossero centrali nucleari o depositi di scorie nucleari, la biosfera sarebbe al sicuro da contaminazioni radioattive? SI se centrali e depositi fossero costruiti in modo che da resistere per dieci milioni di anni a cataclismi di proporzioni cosmiche. Altrimenti no.

 Mistral-101

L’uomo che invento’ il sismografo

Zhang Heng nacque in Cina nel 78 d.C., e ivi mori’ nel 139 d.C..

Visse al tempo della dinastia Han Orientale, circa 300 anni dopo le gesta raccontate nel film Hero, di Zhang Yimou.

Durante la dominazione Han, Il Confucianesimo divenne la filosofia ufficiale di stato, l’agricoltura e il commercio prosperarono,e la popolazione raggiunse i 50 milioni di abitanti, di cui tre milioni abitavano la capitale Chang’an长安, di fatto la più grande metropoli del suo tempo (con buona pace di chi, come me, riteneva tale titolo spettasse a Roma 🙁 ).

Durante la dinastia Han si ebbero grandi progressi intellettuali, letterari, artistici e scientifici. Fu perfezionata la scoperta della Carta tanto da poterla utilizzare quale supporto per la Scrittura e soppiantare così il precedente sistema su Seta o su piccole liste di Bambù; si usavano orologi ad acqua; venne data grande importanza all’astronomia; e i funzionari statali dovevano essere persone molto colte (si lo so, vengono facili battute sull’Italia di oggi…) .

 

Figura 2 – L’impero Han nell’87 a.C.

All’incirca nel 90 d.C. Il prestigio e l’influenza della Cina in Asia raggiunsero il loro picco; Zhang Heng all’epoca aveva 12 anni. Essendo membro di una importante famiglia, fu educato alla filosofia politica e morale del confucianesimo. Per 10 anni studio’ letteratura e scrittura (la scrittura cinese richiede molti anni per essere padroneggiata; solo recentemente sono stati introdotti alfabeti semplificati, fonetici; ma convivono accanto alla scrittura tradizionale). Pubblico’ inoltre molti lavori letterari che gli guadagnarono una notevole fama. Ed era ormai 30nne quando i suoi interessi si orientarono verso le materie scientifiche, e si interesso’ particolarmente di astronomia.

Nel 116 d. C. venne assunto nella corte dell’Imperatore a Lo-Yang.

Cominciava in questo periodo la decadenza della dinastia Han, e il governo divenne meno efficiente: molti imperatori salivano al trono bambini, e il governo di fatto era esercitato dai loro parenti piu’ stretti e piu’ ambiziosi.

Ma Zhang Heng non era ambizioso: la sua biografia “La storia della dinastia Han Orientale” ci dice che non fece carriera come ufficiale di corte quanto avrebbe potuto proprio per mancanza di ambizione. Dovuta, almeno in parte, alla sua fede profonda nel confucianesimo. Rifiuto’ varie promozioni, rifiuto’ lavori migliori, e passo’ anche lunghi periodi lontano dalla capitale vivendo in isolamento a studiare la natura dell’universo e ad approfondire altri argomenti scientifici. La sua piu’ alta posizione a corte fu quando divenne capo degli astronomi e ministro durante il regno dell’Imperatore An-ti.

Ora, nell’antica Cina si riteneva che l’Imperatore ricevesse il suo mandato al governo dal cielo.

I cambiamenti del calendario erano percio’ visti come uno dei compiti dell’Imperatore, che sottolineavano il legame celeste dell’Imperatore stesso. Quindi, dopo un cambio di governo, e ancor di piu’ dopo un cambio di dinastia, il nuovo Imperatore della Cina cambiava il calendario per stabilire una nuova regola con nuove influenze celesti.

Percio’, essendo Zhang un esperto in astronomia, si occupo’ delle riforme dei calendari a partire dal 123 d.C. In quell’anno corresse il calendario per riallinearlo con le sue accurate osservazioni astronomiche.

Si ritiene che Zhang sia stato il primo in Cina a costruire un sfera equatoriale armillare (niente paura! E’ solo un astrolabio). Ma le informazioni su questo punto divergono. Secondo altri, astrolabi erano gia’ stati costruiti del 52 d.C., in Cina.

In grecia, i piu’ antichi risalgono al III sec. avanti Cristo.

Comunque quello di Zhang era azionato ad acqua, e sicuramente fu il primo ad avere questa caratteristica. 

Comunque, con il suo strumento Zhang fu in grado di realizzare mappe stellari piu’ accurate di quelle dei precedenti astronomi cinesi. Nel suo lavoro “Hun-i chu” descrive la sua idea dell’universo in questi termini:

“Il cielo e’ come un uovo di gallina, ed e’ rotondoe come la pallottola di una balestra; la terra e’ come il tuorlo dell’uovo, e giace al centro. Il cielo e’ grande e la terra e’ piccola.”

In un altro lavoro, “Ling Xian” (Leggi mistiche) parla delle stelle:

A Nord e a Sud dell’equatore ci sono 124 gruppi (oggi diremmo probabilmente costellazioni) che brillano sempre luminose. 320 stelle possono essere nominate. Ce ne sono in tutto 2500, senza contare quelle che osservano i marinai. Ci sono 11520 stelle molto molto piccole.

La sua stima delle stelle visibili e’ sorprendentemente accurata, per l’epoca.

Si occupo’ anche di matematica, e calcolo’ π come (radice di 10), circa 3.162.

Benche’ non particolarmente accurato come valore, questo tentativo e’ importante perche’ I precedenti tentativi (cinesi) di calcolare π erano basati su misure pratiche, mentre questo era basato su calcoli teorici. Cercava di ridurre il problema della misura di π a quello dell’iscrizione di una sfera in un cubo, per motivi religiosi legati al confucianesimo, e per inquadrarlo nella sua filosofia dello yin e dello yang.

Ma torniamo adesso ai terremoti, e al sismografo.

All’epoca I terremoti in Cina erano importanti non solo e non tanto per il potere distruttivo che liberavano, quanto perche’ erano visti come una punizione degli dei dovuta al malgoverno del paese (e anche qui su Nia qualche nostro frequentatore ogni tanto sembra condividere questa visione 🙂 ).

In quanto capo degli astronomi, era lui il responsabile di trovare i segni del malgoverno denunciati dai terremoti. E dunque nel 132 invento’ il primo sismografo per misurare i terremoti.

Signore e signori, eccovelo in una superba replica dei tempo moderni (ahime’, non funzionante):

 

Figura 3 – Hou Feng Di Dong Yi (traduzione -da verificare-: strumento per investigare sul  moto del  fluido e sul movimento della terra)

Il dispositivo di Zhang, che lui chiamo’ Hou Feng Di Dong Yi, era fatto di rame. Aveva la forma di un uovo, con 8 teste di drago tutte intorno equidistanziate (le otto case del feng-shui mi viene da chiedermi?), ognuna con una pallina di rame in bocca, e un pendolo al centro. Intorno al fondo del recipiente c’erano 8 rane (o rospi), ognuna posta direttamente sotto la testa di uno dei draghi. Quando si verificava un terremoto,la pallina cadeva dalla bocca del drago nella bocca della rana (o rospo che fosse) producendo un rumore. In effetti e’ riprotato sui testi dell’epoca che il sismografo rilevo’ un terremoto nel 138 e Zhang riporto’ il fatto all’Imperatore, benche nessuno nella capitale Lo-Yang si fosse accorto di nulla o avesse nessuna prova di questo terremoto.

Zheng fu anche in grado di dire che il terremoto si era prodotto ad Ovest della capitale. La sua fama crebbe quando finalmente, alcuni giorni dopo, nella capitale giunse la notizia di un terremoto che si era verificato piu’ di 1000 chilometri a nor-ovest.

Il Didong Yi e’ andato perduto per sempre nel tempo, come lacrime nella pioggia direbbe Rutger Hauer (se si scrive cosi’); comunque una replica e’ stata costruita da uno studioso giapponese nel 1875, in base alle descrizioni del dispositivo trovate nella biografia di Zhang. Il modello presentato nella fotografia precedente e’ stato ridisegnato dal noto ricercatore cinese Wang Zhenduo nel 1951. Comunque, nessuna delle repliche puo’ segnalare un terremoto.

Nel 2005 pero, archeologi, ingegneri meccanici e sismologi dell’Accademia delle Scienze cinesi hanno annunciato di aver creato una nuova replica del Didong Yi, un primo passo “storico2 verso una ricostruzione completa.

 “Stiamo mostrando uno strumento scientifico, non un giocattolo” ha detto Tian Kai, curatore del museo Henan.

Comunque c’e’ disaccordo tra gli studiosi riguardo gli esatti principi scientifici applicati al sismografo e su come effettivamente operasse lo strumento originale.

Alcuni sismologi stranieri hanno espresso una riserva sul fatto che se lo strumento di Zhang Heng lavorava sfruttando il principio di inerzia, allora due e non una sola perla sarebbero dovuto cadere nella bocca delle rane: in sostanza le due perle contrapposte.

Altri sostengono che tutte le repliche sono solo ricostruzioni basate su supposizioni e immaginazione piu’ che su conoscenze effettive su come fosse realmente lo strumento originale. Qualche studioso occidentale arriva persino a dire che il dispositivo di Zhang e’ andato perduto perche’ non e’ mai esistito.

Immagine 4 – Replica del Didong Ji

Personalmente, credo che lo strumento sia esistito.

Le balle, in ambito scientifico, le ritengo un’invenzione piuttosto recente. 🙂

E mi vien da ipotizzare che funzionasse ad acqua, visto che il nostro aveva gia’ costruito un astrolabio ad acqua, ed in quell’epoca in Cina orologi ad acqua erano di uso comune.

Inoltre wikipedia italia contesta il fatto che si possa parlare di sismografo, in quanto non rilevava l’intensita’ del sisma ma solo la direzione. Quest’ultima mi sembra piu’ che altro un questione di lana caprina.

C’e’ poi un’altra domanda: che genere di onde rivelava lo strumento? Onde P o onde S, per dirla in termini moderni?

Beh, se era ad acqua, allora non poteva rilevare le onde P. E dunque, piu’ che per determinare il “buongoverno” questo sismografo serviva per avvertire l’Imperatore di un terremoto in arrivo, e per proteggerlo. E se era ad acqua, allora posso supporre che le perle metalliche nella bocca del drago fossero in uno stato di equilibrio estremamente instabile: appena questo equilibrio veniva turbato, una perla cadeva, e a quel punto dalla bocca del drago che aveva “sputato” la perla usciva piu’ acqua che dalle altre bocche: il sismografo si svuotava velocemente, altre perle non cadevano, e dunque indicava la direzione (o la direzione opposta: come viaggiano queste onde P? ).

Comunque, la cosa piu’ affascinante di tutta questa storia, almeno per me, e’ la vita di Zhang Heng, uno dei piu’ grandi scienziati del suo periodo e dell’intera storia dell’umanita’,  che preferiva ritirarsi in solitudine a studiare la natura che brigare a corte per fare carriera.

Quanti scienziati (o sedicenti tali) dovrebbero imparare da questo antico maestro :-).

Quanti suonatori di piffero e battitori di grancassa delll’AGW, tanto per restare in tema col blog 😛

Pierluigi

Fonti:

 http://www.gap-system.org/~history/Biographies/Zhang_Heng.html

http://it.wikipedia.org/wiki/Dinastia_Han

http://it.wikipedia.org/wiki/Sfera_armillare

http://kaleidoscope.cultural-china.com/en/137Kaleidoscope6712.html

Il campo magnetico interplanetario e l’oscillazione artica

Una correlazione possibile

Qualche mese fa avevo già posto l’accento su una probabile correlazione esistente fra le dinamiche magnetiche e il clima terrestre, ed avevo ipotizzato una possibile relazione fra l’importante accelerazione dello spostamento del polo nord magnetico registrata in quest’ultimi anni e i recenti valori straordinari negativi del indice di teleconnessione arctic oscillation.

http://daltonsminima.altervista.org/?p=11716

Ricordo infatti che da metà dicembre 2009 a metà marzo 2010 tale indice si era posizionato su valori estremamente negativi, arrivando a toccare un valore pari a -6 nel dicembre del 2009.

Questa tendenza negativa si è protratta per tutto il 2010 andando a toccare nuovamente valori fortemente negativi nel dicembre 2010. Viceversa da metà gennaio 2011 ad oggi 20 marzo tale indice è tornato su valori positivi.

Prima d’addentrarci nelle successive analisi è mio dovere comunque riportare alcune righe, che fanno da introduzione e che spiegano brevemente e chiaramente di che cosa stiamo parlando.

http://www.centrometeoitaliano.it/larctic-oscillation-e-le-modifiche-alla-circolazione-emisferica/

Uno tra gli indicidi teleconnessione più interessanti è certamente l’Arctic Oscillation index o AO che misura le anomalie di pressione in prossimità del suolo (1000 hPa)sull’area polare. Quando il valore di questo indice è positivo la pressione sul Polo è inferiore alla media, sintomo di un Vortice Polare molto raccolto e centrato. A livello emisferico ciò determina intensi venti occidentali alle medie latitudini nonché un rinforzo ed un innalzamento generale della fascia anticiclonica subtropicale. Le masse d’aria fredda rimangono cosi confinate alle altissime latitudini le perturbazioni scorrono su Europa settentrionale e Canada mentre più a Sud dominano frequenti anticicloni.

Quando l’indice di oscillazione artica è negativo le masse d’aria fredda sono propense a scendere di latitudine, anche se tuttavia un indice troppo negativo può comunque significare una circolazione polare invertita troppo intensa con aria fredda costretta a muovere da Est verso Ovest ma difficilmente da Nord verso Sud. In questo caso le perturbazioni seguono una traiettoria (storm track) ben più meridionale e sul Polo si assiste alla formazione di cellule di alta pressione. Sul Polo un indice spesso positivo consente il mantenimento della banchisa artica specie in estate mentre al contrario un indice molto negativo può essere deleterio per il pack nella stagione calda vista la propensione dell’aria fredda ad abbandonare il suo luogo di origine.

Detto questo, iniziamo questa trattazione ricordando che più volte in quest’ultimi due anni si è ipotizzato che la bassa attività avesse avuto un ruolo fondamentale su tale anomalo comportamento, andando a destabilizzare il vortice polare.

In questi anni di partecipazione nel blog ho anche spesso evidenziato come tutte le principali dinamiche solari / eliosfera (flare,Cme ect.) ricoprano un ruolo cardine nelle dinamiche geologiche. Perchè non ipotizzare allora la stessa identica cosa con il clima terrestre. Armato quindi di tanta pazienza, sono andato a cercarmi le banche dati, dove sono archiviati, i valori giornalieri sia dell’artic oscillation che del campo magnetico interplanetario. Quindi dopo una ricerca lunga e affannosa sono riuscito a trovare ciò di cui avevo bisogno.

Riporto di seguito link delle due banche dati :

Valore giornaliero oscillazione artica:

ftp://ftp.cpc.ncep.noaa.gov/cwlinks/norm.daily.ao.index.b500101.current.ascii

Valore giornaliero in nanoTesla del campo magnetico interplanetario:

http://www.srl.caltech.edu/ACE/ASC/level2/lvl2DATA_MAG.html

Una breve descrizione della figura sotto riportata.

I dati ricoprono l’intervallo di tempo che va dal 2 Settembre 1997 al 31 Gennaio 2011. Le tracce di colore rosso rappresentano l’andamento dell’arctic oscillation, mentre quelle di colore blu indicano l’andamento del campo magnetico interplanetario. I dati sono stati elaborati utilizzando una media mobile con periodo 15 e sono state inserite anche le linee di tendenza di ordine pari a 6, per entrambi gli indici presi in esame.

Di seguito riporto l’intera elaborazione grafica ( consiglio l’apertura a schermo pieno per una migliore osservazione ) :

Link : http://img38.imageshack.us/img38/4266/grafico1g.jpg


Alcune preliminari considerazioni, ad una prima e veloce analisi visiva è facile osservare che a seguito dell’indebolimento del campo magnetico dell’eliosfera, l’arctic oscillation ( anche se con un certo ritardo a partire dal 2009) si è posizionata stabilmente su valori negativi. Andando invece a spulciare (zummare) nel dettaglio il grafico si notano alcuni passaggi (brevi periodi di tempo dell’ordine da 2 settimane ad un mese) dove si sono registrati dei repentini cambiamenti (salti) dell’ordine di 2 nanoTesla del IMF.

Ho indicato alcuni di questi salti con dei numeri che vanno da 1 a 5.

Di seguito riporto analisi grafica del periodo che va dal Luglio del 1998 al Gennaio 2004.

Link : http://img13.imageshack.us/img13/7291/grafico2f.jpg

I due grafici di seguito riportati sono stati realizzati impiegando una media mobile d’ordine pari a 30.

In questo primo ingrandimento, personalmente mi sembra di scorgere una certa correlazione fra i repentini cambiamenti in positivo o negativo dell’indice dell’arctic oscillation e le veloci variazioni d’intensità del campo magnetico dell’eliosfera. Naturalmente tali ipotetici disturbi (rettangoli siglati con i numeri 1 e 2) sarebbero coincisi con il doppio massimo registrato fra il 1999-2000 e 2000-2001 del ciclo solare n°23.

Siamo comunque però, sempre nel campo delle ipotesi e delle mie personali considerazioni visive. Ognuno di voi potrebbe leggere il contrario di quello da me espresso. Il grafico in conclusione non è molto comprensibile, per il momento appuntiamoci questa considerazione da una parte e procediamo nella successiva analisi. Andiamo adesso a zummare il recente passato, che come mostrato ad inizio articolo è stato foriero di comportamenti anomali dell’indice Ao.

Link : http://img135.imageshack.us/img135/9596/grafico3.jpg

Identica media mobile utilizzata al precedente grafico.

Credo che a questo punto dell’analisi tutti i leciti “dubbi” segnalati in precedenza, sulla possibile correlazione esistentefra questi due importanti indici possano essere cancellati . Tre sono gli intervalli di tempo nel quale queste rapidissime oscillazioni d’intensità del IMF si ripercuoto sul vortice polare nel periodo che va dall’ottobre 2006 al gennaio 2011.

Sconcertante è il picco registrato a fine 2009 inizio 2010 coinciso non a caso con l’ingresso nell’attuale ciclo solare n°24 ! Da ora in avanti abbiamo quindi un nuovo indice da tenere sotto controllo, a medio lungo termine, attraverso il quale possiamo monitorare i futuri disturbi che questo anomalo ciclo solare e successivi potrebbero o non potrebbero arrecare al vortice polare terrestre. Resta da sviscerare questa dinamica, ossia chiarire la vera e propria matematica di questa correlazione. Anche perchè ad oggi sembra che in alcune circostanze ad un repentino incremento del campo magnetico dell’eliosfera si accompagni una forte fase positiva dell’Ao (rettangolo n°3) , mentre in altre circostanze sembra che ad un rapido decremento del campo magnetico dell’eliosfera segua una fase negativa (rettangolo n°4). In conclusione se ad inizio articolo avevamo accennato ad una possibile relazione fra il campo magnetico e il clima terrestre, adesso si che dobbiamo porre un’occhio di riguardo a tutte quelle dinamiche astronomiche che si manifestano non solo all’intero del sistema solare, ma anche, dico io, al di fuori di esso !

Aggiornamento del 03 Aprile 2011

I grafici sotto riportati ri-evidenziano la nuova stretta correlazione, venutasi a creare nel mese di marzo. In simultanea alla nuova ripresa dell’attività solare stiamo registrando dei valori decisamente positivi dell’oscillazione artica. Trattasi di una nuova coincidenza ?

Michele

Marzo 2011: il mese del Massimo?

Diciamolo piano, ma potrebbe essere, magari se non marzo, uno dei prossimi mesi…

Ormai ragiono in questo modo: il ciclo 24 si era contradistinto per la sua prolungata quiete, che praticamente è durata fino a metà febbraio 2011, a cui è seguto questo mese di marzo che ha registrato livelli di attività mai visti finora. La cosa strana è che questo picco si è avuto all’improvviso!

Come può un ciclo che fino a 1 mese e mezzo fa era silente, aver avuto questa impennata così decisa?

Se il ciclo 24 continuasse a crescere d’ora in poi in modo costante fino al suo massimo previsto dai maggiori centri di forecast solari entro a metà 2013, molto probabilmente finirà per essere  di attività persino maggiore di quella ciclo 23 o giù di lì.

Questa è una cosa possibile?

E perchè allora a differenza del ciclo 23 ha avuto nei primi 2 anni un andamento così lento?

E cos’è che ha bloccato il suo normale decorso allora?

Tutte belle domande…e molto probbailmente avremo una risposta proprio nei prossimi mesi, quando l’influsso di Giove sarà di nuovo favorevole ad una nuova fase di bassa attività solare.

Veniamo a noi con la solita caralellata di dati del mese appena finito:

la media mensile solar flux si attesta a 114.48, SN Sidc uguale a 49.4, SN Nia a 25.6.

Notate ancora una volta la grande differenza tra il SN ufficiale e quello del Nia’s, praticamente per il sidc marzo chiude con un SN quasi doppio rispetto al nostro conteggio! Non pretendiamo che il Nia’s sia per forze di cose il conteggio perfetto, ma come più volte ribattuto e se volete dimostrato nelle nostre passate discussioni, secondo noi rispecchia più linearmente i conteggi del passato.

Il mese di aprile si aprirà ancora all’insegna di una moderata attività solare, ma guardando il Behind:

il peggio sembra passato!

Stay tuned, Simon