La legge di Benford (o di Newcombe?) e il taroccamento dei dati sperimentali

Consideriamo una serie di numeri estratti casualmente, in un intervallo di valori diciamo da 1 a un numero molto grande, diciamo [(10 alla n ) -1 ], poi prendiamo questi numeri e consideriamo solo la prima cifra.

Poiche’ la prima cifra non puo’ essere mai zero, e poiche’ i numeri sono estratti casualmente, la frequenza con cui questa prima cifra sara’ 1 sara’ la stessa con la quale sara’ 2, e cosi’ via fino a 9.

Dunque la frequenza sara’ pari a 1/9 = 0,11 (periodico).

Insomma, ogni cifra da 1 a 9 avra’ l’11,11% (periodico) di probabilita’ di essere la prima cifra di uno di questi numeri.

Nel 1881 l’astronomo americano Simon Newcomb osservo’ uno strano fenomeno, che descrisse nell’American Journal of Mathematic; forse l’aneddoto alla base dell’articolo non e’ vero, comunque e’ plausibile.

Newcomb osservo’ che nella biblioteca universitaria le pagine della tavola dei logaritmi che riportavano i logaritmi di numeri che avevano 1 come prima cifra, erano molto piu’ sporche e usurate delle pagine I cui numeri iniziavano con un altra cifra.

Ne dedusse che, per qualche sconosciuto motivo, venivano consultate piu’ spesso.

Ma gli fu controribattuto che in qualsiasi libro al quale si accede alle pagine in modo sequenziale le prime sarebbero state più usate delle ultime (ovviamente nelle tavole dei logaritmi nelle prime pagine I numeri iniziano per 1, nessuno stampa delle tavole dei logaritmi “random” 🙂 ).

Nel 1938 il fisico Frank Benford analizzo’ molte distribuzioni empiriche di dati, e cosi’ gli venne attribuita la legge che porta il suo nome e che dice, piu’ o meno:

In una raccolta di dati reali, la probabilita’ che la cifra x sia la prima cifra del numero che costituisce il singolo dato, e’ pari a:

P(x) = Log10(x+1)-log10(x) = log10(1+1/x)

Per cui la probabilita’ che il primo numero del dato sia 1 e’ molto piu’ alta che non la probabilita’ che sia 2, e cosi’ via fino a 9.

Se non volete farvi i conti, ecco le probabilita’ per le 9 cifre:

P(1)=30,1%

P(2)=17,6%

P(3)=12,5%

P(4)=9,7%

P(5)=7,9%

P(6)=6,7%

P(7)=5,8%

P(8)=5,1%

P(9)=4,6%

Ed ecco un grafico a barre che mostra la distribuzione di probabilita’ in questione.

Non voglio fare un articolo di matematica, primo perche’ non sarei qualificato :-P, e secondo perche’ sono sicuro che annoierebbe la maggior parte di voi.

Pero’ posso dirvi, e potete approfondire nelle fonti, che si puo’ estendere la legge di Benford anche alla distribuzione di probabilita’ della seconda cifra, della terza, e cosi’ via (ovviamente la probabilita’ cambia per la seconda cifra, e per la cifra ennesima le varie probailita’ tendono ad equidistribuirsi, cioe’ a valere 11,11%).

Nel 1995 lo statistico americano Theodore Hill dimostro’ un teorema sulla legge di Benford, e porto’ avanti la teoria matematica sottostante la legge con varie pubblicazioni (di cui potete reperire i titoli sulla pagina di wikipedia dedicata a lui).

Esistono altre leggi simili alla legge di Benford, da utilizzare in altri ambiti.

Ad esempio in ambito linguistico esiste la legge di Zipf, descritta per la prima volta nel 1949 dal

linguista George Kingsley Zipf.

Benoit Mandelbroot, il padre per cosi’ dire della teoria dei frattali, dimostro’ negli anni ’50 che leggi simili possono essere dedotte a partire a dalla teoria dell’informazione di Claude Shannon.

Ma torniamo alla legge di Benford, che e’ quella che interessa a noi.

Questa legge si applica solo ad un insieme di numeri scelti a caso da una data variabile casuale, ma se vengono posti dei limiti, anche inconsapevoli, a questa variabile, l’insieme risultante potrebbe o meno obbedire alla legge..

Detta cosi’ e’ incomprensibile per molti. Cerchiamo di chiarire il punto.

Prendiamo come variabile casuale la profondita’ media di tutti i fiumi, ruscelli, fossi e rigagnoli italiani.

Otterro’ un insieme, che si suppone obbedire alla legge di benford (che, lo ripeto, e’ una legge empirica; cioe’ dedotta dalle osservazioni. In effetti la faccenda e’ piu’ complessa, ma questo non e’ un blog di matematica, quindi prendetevela cosi’ :-P; se invece non avete nulla da fare nel prossimo secolo, potete iniziare a studiarvi la funzione Z di Riemann e dimostrare la sua congettura).

Se adesso decido di prendere, come sottoinsieme, 1000 misure scelte a caso, questo sottoinsieme obbedira’ ancora alla legge di Benford.

Ma se decido di prendere, come sottoinsieme, quello delle misure comprese tra 1 e 4 metri, ovviamente questo sottoinsieme non obbedira’ piu’ alla legge di Benford (perche’ nessuna  misura inziera’ con 5,6,7,8 o 9).

Ora, un insieme di Benford ha una certa varianza, una certa asimmetria, e una certa distribuzione di probabilita’.

Benford mostro’ nella sua pubblicazione che moltissimi fenomeni naturali ubbidiscono alla legge di Benford; l’area dei fiumi; la popolazione dei comuni; il numero di copie stampate dai giornali; il peso atomico; i numeri civici; i tassi di mortalita’, ecc. ecc. ecc. ecc.

Nel 1972, l’economista Hal Varian, personalita’ piuttosto importante negli Stati Uniti, suggeri’ di utilizzare la legge di Benford per verificare i dati presentati a sostegno di iniziative politiche:

se infatti e’ piuttosto facile raccogliere dei dati reali, ed e’ anche molto facile taroccarli, e’ estremamente difficile taroccare dei dati reali in maniera che continuino ad obbedire alla legge di Benford.

Talmente difficile che nel 1992 il commercialista (e matematico) americano Mark Nigrini propose di utilizzare la legge di Benford per verificare le dichiarazioni dei redditi.

E dimostro’, usando dati reali, che le dichiarazioni che non si conformano alla legge di Benford sono fraudolente.

Oggi la California e altri stati americani usano un software che verifica la corispondenza della dechiarazione alla legge di Benford, e se non c’e’ corrispondenza scatta un accertamento fiscale.

Inoltre la legge di Benford puo’ essere estesa anche alle altre cifre, come gia’ detto.

Puo’ essere estesa alle prime x cifre, o alle ultime x cifre, e cosi’ via.

E presenta la notevole proprieta’ di essere invariante di scala: se cioe’ un insieme e’ un insieme di benford (esempio, la lunghezza media di tutti i corsi d’acqua espressa in metri), lo sara’ anche l’insieme ottenuto da quello moltiplicandolo per una qualsiasi costante x (esempio, la stessa lunghezza di prima ma ora espressa in piedi).

Bene, torniamo a noi, e ai dati del sole.

Sono andato al link gentirmente fornitomi da Andrea B (http://www.ngdc.noaa.gov/nndc/struts/results?t=102827&s=5&d=8,430,9 ) e mi sono scaricato i dati mensili del sidc a partire dal 1749.

I dati arrivano fino al 2011, sono abbastanza.

Nella figura, vediamo la distribuzione di benford teorica e quella reale, per tutti i dati a partire dal 1749:

Come potete vedere i dati seguono abbastanza l’andamento della legge di benford, almeno a occhio (francamente non mi va di riprendere in mano il manuale di statistica e mettermi a fare un’analisi piu’ approfondita; per i nostri scopi qui ed ora, l’occhio e’ piu’ che sufficiente :-P)

I valori oscillano tra 0 e 253,8, con un valore medio di 51,89.

Questo spiega perche’ le frequenze del 4 del 5 e del 6 siano leggermente superiori alla media.

Ora, ho diviso i dati in 3 sottoinsiemi: 1749-1849, 1850-1949, 1949-2005, e poi ho fatto un altro sottoinsieme, dal 2006 al 2011.

Ecco cosa accade tra il 1749 e il 1849:

 

Abbastanza simile all’immagine precedente.

Ora l’intervallo 1850-1949:

              

Questa immagine comincia ad essere un po’ diversa… Anche il 7, l’8 e il 9 hanno una frequenza maggiore.

Ad ogni modo, il pattern di Benford (la linea gialla) e ancora rispettato, piu’ o meno.

Ma vediamo cosa accade con i dati dal 1950 al 2005:

 

Abbiamo ancora, piu’ o meno, una curva di Benford, solo che l’1 va chiaramente fuori (piu’ del 10% di

differenza; tutti gli altri numeri, a parte l’8 e il 9, mostrano valori minori di quelli attesi, ma di poco.

E vediamo adesso I dati dal 2006 al 2011, quelli piu’ influenzati dai cambiamenti nel metodo di conteggio:

 

Dei vari grafici, questo e’ quello piu’ anomalo.

Chissa’ perche’?

Ma non e’ finita.

Abbiamo analizzato la distribuzione della prima cifra, vediamo ora la distribuzione della seconda cifra:

1749-1849

  

1849-1949

  

1949-2005

 

2006-2011

AAAAARGHHHHH!!!!!!!!!!!!!!

Cosa e’ successo???

E’ andato tutto in vacca!!!

L’andamento della seconda cifra, nei dati mensili del SIDC dal 2006 al 2011, non ha piu’ nulla a che fare con la legge di Benford.

Ora, una volta in rete si trovavano dei software (tipo quello che ho usato io per questi grafici) per calcolare vari parametri di una distribuzione e verificare che si conformasse alla legge di Benford.

Adesso, non esistono piu’: sono riuscito a trovarne solo uno, ma non funziona.

E il sw che ho utilizzato io (che essendo fortunatamente previdente avevo salvato in un vecchio backup) ora non e’ piu’ disponibile in rete.

Inoltre era stato fatto credo per il 486 e per una versione precedente di windows, infatti per reinstallarlo mi sono dovuto sbattere non poco, e alcune funzionalita’ non vanno piu’ (presumo siano cambiate alcune librerie con winzoz 7).

Spero comunque di avervi fatto conoscere qualcosa di nuovo, e di avervi indicato una strada.

Il punto e’: ma la legge di Benford e’ una vera legge fisica, che si applica a qualunque misura di un fenomeno naturale, o no?

Credo che al momento non si possa rispondere a questa domanda, ma I miei strumenti matematici sono piuttosto limitati, e soprattutto molto ma molto arruginiti. Magari qualcuno all’ascolto puo’ aiutarci.

Una cosa mi sento di poter affermare senza timore di essere smentito:

la legge di Benford e’ abbastanza valida da poter essere usata per stabilire se frodiamo il fisco, almeno negli USA.

Ma sono sicuro che se la usassimo per dimostrare che il fisco froda noi, cioe’ se la usassimo per dimostrare che I dati dell’AGW sono taroccati, allora qualche solerte istituzione statale prontamente dimostrerebbe che a tali dati non si puo’ applicare la legge di Benford.

Io personalmente ritengo che si applichi a qualunque misura di un fenomeno naturale, ma conto poco.

Di sicuro vi consiglio di applicarla ai prospetti informativi che vi fanno firmare prima di vendervi azioni, assicurazioni, e quant’altro ;-).

 Pierluigi

Fonti:

http://it.wikipedia.org/wiki/Hal_Varian

http://www.cut-the-knot.org/do_you_know/zipfLaw.shtml

http://it.wikipedia.org/wiki/Ted_Hill

http://it.wikipedia.org/wiki/Legge_di_Benford

http://it.wikipedia.org/wiki/Legge_di_Zipf

http://it.wikipedia.org/wiki/Hal_Varian

http://it.wikipedia.org/wiki/Mark_Nigrini

http://www.nigrini.com/

http://www.performancetrading.it/Documents/SanFF/188_Utilizzo_della_legge_di_Benford_in_ambito_economico.html

33 pensieri su “La legge di Benford (o di Newcombe?) e il taroccamento dei dati sperimentali

  1. bellissimo! 🙂

    Però ho una domanda.
    Se ho capito bene, prendendo i valori mensili, tu hai fatto insiemi molto grossi ma anche molto piccoli: 1749-1849 (1212 dati), 1850-1949 (1200), 1949-2005 (684), 2006-2011 (72).
    In passato ho sempre notato che più è grande il sottoinsieme dei dati più le deviazioni dalla media globale sono piccole. Quindi mi chiedo: ma se prendi dei sottoinsiemi di dati con la stessa dimensione (tutti gruppi di sei anni per esempio), anche in questo caso il gruppo 2006-2011 risulta il più fuori-media?
    Perché si potrebbe obiettare che la deviazione della media di questi ultimi anni non è legato al taroccamento dati (insomma, il SIDC è un’istituzione così affidabile! 🙂 ) ma solo alla dimensione del sottoinsieme…

      (Quote)  (Reply)

  2. Brjiai :-), e’ vero! In effetti, minore e’ la numerosita’ dell’insieme minore sara’ l’influenza della legge di Benford sulla distribuzione dei dati.
    Ho barato un pochino :-P, e l’ho fatto per due motivi: il primo, come meta-discorso; il secondo, perche’ volevo stimolare un pochino la discussione…
    Comunque, nel caso del SIDC, e’ anche scorretto parlare di “taroccamento”: e’ piu’ corretto dire che non puoi cambiare il metodo di misura dalla sera alla mattina e pretendere di avere dati consistenti con i dati precedenti.
    Se il SIDC e’ in buona fede, sono sicuro che tra 250 anni avremo due insiemi i quali obbediscono antrambi alla legge di benford: l’insieme dei dati 1749-2000, e l’insieme 2000-2250 (posto che abbiano cambiato il modo di contare i dati nel 2000).
    E’ la somma di questi due insiemi che non obbedira’ alla legge di benford.

      (Quote)  (Reply)

  3. Bell’articolo, volevo fare pure io la stessa obiezione di @1, ma mi ha anticipato.

    Giusto per un confronto, non è che hai anche provato col conteggio del “NIA”?
    I dati non partono di certo dal 1749, ma gli ultimi anni sono disponibili.

    Ciao

      (Quote)  (Reply)

  4. In effetti, preso bene da questa legge che non conoscevo, ho provato a mettere i dati su un file excel e plottare le distribuzioni delle cifre su gruppi di 6 anni e di 20 anni. Su 6 anni la variabilità è molto vasta e il caso 2005-2010 (non ho usato il 2011 che ha solo 2 dati) non è meno diverso dalla media degli altri. Su 20 anni la variabilità è molto meno ma anche in questa caso gli ultimi numeri stanno in media…
    Peccato, però! 🙂
    Visto che ci siamo, però, ho qualche dubbio:
    – sulla prima cifra capisco la legge di Benford, mentre sulla seconda proprio no. La seconda direi che deve essere assolutamente casuale. Dal mio file excel in effetti sembra più casuale che Benford
    – dalla seconda cifra in poi, come conta lo 0 Benford?
    – mi chiedevo se questa legge è modificabile a seconda del massimo raggiungibile dal valore considerato. Cioè, se il massimo è 800, allora la distribuzione è più schiacciata, se il massimo è 180 allora sarà sicuramente più piccata sull’1…

    grazie! 🙂

      (Quote)  (Reply)

  5. @ Kjai
    Essendo la legge invariante di scala, basta moltiplicare i valori per un’opportuno fattore x.
    Se ad esempio il minimo dei valori e’ 1 e il massimo dei valori e’ 270, allora moltiplicando tutti i valori per 999/270 ottengo un nuovo insieme di valori distribuito tra 1 e 999.

    Per la seconda cifra, su wikipedia c’e’ la legge:
    P(y=n) per n=0,…9, = somma su K da 1 a 9 di {log in base 10 di[1+1/(10k+n)]}.

    Riguardo se la legge e’ modificabile in base al massimo raggiungibile, no. La legge e’ quella.
    Come tutte le leggi statistiche, ovviamente, la curva teorizzata verra’ sempre piu’ approssimata man mano che cresce la numerosita’ del campione.
    Pero’ ripeto, la legge e’ invariante di scala. Per evitare effetti strani, basta scegliere una scala adatta ad avere il valori del campione che inizino con tutte le cifre.
    C’e’ anche il problema opposto: se la legge e’ invariante di scala, ed ho dei campioni il cui valore varia tra 0 e 800, dividendo tutti i valori per 800 avro’ come cifra iniziale solo degli 1.
    E’ chiaro che il risultato e’ assurdo, ma solo perche’ e’ sbagliata la “scala” alla quale ossevo il fenomeno.

    Comunque se mi dai i dati NIA, che non so dove trovare, faccio due grafici pure io 🙂

      (Quote)  (Reply)

  6. Innanzi tutto complimenti a Pierluigi!
    Poi,visto che siamo in argomenti grafico matematici…
    Volevo farvi notare l’andamento particolare dei ghiacci al Nord …. Guardate il piatto e la derivata che sta zompetando attorno allo zero….

    http://www.iup.uni-bremen.de:8084/amsr/ice_ext_n.png

    http://www.iup.uni-bremen.de:8084/amsr/ext_rates_n.png

    Sta succedendo la stessa cosa che era successa l’estate scorsa per il massimo al polo Sud….

    Qualche idea???

    Ciao
    Luca

      (Quote)  (Reply)

  7. AO costantemente positivo per 3 mesi di fila…..avremo un andamento stile 2006, con minimo estivo molto buono……

    nitopi :
    Innanzi tutto complimenti a Pierluigi!
    Poi,visto che siamo in argomenti grafico matematici…
    Volevo farvi notare l’andamento particolare dei ghiacci al Nord …. Guardate il piatto e la derivata che sta zompetando attorno allo zero….
    http://www.iup.uni-bremen.de:8084/amsr/ice_ext_n.png
    http://www.iup.uni-bremen.de:8084/amsr/ext_rates_n.png
    Sta succedendo la stessa cosa che era successa l’estate scorsa per il massimo al polo Sud….
    Qualche idea???
    Ciao
    Luca

      (Quote)  (Reply)

  8. OT sole:
    Non so se qualcuno l’abbia già detto in qualche altra sezione…..nell’emisfero sud a latitudine bassa si è sviluppata una bella regione da ciclo dispari con macchie all’interno….!!!!Mi sembra sia davvero la volta buona…….

      (Quote)  (Reply)

  9. @Riccardo
    non direi proprioi,in questo periodo con un AO del genere si fa in fretta a distruggere vaste aree ghiacciate http://www.persicetometeo.com/public/popup/indice_ao.htm speriamo davvero che non vada sotto altrimenti sono guai grossi.Anche una vasta area di copertura nevosa e stata ripulita in pochi giorni andando cosi’ sottomedia per il periodo.Sul polo e’ inoltre in atto uno Stratwarming imponente.Io andrei piano a tirare somme.Non so come si mettera.

      (Quote)  (Reply)

  10. Nelle prossime 90-120 ore e’ prevista una bella 1030hpa centrata sul polo.l’aleutinico preme deciso e il mare ghiacciato prossimo allo stretto di bering e’ gia’ segnato.

      (Quote)  (Reply)

  11. @ giorgio
    VP compatto genera basse estensioni durante la stagione invernale e buone estensioni durante l’estate….è ovvio che alla fine della stagione invernale se l’estensione è bassissima (causa AO++ nei mesi di gennaio febbraio marzo) c’è poco da sciogliere e dunque l’estensione rimane costante per un bel pò…su questo penso ci sia poco da obiettare….questa stagione è l’esatto opposto di quella passata e un ramake del 2006 (sia per ciò che concerne l’inverno che l’estate)……..

      (Quote)  (Reply)

  12. Riccardo :

    OT sole:
    Non so se qualcuno l’abbia già detto in qualche altra sezione…..nell’emisfero sud a latitudine bassa si è sviluppata una bella regione da ciclo dispari con macchie all’interno….!!!!Mi sembra sia davvero la volta buona…….

    Si avevo riportato un mex ieri…ma poi vista l’ora tarda…è andato nel dimenticatoio !
    Riporto :

    OT solare

    Scusate ma la macchia che sta per affacciarsi è una nuova AR ?
    Su solarcycle è stata battezzata per il momento “new1″….inoltre mi sbaglio o la sua latitudine e più bassa delle precedenti …..

      (Quote)  (Reply)

  13. Riccardo :

    @ michele
    No michele io mi riferisco alla macchia nel sud emisfero….mi sono espresso male, intendevo dire che la sua latitudine è alta…….

    Aspettiamo Simon …stasera penso che ci dirà qualcosa a riguardo !

      (Quote)  (Reply)

  14. @ giorgio
    Dai giorgio l’unica cosa buona dell’ AO++ è la capacità di preservare i ghiacci durante le stagioni calde, impedendo lo stazionamento duraturo di hp sul polo….vedrai che dopo questo final warming tornerà tutto in una situazione canonica (ma per noi positiva)….DIAMO A CESARE QUEL CHE è DI CESARE OGNI TANTO…..

      (Quote)  (Reply)

  15. @ giorgio
    Poi a giudicare dai modelli e dal diagramma AO non mi sembra che ci sarà un cataclisma….
    http://www.meteociel.fr/modeles/gfse_cartes.php?&ech=192&mode=0&carte=1
    te lo ripeto, più avanti si andrà con la stagione e più le cosa potranno migliorare, proprio grazie alla NINA e alla QBO+….dunque nulla di nuovo all’orizzonte….la grande novità forse ci aspetta all’inizio della prossima stagione autunnale, novità che ci regalerà un grandissimo inverno…..

      (Quote)  (Reply)

  16. l’articolo è molto interessante, ma bisogna fare il test chi quadrato per verificare se la stima della legge di probabilità è statisticamente accettabili.
    perchè il grafico in se non può dire molto, ci vuole il test, ma non ho idea di come muovermi con questa legge e ci vogliono i dati teorici e quelli misurati che non ho.

      (Quote)  (Reply)

  17. Fabio Nintendo :l’articolo è molto interessante, ma bisogna fare il test chi quadrato per verificare se la stima della legge di probabilità è statisticamente accettabili

    Non capisco…
    Non e’ particolarmente difficile fare il test del chi quadro per questa distribuzione… 😮
    Anzi…
    I dati teorici vengono dalla formula di Benford, quelli misurati li ho preso da qualche parte dove qualcuno mi ha detto che erano, credo un sito della Nasa o roba del genere.

    Ad ogni modo mi pare che l’argomento interessi, quindi quando ho tempo vado avanti e faccio una seconda parte, perche’ c’e’ ancora tanto da dire sul taroccamento dei dati, su come di fatto sia impossibile taroccare dei dati in maniera che sembrino reali, su come le nostre percezioni spesso ci ingannino sulla possibilita’ di un evento, su come e perche’ eventi estremi siano molto piu’ comuni di quanto si creda, su come e perche’ eventi che sembrano certi siano invece estremamente improbabili, e quindi, in ultima analisi, del perche’ sia pericolosissimo costruire centali nucleari in Italia o ovunque nel mondo 😛

      (Quote)  (Reply)

  18. Pierluigi :
    @ Kjai
    Essendo la legge invariante di scala, basta moltiplicare i valori per un’opportuno fattore x.

    Per la seconda cifra, su wikipedia c’e’ la legge:
    P(y=n) per n=0,…9, = somma su K da 1 a 9 di {log in base 10 di[1+1/(10k+n)]}.
    Riguardo se la legge e’ modificabile in base al massimo raggiungibile, no. La legge e’ quella.

    Comunque se mi dai i dati NIA, che non so dove trovare, faccio due grafici pure io

    azz… che sia un’invariante di scala è assolutamente incredibile ma è proprio vero… pazzesco… 🙂

    invece con le cifre successive, anche se questa legge continua clamorosamente a valere, la distribuzione si appiattisce notevolmente. Sulla seconda cifra c’è ancora una piccola differenza (le percentuali sono, dallo 0 al 9: 12.0; 11.4; 10.9; 10.4; 10.0; 9.7; 9.3; 9.0; 8.8; 8.5), però molto minore che sulla prima cifra. Sulla terza lo 0 ha una probabilità del 10.2%, il 9 del 9.8%. Praticamente piatta.

    Riguardo all’applicabilità, leggevo che funziona solo in casi in cui i dati spaziano su vari ordini di grandezza, quindi nel caso del sunspot number siamo già un po’ al limite, visto che i numeri variano da 0 a 250. In ogni caso sul totale del sunspot number dal 1800 ad oggi funziona abbastanza bene, mentre su gruppi piccoli (6 anni) meno… E i giorni spotless inficiano un po’ i dati sulla seconda cifra, dove lo 0 diventa troppo “favorito”.
    Comunque è tutto molto molto carino, grazie per avermi fatto scoprire tutto ciò 🙂

    Per i dati NIA sorry ma io non li ho…

    Se qualcuno volesse giocare un po’ con questa roba gli posso mandare il file excel con tutti i conti sui dati SIDC del sunspot number… io ammetto che mi ci sono divertito 🙂

      (Quote)  (Reply)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Immagine CAPTCHA

*

Aggiungi una immagine

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.