Archivi tag: sidc

La legge di Benford (o di Newcombe?) e il taroccamento dei dati sperimentali

Consideriamo una serie di numeri estratti casualmente, in un intervallo di valori diciamo da 1 a un numero molto grande, diciamo [(10 alla n ) -1 ], poi prendiamo questi numeri e consideriamo solo la prima cifra.

Poiche’ la prima cifra non puo’ essere mai zero, e poiche’ i numeri sono estratti casualmente, la frequenza con cui questa prima cifra sara’ 1 sara’ la stessa con la quale sara’ 2, e cosi’ via fino a 9.

Dunque la frequenza sara’ pari a 1/9 = 0,11 (periodico).

Insomma, ogni cifra da 1 a 9 avra’ l’11,11% (periodico) di probabilita’ di essere la prima cifra di uno di questi numeri.

Nel 1881 l’astronomo americano Simon Newcomb osservo’ uno strano fenomeno, che descrisse nell’American Journal of Mathematic; forse l’aneddoto alla base dell’articolo non e’ vero, comunque e’ plausibile.

Newcomb osservo’ che nella biblioteca universitaria le pagine della tavola dei logaritmi che riportavano i logaritmi di numeri che avevano 1 come prima cifra, erano molto piu’ sporche e usurate delle pagine I cui numeri iniziavano con un altra cifra.

Ne dedusse che, per qualche sconosciuto motivo, venivano consultate piu’ spesso.

Ma gli fu controribattuto che in qualsiasi libro al quale si accede alle pagine in modo sequenziale le prime sarebbero state più usate delle ultime (ovviamente nelle tavole dei logaritmi nelle prime pagine I numeri iniziano per 1, nessuno stampa delle tavole dei logaritmi “random” :-) ).

Nel 1938 il fisico Frank Benford analizzo’ molte distribuzioni empiriche di dati, e cosi’ gli venne attribuita la legge che porta il suo nome e che dice, piu’ o meno:

In una raccolta di dati reali, la probabilita’ che la cifra x sia la prima cifra del numero che costituisce il singolo dato, e’ pari a:

P(x) = Log10(x+1)-log10(x) = log10(1+1/x)

Per cui la probabilita’ che il primo numero del dato sia 1 e’ molto piu’ alta che non la probabilita’ che sia 2, e cosi’ via fino a 9.

Se non volete farvi i conti, ecco le probabilita’ per le 9 cifre:

P(1)=30,1%

P(2)=17,6%

P(3)=12,5%

P(4)=9,7%

P(5)=7,9%

P(6)=6,7%

P(7)=5,8%

P(8)=5,1%

P(9)=4,6%

Ed ecco un grafico a barre che mostra la distribuzione di probabilita’ in questione.

Non voglio fare un articolo di matematica, primo perche’ non sarei qualificato :-P, e secondo perche’ sono sicuro che annoierebbe la maggior parte di voi.

Pero’ posso dirvi, e potete approfondire nelle fonti, che si puo’ estendere la legge di Benford anche alla distribuzione di probabilita’ della seconda cifra, della terza, e cosi’ via (ovviamente la probabilita’ cambia per la seconda cifra, e per la cifra ennesima le varie probailita’ tendono ad equidistribuirsi, cioe’ a valere 11,11%).

Nel 1995 lo statistico americano Theodore Hill dimostro’ un teorema sulla legge di Benford, e porto’ avanti la teoria matematica sottostante la legge con varie pubblicazioni (di cui potete reperire i titoli sulla pagina di wikipedia dedicata a lui).

Esistono altre leggi simili alla legge di Benford, da utilizzare in altri ambiti.

Ad esempio in ambito linguistico esiste la legge di Zipf, descritta per la prima volta nel 1949 dal

linguista George Kingsley Zipf.

Benoit Mandelbroot, il padre per cosi’ dire della teoria dei frattali, dimostro’ negli anni ’50 che leggi simili possono essere dedotte a partire a dalla teoria dell’informazione di Claude Shannon.

Ma torniamo alla legge di Benford, che e’ quella che interessa a noi.

Questa legge si applica solo ad un insieme di numeri scelti a caso da una data variabile casuale, ma se vengono posti dei limiti, anche inconsapevoli, a questa variabile, l’insieme risultante potrebbe o meno obbedire alla legge..

Detta cosi’ e’ incomprensibile per molti. Cerchiamo di chiarire il punto.

Prendiamo come variabile casuale la profondita’ media di tutti i fiumi, ruscelli, fossi e rigagnoli italiani.

Otterro’ un insieme, che si suppone obbedire alla legge di benford (che, lo ripeto, e’ una legge empirica; cioe’ dedotta dalle osservazioni. In effetti la faccenda e’ piu’ complessa, ma questo non e’ un blog di matematica, quindi prendetevela cosi’ :-P; se invece non avete nulla da fare nel prossimo secolo, potete iniziare a studiarvi la funzione Z di Riemann e dimostrare la sua congettura).

Se adesso decido di prendere, come sottoinsieme, 1000 misure scelte a caso, questo sottoinsieme obbedira’ ancora alla legge di Benford.

Ma se decido di prendere, come sottoinsieme, quello delle misure comprese tra 1 e 4 metri, ovviamente questo sottoinsieme non obbedira’ piu’ alla legge di Benford (perche’ nessuna  misura inziera’ con 5,6,7,8 o 9).

Ora, un insieme di Benford ha una certa varianza, una certa asimmetria, e una certa distribuzione di probabilita’.

Benford mostro’ nella sua pubblicazione che moltissimi fenomeni naturali ubbidiscono alla legge di Benford; l’area dei fiumi; la popolazione dei comuni; il numero di copie stampate dai giornali; il peso atomico; i numeri civici; i tassi di mortalita’, ecc. ecc. ecc. ecc.

Nel 1972, l’economista Hal Varian, personalita’ piuttosto importante negli Stati Uniti, suggeri’ di utilizzare la legge di Benford per verificare i dati presentati a sostegno di iniziative politiche:

se infatti e’ piuttosto facile raccogliere dei dati reali, ed e’ anche molto facile taroccarli, e’ estremamente difficile taroccare dei dati reali in maniera che continuino ad obbedire alla legge di Benford.

Talmente difficile che nel 1992 il commercialista (e matematico) americano Mark Nigrini propose di utilizzare la legge di Benford per verificare le dichiarazioni dei redditi.

E dimostro’, usando dati reali, che le dichiarazioni che non si conformano alla legge di Benford sono fraudolente.

Oggi la California e altri stati americani usano un software che verifica la corispondenza della dechiarazione alla legge di Benford, e se non c’e’ corrispondenza scatta un accertamento fiscale.

Inoltre la legge di Benford puo’ essere estesa anche alle altre cifre, come gia’ detto.

Puo’ essere estesa alle prime x cifre, o alle ultime x cifre, e cosi’ via.

E presenta la notevole proprieta’ di essere invariante di scala: se cioe’ un insieme e’ un insieme di benford (esempio, la lunghezza media di tutti i corsi d’acqua espressa in metri), lo sara’ anche l’insieme ottenuto da quello moltiplicandolo per una qualsiasi costante x (esempio, la stessa lunghezza di prima ma ora espressa in piedi).

Bene, torniamo a noi, e ai dati del sole.

Sono andato al link gentirmente fornitomi da Andrea B (http://www.ngdc.noaa.gov/nndc/struts/results?t=102827&s=5&d=8,430,9 ) e mi sono scaricato i dati mensili del sidc a partire dal 1749.

I dati arrivano fino al 2011, sono abbastanza.

Nella figura, vediamo la distribuzione di benford teorica e quella reale, per tutti i dati a partire dal 1749:

Come potete vedere i dati seguono abbastanza l’andamento della legge di benford, almeno a occhio (francamente non mi va di riprendere in mano il manuale di statistica e mettermi a fare un’analisi piu’ approfondita; per i nostri scopi qui ed ora, l’occhio e’ piu’ che sufficiente :-P)

I valori oscillano tra 0 e 253,8, con un valore medio di 51,89.

Questo spiega perche’ le frequenze del 4 del 5 e del 6 siano leggermente superiori alla media.

Ora, ho diviso i dati in 3 sottoinsiemi: 1749-1849, 1850-1949, 1949-2005, e poi ho fatto un altro sottoinsieme, dal 2006 al 2011.

Ecco cosa accade tra il 1749 e il 1849:

 

Abbastanza simile all’immagine precedente.

Ora l’intervallo 1850-1949:

              

Questa immagine comincia ad essere un po’ diversa… Anche il 7, l’8 e il 9 hanno una frequenza maggiore.

Ad ogni modo, il pattern di Benford (la linea gialla) e ancora rispettato, piu’ o meno.

Ma vediamo cosa accade con i dati dal 1950 al 2005:

 

Abbiamo ancora, piu’ o meno, una curva di Benford, solo che l’1 va chiaramente fuori (piu’ del 10% di

differenza; tutti gli altri numeri, a parte l’8 e il 9, mostrano valori minori di quelli attesi, ma di poco.

E vediamo adesso I dati dal 2006 al 2011, quelli piu’ influenzati dai cambiamenti nel metodo di conteggio:

 

Dei vari grafici, questo e’ quello piu’ anomalo.

Chissa’ perche’?

Ma non e’ finita.

Abbiamo analizzato la distribuzione della prima cifra, vediamo ora la distribuzione della seconda cifra:

1749-1849

  

1849-1949

  

1949-2005

 

2006-2011

AAAAARGHHHHH!!!!!!!!!!!!!!

Cosa e’ successo???

E’ andato tutto in vacca!!!

L’andamento della seconda cifra, nei dati mensili del SIDC dal 2006 al 2011, non ha piu’ nulla a che fare con la legge di Benford.

Ora, una volta in rete si trovavano dei software (tipo quello che ho usato io per questi grafici) per calcolare vari parametri di una distribuzione e verificare che si conformasse alla legge di Benford.

Adesso, non esistono piu': sono riuscito a trovarne solo uno, ma non funziona.

E il sw che ho utilizzato io (che essendo fortunatamente previdente avevo salvato in un vecchio backup) ora non e’ piu’ disponibile in rete.

Inoltre era stato fatto credo per il 486 e per una versione precedente di windows, infatti per reinstallarlo mi sono dovuto sbattere non poco, e alcune funzionalita’ non vanno piu’ (presumo siano cambiate alcune librerie con winzoz 7).

Spero comunque di avervi fatto conoscere qualcosa di nuovo, e di avervi indicato una strada.

Il punto e': ma la legge di Benford e’ una vera legge fisica, che si applica a qualunque misura di un fenomeno naturale, o no?

Credo che al momento non si possa rispondere a questa domanda, ma I miei strumenti matematici sono piuttosto limitati, e soprattutto molto ma molto arruginiti. Magari qualcuno all’ascolto puo’ aiutarci.

Una cosa mi sento di poter affermare senza timore di essere smentito:

la legge di Benford e’ abbastanza valida da poter essere usata per stabilire se frodiamo il fisco, almeno negli USA.

Ma sono sicuro che se la usassimo per dimostrare che il fisco froda noi, cioe’ se la usassimo per dimostrare che I dati dell’AGW sono taroccati, allora qualche solerte istituzione statale prontamente dimostrerebbe che a tali dati non si puo’ applicare la legge di Benford.

Io personalmente ritengo che si applichi a qualunque misura di un fenomeno naturale, ma conto poco.

Di sicuro vi consiglio di applicarla ai prospetti informativi che vi fanno firmare prima di vendervi azioni, assicurazioni, e quant’altro ;-).

 Pierluigi

Fonti:

http://it.wikipedia.org/wiki/Hal_Varian

http://www.cut-the-knot.org/do_you_know/zipfLaw.shtml

http://it.wikipedia.org/wiki/Ted_Hill

http://it.wikipedia.org/wiki/Legge_di_Benford

http://it.wikipedia.org/wiki/Legge_di_Zipf

http://it.wikipedia.org/wiki/Hal_Varian

http://it.wikipedia.org/wiki/Mark_Nigrini

http://www.nigrini.com/

http://www.performancetrading.it/Documents/SanFF/188_Utilizzo_della_legge_di_Benford_in_ambito_economico.html

In questi giorni ho un pò “giocato” col NIA’s Count…

Era un pò che mi sfiorava l’idea…solo che oltre al tempo, mi mancava anche la voglia…ma 2 pomeriggi fa mi sono messo sotto e servendomi dell’archivio del SOHO Continuum ho calcolato il NIA’s SN a partire da Gennaio 2008 fino a Dicembre 2009, i 2 anni che ci mancavano all’appello.

Premetto fin da subito che questi sono dati parziali, ma per quanto non ancora definitivi, credo che non si discosteranno di tanto dall’ultima revisione ad opera di Fabio, che di fatto renderà questi dati ufficiali.

Partiamo subito con la carrellata:

NIA SIDC
Gen 2008 0,8 3,3
Feb 2008 0,5 2,1
Mar 2008 6,0 9,3
Apr 2008 1,2 2,9
Mag 2008 0,6 3,2
Giu 2008 1,8 3,4
Lug 2008 0,0 0,8
Ago 2008 0,0 0,5 *
Set 2008 0,3 1,1
Ott 2008 1,5 2,9
Nov 2008 1,2 4,1
Dic 2008 0,5 0,8
Gen 2009 0,7 1,3
Feb 2009 0,0 1,4
Mar 2009 0,0 0,7
Apr 2009 0,0 0,8
Mag 2009 0,0 2,9
Giu 2009 1,9 2,9
Lug 2009 2,5 3,2
Ago 2009 0,0 0,0
Set 2009 2,6 4,3
Ott 2009 2,9 4,8
Nov 2009 1,0 4,1
Dic 2009 5,5 10,8
Gen 2010 10,3 13,2
Feb 2010 13,6 18,8
Mar 2010 10,5 15,4
Apr 2010 4,1 8,0
Mag 2010 3,3 8,7
Giu 2010 5,9 13,6
Lug 2010 8,8 16,1 **
Ago 2010 10,2 19,6 **
Set 2010 13,2 25,2 **
Ott 2010 13,3 23,5 **
*Agosto 2008 è il mese del famoso scandalo che fece il giro del pianeta ed in cui per la prima volta sentimmo parlare di Catania
**dati SIDC provvisori

Dunque cosa ne deduciamo?

Che è ormai assodato che il NIA’s Count non contando, come faceva Wolf, le macchie più piccole ed i pore, ed usando a tale scopo il sistema inventato da Luca Nitopi, ha dei SN mensili più bassi di quelli del SIDC, l’organo ufficiale che da decenni ormai è il punto di riferimento mondiale nel conteggio delle macchie solari.

E su questo ormai ci siamo tutti…ma la cosa che salta subito all’occhio, che mentre nel 2008 e 2009 non vi era tutta questa gran discrepanza tra il NIA’ s SN e l’RI, (gli unici mesi in cui si avverte di più la differenza erano quelli in cui guarda il caso si pompavano di più i conteggi magari sperando che fosse la volta buona che il sole si svegliasse,e a tal proposito, non so se vi ricordate le incavolature, ma io si) mentre nel 2010, anzi precisamente dalla primavera del 2010, questo rapporto si rompe, raggiungendo negli ultimi 3-4 mesi una differenza inspiegabile!

Un po’ dipenderà anche dal fatto che il sole ha accelerato, ma non basta a spiegare molte cose…sembra quasi ci sia una volontà, gli anni prima più celata anche perchè il sole era proprio morto, di vederlo ripartire a tutti i costi.

Poi se volete possiamo soffermarci anche su altre cose, tipo il fatto che per il NIA’s il minimo del ciclo 24 avrebbe totalizzato la bellezza di 7 mesi con SN pari a 0, che i giorni spotless totali sarebbero molti di più degli 809 ufficiali, che i giorni spotless consecutivi avrebbero di certo battuto il record di 92 (mi pare) giorni senza macchie consecutivi, ect ect…

Ma ribadisco che per me la questione è un’altra: perchè ad un certo punto la forbice tra i 2 conteggi aumenta in modo quasi esponenziale, tanto che per il SIDC il sole è ormai mese per mese costantemente in crescita, mentre per il NIA’s deve ancora superare il suo massimo datato a febbraio 2010? ( e chissà perchè a tal proposito l’andamento medio del Solar Flux conferma quello del NIA’s e sbugiarda quello del SIDC?)

Forse gli osservatori del SIDC sono diventati più zelanti, o magari gli hanno rimpiazzati con altri più bravi?

Forse è tutto un caso?

Forse solo io noto questa discrepanza che va aumentando mese dopo mese?

Forse c’è qualcuno che preme affinchè questo sole riparta quando invece non è ripartito, o comunque non come vorrebbero loro?

Si ma chi sono questi loro?

Forse sono solo un complottista che voglio vedere del marcio anche quando invece non c’è?

Se fosse così, cioè se io fossi davvero un mal pensante, perchè tutti gli altri indici solari, Solar Flux in primis, sembrano seguire più l’andamento di un minimo ingolfato e non un sole che ogni mese, ultimamente, sta avendo il SN più alto di quello precedente, e se non ci riescono con i primi dati, ce la fanno con la revisione mensile?

Continuerò a cercare risposte, di certo, complottista o no, (inizia quasi a piacermi sto sostantivo, grazie prof Bardi), qualche conto non mi torna, e finchè non vedrò il sole che si “merita” quei SN mensili che gli rifilano, con tanto quindi di media del Solar Flux arrivare almeno a 90 (capisco che 100 è troppo!) e con un NIA’s Count che sale di conseguenza, ebbene, si cari amici, continuerò la mia battaglia…

Simon

LE OSSERVAZIONI CON TELESCOPI A BASSA RISOLUZIONE CONFERMANO LA LOTTA DI NIA SULLA INEDEGUATEZZA DEI CONTEGGI MODERNI RISPETTO AL PASSATO!

Premesse 

La diffusione della strumentazione telescopica dall’inizio del 17° secolo è stata una rivoluzione nell’astronomia che ha condotto ad una maggiore conoscenza delle macchie solari. Si trattava però di telescopi di limitata potenza.

Eppure questi strumenti hanno lavorato bene durante il minimo di Maunder e di Dalton, fornendoci un marea di informazioni che usiamo attualmente come termine di paragone.

J.M. Vaquero del Dipartimento di Fisica Applicata dell’Universidad de Extremadura a Cáceres (Spagna) ha usato le rilevazioni di tutta Europa eseguite con questi telescopi per creare il suo database delle macchie solari presenti sul nostro astro nei secoli passati. Nella sua compilazione se in un sito di rilevazione erano presenti delle nuvole nell’altro il cielo era sereno. Ciò gli ha permesso di mettere assieme dei dati molto attendibili in una scala temporale molto ampia.

Molti astronomi all’epoca usavano proiettare l’immagine su uno schermo per non rovinarsi la vista e poi tracciavano il disegno delle macchie solari su carta. Solo successivamente sono stati usati dei vetri oscurati per l’osservazione diretta.

Poi dagli anni 50-60 sono comparsi dei filtri molto più selettivi a cominciare da quelli della banda H-alfa.

Molto esaustiva la spiegazione, per capire il salto qualitativo raggiunto da questi filtri, fornita da un progettista della Coronado, famosa per i suoi telescopi solari dedicati:

La luce del Sole ha una sua “firma” inconfondibile, derivante dai vari elementi che lo compongono. Quando se ne osserva lo spettro si possono notare molte linee scure (linee di assorbimento) dovute all’azione di filtraggio esercitata sulla luce continua (quella che va dal lontano rosso al violetto) da quegli stessi elementi a diversi livelli della struttura solare mentre la luce procede verso lo spazio esterno.

Se si utilizzano degli strumenti che permettono di osservare il Sole in una di queste linee, il suo disco verrò osservato solo nella lunghezza d’onda di emissione dell’elemento che le ha prodotte. I filtri Coronado servono proprio a questo scopo. Sebbene vengano fatte osservazioni su quasi tutte le innumerevoli linee dello spettro, ve ne sono alcune che sono più importanti delle altre al fine di osservare i più significativi fenomeni solari.

Alla lunghezza d’onda di 656.28 nanometri (nm) si ha l’emissione più importante dell’elemento Idrogeno (H). Poiché questa e stata la prima linea mappata nello spettro solare, gli si è dato il nome di Idrogeno-Alfa (H-alfa). Proseguendo nel profondo violetto, troviamo un’altra importante riga di emissione, quella del Calcio-K (CaK), alla lunghezza d’onda di 393.3 nm.

Queste due sole linee ci consentono di trarre informazioni sulla maggior parte dei fenomeni veramente importanti che avvengono nel Sole: le protuberanze, le strutture che circondano le macchie solari (facole), le granularità, i flare, e molte altre. Poiché l’elemento che costituisce in maggior misura il Sole e l’idrogeno, la più importante di queste righe e proprio quella dell’H-alfa.“.

Ma la maggior parte delle rilevazioni fino agli anni ’20 non avevano questa tecnologia, le protuberanze, i flare e le granularità rimanevano di difficile osservazione.

Infatti se si guarda il Sole con un telescopio con filtro H-alfa si vedono cose che i vecchi astronomi non potevano proprio vedere e quasi tutti i grandi telescopi hanno ora questo tipo di filtraggio.

Anche l’immagine del Continuum di SOHO usa un filtro che fa vedere molto di più dei normali filtri per luce bianca.

Il MDI (Michelson Doppler Imager) di SOHO ha immagini prese vicino alla linea Ni I 6768 Angstrom. A questa lunghezza le caratteristiche più accentuate sono le macchie solari, ma si vede anche qualcosa di più, come certi pore che non sono assolutamente visibili da terra con i normali filtri per luce bianca.

Ma attualmente i filtri per luce bianca, dall’Astrosolar ai filtri in classe A o B, montabili su un telescopio amatoriale non sono molto dissimili nella possibilità di osservazione dai telescopi degli ultimi 300 anni.

Materiali e metodi

Il mio progetto di ricerca in atto è basato su una seconda osservazione del Sole con un telescopio a minor risoluzione che possa simulare un tipo di osservazione sovrapponibile a quella dei secoli passati.

Il mio termine di paragone nella scelta del modello di telescopio da utilizzare si è incentrata sul telescopio usato proprio dall’astronomo Rudolf Wolf nel 1848, inventore del numero di Wolf che consente la stima dell’attività solare in funzione del numero e della complessità delle regioni attive osservabili sulla fotosfera in luce bianca.

Questo telescopio, ancora in uso presso l’osservatorio di Zurigo, è un telescopio rifrattore di Fraunhofer di 80 mm di apertura e di 1100 mm di lunghezza focale, impiegato a 64 x.

Questo telescopio, che oggi appare obsoleto, servì a Wolf per confermare le osservazioni dell’astrofilo tedesco Schwabe, secondo il quale l’andamento dell’attività solare risultava modulato nel tempo e presentava un’ampiezza media di 11 anni. Quindi una strumentazione semplice, ma in grado di ottenere risultati più che notevoli.

Per le mie osservazioni utilizzo un telescopio rifrattore di circa 60 mm di apertura e una lunghezza focale di 1200 mm, quindi leggermente con una minore apertura, ma con una lunghezza focale un po’ più grande di quello usato personalmente da Wolf: di conseguenza con delle prestazioni quasi sovrapponibili ai telescopi usati fino a un secolo fa. Il filtro è autocostruito con foglio Astrosolar della Baader.

Il punto di osservazione e sulle Dolomiti in Trentino a 746 m. s.l.m. (Lat 46° 10′ 36″ N, Long 11° 49′ 56″ E)

Le osservazioni sono effettuate giornalmente di solito al mattino presto, quando il seeing (la turbolenza atmosferica, ossia la distorsione della visione dovuta alla diversa velocità degli strati d’aria contigui) è più basso. Se il cielo appare nuvoloso le osservazioni vengono spostate al pomeriggio. In ogni caso, come nei tempi passati, l’osservazione è unica nella giornata.

Attraverso questo telescopio viene eseguita una serie di fotografie con fotocamera digitale reflex (Olympus E-30 o E-420 di riserva) in formato jpg, circa 30-40, per simulare un’osservazione visiva continuata nel tempo di circa mezzora, ma senza l’intervento di alcun software di sintesi dell’immagine. Nella ripresa è applicato un filtro giallo-verde che non modifica l’immagine ricevuta, ma filtra semplicemente la dominante violetta dello spettro ottenuto con il filtro per luce bianca del filtro Astrosolar.

Tra le immagini riprese, viene scelta la migliore, ottenuta quando il seeing è più ridotto (il seeing si modifica in qualche secondo), che viene messa in rete. A questa, nel caso della presenza di macchie di un certo interesse, viene aggiunto un particolare della stessa immagine corretta solo nei toni del contrasto per simulare la sostituzione nel telescopio con un oculare di maggiore potenza per l’osservazione dei particolari.

In nessun caso, va sottolineato, le immagini sono trattate con il computer per favorire l’evidenza di rilievi non percepibili semplicemente con l’occhio dell’osservatore fissato sul telescopio direttamente.

Tale metodica non può portare, per una limitazione voluta dei mezzi, ad una sovrastima delle macchie osservate come nei grandi telescopi (ad es. Catania) che rende ormai non più paragonabili i dati odierni con quelli passati per una maggiore comprensione dell’attuale comportamento solare.

Siccome lo scopo del database di immagini ottenute con questa metodica è di rendere confrontabili le attuali osservazioni sul numero di macchie solari presenti sulla Fotosfera con quelle effettuate con un telescopio ottico dell’inizio dell’altro secolo, anche in relazione ad un calcolo del Numero di Wolf più corretto, le immagini sono pubbliche e vi è libero accesso dalla rete (http://www.palazzosomeda.it/Osservatorio/Databaseimmagini.htm ).

Nel database così compilato sono segnalati i giorni in cui non è possibile la rilevazione per un cielo totalmente coperto.

  Macchia 1106 NOAA in alta risoluzione e uso di software specifico e basso seeing

Macchia 1106 NOAA in bassa risoluzione e senza uso di software specifico e alto seeing

Conclusioni

Dopo quattro mesi di osservazioni di cui almeno 30 giorni di messa a punto della metodica i risultati sono lusinghieri e possono essere considerati quasi del tutto sovrapponibili al calcolo del NIA’s SN in particolare nel definire in particolare i giorni spotless.

È indubbio che certe macchie non sono per nulla visibili con telescopi a bassa risoluzione.

Si ritiene che questa tecnica possa essere d’ausilio quando si è in dubbio per il calcolo del numero di Wolf ottenuto dalle immagini di SOHO.

Nel futuro è prevista l’espansione dei punti di osservazione in Italia. Attualmente è presente solo un secondo punto di osservazione in provincia di Avellino che supplisce con le proprie immagini a l’impossibilità di eseguire rilievi per cielo coperto in Trentino. Ma è aperta la collaborazione con altri astrofili disponibili a condividere la metodica da altri siti ed estendere come nelle grandi istituzioni il bacino da cui prelevare le immagini. In questo caso la passione per il Sole è d’obbligo!

Appendice

Alcune osservazioni per il calcolo del numero di Wolf in base alla strumentazione tratto dal sito dell’Unione degli Astrofili Italiani:

Siccome il numero di Wolf (R) si calcola secondo la seguente formula: R = Kc * (10*G + M)

dove

kc: è il fattore di correzione (strumentale e di condizioni atmosferiche)

G: è il numero di gruppi osservati

M: è il numero di macchie complessive osservate

il valore numerico del fattore di correzione kc dipende da tre variabili.

1. strumento impiegato (K): nel caso dello strumento di riferimento, il rifrattore da 80mm, il suo valore è pari ad 1. Strumenti con apertura maggiore sono caratterizzati da migliore risoluzione, e quindi consentono di individuare un maggiore numero di macchie minute. Al di sopra di 80mm di apertura, non si hanno però ulteriori vantaggi connessi al miglioramento della risoluzione, vista la dimensione tipica della granulazione se osservata da Terra (circa 1″). Strumenti di minore apertura, al contrario, portano a una stima inferiore del numero di macchie.

2. trasparenza dell’atmosfera (S1): la presenza di foschia rende meno evidenti i particolari minuti e le piccole macchie e porta a sottostimare il numero di macchie.

3. seeing (S2) : la turbolenza dell’atmosfera ha effetto sulla risoluzione. In condizioni di alta turbolenza la risoluzione è minore, quindi sono individuate meno macchie minute

Pertanto il valore di kc è determinato con la seguente espressione: Kc =  K + S1 + S2

Ciascun osservatore viene quindi a ricevere un fattore correttivo personale kc che gli consente di confrontarsi direttamente con gli enti di riferimento per la determinazione dell’attività solare.

PABLITO 

QUALCUNO PER FAVORE SPIEGHI A CATANIA E LOCARNO CHE L’AR 1106 E’ UNA SOLA!

Locarno

http://www.specola.ch/img/lastdraw.jpg

Catania:

http://www.ct.astro.it/sun/draw.jpg

Non è perchè una regione è molto grande come la 1106, deve per forza essere erroneamente divisa in 2 (addirittura il primo giorno che fu contata Catania la divise in3!).

Allora, io adesso non voglio dire, ma questi mi sembrano dei gravi errori tecnici da parte dei 2 centri, che sono poi i principali osservatori del Sidc…ora non mi interessa nemmeno polemizzare per le miriadi di puntini che vengono visti e giudicati spots dai centri sudetti (cosa che non accadeva di certo coi telescopi di una volta), ma almeno che non venga snaturata la natura di una regione attiva, che come ci mostra giustamente il Noaa/Swpc è UNA SOLA:

Come ormai sapete, c’è differenza tra contare una regione sola e due…il numero di wolf si alza inevitabilmente…avere una regione in più significa sommare un’unità pari a di 10 in più. E non lo trovo giusto, visto che l’AR 1106 completerà tranquilla il suo 5° giro di stella…ora provate a contare quanto è alteraro e falsificato il numero di wolf…una regione da lato a lato impiega circa 14 giorni…moltiplicate per 10=140!

Un numero di wolf di 140 in più, e tutto ciò a causa di un errore di valutazione tecnica.

Continuiamo così!

Simon

NON SI PUO’ ANDARE AVANTI COSI’!!!

Clicca qui per vedere l’immagine ingrandita:

http://www.ct.astro.it/sun/draw.jpg

L’osservatorio solare di Catania è un centro ultra-moderno che ormai da anni collabora col Sidc per la formulazione dell’International Sunspot Number (RI).

Più volte il centro Catanese è stato oggetto delle cronache di NIA ma anche di tanti altri siti sparsi nel mondo che come noi si occupano da vicino di questo minimo solare. Al momento Catania rappresenta di certo uno degli osservatori mondiali più all’avanguardia, capace di segnalare regioni e macchie che tutti o la stragrande maggioranza degli altri osservatori mondiali non riescono a scorgere.

La prima volta che l’ormai celebre osservatorio catanese è salito agli onori della cronaca, è stato nel corso del mese di agosto 2008, quando tutti i principali centri adibiti all’osservazione delle macchie solari avevano sentenziato un mese completamente spotless, tutti appunto tranne il centro siciliano che riuscì a scorgere una timida regione con all’interno un flebile pore.

Da allora, le cose sono andate solo peggiorando!

Numerosi osservatori dilettanti che quotidianamente scrutano i cieli alla ricerca delle macchie fantasma segnalate da Catania, rimangono delusi, le macchie catanesi restano e resteranno visibili solo ai potenti telescopi siculi e ai loro bravissimi tecnici.

Come più volte ribadito qui su NIA, nutro enorme rispetto per coloro che lavorano nel centro di Catania, sono gli unici che da quando seguo questo ciclo solare, sono sempre rimasti coerenti con se stessi, ed anche quando cambia il nome del tecnico osservatore, il risultato è il medesimo! Ovviamente stimo e rispetto il loro lavoro, pur non condividendolo, e dato che in Italia c’è ancora libertà di espressione, trovo giusto rimarcarlo, onde evitare malintesi.

Quindi come più volte affermato, ritengo che chi stia sbagliando in tutta questa storia, sono i signori del Sidc, proprio coloro che dovrebbero garantirci la continuità col passato (quante volte avrò ripetuto questa frase!), non possono più permettersi di avere tra le loro fila osservatori che usano metodiche e strumenti di conteggio non compatibili con quelli di un tempo, perchè altrimenti lo si dica prima che è giusto contare le macchie solari con i telescopi più potenti che abbiamo a disposizione oggi per andare incontro ai progressi ma che al contempo della continuità col passato, non ce ne frega più nulla!

Perchè cari signori del Sidc, come si dice dalle mie parti, non si può avere la botte piena e la moglie ubriaca!

Se ammettono questo, io smetterò di rompergli le scatole con questi articoli e mi metterò l’anima in pace!

Ma purtroppo questi signori non lo diranno mai, e sapete perchè?

Perchè evidentemente a loro va bene così!

A loro va bene che 300 e passa anni di conteggi e minuziose ricostruzioni delle macchie solari, vengano tutto ad un tratto buttati nel bidone!

Non ho altre spiegazioni, perchè nonostante le numerose segnalazioni e critiche che hanno ricevuto soprattutto in questi ultimi anni, le cose non sono cambiate di una virgola, ma anzi con l’avanzare del ciclo 24, sono addirittura andate peggiorando!

Perchè io da questa immagine, un SN di 62 non lo vedo:

http://sohowww.nascom.nasa.gov//data/REPROCESSING/Completed/2010/mdiigr/20100816/20100816_1143_mdiigr_1024.jpg

A parte il fatto che nell’area cerchiata con il punto interrogativo a fianco non vi sono macchie, mentre Catania ne mostra una miriade, le altre rispettivamente contengono,come vi accorgerete cliccando sul link sopra, un pore la regione nel sud emisfero, 3 quella nel nord che sta per girare il lato visibile e 4 macchiette quella sempre nel nord emisfero, l’unica contabile anche col nia’s count!

E che SN ci mette il Sidc oggi?

38! (per la cronaca il Noaa mette 39, ed i valori del sidc sono di norma sempre 1/3 più bassi di quelli americani)

http://sidc.oma.be/html/SWAPP/dailyreport/2010/meu228

Voi capite che così, non si può proprio più andare avanti!

Il numero giusto che avrebbero dato durante il minimo di dalton sarebbe stato 9…come abbiamo messo noi col Nia’s count:

http://daltonsminima.altervista.org/?page_id=8780

E tutto ciò è ampiamente confermato dall’immenso e lodevole lavoro che sta facendo da mesi il nostro Pablito, il quale ogni giorno guarda il cielo con un telescopio di uguale potenza a quelli che si usavano 100 anni fa, e le uniche macchie che riesce a vedere sono le stesse che contiamo noi tramite il sistema di Luca Nitopi che ha permesso il Nia’s count!

A tal proposito, lo stesso Pablito sta preparando un pezzo che spiega le differenze tecniche tra gli osservatori moderni Catania style e quelli di una volta…da non pedere, soon su NIA!

In conclusione quindi, come avevamo già immaginato, più si andrà avanti verso il massimo del ciclo 24, e più queste disparità tra conteggi moderni e passati tenderanno ad aumentare. Fintanto che il Sidc avrà tra le sue file certi osservatori moderni, ogni raffronto coi minimi importanti non avrà più senso di esistere. E’ probabile che assisteremo ad un minimo di portata eccezionale senza quasi accorgercene, se non da questo ciclo, dal prossimo.

Ho fondato NIA proprio per portare avanti questa lotta, e credo di aver fatto appassionare e sensibilizzare tanta gente. Ma mi accorgo che coloro che dovevano essere sensibilizzati per primi, e cioè gli enti preposti di Sidc e Noaa, continuano a far le orecchie da mercante!

Questa non è più scienza, ed io me ne tiro fuori!

W NIA, W il NIA’s COUNT!

Simon