Archivi categoria: Conoscenze di base

Il passaggio al nuovo conteggio delle macchie solari del 1 ° luglio 2015: una transizione difficile

Il 1 ° luglio 2015, il Data Center Mondiale SILSO porrà una pietra miliare senza precedenti nella lunga storia del conteggio delle macchie solari.

Con la sua longevità, questo riferimento, il conteggio delle macchie solari, rimane il nostro unico riferimento diretto per ripercorrere l’attività solare negli ultimi 4 secoli, ed è sicuramente il più utilizzato set di dati solari (più di 100 pubblicazioni all’anno). Tuttavia, questa serie è stata lasciata invariata dalla sua creazione da Rudolph Wolf, nel 1849, senza alcuna verifica a ritroso. L’unica innovazione si è verificata nel 1998 con la creazione di un nuovo indice delle macchie solari simile, il numero per gruppo (Hoyt e Schatten 1998). Tuttavia, le due paralleli serie mostravano forti differenze, accennando ad una forte disomogeneità o in serie o in entrambi. Dal 2011, un gruppo di 40 esperti, infine, ha effettuato una revisione completa di questi due serie al fine di individuare e correggere i difetti. Questo enorme lavoro è stato co-organizzato da E. Cliver (NSO, Sacramento Peak Observatory), F. clette (WDC-SILSO, STCE) e L. Svalgaard (Stanford University) su quattro workshop successivi (una delle quali presso l’Osservatorio Reale a Bruxelles nel 2012. Vedi immagine sotto)

Ora, finalmente, tutte le correzioni sono state finalizzate (per una recente sintesi, vedere Clette et al. 2014, Space Science Reviews). Nel corso degli ultimi mesi, tutte le correzioni ottenute separatamente, spesso da diversi scienziati, sono stati infine assemblate in una ricostruzione finale, nel numero di macchie solari e nel gruppo di macchie solari.

La figura seguente, illustra la variazione tra la serie originale e il nuovo sunspot number. La correzione più notevole è un abbassamento di circa il 18% di tutti i numeri dopo il 1947, per rimuovere il pregiudizio prodotto da un nuovo metodo di conteggio, iniziato nel 1947, a Zurigo. Una grande deriva delle variabili che interessano il conteggio di “Bruxelles-Locarno”, dal 1981, è stato eliminato.

Si noti, che per il nuovo numero SSN, il fattore tradizionale 0,6 di Zurigo non è più utilizzato, il che aumenta in modo significativo la portata di tutta la serie. Questo riflette semplicemente la scelta dei conteggi moderni di A. Wolfer, il successore di Wolf, come nuovo riferimento. I nuovi numeri così corrispondono ora molto più da vicino i numeri grezzi di Rudolph Wolf, ottenuti da tutti gli osservatori, dal 1993 fino ad oggi.

Indipendentemente, il numero del gruppo è stato corretto per una grande sottostima di tutti i valori prima del 20° secolo (vedi figura sotto), a causa dell’instabilità dei dati di riferimento utilizzati da Hoyt e Schatten: vale a dire i dati fotografici dell’Osservatorio Reale di Greenwich. Come potrebbe essere costruito, un database completo di tutti i conteggi dei gruppi del passato, il nuovo numero di gruppo, in realtà, consiste in una serie completamente ricostruita, piuttosto che una correzione applicata ai numeri originali.

Ora, finalmente, siamo in grado di portare le due serie insieme e osservare l’impatto delle correzioni sui disaccordi originali. Le due figure seguenti, mostrano come le grandi divergenze che caratterizzavano il numero della prima serie del SSN e del gruppo, sono ora stati fortemente ridotti. Bisogna precisare che tale miglioramento non è stato ottenuto da una scala reciproca ad-hoc tra le serie. Al contrario, come le correzioni sono state determinate separatamente, in base ai diversi set di dati e tecniche, l’accordo finale porta un ulteriore conferma della validità di tali correzioni.

Ancora, come si può vedere, le deviazioni permangono notevoli, soprattutto prima 1825, quando le osservazioni diventano scarse e in periodi di attività minima (basso). Quindi, ancora molto lavoro resta sicuramente da fare per molti anni a venire, ma dati gli importanti miglioramenti raccolti in questa fase, il WDC – SILSO, sta per procedere al rilascio pubblico di questa nuova versione.

La preparazione di questa importante operazione è ormai quasi completata, ed ha richiesto un enorme lavoro organizzativo e di programmazione del piccolo team SILSO. Infatti, il rilascio della nuova serie del SSN è solo un punto di partenza per la WDC-SILSO. Anzi, richiede una profonda rielaborazione del software operativo, che elaborerà i dati attraverso la nostra rete in tutto il mondo, il 1 ° luglio e in futuro. In effetti, i vari prodotti devono essere resi perfettamente compatibili con la serie totale del SSN: il numero di macchie solari emisferico, il quotidiano stimato Sunspot Number, le previsioni solare del ciclo di 12 mesi, tutti i grafici di dati e la derivazione dei coefficienti k personali per tutte le stazioni della rete.

Inoltre, vogliamo integrare anche una gestione strutturata del numero delle macchie solari (sotto la supervisione della International Astronomical Union), ri-progettando la sezione dati del nostro sito Web SILSO. In parallelo, stiamo anche lavorando sulla questione tematica, sulla rivista Solar Physics, che sarà interamente dedicata alla nuova taratura del numero SSN (aperto alle carte fino alla fine di ottobre 2015, in vista di una pubblicazione nei primi mesi del 2016). Rivista, nella quale, sarà pienamente documentata la presente modifica.

Le ultime settimane e negli ultimi giorni sono stati quindi particolarmente frenetici per il team SILSO. Faremo del nostro meglio, per ottenere questo importante transizione il 1 ° luglio, con minori disturbi, per i nostri utenti. Tuttavia, dato il numero di modifiche simultanee, il trattamento sarà probabilmente più lento del solito per consentire verifiche accurate. Chiediamo perciò ai nostri numerosi utenti di essere maggiormente pazienti, in questa occasione. Poiché i problemi non possono mai essere esclusi. Siamo quindi pronti ad accogliere qualsiasi commento, su problemi rilevati.

Dopo una vita piuttosto tranquillo, nel corso degli ultimi 166 anni, il numero delle macchie solari sta quindi per rinascere, in una nuova versione, da mercoledì 1° luglio. Ci auguriamo che la comunità scientifica accoglierà questo nuovo insieme di dati e apprezzerà il notevole sforzo, realizzato nel corso degli ultimi quattro anni, per produrre un punto di riferimento migliore per lo studio della relazioni solari-terrestri, nel lungo termine.

Fonte : http://sidc.oma.be/press/01/welcome.html

Il calore dell’ aria…Scacco matto all’AGW…

Le domande:

Ogni giorno sentiamo parlare di Riscaldamento Globale di quanto l’ uomo riesce a modificare il clima con le sua attività  … ma qualcuno si é preso la briga di fare due conti ? Se aumenta di un grado la temperatura globale quanta energia ci vuole ? L’ uomo é davvero in grado di produrre direttamente tanta energia per riscaldare la terra di due o tre gradi ?

Non trovando risposte mi é venuto in mente di buttare giù qualche conteggio per cercare di chiarirmi le idee.

Da notare che mi sono preso la briga di rifare i conti, ma tutti i risultati si possono trovare con un pò di pazienza sul web.

Spero quindi che questo articolo riesca a chiarire le idee sulle quantità di energia in gioco negli scambi termici del nostro pianeta.

Da dove cominciare ?

Intanto cerchiamo di conoscere un pò meglio  l’atmosfera, ovvero quanta aria c’ é sul nostro pianeta … quanto pesa.

Per calcolarlo abbiamo bisogno di un barometro e di un calcolo anche approssimativo della superficie terrestre.

La pressione atmosferica é mediamente di 1atm = 101 325 Pa = 101 325 N/m2= 10 332 kgf/m2 che per capirsi sono circa 10,332 tonnellate per metro quadrato di superficie.

L’ atmosfera lo sappiamo bene é composta d’aria che é un miscuglio di gas e conoscendo la composizione é facile calcolare il peso di ogni gas .

La tabella seguente l’ ho ricavata da wikipedia e ho tolto la componente di vapore acqueo e degli altri gas presenti in tracce. Un aria semplificata quindi …

 

Gas Percentuale molare Peso Molecolare Peso di ogni elemento per mole (g) Peso di ogni gas kg per m2
Azoto 78,084% 28,013 21,8737 7802,361
Ossigeno 20,945% 31,999 6,7022 2390,678
Argon 0,933% 39,948 0,3727 132,948
CO2 0,038% 44,010 0,0169 6,012
Totale 100,000% 28,9654 10332,000

Da notare che ogni m2 di superficie terrestre “gravano” 10 tonnellate di aria di cui solo 6 chilogrammi  sono di  CO2!

La prima volta che ho visto questi dati anni fa ho cominciato ad avere qualche perplessità  su come potesse la CO2 esser responsabile del riscaldamento globale.

Questi 6 kg di gas quasi inerte, secondo studi molto accurati,  riescono a scaldare  10 tonnellate d’ aria solo facendo rimbalzare la radiazione infrarossa !  La cosa é davvero incredibile ! (… Infatti io non ci credo :-) )

La superficie della terra é di 5,100 656 · 1014 m2.

Moltiplicando questo valore per il peso dell’ aria per metro quadro otteniamo circa 5,1 · 1015 tonnellate  e detto così non fa tanto effetto, ma dicendo 5,1 milioni di miliardi di tonnellate forse si capisce meglio. L’ aria non é così leggera … direi abbastanza pesante in fondo .

Spesso quando sentiamo parlare di riscaldamento globale vengono fuori percentuali, valori di watt per m2 che secondo me non rendono bene l’ idea dell’energia complessiva in gioco. Wikipedia ci aiuta ancora e troviamo  il valore del calore specifico dell’aria  che é di 1005 j/(kg·K) ( aria secca).

Abbiamo tutti i dati per calcolare la quantità di calore necessaria per scaldare di un grado l’ atmosfera del nostro pianeta … 1005 · 5,1 · 1015 = 5,125 · 18 j = 5,125 Ej = … sono 5,125 miliardi di miliardi di joule.

A questo punto voglio confrontare questo valore con l’ energia dissipata dall’ uomo sul nostro pianeta .. e su wikipedia troviamo il dato della produzione annua di energia elettrica che é di 471 Ej.

Tipo di combustibile Potenza in TW Energia/anno in EJ
Petrolio 5,60 180
Gas naturale 3,50 110
Carbone 3,80 120
Idroelettrico 0,90 30
Nucleare 0,90 30
Geotermia, eolico,
solare, legno
0,13 4
Totale 15,00 471

Da questo valore bisogna togliere i valori delle energie rinnovabile e quindi rimangono 437 Ej.   Per produrre energia elettrica in genere bisogna anche sprecare dell’ energia termica, presumendo un rendimento molto ottimistico del diciamo il 40-45 %. Dopo aver consumato l’ energia elettrica quest’ ultima si trasformerà nuovamente in termica e alla fine in atmosfera e negli oceani ce ne finiranno  circa 1000Ej complessivamente (elettrica consumata  + termica sprecata nella produzione tramite ciclo termodinamico )  .

Questo vuol dire che se l’ atmosfera fosse isolata, l’umanità in un anno la farebbe scaldare di circa 195°.

Nulla in confronto all’ energia che arriva sulla terra dal sole  al secondo che é di 0,174 Ej/s = Ew . Da notare che questo valore l’ ho calcolato perché sul wikipedia non mi sembrava esatto ed infatti ho ottenuto un valore diverso. Se il calcolo che ho fatto é giusto,  sulla terra in un giorno arrivano 0,174·84600=15033,6 Ej . Se davvero tutta questa energia finisse nell’atmosfera  e se l’ atmosfera fosse isolata in un giorno la temperatura dell’aria aumenterebbe di circa 3000°.

In realtà  le cosi non sono per niente  semplici e tutta l’energia solare viene dispersa dal nostro pianeta verso “l’ infinito”. La temperatura si stabilizza un punto di equilibrio nel quale  l’ energia radiativa entrante e  uscente sono uguali.  Una parte dell’ energia però rimane immagazzinata alla temperatura di equilibrio nei “materiali” in grado di trattenerla e questi sono l’aria dell’ atmosfera, l’acqua degli oceani e le rocce e i ghiacci della crosta terrestre.

Tutto questo ci fa capire come l’ umanità sia ancora un tantino “indietro come tecnologia” rispetto al Sole per la produzione di energia :-)
Il sole invia i 1000Ej sulla terra in circa 1h e 35 min … e 1000Ej sono lo stesso quantitativo di energia che l’ uomo riesce a immettere nel nostro pianeta  producendo e consumando energia elettrica in un anno.

Conclusioni:

Se si spegnesse il Sole e dovessimo scaldare l’atmosfera con i con i nostri mezzi saremmo destinati a surgelare in poche ore! Questo dato ci dovrebbe far riflettere su quanta presunzione c’ é nell’affermare che l’ uomo é il responsabile dei cambiamenti climatici. L’ uomo con le emissioni termiche dirette probabilmente non riesce e a spostare il termometro di un millesimo di grado.

Ancora un dubbio:

Siamo davvero così sfortunati da riuscire indirettamente e con gli effetti non voluti delle  emissioni di CO2 a surriscaldare il nostro pianeta?

Con questo dubbio vi lascio !

Luci0 … Gabriele Santanché.

Riferimenti :

http://it.wikipedia.org/wiki/Aria
http://it.wikipedia.org/wiki/Calore_specifico
http://it.wikipedia.org/wiki/Risorse_e_consumo_di_energia_nel_mondo
http://it.wikipedia.org/wiki/Terra

Vortici aperti, vortici chiusi

E’ un pò che ci penso e mi pare che anche qui nel blog si stiano esprimendo per lo più opinioni personali …

La domanda che pongo e’ : per far aumentare i ghiacci polari (le banchise, intendo) conviene molto freddo assai concentrato (Vortice polare chiuso) oppure e’ meglio che il freddo , seppur di minore intensità, sia sparso su di un’area superiore ?

L’unico modo per rispondere, a mio avviso e’ fare due conti .

E come al solito ve li propongo sulla carta di formaggio.  Mi scuso in anticipo se ho dovuto usare un pelo di calcolo integrale ma… chi non lo conosce dovrà fidarsi e chi lo conosce, per favore controlli i conti….

Cominciamo con il modelino :

  • Mettiamo dell’acqua a zero gradi (Mare)
  • Mettiamoci sopra del ghiaccio (che poi andrà a tendere a zero ma per ora mettiamocelo)
  • Mettiamo sopra il ghiaccio dell’aria fredda.

Usando formule ottocentesche si trova che il “calore” fluirà verso l’esterno ostacolato dalla “Resistenza termica” del ghiaccio. Più e’ spesso il ghiaccio e meno calore fluisce, più e’ grande la superficie e maggior calore fluisce.

Altre formule ottocentesche ci dicono che per far “gelare” l’acqua occorre sottrargli una certa quantità di calore .

Nel primo foglio vedete i conti che portano a ricavare la “velocità di congelamento” di una colonna d’acqua :

Come si vede la velocità di congelamento e’ inversamente proporzionale allo spessore deh ghiaccio. Ciò significa che lo spessore aumenta nel tempo con legge LOGARITMICA (quindi pian piano la formazione rallenta, senza per altro fermarsi mai… vedi grafico del logaritmo preso da wikipedia , la parte che ci interessa e’, ovviamente, quella positiva del grafico in quanto ghiaccio con spessore negativo non ha molto senso fisico… )

Ora però voglio essere più cattivo. Supponiamo che la temperatura sia differente man mano che ci allontaniamo dal centro del cilindro (ma resti costante lungo la circonferenza) .

Dovremo procedere ad una integrazione “a cipolla” considerando cilindretti infinitesimi.

Seguite il ragionamento riportato nel foglio seguente (cliccateci sopra se non vedete bene)… oppure fidatevi (male!)

Miracolosamente risulta che la dipendenza dello spessore  di ciascun cilindretto dal tempo e’ sempre logaritmica ma dipende anche dal “differenziale di temperatura” che si verifica localmente.

A questo punto facciamo il conto che ci interessa: il volume totale.  Per vostra delizia devo integrare di nuovo (e vi confesso che la probabilità che, su tre integrazioni, abbia fatto un errore e’ prossima all’unità) supponendo una distribuzione di temperatura sulla nostra calotta simulata. Per non farmi problemi ulteriori suppongo che vada da 0°C ai bordi del noostro cilindrone (cioè, più in la non si forma ghiaccio) a T0 del centro (la nostra temperatura del Polo Nord).

Seguite ( e chi sa controlli i conti, mi raccomando) e troverete che…

Il Volume totale di ghiaccio formato e’ sempre logaritmico nel tempo ma solo DIRETTAMENTE PROPORZIONALE ALLA TEMPERATURA PIU’ FREDDA mentre e’ PROPORZIONALE AL QUADRATO ( e dico quadrato!!!) della distanza a cui la temperatura scende a zero gradi   (Appalusi)

(Nell’ultima formula l’R al cubo al numeratore dovrebbe essere un R’, e quindi si semplifica con il denominatore… Visto che bravo? Mi sono trovato da solo un errore! Solo che oltre ad essere distratto sono anche pigro e non ho voglia di scannerizzare di nuovo il foglio… Inoltre la T va inseita con valore positivo… intesa come differenza tra zero e la T negativa)

Ho provato a plottare l’andamento della funzione (ovviamewnte solo per vedere come si comporta, senza pretesa di mettere dei valori reali … questo lo lascio a chi ha i numeri per farlo) ed ecco il risultato :

La traccia blu e’ stata relizzata con T=10 e R=10.

Poi ho dimezzato T e raddoppiato R (Traccia viola) e viceversa(Traccia gialla). La differenza e’ impressionante. Per avere più o meno lo stesso risultato della traccia gialla , con R=20  sono dovuto scendere a una delta T ridicolo di 1.5 (traccia azzurra)!

Chiarmente il tutto vale con le approssimazioni del caso… ad es. non e’ vero che tutta l’acqua sia li pronta a congelarsi quando siamo sul bordo della banchisa, non ho tenuto conto della conducibilità “trasversale” nel ghiaccio, non ho la minima idea di come si abbassino le temperature se il vortice si “spappola” ecc. ecc. Però sarei propenso a sbilanciarmi sul fatto che e’ molto meglio un vortice polare “tiepidino e spappolato” di uno freddissimo ma “chiuso a riccio”

Ma penso che un’idea ve la possiate essere fatta…

Luca Nitopi

Termodinamica e statistica

Questa volta l’argomento si fa spinoso . Infatti volevo parlarvi di alcuni concetti che sono stati chiariti (o, per meglio dire, correttamente codificati)  solo nella metà dell’800 e che hanno avuto sviluppi fino ai giorni nostri in quella che oggi si chiama “fisica dello stato solido”.

Forse conoscerete tutti il signore qui di fianco : E’ J.C. Maxwell, noto sicuramente per essere stato il primo a scrivere (e, diceva un mio prof., l’unico a risolvere in cooordinate cartesiane…) le relazioni che legano il campo magnetico al campo elettrico, che prevedono l’esistenza delle onde elettromagnetriche e che affermano che la velocità di tali onde e’ costante (da cui la crisi di un pezzo della fisica classica… ma ne parlerò in un altro articolo) . Ma il Nostro era (come gran parte degli studiosi dell’epoca) molto eclettico e le sue ricerche ed interessi spaziavano anche nel campo della termodinamica.

In quel periodo,  a causa della fortissima richiesta di miglioramenti alle neonate macchine termodinamiche  impiegate per la trazione (treni) e per l’industria (miniere, filatoi etc.)  ci fu un rapidissimo sviluppo della teoria della termodinamica “classica” : alcune date (tratte da Wikipedia) :

1824 : Carnot codifica la relazione tra lavoro e calore scambiato tra due termostati ed inventa i suoi famosi “cicli”

1848: Klevin , utilizzando i cicli ideali di Carnot arriva a dimostrare l’esistenza del “punto ZERO” della scala delle temperature (non esistono temperature “assolute” negative . In suo onore ancora ora chiamate “scala Kelvin” e “Zero assoluto” o “Zero Kelvin”

1850: Joule fa un altro passo “concettuale” e stabilisce che lavoro meccanico e “calore” sono misurabili come energia (e quindi lavoro) e stabilisce l’equivalenza calore-lavoro (e in suo onore il lavoro si misura in “Joule” )

1855: Clausius introduce il concetto di ciclo irreversibile e, con esso, quello di Entropia…

In questo panorama di “fervida attivita” viene concepita la “teoria cinetica dei gas” da parte, appunto di Maxwell, nel 1866.

Quale l’idea geniale? Be, semplice . Fino a quel momento la trattazione termodimanica riguardave le proprietà “bulk” cioè di “massa” dei corpi (fino ad un certo momento si era anche ipotizzata l’esistenza di un fantomatico “calorico” che si spostava da un corpo all’altro per equilibrare la temperatura) . Maxwell si chiede… Perche’ non provare a calcolare il comportamento del corpo a partire dalle singole particelle?

E fa il suo modello, per i gas….
Una scatola, tante sferette che rimbalzano contro le pareti… ma che sono talmente piccole da rendere trascurabile gli urti tra di loro.

Le palline rimbalzano sulle pareti e, ad ogni urto “spingono” con una certa forza impulsiva…

Dando origine, tutte insieme, alla pressione …

Infatti la seconda idea geniale di Maxwell e’ stata quella (vista l’impossibilità di calcolare singolarmente le traiettorie e i rimbalzi delle palline)  di cercare di valutare le proprietà “medie” generate dal moto caotico delle particelle.

Con questo approccio si riescono a “tirar fuori” le relazioni che regolano il comportamento dei gas (es. equazione di stato) dandone una spieazione correlata con la media di “proprietà microscopiche” del gas (velocità medie delle molecole, massa delle molecole etc.).Ad esempio risulta che la temperatura e’ la misura dell’energia cinetica media delle molecole del gas

(per chi fosse curioso e volesse vedere le formule rimando a Wikipedia )

Uno dei risultati (per me) più eleganti che risultano dalla teoria e’ il famoso “teorema dell’equipartizione dell’energia” . Che, più o meno, dice che l’energia assunta da un sistema viene suddivisa in parti uguali sui gradi di libertà del sistema e, per ogni grado di libertà, l’energia e’ pari a 1/2 KT : dove K e’ una costante – di boltzman- e T e’ la temperatura assoluta del sistema…

(grado di libertà: es. nel caso delle palline ce ne sono tre,  perche’ la pallina po’ muoversi in 3 dimensioni, quindi  . Se il gas non fosse monoatomico, si dovrebbbero contare anche i gradi di libertà rotazionali … ).

E’ doveroso a questo punto citare un alro grande fisico teorico ottocentesco: Ludwig Boltzmann che contribui’ in modo fondamentale all’evoluzione e alla generalizzazione della teoria.

Il modo di procedere esposto si e’ rivelato talmente convincente ed i risultati talmente aderenti alle misura che, con gli anni, il sistema e’ stato via via esteso a sistemi piu’ complessi prendendo il nome di “meccanica statistica” visti i metodi matematici utilizzati.

Il metodo si e’ rivelato addirittura cosi’ efficace da poter essere integrato nella “rivoluzione quantistica”, modificando opportunamente le condizioni base. Anzi, normalmente, vengono utilizzati metodi di meccanica statistica per mostrare che la meccanica quantistica, per sistemi composti di innumerevoli particelle, seguono le leggi della meccanica classica.

Per chi volesse “approfondire” (ma avverto che qui e’ molto piu’ ostico…) le tematiche della meccanica statistica, rimando alla solita Wikipedia.

Volevo citare un ultimo risultato “generalissimo” della meccanica statistica, dove viene “spiegato” il significato microscopio dell’entropia .

La relazione (enunciata per la prima volta da Boltzman) e’

S=k*Log W

DoveS è l’entropia e  W è il “umero degli stati possibili” che il sistema può assumere.  La relazione e’ talmente generale che puo’ essere ricavata con metodi completamente diversi in teoria dell’informazione … ma il significato e’ sempre quello. L’entropia misura il “disordine” presente nel sistema….

Luca Nitopi

Seni, dati e … Polinomi

Articolo sexy ?
Certo che no, per “seno” intendo, ovviamente, la funzione trigonometrica. Volevo piuttosto parlare molto terra-terra di come una “messe” di dati sperimentali possa venire interpretata e trattata.
E di come quei dati, oggettivamente obiettivi, possano prestarsi a dar ragione alle più diverse ipotesi.
Studiando e misurando un fenomeno possiamo, a grandi linee, pensare che ci siano due casi :
Ho ipotizzato in qualche modo una regola che governa il fenomeno e voglio verificare se i dati la confermano
Non ho idee teoriche ma voglio cercare di “prevedere” ed analizzare il comportamento del sistema

Cominciamo ?
Prendiamo un caso semplice semplice… La legge puo’ essere schematizzata con una bella retta.
Quindi prendo i miei dati , li piazzo su un grafico cartesiano e vedo se ci passa una retta ….. dati grazzi
Troppo facile ?
Direi di si, e per vari motivi. Intando, essendo dati sperimentali, ben difficilmente saranno perfettamente allineati e quindi avremo una miriade di retta, una per ciascuna coppia di punti presenti sul grafico….
Allora come facciamo ? Be, possiamo utulizzare ( e si utilizzano, nella realtà) parecchi metodi … da quello grafico della “retta di massima e minima pendenza” ,  dove si cerca, proprio con la riga, di tracciare le due rette a massima pendenza e a minima pendenza che “becchino” almeno due punti, facendo poi la media dei coefficenti angolari e degli “offset” (termine costante) , come mostro nella figura a fianco, fino a metodi via via più raffinati dove si cerca, con calcolo numerico, la retta che va a minimizzare le distanze dai vari punti (conosciuto com emetodo dei “minimi quadrati” , perchè in effetti e’ più efficente minimizzare il quadrato della distanza…)  .

Fin qui niente di strano. Ma i dati sperimentali hanno anche delle altre particolarità.

Hanno l’errore.

Occorre dunque immaginare che, attorno ad ogni punto sia presente “un’area di incertezza” , dovuta agli errori di misura,  a quelli di elaborazione dei dati, al fatto che i dati sono una media e quindi ne rappresento la dispersione, al fatto che i dati sono stati misurati in epoche diverse, con diversi metodi etc.  L’area potrebbe avere le forme piu’ strane ma in generale si tende ad evidenziare l’errore sull’asse verticale (le Y)…Cioe’, furbescamente, si mette come asse verticale (o si elaborano i dati in modo che sia) quello dove si ha l’errore piu’ evidente.
I metodi per ritrovere la nostra retta sono abbastanza simili ai precedenti… solo che si dovrà tener conto del fatto che i punti che hannop un errore “piccolo” dovranno essere i più vicini alla curva (Eh si… anche le rette sono “curve”) . Come vedete dal grafico, pur essendo i dati esattamente gli stessi delle immagini precedenti, l’interpretazione e’ molto diversa. I tre punti con il piccolo errore condizionano le rette di massima e minima pendenza facendole  allontanare dalla maggior parte degli altri “punti” (tra virgolette perche’ intesi come “punto senza errore”) . Eppure le rette più  “attendibili” sono quelle.

Da questo deriviamo un primo insegnamento…

Un grafico senza barre di errore… e’ quantomeno sospetto…

Poi esistono dei metodi di analisi dati che permettono di valutare la bontà di una ipotesi :  io ricordo il cosiddetto metodo del chi quadro (chi sarebbe  la lettera greca, non il pronome….) ma penso che ne esistano altri…. Alla fine del “test”  si ha un responso sull’ipotesi : “non rappresenta i dati” , “puo’ rappresentare i dati più o meno bene ” , rappresenta i dati in modo” sopspettosamente buono”…

SOSPETTOSAMENTE BUONO : qui entriamo nella seconda parte dell’articolo….

Infatti se ho una quantità finita di dati (e per essere unamanamente comprensibili i dati saranno sempre “finiti”) posso inventare una quantità di metodi per “fittarli”. Ad esempio e’ possibile usare dei polinomi :  Un polinomio (ricordo dalle scuole medie) e’ una funzione rappresentata da una serie di potenze crescenti ….  a+bx+ cx^2+dx^3 ….. ecc.   Dato un numero N di dati un polinomio di ordine N-1 li “fitta” perfettamente . E fin qui non c’e’ nulla di strano.

Se andiamo un po’ piu’ avanti nella teoria matematica possiamo introdurre le cosiddette “serie di Taylor” : E’ sempre possibile approssiamre una qualunque funzione nei “dintorni” di un determianto punto con una opportuna serie di polinomi. L’errore che si commette nell’approssimazione e’ riducibile a piacere “allungando” la serie di polinomi (Al limite l’errore si annulla se la serie diventa infinita) …. Nella figura : una sinusoide approssimata nello zero con polinomi di ordine crescente (Da Wikipedia) )

E qui vi metto  una pulce nell’orecchio.  Se consideriamo le due affermazioni, possiamo vedere che con un minimo di malafede e’ possibile “far sembrare vera”  una ipotesi qualsiasi (be, quasi…)  “calibrando” bene il numero di polinomi con cui si sviluppa la serie….E’ chiaro che solo gli addetti ai lavori potranno avere sospetti …. E solo con test approfonditi potranno “smentire” le conclusioni…. E lo so perchè …. Mi e’ capitato di doverlo fare… Per ordini “superiori”… (Che vergogna)

Per concludere, Visto che ho citato le serie di Taylor, volevo accennarvi anche alle “serie di Fourier” . Chi pasticcia con le misure di segnali periodici le conosce bene .  Un segnale periodico e’ approssimabile con una opportuna somma di componenti “sinusoidali” di frequenza multipla (chiamate “armoniche”) . Il metodo e’ potentissimo. Tramite un opportuno algoritmo e’ possibile “estrarre” dai dati le “frequanze fondamentali”  e le varie armoniche che lo compongono.  Pero’… Anche in questo caso si possono prendere “abbagli” legati al cosiddettto “aliasing” e che un malfidato come me vede sempre come possibili metodi per ….  … … Diciamo … … … Imbrogliare….

Ma forse ne parlerò in un altro articolo

Luca Nitopi

.