Tutti gli articoli di xxx

Seni, dati e … Polinomi

Articolo sexy ?
Certo che no, per “seno” intendo, ovviamente, la funzione trigonometrica. Volevo piuttosto parlare molto terra-terra di come una “messe” di dati sperimentali possa venire interpretata e trattata.
E di come quei dati, oggettivamente obiettivi, possano prestarsi a dar ragione alle più diverse ipotesi.
Studiando e misurando un fenomeno possiamo, a grandi linee, pensare che ci siano due casi :
Ho ipotizzato in qualche modo una regola che governa il fenomeno e voglio verificare se i dati la confermano
Non ho idee teoriche ma voglio cercare di “prevedere” ed analizzare il comportamento del sistema

Cominciamo ?
Prendiamo un caso semplice semplice… La legge puo’ essere schematizzata con una bella retta.
Quindi prendo i miei dati , li piazzo su un grafico cartesiano e vedo se ci passa una retta ….. dati grazzi
Troppo facile ?
Direi di si, e per vari motivi. Intando, essendo dati sperimentali, ben difficilmente saranno perfettamente allineati e quindi avremo una miriade di retta, una per ciascuna coppia di punti presenti sul grafico….
Allora come facciamo ? Be, possiamo utulizzare ( e si utilizzano, nella realtà) parecchi metodi … da quello grafico della “retta di massima e minima pendenza” ,  dove si cerca, proprio con la riga, di tracciare le due rette a massima pendenza e a minima pendenza che “becchino” almeno due punti, facendo poi la media dei coefficenti angolari e degli “offset” (termine costante) , come mostro nella figura a fianco, fino a metodi via via più raffinati dove si cerca, con calcolo numerico, la retta che va a minimizzare le distanze dai vari punti (conosciuto com emetodo dei “minimi quadrati” , perchè in effetti e’ più efficente minimizzare il quadrato della distanza…)  .

Fin qui niente di strano. Ma i dati sperimentali hanno anche delle altre particolarità.

Hanno l’errore.

Occorre dunque immaginare che, attorno ad ogni punto sia presente “un’area di incertezza” , dovuta agli errori di misura,  a quelli di elaborazione dei dati, al fatto che i dati sono una media e quindi ne rappresento la dispersione, al fatto che i dati sono stati misurati in epoche diverse, con diversi metodi etc.  L’area potrebbe avere le forme piu’ strane ma in generale si tende ad evidenziare l’errore sull’asse verticale (le Y)…Cioe’, furbescamente, si mette come asse verticale (o si elaborano i dati in modo che sia) quello dove si ha l’errore piu’ evidente.
I metodi per ritrovere la nostra retta sono abbastanza simili ai precedenti… solo che si dovrà tener conto del fatto che i punti che hannop un errore “piccolo” dovranno essere i più vicini alla curva (Eh si… anche le rette sono “curve”) . Come vedete dal grafico, pur essendo i dati esattamente gli stessi delle immagini precedenti, l’interpretazione e’ molto diversa. I tre punti con il piccolo errore condizionano le rette di massima e minima pendenza facendole  allontanare dalla maggior parte degli altri “punti” (tra virgolette perche’ intesi come “punto senza errore”) . Eppure le rette più  “attendibili” sono quelle.

Da questo deriviamo un primo insegnamento…

Un grafico senza barre di errore… e’ quantomeno sospetto…

Poi esistono dei metodi di analisi dati che permettono di valutare la bontà di una ipotesi :  io ricordo il cosiddetto metodo del chi quadro (chi sarebbe  la lettera greca, non il pronome….) ma penso che ne esistano altri…. Alla fine del “test”  si ha un responso sull’ipotesi : “non rappresenta i dati” , “puo’ rappresentare i dati più o meno bene ” , rappresenta i dati in modo” sopspettosamente buono”…

SOSPETTOSAMENTE BUONO : qui entriamo nella seconda parte dell’articolo….

Infatti se ho una quantità finita di dati (e per essere unamanamente comprensibili i dati saranno sempre “finiti”) posso inventare una quantità di metodi per “fittarli”. Ad esempio e’ possibile usare dei polinomi :  Un polinomio (ricordo dalle scuole medie) e’ una funzione rappresentata da una serie di potenze crescenti ….  a+bx+ cx^2+dx^3 ….. ecc.   Dato un numero N di dati un polinomio di ordine N-1 li “fitta” perfettamente . E fin qui non c’e’ nulla di strano.

Se andiamo un po’ piu’ avanti nella teoria matematica possiamo introdurre le cosiddette “serie di Taylor” : E’ sempre possibile approssiamre una qualunque funzione nei “dintorni” di un determianto punto con una opportuna serie di polinomi. L’errore che si commette nell’approssimazione e’ riducibile a piacere “allungando” la serie di polinomi (Al limite l’errore si annulla se la serie diventa infinita) …. Nella figura : una sinusoide approssimata nello zero con polinomi di ordine crescente (Da Wikipedia) )

E qui vi metto  una pulce nell’orecchio.  Se consideriamo le due affermazioni, possiamo vedere che con un minimo di malafede e’ possibile “far sembrare vera”  una ipotesi qualsiasi (be, quasi…)  “calibrando” bene il numero di polinomi con cui si sviluppa la serie….E’ chiaro che solo gli addetti ai lavori potranno avere sospetti …. E solo con test approfonditi potranno “smentire” le conclusioni…. E lo so perchè …. Mi e’ capitato di doverlo fare… Per ordini “superiori”… (Che vergogna)

Per concludere, Visto che ho citato le serie di Taylor, volevo accennarvi anche alle “serie di Fourier” . Chi pasticcia con le misure di segnali periodici le conosce bene .  Un segnale periodico e’ approssimabile con una opportuna somma di componenti “sinusoidali” di frequenza multipla (chiamate “armoniche”) . Il metodo e’ potentissimo. Tramite un opportuno algoritmo e’ possibile “estrarre” dai dati le “frequanze fondamentali”  e le varie armoniche che lo compongono.  Pero’… Anche in questo caso si possono prendere “abbagli” legati al cosiddettto “aliasing” e che un malfidato come me vede sempre come possibili metodi per ….  … … Diciamo … … … Imbrogliare….

Ma forse ne parlerò in un altro articolo

Luca Nitopi

.

L’equazione delle Palle

E dagli con i titoli strambi…

Questa volta facciamo due conti per vedere cosa significa inventare un modello e cercare di applicarlo ad un caso reale…

Prendiamo due palle, distanti tra di loro, messe in mezzo all’universo vuoto (che tristezza)

Facciamo che la prima sfera abbia un qualche meccanismo interno che ne mantiene la temperatura superficiale costante. La seconda sfera invece e’ li, abbandonata a se stessa. Sarete tutti d’accordo che secondo l’equazione di Stefan-Boltzman accadra’ che

Dove con W indico la potenza emessa totale (La U dell’equazione di S.B. e’ la potenza per unita’ di superficie radiante) . I termini Epsilon (qualla specie di simbolino che assomiglia a quello dell’euro, per chi, come me,  non avesse fatto il classico) viene introdotto per far vedere che le due palle non sono corpi neri, ma corpi “reali” (grigi … sic…). Facciamo conto che le due palle siano molto distanti (d>> R1,R2)  e la palla calda sia molto calda (T1>>T2) … In questa approssimazione possiamo proseguire il ragionamento .

Imponiamo il bilancio energetico per la palla numero due …

L’energia che la raggiunge deve essere pari a quella che essa riemette… (C’e’ una semplice proporzionalità tra le superfici della sfera di raggio d e la superficie del cerchio di raggio R2)… Ecco i conti finali…

Et voilà il nostro modellino e’ pronto .. e vedrete che e’ piu’ efficente di quanto sembri…. (ah… se le immagini sono un po’ piccole, cliccateci sopra…)

Cominciamo ad applicare il modello… La palla 1 e’ chiaramente il sole, la palla 2 puo’ essere un qualunque pianeta (che non abbia esagerate fonti di energia al suo interno…)

Intanto cosa possiamo notare ?

Ho appositamente suddiviso il risultato in quattro termini, per poterli discutere uno alla volta…

1) Le temperature sono proporzionali. Se non varia nulla negli altri parametri , un incremento percentuale della temperatura del “sole” originerà un pari aumento percentuale sul pianeta (le percentuali si calcolano dallo zero assoluto, eh!) … Elegante vero?

2) La radice di due, pur essendo un numero mistico e mitico… la lasciamo li perche’ non ci dice nulla, a parte che vale circa 1.4142 … per tutti i secoli dei secoli…

3) Le dimensioni e la distanza dal sole ovviamente influenzano la temperatura del nostro pianeta ma… OCCHIO! non linearmente, bensi’ in forma di radice quadrata (e’ una dipendenza piu’ blanda… se quadruplico la distanza, la temperatura diventa “solo” la metà)… Stupiti?  anche questo e’ un risultato simpatico…

4) Per ultimo arriva il termine piu’ sfizioso ( che furbastro, l’ho lasciato per ultimo apposta…) . Il termine comprende il rapporto tra le correzioni delle emissività dei due corpi.  E qui si apre un mondo! Infatti sono buoni tutti a fare i conti mettendo ad uno quel rapporto.

Solo che i conti non tornano!!!

E i pianeti risultano piu’ caldi di quanto dovrebbero essere…. (Sia quelli con atmosfera che quelli senza) .

Ma perchè e’ difficile calcolare quel rapporto?

Be… diciamo che sia la superficie di un plasma (sole) che la superficie di un pianeta (soprattutto se coperta in modo variabile con nuvole e magari – che bastardo!- in rotazione…) sono tutto fuorchè un corpo nero…

Voi direte … Che bello, abbiamo trovato un modo per verificare i modelli climatici: Per essere validati dovrebbero darci modo di calcolare in modo teorico l’emissività della Terra….  Si OK… Ma il sole? C’e’ anche la SUA di epsilon … E sono abbastanza sicuro che vari parecchio tra  condizioni di massimo e quelle  di minimo.

(Ma guarda tu.. non e’ solo una questione di mera temperatura del sole!!!)

Ma ci vogliamo spingere oltre? Cerchiamo i limiti del modello.

Tutto il bel castello si basa sul fatto che stiamo ragionando in condizioni di EQUILIBRIO. Ma cosa succede se, in modo abbastanza rapido (relativamente alla risposta del sistema…) qualche parametro varia?  Oppure se la temperatura dei due corpi non e’ uniforme?

Non c’e’ risposta… Il modello cade e dobbiamo cercarcene un’altro….

Idem se le palle sono abbastanza vicine da permettere alla seconda di “riemettere” in modo consistente sulla prima (in questo caso le equazioni si complicano e invece della tempertura elevata alla quarta ci sarebbe stata la differenza delle temperature elevate alla quarta e tuto avrebbe preso una strada diversa.

Spero di non avervi tediato troppo e di non aver inanellato troppe sciocchezze

Alla prossima

Luca Nitopi

Sempre chiedersi il perchè

E’ da quando li ho visti la prima volta che mi chiedo perchè i grafici  temporali dell’estensione dei ghiacci marini artici ed antartici abbiano “quella forma”.

Mi spiego meglio. Se la terra fosse una palla uniformemente copertà d’acqua mi sarei aspettato un andamento pressoche sinusoidale dei ghiacci con l’andamento delle stagioni .

Invece ci ritroviamo questa situazione :

Il grafico dell’Antartide si avvicina abbastanza ad un andamento sinusoidale ma quello dell’Artide ne e’ ben lontano.

Da cosa lo deduco?

Dal grafico della derivata…. La derivata di una sinusoide e’ la sinusoide stessa sfasata di 90 gradi: guardate un pò:

Quella dell’Antartico e’ deformata ma “assomiglia” ancora al grafico originale sfasato di 6 mesi … L’artico no.

Da questo viene la mia curiosità. Cerchiamo dunque di capire.

E partiamo dal caso apparentemente più difficile e “inspiegabile” :  l’Artico.

Cosa c’e’ di sbagliato nell’approssimazione iniziale (palla coperta di acqua) nel caso dell’Artico? Be… Chiaro… La terra non e’ tutta coperta di acqua… L’Artico e’ incapsulato tra Nord America e Siberia e quindi quando il ghiaccio raggiunge la costa… non puo’ piu’ aumentare…. Guardiamo infatti il prossimo grafico da me orrendamente ritoccato :

Con la riga verdina ho “estrapolato” la sinusoide corrispondente alla parte di minimo, con la riga violetta la parte di sinusoide corrispondente al massimo… Infatti ad occhio mi e’ sembrato di riconoscere due comportamenti, non sovrapposti ma “consecutivi” … La prima sinusoide corrisponde all’espansione che si avrebbe “teoricamente”  in acqua libera (che se fosse lasciata andare arriverebbe a quasi 20Mkm2) .

La seconda e’ qualla relativa all’espansione solo nel tratto che resta libero dopo il contatto con Siberia e Canada, la parte che dà verso l’Oceano Atlantico (in questo caso non riesco a dare un significato “fisico” sensato al minimo che si raggiungerebbe..)

Guardando come e’ fatto il grafico (dove si congiungono i due rami della sinusoide) verrebbe da fare una previsione … Il contatto con la terraferma dovrebbe essere perso verso Luglio e raggiunto nuovamente per Nov-Dicembre … E allora , come dei  buoni giocatori di poker voi direte… VEDO!

A sinistra la situazione a metà luglio: Il distacco dall’Alaka e’ terminato e comincia quello dalla Siberia. A destra la situazione ai primi di Dicembre. Si e’ concluso il contatto con la Siberia e comincia quello con l’Alaska… Bingo ! (cioe’… Scala Reale!) .

Analizziamo ora la sitazione che sembrava piu’ semplice… L’Anatartide e’ “Quasi” una sinusoide.  Pero’ qui non c’e’ terra a rompere le scatole… e se c’e’… e’ decisamente lontana. Guardiamo allora il grafico dove cerco di riportare una “sinusoide teorica” :

Anche qui, guarda caso, il massimo teorico arriva sui 20 Mkm2 (Ma và, guarda tu che coincidenza) . Il problema e’ che il vertice e’ più basso, quasi “non ce la facesse” ad andare più in la…

La cosa e’ stata particolarmente evidente quest’anno con un chiarissimo “PIATTO” . Ora… il comparire dei “piatti” , anche detti “saturazioni” nelle sinusoidi puo’ avere un interessante significato:  vuol dire che un qualche fenomeno  limita in modo non linerare il processo di formazione del ghiaccio. E piu’ il “piatto” e’ evidente, piu’ il processo di formazione del ghiaccio e’ vigoroso. (prova in più della buona salute dell’ Antartide..).

Abbiamo capito un po’ di cose dal grafico, ma non ci siamo ancora tolti il sassolino dalla scarpa… Perchè il mare non va avanti a congelare? . Be, un paio di riposte plausibili le avrei : una sono i famosi “cinquanta urlanti” … La zona di mare che circonda l’Antartide e’ battuta dai venti e dalle onde più imponenti che si formano sulla terra. Un qualche disturbo alla formazione dei ghiacci la danno.

Poi ci sono le correnti circumantartiche che, lavorando da sotto, sciolgono i ghiacci mantenendo un costante apporto di acqua sicuramente più calda. La prova la si puo’ avere guardando il “filmato” dei ghiacci attorno al massimo (a es. qui) : Si puo’ vedere che li ghiaccio si scioglie e si riforma come “tirato” da qualcosa da est verso ovest…

A dirla tutta…

Mi piacerebbe spiegare anche perche’ la situazione dello scioglimento non e’ proprio simmetrica rispetto a quella del congelamento ma, reputandomi un dilettante in materia, mi ritengo soddisfatto…

Luca Nitopi

Il flusso dell’acqua bagnata

No, il calore estivo non mi ha dato alla testa .

R. Feinmann

Ho solo ripreso il titolo di un bel capitolo de "La fisica di Feinmann" dove il "Nobelist Physicist, teacher, storyteller and bongo player" spiegava ai suoi alunni la differenza tra le equazioni che governano i fluidi ideali e quelli "reali".

Volevo parlare e tediarvi un attimo sui motivi profondi per cui, in certi campi, risulta difficile e talvolta impossibile fare previsioni deterministiche sui comportamenti di un sistema fisico. Ma andiamo con ordine e facciamo un pò di filosofia. Normalmente in Fisica e nelle Scianze Naturali si procede con il cosiddetto Metodo Galileiano .

Si osserva e misura un fenomeno, quindi si elabora un modello matematico che lo descriva .

Si usa il modello per eseguire delle previsioni e si eseguono nuove misure.

Se le misure confermano "entro ragionevoli limiti" le previsioni il modello e' accettato e se ne cerca una giustificazione teorica , altrimenti lo si butta via senza rimpianto …

Ma "cosa sono" i modelli? Be, diciamo che c'e' un po' di tutto. Un po' di tutto di quello che i "matematici teorici" sono riusciti a concepire . Però , per le previsioni "deterministiche" si puo' dire che va ancora per la maggiore un sistema ideato verso la fine del '600 – inizi '700  (parlo di Newton e di Leibnitz);  le equazioni differenziali.

Si tratta di "oggetti"  che contengono delle variabili insieme alle "derivate" delle variabili stesse (la derivata e' una funzione che dice quanto velocemente cambia il valore della variabile). Probabilmente senza saperlo ne avete incontrate parecchie nel vostro currculum scolastico.

Ad esempio la classica legge del moto F=m*a … e' un'equazione differenziale : infatti l'accelerazione (a) e' la derivata seconda dello spazio rispetto al tempo  e… Se vogliamo ricavare la traiettoria di un oggetto, dobbiamo risolverla. Pero' qui le cose si complicano . Si, perchè non e' detto che una equazione differenziale sia facilmente risolubile.

Anzi, in generale, la soluzione "algebrica" non esiste

J.L.Lagrange
J.L.Lagrange

Un esempio storico molto bello e' il "problema a tre corpi", dove la forza F e' la forza di gravità . Non esiste la soluzione generale. Facendo i conti si possono vedere molte cose (e.s. l'esistenza dei "punti di Lagrange", dal nome del matematico torinese che li calcolo' per primo ). I calcoli dovevano essere fatti a mano risolvendo, per ogni caso particolare, delle "equazioni alle differenze" che, dopo un certo numero di iterazioni, danno il risultato cercato . Ad esempio, si voleva  sapere dove si sarebbe trovata la Luna da qui a qualche mese?  Bene, si prendevano le posizioni e le velocità "oggi" di tutti i pianeti e del Sole, si calcolavano le interazioni e quindi le nuove velocita', quindi le nuove posizioni, e via cosi' di un passettino alla volta. Ovviamente il "passettino" deve essere tale da non far variare in modo significativo le forze reciproche.

Con l'avvento dei calcolatori elettronici il problema del "calcolo numerico" sembrerebbe risolto. Infatti si riescono a calcolare le traiettorie delle sonde spaziali con una precisione "quasi miracolosa".

Pero' non sempre e' vero…

Studiando la teoria delle equazioni differenziali (e' stato tanti anni fa… non me ne vogliano i precisi se sarò un pò grossolano) si trova che ne esistono di due "tipi" : quelle stabili e quelle instabili. Nel primo caso piccole variazioni delle condizioni iniziali (es. le posizioni dei pianeti) portano variazioni "proporzionalmente piccole" del risultato. Nel secondo caso condizioni iniziali leggermente differenti portano a risultati finali MOLTO DIVERSI. (per chi volesse approfondire … stabilità equazioni differenziali )

Un altro esempio del primo gruppo di fenomeni : una corda di chiatarra. Se la pizzichiamo nel centro o se la pizzichiamo ad un estremo la nota emessa (dopo un certo tempo) sara' sempre la stessa… anche se le "condizioni iniziali" (Il pizzico) erano decisamente differenti (per chi volesse approfondire Corda_vibrante )

E arriviamo dunque all'acqua "bagnata"….

Il Feinmann, nella lezione precedente aveva illustrato le equazioni, molto belle, STABILI  ed eleganti, che governano il moto dei fluidi, nel caso semplificato di incomprimibilità ed assenza di viscosità e aveva chiamato un tale ipotetico elemento "acqua asciutta", in quanto senza viscosità non sarebbe mai rimasta "attaccata" a nulla…

Introducendo la viscosità e la comprimibilità le equazioni mutano profondamente e diventano poco eleganti e "asimmetriche".

Ma soprattuto perdono la stabilità.

L'introduzione della viscosità permette la nascita dei vortici, che sono in gran parte moti caotici e "imprevedibili". Da cui il detto "il battito delle ali di una farfalla puo' generare un uragano" …

Il che non e' proprio corretto… L'interpretazione da darsi e' che non si e' in grado di inserire il numero adatto di "condizioni iniziali" con la dovuta precisione in un modello previsionale che usi unicamente le equazioni che descrivono la dinamica dei fluidi.

E' un problema intrinseco del modello: non potrà mai farcela, da solo! Infatti per le previsioni meteo ormai non si utilizzano piu' solamente le analisi alle differenze ma sistemi misti che utilizzano l'analisi statistica ed altre diavolerie… Non e' pulito , non e' "matematicamente elegante " ,Ma funziona e, per dirla con il Feinmann, "la natura e' fatta così e noi non possiamo farci niente – R.F."

Luca Nitopi

Rumore, Indeterminazione e Cosmologia

Volevo prendere spunto dall’osservazione di ci vorrebbe il blog più orientato verso il sole e meno sul clima per postare questo articolo “di ampio respiro”.
Anche qui, lo so, rischio la lapidazione da parte degli ortodossi ma… Ma devo dire che non tutte le conclusioni che esporrò sono le mie. Anzi, L’ispirazione mi venne nel lontano 1987, studiando l’esame di elettronica .
Il docente aveva tenuto una bella serie di lezioni dul “rumore” nei dispositivi .
Per “rumore” in questo caso si intende tutto ciò di caotico che va a disturbare il “segnale” che si intende misurare . Ci aveva illustrato il “rumore termico” (quello dovuto all’agitazione temica degli elettroni), il rumore “shot” (quello dovuto al fatto che elettroni e lacune si ricombinano – se ben ricordo -) e poi aveva concluso con in rumore “flicker” che aveva definito “cosmologico”….. Per capire la battuta devo spiegarvi che il rumore porta con se, inevitabilmente, dell’energia e puo’ essere classificato a seconda dello spettro che questa energia ha per le farie frequenze. Ad es. un rumore “bianco” (come nell’immagine) ha uno spettro “piatto” e la sua energia e’ praticamente la stessa per tutte le frequenze (ad un certo punto , ad alte frequenze, cade a zero perche’ alrtimenti trasporterebbe una energia infinita). Il rumore Fliker e’ un rumore di tipo 1/f : la sua ampiezza aumenta man mano che la frequenza si avvicina a zero. Anche in questo caso il buon senso (!) farebbe supporre che l’ampiezza dello spettro, ad un certo punto, sia destinata a cadere a zero, perche’ la funzione 1/f, per f che tende a zero, implicherebbe una energia infinita. Invece… Invece tutte le misure fatte mostravano che la tendenza si mantiene. Pensate che non e’ assolutamente facile misurare frequanze molto basse . Per il semplice motivo che richiede tempi MOLTO LUNGHI (la frequenza è l’inverso del tempo…). Per misurare la “frequanza zero” occorre attendere un tempo infinito! Negli anni ’80 la miglior misura che si aveva era equivalente ad una frequenza di quasi 10 anni ed aveva richiesto un paio di anni per essere eseguita (da qualche parte devo ancora avere l’ingiallita fotocopia dell’articolo ).

Al che il professore, con aria sorniona, ci aveva detto “Non e’ ancora ben nota la causa del Flicker noise. Quello che si sa e’ che eventi a bassa frequenza portano con se energia sempre più grande…”

e si era lanciato in una elenco inquietante

“Terremoti” … “Vulcani” … “Supernovae” …

Chiaramente la lezione ci aveva lasciato un po’ perplessi ma… una spiegazione abbastanza approssimata e legata a quelle che i fisici amano chiamare “le leggi di natura” si può tentare.

Come al solito mi tocca partire da lontano… Ma questa volta non troppo…

1927. Nell’ambito della formalizzazione della meccanica quantistica W. Heisenberg (con N.Bohr) introduce il principio che porta il suo nome (principio di indeterminazione di Heisenberg) . Essendo una formalizzazione il principio appare come “effetto della teoria” ma, come per molte cose, è possibile vederla anche in un altro modo…La teoria e’ congegnata per spiegare quella che, a tutti gli effetti e’ una “legge di natura” . La legge suona più o meno così : « non è possibile conoscere simultaneamente la velocità e la posizione di una particella con certezza ». Si puo’ arrivare a conoscere, ad es., la velocità di un elettrone in modo precisissimo, ma allora si perderà completamente la misura della sua posizione. . La forma matematica (semplicissima) del principio e’ la seguente :

\Delta x\Delta p \ge \frac{\hbar}{2}

Il valore di h”tagliato” e’ molto piccolo. Nella vita di tutti i giorni non capiterà mai di oltrepassare il limite della disequazione… Capita se traffichiamo con le particelle, con gli atomi,con le cose molto piccole.

Mi direte… dove ci vuoi portare…

Be. Ci sono formulazioni alternative della disequazione esposta. Una è la seguente :

\Delta E\Delta t \ge \frac{\hbar }{2}

Non e’ possibile definire con precisione piccola a piacere e contemporaneamente l’energia ed il tempo.

Ma guardatela bene… Da un punto di vista cosmologico.

Se ci avviciniamo al punto in cui il tempo “comiciò a scorrere” (?t che tende a zero) , dovremo, per rispettare la formula, avere a disposizione un’energia che … tende all’infinito….

Io lo chiamo BIG BANG.

E voi?

Luca Nitopi