Perché secondo Rovelli la Relatività suggerisce di abbandonare il concetto di spaziotempo

Durante il secolo scorso, la Relatività Generale si è presentata con il più grande colpo di scena che la Fisica abbia mai visto:

L’interpretazione ortodossa della relatività generale: esiste uno spaziotempo che viene curvato dalle sorgenti di massa.
Le altre masse non possono fare altro che “seguire la curvatura” e quindi essere attratte.

Il campo gravitazionale non esiste, la gravità è il risultato della curvatura dello spaziotempo.

Chiunque si sia mai interessato di relatività generale si è quindi abituato a visualizzare questa affermazione con la splendida rappresentazione dello spaziotempo “curvato”.

Lo spaziotempo è per noi una “griglia immaginaria” che esiste fin dal Big Bang, una qualche costruzione geometrica su cui si collocano tutti gli eventi della nostra realtà.
Questi eventi possono essere descritti con le coordinate che vogliamo, e queste coordinate vanno a strutturare il palcoscenico matematico a cui diamo il nome “spaziotempo” dal punto di vista dei calcoli. Ma in ogni caso stiamo sempre assumendo che questa griglia invisibile e sottostante esista sempre, e in genere diamo anche a lei il nome di spaziotempo.


Di sicuro è una rappresentazione che ci consente di fare i conti in maniera molto comoda, ma ciò ha un determinato prezzo da pagare.

Questa rappresentazione assume in qualche modo che lo spaziotempo esista indipendentemente dalla materia e da ogni altra sorgente di energia, e questo è proprio ciò che sancisce il divorzio completo con la visione “quantistica” delle interazioni, come illustrato nel seguente schema:

Ciò pone non pochi problemi dal punto di vista della gravità quantistica, la quale si ritrova a dover mediare tra due visioni nettamente diverse! Nonostante ciò, entrambe le teorie funzionano in maniera impeccabile nei loro rispettivi campi di applicazione. In particolare anche la relatività generale ha ricevuto l’ennesima schiacciante conferma di validità secondo i dati recenti sull’osservazione del buco nero al centro della nostra galassia (EHT).

Eppure, nonostante sia data per scontata, questa interpretazione dello spaziotempo in relatività generale è tutt’altro che definitiva.

Di recente mi è capitato di studiare dei paragrafi del testo specialistico “Quantum Gravity” di Carlo Rovelli, incappando in un’osservazione che ritengo di altissimo valore concettuale e che aiuta a risolvere un importante paradosso delle equazioni di Einstein.

In realtà questa argomentazione non è dovuta solo a Rovelli, ma risale fino agli albori della relatività generale. È il cosidetto “hole argument” di Einstein, il quale giunse alle importanti conclusioni illustrate anche da Rovelli.

Un paradosso molto arguto

Immaginati una regione nello spaziotempo senza sorgenti di gravità, cioè senza massa o altre forme di energia come quella elettromagnetica. Magari questa regione di spaziotempo la prendiamo piccola a piacere per non complicarci le idee.

Con il simbolo delle tre ondine increspate, intendiamo uno spaziotempo curvo in quel punto.

Considera ora due punti A e B in questa regione vuota, e supponi di essere in grado di misurare la curvatura dello spaziotempo in entrambi i punti. Per intenderci, definiamo lo spaziotempo con il simbolo g_{\mu\nu}.

Per via di una particolarissima disposizione delle sorgenti esterne alla regione che stiamo considerando, supponi che lo spaziotempo sia curvo nel punto A e piatto nel punto B.

Ora usufruiremo del nome “Relatività Generale”, che non è stato assegnato a caso! Questo nome testimonia il postulato fondamentale su cui è basata tutta la teoria: la Fisica non può dipendere dalle coordinate di chi la osserva. Quando passiamo da un sistema di coordinate ad un altro stiamo eseguendo una trasformazione che chiamiamo \phi. Quando lasciamo agire \phi su una quantità “e“, otteniamo il suo trasformato \bar{e}=\phi\,e indicato con \bar{e}. Le quantità importanti della relatività generale non cambiano sotto la trasformazione \phi.

Se io calcolo una soluzione delle equazioni di Einstein che mi restituisce il valore della curvatura dello spaziotempo, il quale dipende da g_{\mu\nu}(x) in ogni suo punto x, allora un cambiamento di coordinate ottenuto con la trasformazione \phi genererà un’altra soluzione delle stesse equazioni, che ha la stessa validità della soluzione precedente.

Il punto è che \bar{g}_{\mu\nu} risolve le stesse equazioni di Einstein con le stesse sorgenti, non è cambiato nulla rispetto a prima. Cambia solo il linguaggio in cui abbiamo espresso g_{\mu\nu} (cioè le coordinate particolari che utilizziamo).

Supponiamo di trasformare le nostre coordinate in modo da mandare il punto A nel punto B e lasciare invariati tutti gli altri punti al di fuori del buco. Anche la soluzione delle equazioni di Einstein trasformerà come \bar{g}=\phi\,g. In sostanza, abbiamo fatto la seguente cosa:

Una trasformazione che lascia invariato tutto lo spazio tranne i punti all’interno della regione vuota. Dopo la trasformazione lo spaziotempo presenta una curvatura nel punto B , mentre la curvatura è nulla nel punto A.

Nelle nuove coordinate lo spaziotempo nel punto A è quindi piatto, mentre ora è curvo nel punto B.

Ripeto, \bar{g}_{\mu\nu} è una soluzione altrettanto valida, e la trasformazione che abbiamo fatto è consentita dalle leggi della Relatività Generale.

Ma allora lo spaziotempo nel punto A è piatto oppure curvo? Ci troviamo di fronte a un paradosso, come se le equazioni di Einstein fossero completamente inutili perché non sono in grado di descrivere lo spaziotempo univocamente.

Questo aspetto turbò gravemente Einstein in persona, tanto da fargli dubitare più volte che il principio di relatività generale avesse senso fisico.

In realtà, come fa notare Rovelli, la soluzione del paradosso sta nel ripensare la nozione di “punto dello spaziotempo”, o in generale: smetterla di attribuire tanta importanza a una griglia immaginaria come lo spaziotempo.

In realtà stavamo risolvendo un problema sbagliato.

La domanda fondamentale “com’è lo spaziotempo nel punto A? Ha in realtà meno significato di quello che pensavamo. Il problema era mal posto, o meglio, non aveva senso considerarlo un problema.

In Relatività Generale assumiamo l’esistenza di questa griglia invisibile chiamata “spaziotempo”, dandole un significato intrinseco che è maggiore di quello che realmente ha.
Nonostante accettiamo senza problemi il fatto che possiamo usare qualsiasi tipo di coordinate vogliamo per elencare i punti di questa griglia, qualcosa nella nostra intuizione ci porta a credere che la griglia abbia davvero un significato fisico.

Una rappresentazione bidimensionale della griglia spaziotemporale che ci immaginiamo nella nostra testa.

Il concetto di griglia ha però, come molti altri concetti, solo una natura strumentale. Spesso ci permette di capire ciò che stiamo facendo, ma non dovremmo dargli un significato ontologicamente maggiore di quello strumentale, o almeno questo è il suggerimento di Einstein e Rovelli.

Hai visto come il domandarci quale fosse la curvatura dello spaziotempo in uno specifico punto ci ha portato al paradosso che le equazioni di Einstein descrivono due cose diverse con due soluzioni che dicono in realtà la stessa cosa? Stavamo risolvendo un problema sbagliato, questo è l’errore a cui siamo condotti se non seguiamo il suggerimento.

Considera invece questa situazione: supponiamo che nel punto A si incrocino anche le traiettorie spaziotemporali di due particelle (cioè le loro geodetiche):

Le geodetiche delle particelle sono indicate con la linea tratteggiata blu.

Le coordinate con cui descriviamo il punto A adesso racchiudono non solo l’informazione sulla curvatura dello spazio tempo g_{\mu\nu}, ma anche l’informazione “si sono incrociate le geodetiche delle due particelle!“.
Anche le geodetiche dipendono dalle coordinate che utilizziamo, quindi se ora eseguiamo la stessa trasformazione di coordinate di prima, cioè mappiamo un punto nell’altro, dobbiamo spostare anche il punto di incontro delle geodetiche!

Come vedi ora sia la curvatura dello spaziotempo sia il punto di incontro delle geodetiche sono stati trasportati dal punto A al punto B. Supponiamo di voler rispondere, grazie alle equazioni di Einstein, alla seguente domanda:

“Com’è la curvatura dello spaziotempo nel punto in cui si incontrano le geodetiche delle due particelle?”

Questa domanda, a differenza di prima, è tutta un’altra questione: è ben posta ed ha una soluzione univoca data dalla soluzione delle equazioni di Einstein. Come puoi vedere, sia prima che dopo la trasformazione di coordinate esiste una curvatura nel punto di incontro delle due geodetiche. Lo spaziotempo è curvo nel punto in cui le due geodetiche si incontrano. Questa informazione non dipende da quali coordinate stiamo utilizzando. Quindi è questa la vera domanda da porsi in una situazione simile.

La Relatività Generale ci suggerisce che la griglia immaginaria ha molto meno significato fisico di quello che credevamo: ha poco senso fisico chiedersi quale sia il valore della curvatura dello spaziotempo in un suo specifico punto senza introdurre campi di materia o interazioni tra particelle che possano interagire in quel punto.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Uno spaziotempo senza materia e particelle non ha significato fisico, la realtà non è composta da spaziotempo e campi, ma da campi su campi, secondo Rovelli. Possiamo fare affermazioni fisicamente sensate solo nel momento in cui iniziamo a relazionare campi di materia con altri campi di materia (come l’incrocio delle due geodetiche visto nell’esempio).

Questo punto di vista capovolge ancora una volta il significato che attribuiamo alla Relatività Generale: non è che la gravità non esiste ed è solo lo spaziotempo a farci sembrare che ci sia, sono le interazioni con le particelle che danno un significato fisico allo spaziotempo. Lo spaziotempo emerge grazie alle particelle, e non il contrario. Per la gravità quantistica questa interpretazione è nettamente più favorevole in quanto il mediatore smette di essere indipendente dalla materia che interagisce (vedi lo schema fatto all’inizio).

Gli oggetti non sono immersi nello spazio. Gli oggetti costituiscono lo spazio. Come un matrimonio: non è che marito e moglie “percepiscono il matrimonio”, loro sono il matrimonio, lo costituiscono. […] Allo spazio non rimane nulla se togli tutte le cose che lo abitano. Lo spazio è costituito dalle cose.

Carlo Rovelli

Si nasconde forse qui il segreto per iniziare a conciliare gravità e meccanica quantistica?

Secondo me questo paradosso meriterebbe di essere illustrato maggiormente nei libri di testo introduttivi di Relatività Generale, perché nasconde il cuore concettuale della materia. Per questo motivo ho pensato di portare in superficie l’osservazione di Rovelli, uno dei pochi autori moderni che ha scelto di parlarne a un secolo di distanza.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Demistificando lo spaziotempo di Minkowski una volta per tutte

Sono trascorsi quasi 117 anni da quando l’umanità ha capito che la nostra realtà è meglio descritta utilizzando una struttura concettuale che lega indissolubilmente spazio e tempo: lo spaziotempo.
Siamo cioè passati da una concezione tridimensionale della nostra realtà a una concezione quadridimensionale.

Infatti, anche se non sappiamo ancora cosa siano oggettivamente spazio e tempo e quindi ne possiamo avere solo un’interpretazione che ci aiuta comunque a fare previsioni molto precise sulla realtà, sappiamo per certo che non sono due entità distinte: spazio e tempo sono malleabili, e dal punto di vista di osservatori diversi possono anche mischiarsi tra loro.

Ritengo che oggi questo argomento debba essere divulgato con la stessa semplicità e chiarezza con cui nelle scuole divulghiamo tanti altri fatti scientifici. Infatti dopo quasi 117 anni non possiamo più catalogare la Relatività Ristretta come “fisica moderna”, proprio allo stesso modo in cui Einstein nel 1905 non si riferiva alla meccanica lagrangiana del 1790 con il nome di “fisica moderna”.

Il modo migliore per spiegare la nostra comprensione dello spaziotempo è quello di fare un passo indietro e studiare come la pensavamo qualche secolo fa.

I quattro numeri della nostra realtà

Un oggetto tridimensionale della nostra realtà.

La nostra intuizione sensoriale ci suggerisce che viviamo in uno spazio tridimensionale, infatti gli oggetti hanno una lunghezza, larghezza e altezza. Per descrivere un oggetto a un’altra persona senza fargli vedere una sua fotografia possiamo misurarlo e poi dirle quanto è lungo, largo e alto: tre numeri, niente di più e niente di meno, perché tre sono le dimensioni che percepiamo dello spazio attorno a noi.

Allo stesso modo, quando vogliamo descrivere i fenomeni che accadono intorno a noi dobbiamo essere in grado di dire dove si sono verificati e in che istante di tempo. Per capirsi tutti al volo sul “dove”, sono state inventate le mappe e i sistemi di coordinate che scandiscono lo spazio intorno a noi con dei numeri ben precisi, mentre per essere tutti d’accordo sul “quando” è stato inventato l’orologio, che scandisce con altri numeri ben precisi lo scorrere di una misteriosa entità che chiamiamo “tempo”.

Un evento è per definizione l’unione tra le tre informazioni spaziali sul “dove” e la singola informazione temporale sul “quando”. Quando diciamo “alle 15:06 di ieri si è rotto il vaso nella veranda di nonna” stiamo assegnando all’evento “Rottura del vaso” le coordinate geografiche “veranda di nonna” e la coordinata temporale “ora locale 15:06″. In totale sono quattro numeri: tre spaziali e uno temporale.

In totale un evento è descritto da quattro numeri: per seguire i fenomeni che accadono intorno a noi non possiamo usare meno di quattro numeri o rischieremmo di non farci comprendere dagli altri.

Lo spazio e il tempo prima del XX secolo

In passato i fisici si fecero guidare dall’intuizione e immaginarono spazio e tempo come due entità separate. Questo perché nulla nell’esperienza di tutti i giorni ci farebbe intuire il contrario. Per quei fisici, l’immagine mentale del “tempo” è proprio la stessa che intuiamo dalla vita di tutti i giorni:

La freccia del tempo.

Il tempo è una retta infinita che si estende dall’infinito passato fino all’infinito futuro, ma che ha un’unica orientazione: scorre solo verso il futuro.

Per i fisici del passato esisteva un’unica freccia del tempo universale: ogni evento dell’universo accadeva in un preciso istante di tempo su cui potenzialmente tutti possono concordare.

Vediamo la conseguenza del ragionamento di quei fisici. Supponiamo che una persona si metta d’accordo con un astronauta prima della sua partenza e che sincronizzino i propri telefoni in modo da far partire una suoneria ogni 8 ore per il resto della loro vita. In questo modo quando l’astronauta si troverà su Marte e sentirà la suoneria del proprio telefono, saprà che in quel preciso istante di tempo il suo amico sulla Terra avrà sentito la stessa suoneria. I due amici potranno quindi definire un istante chiamato “presente”, cioè una nozione di “adesso”.
Se non vedi nulla di strano in questa conseguenza, è perfettamente comprensibile! Siamo abituati a concepire il tempo in questo modo, cioè come un’entità universale che scorre allo stesso modo per tutti, e i fisici del passato non erano comunque scemi nonostante pensassero ciò!

Il moto di una pallina in una sola dimensione può in principio essere studiato con righello e cronometro.

Spazio e tempo non sarebbero comunque granché utili se non li facessimo “cooperare” per provare a fare delle previsioni sul mondo che ci circonda.
Per studiare il moto di una pallina su un tavolo potremmo ad esempio utilizzare un righello per tracciare la sua posizione, e un cronometro per tenere traccia del tempo che passa. Così facendo, finiamo per collezionare un insieme di eventi come “pallina nel punto 2.5 cm all’istante 1.51 s” o “pallina nel punto 4.7 cm all’istante 2.05 s” che messi in successione tra loro costituiscono la traiettoria della pallina.

Usiamo una sola coordinata spaziale per semplicità: il moto si svolge su una sola dimensione spaziale..

Se sei familiare con il concetto di piano cartesiano, possiamo scegliere di rappresentare gli eventi raccolti su di esso, solo che al posto di “y” mettiamo il tempo “t” trascorso. A differenza di un piano geometrico bidimensionale, abbiamo ora davanti un piano spaziotemporale (in gergo “1+1 dimensionale“, cioè una dimensione spaziale, che è la “x”, e una dimensione temporale):

Un diagramma spazio-tempo per il moto di una pallina.

Se collezionassimo tantissimi eventi per il moto della pallina e collegassimo tutti i puntini blu con una linea continua, troveremmo quella che è nota essere la traiettoria della pallina.
Se la pallina fosse ferma in ogni istante di tempo, la sua traiettoria nello spazio-tempo sarebbe la seguente

Il grafico spazio-tempo di una pallina ferma nel punto x=2.5 cm.

Questo perché la coordinata “x“, per definizione di “fermo”, non deve cambiare nel tempo. Il tempo scorre in verticale, e la posizione rimane fissa sul punto x=2.5 cm.
Un pallina che si muove con velocità costante avrebbe invece il seguente grafico:

A parità di intervallo di tempo passato, la pallina percorre sempre porzioni uguali di spazio: la velocità è allora costante.

Potremmo anche non limitarci al moto dei corpi e usare i diagrammi spaziotempo per raccogliere tutti gli eventi della nostra realtà!

Ad esempio tutti gli eventi dello spazio che avvengono allo stesso istante di tempo si ottengono tracciando la retta parallela all’asse “x”. Questa retta è detta “linea di simultaneità

Tutti gli eventi spaziali che avvengono all’istante “t=2 s” fanno parte della linea di simultaneità in arancione.

Scorrendo con il dito lungo la retta arancione, il tempo non cambia, è sempre fisso a “t=2 s”, mentre lo spazio cambia. Stiamo esplorando tutti i punti dello spazio che esistono nel medesimo istante di tempo.

Allo stesso modo possiamo raccogliere tutti gli eventi che avvengono nello stesso punto dello spazio tracciando la retta parallela all’asse “t”, come fatto nel caso della pallina ferma.

Il punto importante da capire però è che lo spaziotempo esiste indipendentemente dal nostro diagramma cartesiano. Il diagramma con cui scegliamo di catalogare gli eventi si chiama “sistema di riferimento” ed è totalmente arbitrario. Decido io quando far iniziare il conteggio del cronometro e decido io dov’è il punto di partenza in cui mettere lo zero del righello. Nonostante ciò, il moto della pallina avviene comunque in uno spaziotempo “invisibile”, e le coordinate che uso per descriverlo non sono altro che una mia personale interpretazione con cui posso fare delle previsioni.

L’evento nello spaziotempo esiste anche se non c’è nessun sistema di riferimento che lo descrive. Lo spaziotempo esiste indipendentemente dai sistemi di riferimento.

Proprio per questo motivo, la Fisica prevede che le sue leggi si mantengano vere indipendentemente dalle coordinate di chi le sta utilizzando. Non avrebbe proprio senso se la realtà dipendesse dal tipo di righello o cronometro che uso!

Le trasformazioni di Galileo

Galileo Galilei, l’ideatore del principio di relatività.

In particolare, come studiato da Galileo, le conclusioni degli esperimenti di Fisica devono essere identiche a seconda che siano studiate su un treno che si muove a velocità costante o che stia fermo rispetto alla stazione. Muoversi a velocità esattamente costante è comunque una cosa rara, concorderai sicuramente che capita spesso di sentirsi “tirati” in una direzione o in un’altra in un viaggio in macchina, o in treno quando frena o fa una curva. In quei frangenti il moto non è a velocità costante, ma trascurandoli possiamo dire che il resto del viaggio si svolge in maniera che se oscurassi i finestrini e mascherassi il suono del motore, non saresti in grado di dire se si è fermi o in movimento. Questa è l’idea di Galileo: il principio di relatività.

Se mettiamo tre persone di tre nazionalità diverse davanti a una mela su un tavolo, ciascuna delle tre persone dirà nella propria lingua “la mela è sul tavolo”. Il fatto che la mela stia sul tavolo è un dato di fatto che non può dipendere dalla particolare lingua che si utilizza per descriverlo.
Siccome l’obbiettivo degli umani è comunicare tra loro, deve esistere una traduzione da un linguaggio all’altro che mantenga intatto il fatto oggettivo che la mela è sul tavolo.

Allo stesso modo, sistemi di riferimento in moto relativo l’uno con l’altro devono poter concordare sui fenomeni che osservano con le proprie coordinate. Deve quindi esistere una traduzione da un set di coordinate all’altro che mantenga intatto il fatto oggettivo di ciò che si manifesta nello spaziotempo.

Se il moto relativo è a velocità costante, la traduzione linguistica è particolarmente semplice e lascia inalterati tutti i risultati della Fisica: si chiama trasformazione di Galileo.

Dati due osservatori che utilizzano due piani cartesiani diversi con coordinate diverse:

Se “v” è la velocità relativa, possiamo ottenere le coordinate di uno in funzione delle coordinate dell’altro con una trasformazione di Galileo:

Una trasformazione di Galileo.

Ovviamente abbiamo assunto che i due osservatori abbiano sincronizzato i propri orologi in un certo istante di tempo precedente, ecco perché le loro coordinate temporali sono identiche: T=t.

Con questa traduzione possiamo descrivere con le coordinate dell’osservatore 2 tutti gli eventi descritti in precedenza con le coordinate dell’osservatore 1.

Una cosa concettualmente molto utile per ciò che faremo dopo è rappresentare i due sistemi di riferimento nello stesso grafico. Rispetto all’osservatore 1, gli assi dell’osservatore 2 si ottengono impostando le loro equazioni T=0 e X=0. Infatti l’asse T è anche noto come “la retta verticale tale che X=0“. Quindi possiamo ricavare l’asse T nelle coordinate (x,t) sostituendo “0” al posto di “X

Nel diagramma spazio-tempo di prima avremo quindi

Una trasformazione di Galileo da coordinate (x,t) a coordinate (X,T).

La cosa più importante da notare è che rispetto all’osservatore di coordinate (x,t), l’asse T del secondo osservatore è geometricamente inclinato: questa inclinazione rappresenta il fatto che il secondo osservatore si sta muovendo rispetto al primo con una certa velocità.

Ora studiamo un po’ come questi osservatori interpretano lo spaziotempo intorno a loro. Le linee di simultaneità sono sempre rette parallele agli assi x e X per definizione:

I punti dello spazio simultanei tra loro secondo l’osservatore (X,T) sono simultanei anche per l’osservatore (x,t). Per verificare, scorri una retta arancione con il dito e verifica che non ti stai spostando né sulla coordinata t, né sulla coordinata T.

Le trasformazioni di Galileo non toccano la simultaneità: il tempo, nella concezione galileiana e newtoniana della fisica classica, è assoluto.

Ovviamente invece il discorso cambia se consideriamo gli eventi che avvengono in un unico punto nello spazio dell’osservatore in movimento. Magari l’osservatore 2 è in auto e sta segnando sul taccuino la posizione di un suo compagno di viaggio che è fermo rispetto a lui in ogni istante di tempo. Tuttavia dal nostro punto di vista in cui osserviamo l’autostrada da un casello, quel compagno di viaggio non è fermo!


Come abbiamo fatto prima, per ottenere le rette degli eventi che avvengono nello stesso punto dello spazio tracciamo le parallele all’asse T, quindi si avrà:

Le rette degli eventi che per l’osservatore (X,T) avvengono tutti in uno specifico punto del suo sistema di riferimento.

Come puoi notare, le rette non sono verticali anche per l’osservatore fermo (x,t), proprio perché dal suo punto di vista tutti quegli eventi che sono fissi nel sistema di riferimento (X,T) si muovono alla stessa velocità di questo. Infatti le rette hanno la stessa inclinazione dell’asse T, che rappresenta, come detto, il moto dell’osservatore 2.

Il tuo occhio potrebbe ora notare un fatto interessante: dal grafico sembra che l’intervallo temporale ∆T tra i due eventi (indicato in rosso), sia maggiore dell’intervallo temporale ∆t, quando invece sappiamo che nelle trasformazioni di Galileo deve essere rigorosamente:

L’intervallo di tempo tra due eventi è un numero su cui tutti gli osservatori connessi da una trasformazione di Galileo devono sempre concordare.

Questo è un dettaglio acutissimo e che potenzialmente potrebbe generare molta confusione. Non se ne parla spesso.

La verità è che quell’asse “T” ruotato non ha la stessa scala di lettura dell’asse originale, proprio per via della rotazione! Una volta tenuto conto di questo fattore di scala, troviamo che anche se visivamente le lunghezze indicate in rosso sembrano diverse, a conti fatti risultano uguali, come ci aspettiamo.

Una dimensione spaziale in più

Ora che abbiamo macinato un po’ di percorso, aggiungiamo una dimensione spaziale in più per divertimento. Assieme alla “x” consideriamo anche la “y” per ottenere il classico, beneamato piano euclideo.
Lo spazio-tempo ha ora dimensione 2+1 (due spaziali e una temporale), e può essere visualizzato nel modo seguente:

La rappresentazione di uno spazio bidimensionale nel tempo, descritta come una sovrapposizione di copie.

Concentriamoci però solo sul piano spaziale senza considerare il tempo, o se preferisci, congeliamo un singolo istante di tempo. Il piano euclideo è proprio quello che ci ha svezzato e ci ha introdotto alla geometria piana, è quel posto magico in cui l’ipotenusa di un triangolo rettangolo è data dal teorema di Pitagora:

Tutti concordano sul teorema di Pitagora, è un fatto matematico che è indipendente dal proprio stato di moto! Se le trasformazioni di Galileo fanno quel che promettono di fare, non dovrebbero mai e poi mai alterare la lunghezza dell’ipotenusa di un triangolo rettangolo! Ci aspettiamo che sia:

Le trasformazioni di Galileo lasciano invariata la geometria euclidea dello spazio.

Effettivamente è così, le trasformazioni di Galileo restituiscono il risultato corretto, lasciando intatto il teorema di Pitagora (non avrebbe proprio senso se dovesse dipendere dallo stato di moto!). Nel caso più semplice in cui il moto relativo è lungo l’asse x dell’osservatore 1 si ha:

Nota che il conto restituisce il risultato che ci aspettiamo solo se poniamo uguale a zero l’intervallo temporale “∆t” tra i due eventi spaziali che specificano i cateti del triangolo rettangolo! Questo passo è fondamentale, le lunghezze spaziali, nello spaziotempo, si calcolano per definizione a tempo fissato. Non avrebbe proprio senso dire “questo oggetto è lungo 3 cm tra gli istanti di tempo 1 e 10 secondi”: un osservatore è in grado di misurare una lunghezza spaziale nel proprio sistema di riferimento solo una volta che individua simultaneamente gli estremi dell’oggetto che vuole misurare.

Ora che abbiamo completato il riscaldamento con la relatività di Galileo, è il momento di passare al succo del discorso, ovvero il motivo per cui sei qui!

Ripensare il principio di relatività

Alla fine del XIX secolo ci si accorse che una serie di argomenti teorici e sperimentali rendevano incompatibili le leggi dell’elettromagnetismo con il principio di relatività, o meglio, con il principio di relatività mediato dalle trasformazioni di Galileo. Siccome l’elettromagnetismo era fondato su radici sperimentali solidissime, e si presumeva che il principio di relatività fosse un qualcosa di irrinunciabile per la Fisica, si spalancarono due possibilità:

  • 1) La teoria dell’elettromagnetismo è falsa e bisogna trovarne una migliore, che sia compatibile con Galileo. Il principio di relatività è irrinunciabile.
  • 2) La teoria dell’elettromagnetismo è vera. Il principio di relatività può essere abbandonato.

Fu quel giovanotto di Einstein a trovare il mix perfetto tra queste due soluzioni molto drastiche, la cosiddetta terza via:

  • 3): La teoria dell’elettromagnetismo è vera. Il principio di relatività è irrinunciabile. Le trasformazioni di Galileo però non sono le trasformazioni corrette per applicare il principio di relatività.

Einstein notò che le trasformazioni di coordinate che lasciavano invariate le leggi dell’elettromagnetismo non erano quelle di Galileo, ma le trasformazioni di Lorentz:

“c” è la velocità della luce: 300.000 km/s. È evidenziato il fattore gamma.

Queste bestiole non sono altro che le trasformazioni di Galileo con un po’ di accorgimenti in più: ad esempio compare a moltiplicare il “fattore gamma: γ” che contiene il rapporto tra la velocità relativa dei due osservatori e la velocità della luce al quadrato. La velocità della luce compare per due motivi, uno storico e uno concettuale:

  • 1): Queste trasformazioni furono trovate tra quelle possibili che lasciavano invariate le leggi elettromagnetiche tra osservatori in moto a velocità costante. Siccome la luce è un’onda elettromagnetica che si propaga nel vuoto con velocità “c”, questa compare direttamente nelle trasformazioni come fattore costante per far sì che l’equazione dell’onda rimanga appunto invariata, come vuole il principio di relatività.
  • 2): Studiando le conseguenze di queste trasformazioni si scoprì che facevano una predizione insolita: la velocità della luce è un vero e proprio limite di velocità: nessuno può raggiungerla e nessuno può superarla. È una conseguenza matematica di queste trasformazioni. (Si nota già dal fatto che il fattore gammaγ” esplode se poniamo la velocità relativa “v” uguale a “c”. Non si può dividere per zero!).
    Come tutti i limiti di velocità, deve essere uguale per ogni “automobilista”: la velocità della luce è una costante che ha lo stesso valore numerico per tutti gli osservatori che si muovono di moto relativo a velocità costante. Questo è anche un fatto rigorosamente verificato sperimentalmente.

Senza soffermarci troppo sulla matematica di queste trasformazioni, osserviamo che la prima differenza importante con quelle di Galileo è il fatto che la coordinata temporale dell’osservatore in moto relativo è ottenuta mischiando coordinate temporali e spaziali dell’osservatore iniziale!

A differenza di Galileo, non è semplicemente “T=t”, ma compare prepotentemente anche lo spazio con la coordinata “x”!


Questo fatto è assolutamente inedito, e dà i natali a una interpretazione completamente rivoluzionaria del concetto di spaziotempo!

Il tempo non è più assoluto e uguale per tutti, ma è una cosa personale per ogni osservatore dell’universo, così come sono personali le proprie coordinate spaziali. L’importante poi è riuscire a tradurre da una lingua all’altra per mettersi tutti d’accordo, ma a questo ci pensano proprio le trasformazioni di Lorentz.

Il problema dell’elettromagnetismo ci ha aiutato a capire che sono in realtà le trasformazioni di Lorentz quelle corrette da introdurre quando si parla di principio di relatività. Le trasformazioni di Lorentz si riducono a quelle di Galileo nel limite in cui la velocità relativa “v” è molto inferiore alla velocità della luce “c” (cosa che ci riguarda in particolar modo, dato che nulla nel nostro mondo viaggia a velocità prossime a 300.000 km/s, eccezion fatta per la luce e alcune particelle subatomiche).

Lo spaziotempo di Minkowski

Ricordi la questione del teorema di Pitagora discussa poco fa? Le trasformazioni di Galileo vanno molto d’accordo con la geometria euclidea dello spazio. Anche le trasformazioni di Lorentz ci vanno d’accordo, ma concentrarsi solo sulla parte spaziale è riduttivo. Si trovò che esiste una nuova quantità spaziotemporale che è lasciata invariata dalle trasformazioni di Lorentz! Tenendoci sempre in dimensioni 2+1, questa quantità è la seguente:

L’intervallo spaziotemporale lasciato invariato

Cioè se prendiamo due eventi separati da una distanza spaziale e da una distanza temporale, la quantità costruita in questo modo assume lo stesso valore per tutti gli osservatori che si muovono con velocità costante:

Questo fatto ci fa capire quanto fosse poco casuale che tempo e spazio si mischiassero nelle trasformazioni di Lorentz. Tempo e spazio si mischiano per un motivo ben preciso: fanno parte di un costrutto più grande dello spazio, lo spaziotempo! In questo spaziotempo la velocità della luce gioca un ruolo così importante da comparire addirittura nella “versione estesa del teorema di Pitagora spaziotemporale”.

L’insegnamento che ne possiamo trarre è il seguente: se lo moltiplichiamo per la velocità della luce, il tempo diventa a tutti gli effetti una nuova dimensione spaziale.

Viviamo quindi in una realtà a quattro dimensioni: tre dimensioni spaziali e una dimensione temporale. A differenza di come la pensavano qualche secolo fa, la dimensione temporale è in grado di mischiarsi con le informazioni spaziali tramite le trasformazioni di Lorentz.

Il teorema di Pitagora spaziotemporale è però particolarmente speciale, perché non possiamo ignorare che il termine temporale presenta un segno negativo!

Tempo e spazio non sono trattati allo stesso modo, c’è un segno meno di differenza!

Cambia proprio il concetto di geometria: la geometria dello spaziotempo non è più euclidea! Hai mai visto un teorema di Pitagora con una differenza al posto di una somma?
È la somma dei quadrati a rendere euclidea la geometria spaziale del teorema di Pitagora.

D’altra parte la geometria dello spaziotempo si dice essere “pseudo-euclidea“. Questo nome potrà essere figo da pronunciare, ma non dice nulla di troppo rilevante per i nostri scopi.

Una cosa ben più rilevante da esplorare invece è il diagramma spaziotempo (detto “di Minkoswki“).
Ricordi i diagrammi che abbiamo studiato nel caso di spazio-tempo classici? Quello spazio-tempo era particolarmente noioso in quanto tempo e spazio non erano in alcun modo connessi reciprocamente da trasformazioni di coordinate rilevanti per la Fisica. Ora si son mischiate un po’ le carte, quindi vediamo cosa bolle in pentola.

Consideriamo di nuovo due osservatori in moto relativo l’uno rispetto all’altro con velocità costante, ed esattamente come prima rappresentiamo i loro sistemi di riferimento in un unico grafico spaziotempo.

Per fare ciò dobbiamo trovare le equazioni degli assi T e X del secondo osservatore in funzione delle coordinate del primo! Con un procedimento identico a prima troviamo le seguenti rette:

Il risultato del mixing tra coordinate spaziali e temporali cambia completamente le regole del gioco: nel caso di Galileo avevamo che solo l’asse temporale dell’osservatore appariva ruotato nello spazio-tempo dell’osservatore fermo. Ora abbiamo una rotazione di entrambi gli assi!

Un diagramma di Minkowski.
Nota che gli assi temporali sono moltiplicati per la velocità della luce.
Come suggeritoci dal “teorema di Pitagora dello spaziotempo”, la dimensione temporale deve comparire moltiplicata per la velocità della luce.

Questo fatto ha delle implicazioni senza precedenti, perché se ora andiamo a chiederci, come fatto prima, quali siano le rette di simultaneità per l’osservatore in movimento, dovremo tracciare nuovamente la parallela all’asse X:

Eventi che giacciono sulle rette di simultaneità, come si vede, sono separati da un intervallo temporale ∆t non nullo per l’altro osservatore.

Il fatto che le rette di simultaneità non siano parallele all’asse “x” del primo osservatore implica che:

Eventi simultanei per un osservatore in moto possono non essere simultanei per un altro osservatore

La simultaneità di due eventi è relativa a chi osserva gli eventi! Se io osservo due eventi A e B accadere allo stesso istante di tempo sul mio orologio, un osservatore che si muove rispetto a me potrebbe veder succedere A prima o dopo B.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questo fatto dipende dalla velocità della luce: la velocità della luce è una costante per tutti gli osservatori, e siccome le informazioni sugli eventi possono arrivarci al massimo alla velocità della luce (noi “vediamo” il mondo intorno a noi proprio grazie alla luce) l’unico modo in cui il moto relativo dell’osservatore riesce a non influenzare questi due fatti è proprio mettendo mano alla coordinata temporale.
Concettualmente, è come se la coordinata temporale si fosse “sacrificata” per preservare la velocità della luce.

Ricordi quegli astronauti che sincronizzavano i loro telefoni, convinti di poter definire un unico istante comune di “simultaneità” anche se distanti? Nel contesto dello spaziotempo di Minkowski ha poco senso: non esiste una retta di simultaneità degli eventi comune a tutti gli osservatori!

Se pensi che ciò sia la cosa più strabiliante di tutta questa faccenda, ti consiglio di continuare a leggere la prossima!

Dilatazione temporale

Consideriamo un evento che avviene in una singola posizione spaziale per l’osservatore in moto, e che la durata da lui registrata sia ∆T. Indicando con dei pallini il momento iniziale e il momento finale dell’evento, questi giace sulla retta degli eventi che avvengono in quella posizione, che ricordiamo, si ottiene tracciando la parallela all’asse T.

La durata ∆T dell’evento è indicata dalla striscia rossa sull’asse T. Come si vede graficamente, la durata dell’evento è indicata in rosso anche dal punto di vista dell’osservatore fermo. Secondo le trasformazioni di Galileo avremmo dovuto avere “∆T=∆t“: cioè la durata temporale dell’evento deve essere una cosa su cui è possibile concordare indipendentemente dal proprio stato di moto.

La trasformazione di Lorentz per la coordinata temporale ha tutta l’aria di promettere un po’ meno. Anzi, promette discordia tra gli osservatori a seconda del loro stato di moto.

Quanto è durato lo stesso evento secondo l’osservatore fermo? Per scoprirlo facciamo ricorso al teorema di Pitagora pseudo-euclideo, ovvero l’unica quantità su cui i due osservatori possono concordare di certo.
Consideriamo un’unica dimensione spaziale e ipotizziamo che il moto relativo si svolga sull’asse “x” del primo osservatore.
Per l’osservatore in moto l’evento avviene in un unico punto dello spazio, cioè la sua posizione non cambia, quindi si ha ∆X=0.:

Qui stiamo indicando con ∆t e ∆x la durata e la variazione in posizione dell’evento dal punto di vista dell’osservatore fermo, il quale evidentemente vedrà l’evento muoversi alla stessa velocità dell’osservatore in moto. Non ci resta che eguagliare le due espressioni per l’invarianza di Lorentz citata prima:

Abbiamo l’obbiettivo di isolare ∆t per capire quanto dura l’evento dal punto di vista dell’osservatore fermo. A tale scopo raccogliamo

Siccome l’evento in questione si sposta alla stessa velocità dell’osservatore in moto, chiamiamo proprio “v” il rapporto tra spazio percorso e l’intervallo di durata, dove “v” è proprio la velocità relativa dell’osservatore in moto. A questo punto ricaviamo ∆t dividendo tutto per quella quantità e calcolando la radice quadrata di entrambi i membri

E questa è una delle formule più famose nella storia della Fisica: la dilatazione temporale. La durata di un evento dal punto di vista di un osservatore che vede l’evento muoversi rispetto a lui è sempre maggiore della durata calcolata nel sistema di riferimento solidale a dove l’evento è avvenuto. Perché maggiore? Proprio perché ∆T, qualunque esso sia, è diviso per una quantità che è sempre minore di 1, quindi questa divisione produce un numero più grande di ∆T.

È questa forse la conseguenza più difficile da accettare sullo spaziotempo della nostra realtà, nonostante sia stata verificata sperimentalmente innumerevoli volte nell’ultimo secolo. La durata temporale degli eventi dipende dallo stato di moto dell’osservatore. Lo spaziotempo di Minkowski non è solo un’utile rappresentazione di quello che succede quando usiamo le trasformazioni di Lorentz, ma anche un’ottima intuizione su quale sia la vera natura della nostra realtà.

Ok forse questo è stato più un capitolo di un libro piuttosto che un articolo del blog, ma volevo essere davvero sicuro che ogni pezzo del puzzle del ragionamento cascasse al posto giusto. In futuro parlerò ancora di spaziotempo, quindi userò questo articolo come utile referenza per chi ne avesse bisogno.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Cosa ho imparato da Einstein sul Problem Solving: come si studiano gli argomenti più rognosi?

Non che io sia così intelligente, semplicemente studio i problemi più a lungo

Albert Einstein

Questa citazione è una tra le più famose di Einstein e secondo me evidenzia un punto cruciale del suo modo di lavorare, che lo ha portato a rivoluzionare importanti concetti che altri fisici suoi contemporanei mettevano sotto al tappeto.

Come molti problemi che dobbiamo affrontare nel nostro percorso di studi, quelli che Einstein decise di studiare erano scomodi, fuori dalla zona comfort, non sempre ben posti.

Albert Einstein (1879-1955).

Hai presente quella spiacevole sensazione di inadeguatezza quando ci viene chiesto di risolvere un problema che apparentemente è al di sopra delle nostre capacità? Quella sensazione di avere un muro mentale che ci impedisce anche solo di iniziare a impostare il problema? Ma soprattutto, quel senso di fallimento nel soddisfare le aspettative che abbiamo di noi stessi, e di sentirsi fuori posto: “se non so risolvere questo problema, cosa ci sto a fare qui?”.

Tutte queste emozioni negative sono il pane quotidiano dei ricercatori. Infatti, per definizione, il ricercatore è colui che prova a risolvere problemi mai risolti da nessuno, e nel fare ciò finisce per sbattere continuamente contro quel muro mentale, per cercare di avanzare anche solo di uno 0.1%.

Noto che viene poco enfatizzato il fatto che i ricercatori sono comunque prima di tutto studenti. Questo è un fatto molto importante, perché non stai facendo ricerca se non ti metti a studiare cose che vanno al di là delle tue capacità. Per questo motivo il modus operandi del ricercatore dovrebbe essere preso come modello per gli studenti più giovani.

Gli anni febbrili di Einstein

Dal 1907 al 1915 Einstein lavorò incessantemente alla teoria della Relatività Generale, andando a sbattere la testa contro difficoltà teoriche e matematiche che all’epoca rappresentavano l’apice della Fisica Teorica.

In questo processo Einstein dovette imparare quasi da zero il linguaggio matematico più adatto per formulare le sue idee (la geometria di Riemann e il formalismo di Minkowski per lo spaziotempo), e l’impresa si dimostrò così eccezionale che dovette collaborare continuamente con due amici matematici, Marcel Grossmann e Michele Besso.

Le difficoltà però non erano solo matematiche. Einstein cambiò più di qualche volta le principali strutture concettuali con cui desiderava conciliare la gravità di Newton con la sua relatività ristretta, e fino all’ultimo momento non fu mai esattamente convinto di quali fossero i reali fondamenti teorici.

Per chi mastica un po’ di inglese consiglio il magistrale lavoro dello storico Michel Janssen “No success like failure: Einstein’s quest for General Relativity, 1907-1920“, il quale ha saputo rintracciare tutto il percorso concettuale di quegli anni.

Nelle pagine di Janssen non c’è la moderna figura mitologica dell’Einstein “tutto d’un pezzo”, al quale bastò immaginarsi “una persona in caduta libera” per formulare la nuova teoria della gravitazione. Invece viene fuori l’Einstein ricercatore, pieno di dubbi e ripensamenti, ma che faceva di queste tre qualità principali le sue armi di battaglia:

  • Lungimiranza. Einstein era di sicuro un visionario perché era capace di sintetizzare tutte le difficoltà teoriche in pochissimi punti cardine: se doveva esistere una teoria della gravità compatibile con la relatività, allora doveva rispettare un principio di covarianza delle leggi della fisica sotto qualsiasi trasformazione di coordinate. La visione di Einstein era ben delineata: credeva ciecamente nel principio di Galileo e sapeva che in un modo o nell’altro la teoria corretta doveva racchiuderlo in una nuova veste.
  • Umiltà intellettuale. La storia è cosparsa di ricercatori che hanno dedicato gran parte della loro carriera a teorie che si dimostravano fallaci e inconcludenti. Il loro principale nemico era il proprio ego, che non gli permetteva di ammettere di essere stati nel torto tutto il tempo.
    Al contrario, Einstein era capace anche di pubblicare un articolo al mese in cui nel successivo smontava la maggior parte delle cose dette nel precedente. Continuò a ripetere questo processo di “avanzamento-smentita” per almeno 3 anni, dal 1913 al 1915.
  • Perseveranza. Einstein era un lavoratore incallito, disposto a dedicare tutto il tempo che riteneva necessario per la risoluzione di un problema. Laddove i suoi colleghi mollavano, lui continuava. Aveva capito che la mente è in grado di fare avanzamenti importanti solo quando le si dà tempo sufficiente.
La famosa foto della scrivania di Einstein nel suo ufficio a Princeton.

Gli ultimi anni di gestazione della Relatività Generale furono intensissimi, specialmente l’ultimo anno in cui Einstein si ritrovò a rivaleggiare con nientemeno che David Hilbert (il più grande matematico del suo tempo), il quale aveva fiutato la possibilità di trovare le equazioni corrette prima di Einstein. Proprio a questo punto (inverno del 1915) il lavoro di Einstein divenne febbrile: si lasciò assorbire completamente dal proprio obbiettivo, dimenticandosi persino di scrivere agli amici. Oggi il suo stato mentale sarebbe probabilmente classificato in psicologia come “flusso”.

Spesso sono così assorbito dal lavoro che mi dimentico di pranzare.

Albert Einstein in una lettera a suo figlio Hans, 1915.

Lo stato mentale di “flusso” è comune a tantissimi artisti, ed è spesso descritto come uno degli stati di coscienza più sereni dell’esistenza, in quanto il cervello ha piena libertà espressiva e lavora all’unisono con emozioni e corpo.

In ogni caso, ciò che condusse Einstein a risolvere il problema più difficile della sua carriera fu un mix di qualità da cui tutti possiamo trarre ispirazione per migliorare il nostro problem solving in generale.

In fondo, i principali nemici di Einstein erano quelli che accomunano tutti i noi: dubbio, insicurezza, ripensamento, il non sentirsi all’altezza. Queste sanguisughe emotive tolgono energia preziosa che invece occorrerebbe investire nel cercare di risolvere il problema in sé.

Come vanno approcciati gli argomenti più rognosi

La mente è capace di produrre i più grandi successi, ma anche di condizionare i più grandi fallimenti. Dipende tutto da come la si usa, e forse la nostra società dedica troppo poco tempo all’educazione sul suo corretto utilizzo.
Come sosteneva David J. Schwartz, professore alla Georgia State University, davanti a un problema molto rognoso le persone solitamente scelgono di investire le energie mentali in uno tra due modi:

  • Distruttivo. La maggior parte delle energie mentali vengono spese per ricercare tutte le buone ragioni per cui non siamo in grado di risolvere il problema che ci è stato posto di fronte.
  • Creativo. La maggior parte delle energie mentali vengono spese cercando di capire come possiamo fare anche solamente un piccolo avanzamento verso la soluzione.

Questo è ciò che ho imparato anche nella mia esperienza universitaria. È capitato spesso agli esami che tra due persone ugualmente preparate solo la più intraprendente delle due riuscisse a strappare un voto più alto, tentando di rispondere alla “domanda bonus” dell’esame. Questo perché, a differenza del collega, riusciva a investire le proprie energie mentali concentrandosi solo sul problema, senza ascoltare le sanguisughe emotive. Mentre uno dei due cercava la soluzione, l’altro cercava delle scuse per autoconvincersi di non essere in grado.

Una pagina degli appunti di Einstein sulla sua teoria della gravitazione.

Io stesso mi sono accorto di aver fatto questo errore specialmente il primo anno di università.
Nel momento in cui mi sono accorto di questo cattivo approccio mentale ho cercato di non ripeterlo più, e i risultati sono arrivati subito.

In generale nel momento in cui dobbiamo studiare qualsiasi argomento particolarmente rognoso, mal posto o semplicemente noioso, l’approccio corretto è quello creativo: bisogna cercare di trovare la volontà di concentrarsi solo sull’argomento, aprendo una bolla intellettuale in cui eliminiamo tutte le interferenze della nostra vita. Occorre mettere via smartphone e social media ed entrare dentro la materia.

Ho notato che il modo più rapido che ho di farmi piacere qualcosa è leggere ciò che ha entusiasmato altre persone di quell’argomento. Spesso non ci piace qualcosa solo perché ne sappiamo troppo poco, o perché chi ce l’ha presentata non è riuscito a trasmetterci il motivo per cui dovremmo studiarla. Internet è un posto fantastico proprio per questo motivo: con pochi click puoi avere accesse alla vita e alle opinioni di migliaia di persone che hanno studiato la nostra stessa cosa.

Sii come Einstein, immergiti dentro al tuo lavoro. Solo dopo esserti immerso saprai se quell’argomento ti piace o meno. Se stai risolvendo un problema: cerca soluzioni, non scuse. Se proprio non trovi nessun indizio per riuscire a risolverlo: informati su come le persone hanno risolto problemi simili, e magari torna sul libro per approfondire il capitolo riguardante quel problema. L’approccio attivo batte sempre l’approccio passivo.

Un’altra cosa che ha funzionato nel mio caso quando mi sono confrontato con argomenti piuttosto noiosi o problemi apparentemente insormontabili è quella di “renderli memorabili”. Mi convincevo che quello che stavo facendo era davvero importante, e davo un tono solenne alla mia impostazione del problema, fingendomi un ricercatore. Spesso sono arrivato anche a scrivere degli articoli in PDF in cui proponevo la mia soluzione: l’atto di scrivere quei PDF mi motivava a concentrarmi solennemente sul problema. Questo piccolo accorgimento riusciva a fregare il cervello, spazzare via quell’apatia che crea il mindset distruttivo per lasciare spazio alla creatività.
Anche quando stai risolvendo esercizi apparentemente banali o che i tuoi colleghi ritengono semplici (triviali), continua comunque a darti quell’aria solenne per motivarti ad andare avanti. Prima o poi gli altri si lasceranno ingoiare dall’apatia e presto smetteranno di confrontarsi con i problemi più complessi.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Infine, un’ultima nota sul concetto di “esaurimento”, o come va di moda dire oggi “burnout“.

Risolvere problemi o studiare materie molto complesse porta via tanta energia. Nonostante ci siano comunque tanti modi di ottimizzare l’energia giornaliera, ad esempio eliminando le distrazioni, pianificando le cose da fare, ed eliminando la mentalità distruttiva (cioè non sprecare energia mentale per trovare scuse o motivi per cui fallirai in ciò che stai per fare), in ogni caso è facile arrivare a un punto in cui si è semplicemente esaurita tutta l’energia.

Cosa possiamo fare quando ci sentiamo completamente esausti riguardo lo studio, nonostante ci siamo riposati e ricaricati in altri modi? Mi è rimasto impresso il suggerimento del monaco benedettino David Steindl-Rast, secondo il quale:
il rimedio all’esaurimento non è smettere di fare ciò che stiamo facendo, ma iniziare a farlo mettendoci tutto ciò che abbiamo, anima e corpo, il 100% della nostra dedizione e concentrazione.

Secondo Steindl-Rast, l’energia che cercavamo era già dentro di noi, soppressa dal fatto che non stavamo lavorando al 100% della nostra concentrazione, ma magari al 60-70%. Quante volte ci siamo dedicati a un argomento, o a un problema, avendo però la testa rivolta verso altri argomenti o altri problemi? O magari avendo la testa occupata dalle sanguisughe emotive? Questo multitasking mentale comporta un consumo energetico molto più elevato del “dedicarsi al 100%”.

Sii come Einstein, dedicati a un argomento o un problema alla volta, organizzandoti il tempo. Pensa in grande e solennemente, non togliere importanza al lavoro che fai. Solo questo è in grado di scacciare l’apatia e le sanguisughe emotive che ti trattengono dall’imparare cose nuove o dal risolvere i problemi più complessi.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Come ho imparato ad amare i numeri immaginari

Ho molta difficoltà nel visualizzare cosa sarebbe la Fisica teorica, o la Scienza in generale, senza i numeri immaginari. Non fraintendermi, il mondo esisterebbe lo stesso e la Terra continuerebbe a girare attorno al Sole. Dico solo che senza l’ausilio dei numeri immaginari faremmo molta più fatica nella costruzione di tantissime teorie della Fisica.
Ma il vantaggio non è solo teorico, questi speciali numeri sono così utili che anche gli ingegneri non saprebbero proprio farne a meno, dalla fluidodinamica fino alla teoria dei segnali elettrici.

Cosa c’è di immaginario nei numeri immaginari?

Alla fine ha poco senso definire un numero “immaginario” o reale, in quanto la matematica è di fatto un’invenzione umana e possiamo decidere a piacere cosa sia “reale” o meno.

Invece mi piace pensare che l’aggettivo “immaginario” si riferisca piuttosto a una qualità particolare di chi li ha pensati per la prima volta. Chi ha scoperto questi numeri era una persona ricca di immaginazione, disposta a fare quel passo in più e a sfidare lo status quo. Una persona che ha saputo sfruttare il potere del pensare in grande, del “e se fosse..?“. Alla fine questa è la storia di un “bighellonare produttivo”.

Il bighellonare produttivo

I matematici del XVI secolo erano maggiormente indaffarati con la fondazione dell’algebra e della geometria analitica. Nel frattempo si divertivano a risolvere alcuni “cruciverba“ come: “trova le radici dell’equazione polinomiale x2+3x-4=0 usando gli assiomi dell’algebra”. Era importante specificare “usando gli assiomi dell’algebra” perché, come ogni gioco, anche la matematica ha le sue regole. Ad esempio sarebbe facile, in una partita di calcio, prendere la palla con le mani e lanciarla verso la porta per fare gol, ma a quel punto staremmo parlando proprio di un altro sport. La matematica è tale proprio per via delle sue regole.

Le regole del gioco della matematica di allora prevedevano che fosse proibito affermare che il quadrato di un numero potesse essere un numero negativo: “meno per meno fa più, e più per più fa più“. Se così non fosse, romperemmo ogni logica del gioco. Queste regole impedivano che alcune equazioni polinomiali avessero una soluzione. Ad esempio x2-2x+2=0 non ammette soluzioni: non esiste un numero “x” che inserito in quella equazione dia zero come risultato. Graficamente stiamo parlando di una parabola che non tocca mai l’asse y=0

Un modo semplice di vedere perché l’equazione non ha soluzioni è con un cambio di variabile:

Cioè, definendo t=x-1, risolvere x2-2x+2=0 equivale a risolvere:

È quindi chiaro perché quella parabola non tocca mai lo zero! Se lo facesse staremmo rompendo le regole del gioco: il quadrato di un numero non può mai essere negativo.

Il matematico italiano Gerolamo Cardano sapeva bene che qualcosa come x2-2x+2=0 non ammette soluzioni, eppure decise di bighellonarci attorno. Cardano fece finta che in qualche modo fosse possibile che un numero al quadrato potesse essere negativo. Possiamo immaginare che forse lo fece per gioco, o magari per puro sfizio, in ogni caso si divertì a scrivere la radice quadrata di -1:

La radice quadrata di un numero negativo è l’unico numero che moltiplicato per se stesso ha come risultato un numero negativo.

Et voilà, ora anche x2+1=0 ammette due soluzioni come moltissime altre equazioni di secondo grado.
Questa soluzione non fu presa sul serio dai matematici dell’epoca. Rafael Bombelli, altro matematico italiano che osò bighellonare su queste questioni, definiva queste soluzioni “quantità silvestri“.


Questo piccolo passo segnò però l’inizio di una nuova comprensione della matematica: si possono modificare le regole del gioco e riuscire comunque a creare dei costrutti logici autoconsistenti.

Chiaramente la radice quadrata di un numero negativo non può essere rappresentata sul piano cartesiano, perché è un numero che rompe le regole dei numeri cartesiani di tutti i giorni. Ma per questo motivo non è un numero che ha meno diritti degli altri, è semplicemente un numero diverso che merita il proprio “asse cartesiano”, magari con un nome diverso. I matematici dei secoli successivi definirono quindi i numeri immaginari come un’estensione dei numeri reali, aventi la loro algebra e i loro assiomi.

Torniamo però un attimo alla soluzione di x2-2x+2=0. Avevamo visto che questa era equivalente a risolvere t2=-1 che ha due soluzioni immaginarie date dalla radice di -1. Avevamo definito t=x-1, quindi possiamo scrivere la soluzione con la variabile originale

Puoi verificare che inserendo queste soluzioni nell’equazione di partenza ottieni zero. Clever trick!

Quindi la soluzione non è un numero puramente immaginario: il numero “1″ è un numero “normalissimo”, reale, che rispetta gli assiomi dei numeri reali. Tuttavia è sommato (o sottratto) con un numero immaginario (la radice di -1). Che senso ha, e come può essere rappresentato questo numero? I matematici lo definirono numero complesso, cioè un ibrido tra numero reale e numero immaginario.

Un numero complesso venne definito come un oggetto costituito da due parti: una parte reale e una parte immaginaria. La parte reale e la parte immaginaria sono rappresentate comunque da numeri reali, quindi in un certo senso un numero complesso non è altro che una coppia di numeri reali che soddisfa alcune proprietà speciali. Vedremo tra poco il senso di questa affermazione.
Per comodità di notazione fu definito un simbolo speciale per l’unità immaginaria, “i“, in modo che ogni numero immaginario sia un suo multiplo:

L’unità immaginaria “i”.

Un numero complesso “z” può essere espresso con più notazioni equivalenti:

Un numero complesso è costituito da una parte reale e da una parte immaginaria.


La cosa curiosa è che la notazione con le parentesi (parte reale, parte immaginaria) ricorda quella utilizzata per rappresentare i vettori in due dimensioni (componente x, componente y). Questa cosa è del tutto intenzionale, come vedremo tra poco.

Dal XVIII secolo in poi i numeri complessi vennero considerati un’estensione dei numeri reali, nel senso che un numero reale non è altro che un numero complesso con parte immaginaria nulla.

Diagramma di Venn per i campi dell’algebra.

Con molta astuzia, furono identificate delle operazioni di somma e prodotto di numeri complessi che rendessero tutto autoconsistente.

La somma di due numeri complessi è un altro numero complesso con parte reale data dalla somma delle parti reali e con parte immaginaria data dalla somma delle parti immaginarie.
Il prodotto di due numeri complessi è un altro numero complesso, le sue parti reale e immaginaria non sono però semplicemente il prodotto delle parti reali e immaginarie. Questa particolarità è necessaria per avere un’algebra autoconsistente nel campo dei numeri complessi.

Cosa mi ha fatto amare i numeri immaginari

I matematici capirono presto che per i numeri complessi esisteva un’interpretazione geometrica piuttosto semplice, ed è per questo motivo che scelsero di rappresentarli con una notazione simile a quella usata per i vettori in due dimensioni.

La volta che mi affezionai ai numeri immaginari fu quando realizzai quanto fossero utili in un contesto geometrico. A un certo punto mi si sbloccò il seguente ragionamento.
Prendiamo un vettore a componenti reali, innocentissimo, bidimensionale: una freccia. Se moltiplichiamo il vettore per il numero “-1” ne invertiamo la direzione:

Siccome i vettori possono essere ruotati sul piano, possiamo interpretare l’inversione come una rotazione di un angolo piatto!

La rotazione di 180 gradi di un vettore restituisce il suo inverso.

Quindi il numero -1 è un numero molto speciale perché esegue la stessa mansione di una rotazione di 180 gradi.

Il punto è che potremmo anche arbitrariamente pensare che la rotazione di 180 gradi sia un processo a due step, una composizione di due rotazioni di 90 gradi:

Due rotazioni consecutive di 90 gradi generano una rotazione di 180 gradi.

Uno può quindi chiedersi: esiste un numero speciale in grado di ruotare un vettore di 90 gradi moltiplicando entrambe le sue componenti per esso?
Assumiamo che esista, a quel punto dobbiamo riconoscere che moltiplicare il vettore due volte consecutive per questo numero equivale a ruotare il vettore di 180 gradi, e quindi questo numero deve avere a che fare con “-1″, perché esegue la stessa azione

Applicare due volte la moltiplicazione per un numero speciale “a” equivale a ruotare il vettore di 180 gradi.

Quindi se il vettore è ruotato di 180 gradi deve valere

Quindi il quadrato di questo numero deve dare -1: deduciamo che “a=i”, cioè proprio l’unità immaginaria.

Questa è stata la connessione che mi ha fatto apprezzare i numeri complessi: possono essere utilizzati per ruotare degli oggetti! Per questo motivo i matematici inventarono un piano cartesiano dedicato ai numeri complessi, il piano di Gauss!

In questo piano abbiamo due assi: l’asse reale e l’asse immaginario. Un numero complesso è “molto simile” a un vettore, perché ha una componente reale a una componente immaginaria date dalle proiezioni su questi assi ortogonali:

Il piano di Gauss dei numeri complessi.

Il vantaggio algebrico di avere un numero che moltiplicato per se stesso dà “-1” è il potere di ruotare degli oggetti moltiplicandoli tra loro!

Se prendiamo come riferimento l’angolo tra il numero complesso e l’asse reale, la moltiplicazione di due numeri complessi ha l’effetto di produrre un nuovo numero complesso avente come nuovo angolo la somma degli angoli iniziali, come mostrato in figura:

La moltiplicazione di due numeri complessi ha restituito un numero complesso la cui angolazione è data dalla somma dei due angoli iniziali: abbiamo quindi eseguito una rotazione usando la moltiplicazione.

Infatti si ha, per le regole stabilite sopra:

E questa è secondo me la principale utilità dei numeri complessi: ci permettono di trasformare oggetti usando la notazione più compatta possibile.

Infatti se “ρ” è il modulo del numero complesso (definito proprio come il modulo dei vettori):

Il modulo di un numero complesso si ottiene facendo la radice della somma dei quadrati delle parti reale e immaginaria (esclusa la “i” ovviamente).

Allora possiamo scrivere le componenti reale e immaginaria usando la trigonometria proprio come si fa per i vettori in notazione polare. Se θ è l’angolo formato con l’asse reale si ha

La quantità tra parentesi (che ha modulo unitario per via della relazione trigonometrica fondamentale) può essere semplificata usando una relazione utilissima dimostrabile in analisi matematica, la quale lega il numero di Eulero con i numeri complessi:

La famosa relazione di Eulero. Può essere dimostrata sviluppando in serie di Taylor entrambi i membri dell’equazione.

Quindi un numero complesso può essere espresso con la elegantissima notazione

Un numero complesso in notazione polare.

La moltiplicazione di due numeri complessi ha quindi il seguente effetto:

Con questa notazione è anche più facile vedere che gli angoli si sommano, grazie alla proprietà degli esponenziali.

In sostanza, i numeri complessi sono davvero uno spasso (di sicuro sono meno monotoni dei numeri reali), ma prima di tutto sono i numeri più popolari della Scienza:

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.
  • Moltissime trasformazioni nella fisica teorica sono generate da operatori complessi. Alcune tra le più importanti equazioni del Modello Standard sono scritte in notazione complessa.
  • In ingegneria, la teoria dei segnali è fondata sull’utilizzo dei numeri complessi.
  • In aerodinamica, l’analisi complessa è utilizzata per mappare il flusso dei fluidi attorno ad alcuni oggetti.
  • ….

Di sicuro potremmo fare tutte queste cose anche senza i numeri complessi, solo che faremmo molta più fatica! I numeri complessi sono una short-cut, ci semplificano la vita ogni giorno, e per questo dovremmo amarli.

Tuttavia a volte non si tratta solo di semplificare la vita. Di recente ho incrociato un articolo su Physics Today che parlava della necessità dei numeri complessi nella meccanica quantistica.
In sostanza, non solo non esiste un modo semplice per formulare la meccanica quantistica usando solo variabili reali, ma la versione della teoria senza numeri complessi non è in grado di replicare le previsioni sperimentali della teoria complessa. Questa conclusione mi ha lasciato un po’ sorpreso, dato che implicherebbe una supremazia quasi metafisica dei numeri complessi. Ho quindi intenzione di approfondirla in un prossimo articolo, dopo che mi sarò informato adeguatamente.

  • Esercizio: come ultima chicca ti sfido a scoprire una cosa che ritengo molto carina. Prendi la relazione di Eulero:

Questa è un’identità, quindi l’uguaglianza vale per qualsiasi valore di θ. Ti invito a inserirci θ=π/2 e usare quanto sai sul valore di seno e coseno per l’angolo retto. Dopodiché eleva entrambi i membri per “i”, cosa ottieni?


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Demistificando il Principio di Heisenberg

Il principio di indeterminazione di Heisenberg è considerato l’essenza della meccanica quantistica. Per questo motivo è uno degli argomenti più chiacchierati a livello divulgativo. Persino l’enunciato è celebre:

È impossibile misurare con precisione arbitraria la quantità di moto e al contempo la posizione di una particella

Enunciato del principio di Heisenberg

Anche la versione matematica dell’enunciato è piuttosto celebre: se indichiamo con “∆x” e “∆p” le incertezze sulla posizione e sulla quantità di moto, vale la disuguaglianza

Se rendiamo piccolo “∆p“, cioè se riduciamo l’incertezza sulla quantità di moto, per far valere ancora la disuguaglianza dobbiamo aumentare “∆x“.
ℏ è la costante di Planck divisa per 2π.

Negli anni ho notato alcune imprecisioni concettuali nelle analisi di questo principio, per cui ho deciso di rifletterci un po’ e dare il mio contributo. Ho trovato che il modo migliore per demistificarlo è il seguente:

Il principio di indeterminazione può essere compreso matematicamente una volta accettati i postulati della meccanica quantistica, tramite l’analisi di Fourier.

Lo scopo di questo articolo è quello di aiutarti ad apprezzare come la matematica della meccanica quantistica ci faccia comprendere meglio il principio di indeterminazione.

Non preoccuparti, non è una matematica di alto livello, useremo al massimo le funzioni trigonometriche (seni e coseni), e magari qualche integrale. È davvero tutto ciò che serve per apprezzare il discorso.

Teoria ed esperimento

Quando si costruisce una teoria fisica si cercano delle strutture concettuali che siano in grado di produrre dei risultati misurabili e in grado di giustificare i dati sperimentali. La meccanica quantistica è l’unica teoria in grado di spiegare accuratamente i risultati sperimentali dei fenomeni atomici, e ogni struttura concettuale della teoria ci aiuta a comprendere anche i risultati stessi, grazie alla matematica.

Ogni teoria presuppone dei postulati fondamentali (essenzialmente delle proposizioni che vengono assunte vere, senza necessità di dimostrazione). Ciò che ci servirà oggi è il postulato di De Broglie della meccanica quantistica. Infatti, una volta accettato questo postulato, la matematica parlerà da sola e ci aiuterà a capire il principio di Heisenberg.

“Scusa, ma non è un ragionamento circolare? Se devo accettare acriticamente un postulato, allora è possibile dimostrare tutto e il contrario di tutto. Io mi aspettavo che mi illustrassi il motivo metafisico per il quale non posso misurare contemporaneamente impulso e posizione di una particella!"

Il punto è che la Scienza funziona proprio così, dobbiamo accettare dei postulati se vogliamo fare delle previsioni verificabili. Se le previsioni sono verificate, allora la teoria può essere utilizzata anche come guida matematica alla comprensione dei risultati stessi. Funziona così da sempre. Senza la matematica saremmo scientificamente analfabeti.

Lo schema gerarchico per teoria ed esperimenti.

Uno dei postulati fondamentali della meccanica quantistica è quello di De Broglie: “le particelle sono descritte da funzioni d’onda ψ(x,t) dipendenti da tempo e spazio“, il cui modulo al quadrato rappresenta la densità di probabilità di trovare la particella in un certo punto dello spazio.

La teoria delle onde

La parola fondamentale su cui devi concentrarti è “funzione d’onda“. L’utilizzo di questa parola ha delle conseguenze molto pesanti, perché le onde hanno un comportamento speciale.
Nei prossimi paragrafi ti aspetta una carrellata di nozioni matematiche, ma ti assicuro che sono tutte essenziali per apprezzare meglio il principio di Heisenberg. Dagli una chance, ripaga bene!

Le onde sono perturbazioni nello spazio e nel tempo che possono essere più o meno regolari nella loro forma. Le “onde semplici” sono caratterizzate da una certa ampiezza e una frequenza di oscillazione costanti nel tempo, e ci piace chiamarle onde sinusoidali. Non tutte le onde sono semplici! Le sinusoidi sono matematicamente semplici da descrivere (probabilmente hai già incontrato seni e coseni da qualche parte), ma il mondo reale ha ben poco a che fare con le onde semplici. Purtroppo, la maggior parte dei segnali oscillanti nel tempo sono molto complessi:

Un’onda sinusoidale è caratterizzata dal fatto che la sua ampiezza e la sua frequenza non cambiano nel tempo, restano inalterate, preservando la forma ondulatoria.

Quindi non abbiamo speranza di descrivere matematicamente delle funzioni d’onda molto complesse? Fortunatamente entra in gioco uno dei risultati che a me piace definire come una delle pietre miliari nella storia della Scienza:

Qualsiasi segnale nel tempo può essere costruito sovrapponendo delle onde sinusoidali

È un po’ come se le onde sinusoidali fossero gli atomi elementari della teoria dei segnali: così come i corpi complessi sono composti da più atomi, i segnali complessi sono composti da onde sinusoidali.

In una notazione abbastanza simbolica e approssimativa, l’idea è la seguente: per ottenere il segnale desiderato basta sommare tante onde sinusoidali, pesate ciascuna con un certo coefficiente detto “di Fourier” (il quale dipenderà dal particolare segnale):

Cosa significa “sovrapporre onde sinusoidali”?

Qui entra in gioco la cara vecchia trigonometria. Un “atomo di segnale”, cioè un’onda sinusoidale, ha la seguente struttura:

Un’oscillazione dipendente dal tempo, y(t), è caratterizzata da una certa ampiezza “A” e da una certa frequenza “f“.

La magia si manifesta quando sommiamo due onde sinusoidali di ampiezze e frequenze diverse. Consideriamo ad esempio la somma delle seguenti onde:

Due sinusoidi, la prima di frequenza f=1 Hz, e la seconda di frequenza f=3/2 Hz. La seconda ha anche un’ampiezza doppia della prima.

Il risultato è il seguente: l’onda risultante dalla somma non è più un’onda semplice!

La somma di due onde semplici non è più un’onda semplice.

La spiegazione è puramente geometrica, ed è riassunta nelle formule di prostaferesi che si imparano a scuola. Infatti in generale:

L’applicazione delle formule di composizione di seni e coseni ci fa capire cosa succede quando sommiamo delle sinusoidi.

Lo so, non è molto carina da vedere, infatti non preoccuparti di leggerla tutta, è solo una giustificazione del perché la somma di due sinusoidi non è sempre una sinusoide: quei prodotti di seni modificano l’ampiezza dell’onda risultante nel tempo!

Alla fine questo è un concetto che caratterizza la vita di tutti giorni: anche una nota di un violino è una sovrapposizione di armoniche (onde sinusoidali di diverse frequenze), delle quali sentiamo maggiormente la dominante.

L’analisi di Fourier

Quel segnale complicato che abbiamo ottenuto sopra potrebbe sembrare irrilevante per il nostro discorso: sapendo quali sono gli atomi di partenza, è piuttosto facile costruire il segnale più complicato.
Il divertimento inizia quando decidiamo di invertire il problema di prima:

Dato un segnale complicato, è possibile capire la sua composizione in onde sinusoidali?

Questa è la domanda a cui vuole rispondere l’analisi di Fourier.

L’analisi di Fourier ci dice che esiste un altro modo di osservare un segnale. Quello che abbiamo illustrato prima è l’analisi temporale: cioè osserviamo il profilo dell’onda in funzione del tempo.

Ma l’analisi nel tempo è solo uno dei due modi. Possiamo anche studiare il segnale risultante andando a cercare le frequenze principali che lo costituiscono: stiamo facendo una radiografia del segnale per capire di quali atomi elementari è composto!

La descrizione temporale e la descrizione in frequenza sono due modi diversi di osservare lo stesso segnale, e il passaggio da una descrizione all’altra è garantito da un’operazione chiamata trasformata di Fourier.
Come illustrato nella figura, la trasformata di Fourier prende in pasto una funzione nel tempo e restituisce una nuova funzione, stavolta nella frequenza:

L’espressione matematica è la seguente:

L’integrale contiene l’unità immaginaria “i” nell’esponenziale.

Se non hai mai visto un integrale non lasciarti intimorire: questi simboli sono solo un modo intimidatorio per esprimere che stiamo sommando infiniti prodotti tra sinusoidi e il segnale in input “h(t)”. Le sinusoidi sono nascoste nell’esponenziale tramite la relazione di Eulero

La relazione di Eulero che lega l’esponenziale complesso con le funzioni trigonometriche.

Se questa relazione ti crea disagio fai finta che non ci sia. L’ho tirata fuori solo per dimostrarti che sono coinvolti, come promesso, dei seni e dei coseni. Queste sinusoidi vanno a moltiplicare il segnale in input “h(t)” in ogni istante di tempo, e la somma infinita produce una distribuzione del segnale nella frequenza “f“.
Ovviamente se partiamo dalla distribuzione in frequenza, esiste anche un’anti-trasformata di Fourier che ci riporta alla funzione nel tempo. Il cerchio si chiude.

Un esempio

Per dimostrarti che la trasformata di Fourier fa quanto promesso, consideriamo la somma delle sinusoidi che ti ho proposto prima.

Il segnale risultante, come abbiamo visto graficamente, non è una sinusoide semplice:

In blu e rosso le sinusoidi costituenti, in verde il segnale risultante.

Tiriamo fuori il problema inverso:
Supponiamo ora che qualcuno ci dia solo il segnale risultante come input e ci chieda di capire di quali “atomi sinusoidali” è composto. Questo è un lavoro per la trasformata di Fourier!

Il risultato è il seguente grafico nelle frequenze:

Cosa sono questi due picchi intimidatori? È il risultato di quell’integrale altrettanto intimidatorio. Osserva dove sono collocati i picchi: il primo picco è a “f=1” e il secondo picco a “f=3/2“. Quali erano le frequenze delle due sinusoidi iniziali? Esattamente “f1=1 Hz” e “f2=3/2 Hz”.

Questi due “picchi” ci stanno dicendo:
“Ehi, con la trasformata ho individuato due grosse frequenze costituenti, cioè il segnale che mi hai dato in pasto era costituito da due sinusoidi elementari di frequenze “f1=1 Hz” e “f2=3/2 Hz”.

Ovviamente noi sapevamo già che il segnale era composto da queste due sinusoidi, quindi il risultato non ci sorprende. Semmai ci rassicura su una cosa: la trasformata di Fourier funziona, ed è un ottimo modo per analizzare le componenti delle onde che usiamo nella Fisica.

Il cuore del principio di indeterminazione: gli spazi duali

Veniamo ora alla questione centrale. Voglio che noti una particolarità interessante della trasformata di Fourier. Supponiamo di dilatare la variabile temporale del segnale in input, cioè

Se b>1, è una dilatazione del tempo, se b<1 è una contrazione.

Questa è un’operazione matematica che ho scelto di fare: voglio modificare temporalmente il segnale in ingresso tramite una certa costante “b”. Che succede al segnale in frequenza? Per saperlo dobbiamo fare la trasformata di Fourier e fare un cambio di variabile:

Che è successo? Tra il passaggio (1) e il passaggio (2) ho cambiato variabile per ricondurmi alla forma standard della trasformata di Fourier. Questo passaggio ha generato il termine 1/b moltiplicativo, e mi ha portato a definire una nuova frequenza “f’=f/b” nel passaggio (3). Nel passaggio (3) abbiamo tra le mani la definizione di trasformata di Fourier del segnale con il tempo dilatato. Rispetto alla funzione in frequenza di prima, ora si ha:

Il risultato della dilatazione temporale sulla controparte in frequenza.

Quel “f/b” è davvero il succo del discorso, perché stiamo dividendo la variabile frequenza per un numero “b“. Se b>1, cioè se dilatiamo il tempo, otteniamo un restringimento delle frequenze. Viceversa, se b<1 cioè se contraiamo il tempo, otteniamo una dilatazione delle frequenze.
Il dominio temporale e il dominio delle frequenze si chiamano in gergo “spazi duali” , proprio perché hanno questo comportamento. Tempo e frequenza sono “variabili duali”.
A livello intuitivo potevamo aspettarcelo anche senza fare macello, basta ricordarsi che per definizione

cioè la frequenza è l’inverso del periodo di oscillazione, per cui se dilatiamo una delle due, l’altra si restringe.

Se restringiamo la durata del segnale, aumentiamo il suo contenuto in frequenza. Viceversa se estendiamo la durata del segnale, diminuiamo il suo contenuto in frequenza.

Possiamo spiegare questo comportamento intuitivamente:

  • Per creare un segnale corto nel tempo sono necessarie tantissime onde elementari per cancellare l’ampiezza di oscillazione al di fuori dell’intervallo di durata del segnale. Maggiore è il numero di onde elementari di varie frequenze che costituiscono il segnale, maggiore sarà il contenuto in frequenza del grafico della trasformata.

Per fare un esempio concreto, consideriamo il segnale in figura, che è quanto di meno sinusoidale si possa chiedere: un gradino di segnale tra i tempi t=-T e t=+T e zero altrove

La sua trasformata di Fourier nel dominio delle frequenze è illustrata sotto.
Ho assemblato diversi casi di durata del segnale da T=0.1 s a T=5 s per evidenziare l’effetto della dilatazione della durata temporale sul dominio delle frequenze. Per un segnale molto corto vengono coinvolte tantissime frequenze (quindi il grafico della trasformata è praticamente quasi piatto, vedi il caso T = 0.1 s).

La trasformata di Fourier di un segnale di durata 2T. Al crescere della durata del segnale, la controparte in frequenza si comprime.

L’analisi di Fourier sugli spazi duali apre le porte a una miriade di teoremi che portano a dimostrare le cosiddette “relazioni di incertezza“. In particolare ogni coppia di variabili duali è caratterizzata da una relazione di incertezza. Nel caso di tempo e frequenza abbiamo:

Questa è esattamente la forma matematica assunta dal principio di Heisenberg! Il prossimo passo sarà quindi tradurre quanto abbiamo appena detto nel regime di posizione “x” e quantità di moto “p“.

Posizione e impulso: altre variabili duali

Una volta accettato il postulato che le particelle sono descritte da una funzione d’onda spaziale, non è difficile accettare che la quantità di moto di una particella abbia qualcosa a che fare con la frequenza. Ce lo disse De Broglie! Ad esempio anche la luce (che è un’onda elettromagnetica) trasporta una quantità di moto, e per De Broglie questa quantità è data da:

“c” è la velocità della luce. La quantità di moto dell’onda è proporzionale alla frequenza dell’onda.

In generale a una particella non è assegnata una quantità di moto precisa, ma una distribuzione di quantità di moto, che vanno a comporre un certo “pacchetto d’onda”. Anche questa è una conseguenza del postulato fondamentale: la posizione della particella non è assegnata in ogni momento, ma è distribuita tramite la funzione d’onda della posizione. I picchi della funzione d’onda corrispondono ai punti dello spazio in cui è più probabile rivelare la particella:

Una generica funzione d’onda quantistica. I “picchi” sono punti in cui è più probabile trovare la particella. I punti in cui Ψ(x)=0 sono punti in cui la probabilità di trovare la particella è nulla.

Per rafforzare l’analogia con quanto discusso all’inizio ti basta realizzare che, come ogni onda, anche la funzione d’onda Ψ(x) è costituita da numerosi “atomi elementari” sinusoidali.

Siccome ora parliamo di particelle massive cambierà solo il linguaggio: ciò che prima era frequenza ora diventa quantità di moto, e ciò che prima era il tempo ora diventa lo spazio:

Il passaggio dalle onde sinusoidali nel tempo alle sinusoidi della meccanica quantistica.

È proprio ora che tutto inizia a fare “clic”. Basta tenere a mente questi due passaggi fondamentali:

  • 1) I picchi della funzione d’onda corrispondono ai punti dello spazio in cui è più probabile rivelare la particella.
  • 2) Per ottenere un picco della funzione d’onda è necessario sommare tante sinusoidi di “frequenze” diverse (cioè tante quantità di moto “p” diverse), come illustrato nell’animazione seguente:
Aggiungiamo tante sinusoidi di quantità di moto diverse per ottenere una funzione d’onda sempre più “piccata” in un certo punto dello spazio.

Questa animazione sta esattamente alla base del principio di indeterminazione: per ottenere la massima probabilità di trovare la particella in un punto (quindi rivelarla con precisione) è necessario che la sua quantità di moto diventi una sovrapposizione di numerosissime quantità di moto (che quindi si misurerà meno precisamente). È poco intuitivo? Le onde funzionano proprio così, non sono nate per soddisfare la nostra intuizione!

Analogamente a quanto discusso per i segnali nel tempo, la funzione d’onda della posizione può essere analizzata sia nel dominio dello spazio (dandoci informazioni sulla probabilità di trovare la particella nello spazio), sia nel dominio delle quantità di moto (dandoci informazioni su quale sia la probabilità di trovare la particella in un certo stato dinamico).

Il messaggio da portare a casa è questo:

La quantità di moto gioca lo stesso ruolo della frequenza, e la posizione gioca lo stesso ruolo del tempo: sono anche loro variabili duali.

La trasformata di Fourier della funzione d’onda Ψ(x) è una funzione dell’impulso ed è data da:

A parte l’integrale intimidatorio, la relazione che devi tenere a mente è la seguente:

Il principio di indeterminazione di Heisenberg è racchiuso nella definizione di trasformata di Fourier: se estendiamo la funzione d’onda nello spazio, stiamo restringendo la funzione d’onda nella quantità di moto: per descrivere una particella la cui funzione d’onda ha un’estensione infinita è sufficiente una sola quantità di moto, mentre per descrivere una particella la cui funzione d’onda ha un’estensione limitata, sono necessarie più sinusoidi diverse per cancellare i contributi nella regione in cui la funzione d’onda non esiste.
Se dilatiamo la variabile spaziale, l’effetto sulla trasformata nello spazio degli impulsi è:

Come ti accorgerai facendo avanti e indietro su questa pagina, il discorso è esattamente analogo al caso della frequenza-tempo. Anche qui i teoremi sull’analisi di Fourier determineranno quindi la famosa relazione:

Il principio di indeterminazione di Heisenberg
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Intuizione fisica

Il fatto che le variabili posizione e quantità di moto siano duali e rispettino un principio di indeterminazione è un limite invalicabile della natura. Non dipende dal fatto che la nostra strumentazione non è adeguatamente precisa.

Di certo è vero il fatto che se vogliamo seguire la traiettoria di una particella quantistica è necessario perturbare il suo moto (se voglio tracciare un elettrone devo ad esempio illuminarlo, ma nel fare ciò trasferisco quantità di moto sotto forma di radiazione luminosa, perturbando la misura), ma il motivo del principio di indeterminazione rimane insito nella natura degli oggetti quantistici, e il postulato sulla funzione d’onda di De Broglie ci aiuta a capirlo matematicamente.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Il bosone di Rubbia ha una massa leggermente diversa: cedimento del Modello Standard?

Dopo decenni di stagnazione, il Modello Standard mostra i primi segni di cedimento?

È di ieri (7 aprile) la notizia pubblicata su Science: è stata trovata una differenza tra predizione teorica e misura sperimentale per la massa del bosone W. Una differenza piccola (0.09%) ma superiore ai margini di errore (0.01%) e quindi assolutamente degna di nota.

Il bosone W è proprio il famoso bosone scoperto dal team di Carlo Rubbia nell’ormai lontano 1983 (scoperta che valse il premio Nobel al fisico italiano).

Dopo vari decenni dalla sua scoperta, il bosone W può dare indicazioni di Fisica oltre il Modello Standard, ed è facile immaginare l’entusiasmo nella comunità dei Fisici del Fermilab, dove è avvenuta la scoperta:

La misura è estremamente eccitante e davvero un risultato monumentale nel nostro campo.

Florencia Canelli, fisica sperimentale dell’Università di Zurigo

Ci sono però quelli che domandano un po’ di cautela:

Userei cautela nell’interpretare questo risultato come il segno di nuova Fisica oltre il Modello Standard. I fisici dovrebbero concentrarsi sul capire come mai questo valore differisce da altri risultati anche recenti.

Matthias Schott, fisico dell’Università di Gutenberg

Perché ce ne siamo accorti solo ora?

La risposta è particolarmente semplice: siamo diventati più bravi nell’analisi dei dati. Il team di ricerca è stato capace, grazie a nuove tecniche, di manipolare un campione statistico di 4 milioni di bosoni W prodotti all’interno del detector, tra il 2002 e il 2011. Questi bosoni sono decaduti producendo degli elettroni, dei quali è stata misurata l’energia osservando la loro traiettoria in un campo magnetico.
A differenza del passato, è stato possibile misurare molto meglio la traiettoria degli elettroni, migliorando quindi la precisione di quanta energia si sono portati via.

La misura dell’energia degli elettroni permette di ricondursi alla massa del bosone W (il cui decadimento ha concesso agli elettroni di avere questa energia in primo luogo).

Perché il bosone W è importante?

Ad oggi conosciamo quattro forze fondamentali della Natura, meglio note come interazioni fondamentali.
Il modo in cui studiamo queste interazioni su basa sull’analisi di alcuni processi che coinvolgono le particelle. Tali processi possono essere studiati a differenti scale di energia in cui vengono rappresentati con diverse schematizzazioni, le quali ci danno un’idea di quello che sta succedendo.

Da questi schemi teorici emerge che un’interazione tra particelle deve essere mediata da una particella speciale chiamata bosone.
Il modo più diretto per avere l’identikit di questa particella è conoscere la sua massa.

Prima di ricavare una stima di queste masse, facciamo il punto della situazione sulle interazioni fondamentali in gioco:

  • Gravità: interazione tra tutti i corpi con massa. In una teoria di gravità quantistica (ancora solo ipotizzata a stento) deve essere mediata da un bosone chiamato gravitone.
  • Elettromagnetismo: interazione tra tutti i corpi con carica elettrica. Mediata da un bosone chiamato fotone.
  • Forza forte: interazione che tiene assieme i nuclei degli atomi. Ad alte energie si manifesta come un’interazione mediata dai gluoni dei quark, a basse energie ha invece come mediatore il bosone pione.
  • Forza debole: interazione che permette i decadimenti di alcuni nuclei. Mediata da tre bosoni, chiamati W+,W- e Z.

La prima distinzione interessante tra queste quattro forze è il loro raggio di interazione. Sono infatti tutte forze che agiscono a distanza, e due tra queste, cioè gravità ed elettromagnetismo, hanno un raggio di interazione infinito. Ciò significa che la forza gravitazionale tra due masse agli antipodi dell’universo è sempre teoricamente diversa da zero. Nella realtà, ovviamente, tale valore è così piccolo da poter essere considerato irrilevante per lo stato di moto delle due masse. Lo stesso discorso si applica all’elettromagnetismo. Questo raggio di interazione si dice asintoticamente infinito nel senso che la forza può essere considerata “matematicamente” nulla solo all’infinito (cioè un punto irraggiungibile).

Le altre due forze, quella nucleare forte e quella debole, hanno invece a che fare con il mondo dell’infinitamente piccolo, cioè i nuclei degli atomi.
La scala di distanza nucleare è completamente fuori dagli schemi della quotidianità: parliamo di qualche milionesimo di miliardesimo di metro. Questo numero è così difficile da scrivere e pensare che è stata creata direttamente una nuova unità di misura: il fermi (in onore di Enrico Fermi).

Come informazione di orientamento, diremo che il raggio di un nucleo è del valore di qualche fermi.

Siccome l’interazione forte si occupa di tenere assieme i nuclei, composti da tanti protoni e neutroni (protoni che altrimenti si respingerebbero per via dell’interazione elettromagnetica), il suo raggio di interazione è proprio dell’ordine di qualche fermi. L’interazione debole è ancora più a corto raggio, perché agisce su una scala che è un millesimo di quella nucleare.

In che modo vengono interpretati questi differenti raggi di azione delle forze fondamentali dalla fisica teorica?

Livello intuitivo: il diagramma di bassa energia

Un’interazione in un certo intervallo di bassa energia può essere schematizzata da un diagramma tipo questo

Nel quale viene riportato un processo di repulsione elettromagnetica tra due elettroni. Matematicamente questa repulsione viene comunicata da un fotone virtuale “γ” che viene creato con una certa energia per un certo intervallo di tempo. L’informazione elettromagnetica si propaga tra due punti dello spaziotempo diversi e non può essere istantanea (per non contraddire la relatività ristretta), ma può propagarsi, al massimo, alla velocità della luce.

Con poche differenze, i diagrammi delle altre interazioni alle basse energie hanno una struttura molto simile (fatta eccezione per la gravità, per la quale non esiste ancora una teoria quantistica soddisfacente). Ciascun diagramma è caratterizzato dal proprio personalissimo bosone di interazione, che sia il fotone (elettromagnetismo), il pione (forze nucleari forti), o i W e Z (interazione debole).

Lo scambio di un oggetto tra due persone su due barche genera un allontanamento per via della conservazione della quantità di moto totale.

Esiste un esempio intuitivo, seppur da prendere con le pinze perché serve solo a darci un’intuizione fisica, del perché lo scambio di un mediatore produca una forza di interazione. L’esempio viene dalla fisica classica ed è illustrato in figura.

Il principio di Heisenberg in una forma speciale

Vogliamo studiare in maniera intuitiva quali siano le grandezze in gioco nella propagazione dei bosoni mediatori. Sappiamo dalla fisica teorica che possiamo interpretarli come particelle create e riassorbite durante l’interazione, e che esistono per un certo intervallo di tempo che consente la loro propagazione.

“Aspetta, mi stai dicendo che viene creata una particella dal niente? Ma questo non viola il principio di conservazione dell'energia?"

Una forma molto speciale del principio di indeterminazione di Heisenberg riguarda proprio l’energia e il tempo. Una particella può essere creata con una certa energia per un certo intervallo di tempo, senza violare il principio di conservazione, a patto però che valga

Il simbolo “~” indica un’uguaglianza approssimata. A destra, la costante di Planck divisa per 2π.

Per la creazione di un bosone mediatore di massa “m” richiediamo che questi esista per un tempo sufficiente per propagarsi di una distanza “R” (che è proprio il raggio di azione dell’interazione) a una velocità che è dello stesso ordine (ma MAI uguale) a quella della luce “c“. In sintesi:

Il simbolo “~” sta proprio a indicare che la relazione vale solo come ordine di grandezza: non stiamo dicendo in nessun modo che un corpo di massa “m” possa viaggiare alla velocità della luce, ma solo a una velocità comparabile e ad essa inferiore.

Un gioco poco rigoroso, che ci azzecca molto bene

Sfruttando una possibile interpretazione dei diagrammi sulle interazioni, immaginiamo che i bosoni mediatori vengano creati nei processi e che si propaghino per una distanza “R” che è proprio il raggio di azione.

Come facciamo a capire se tali bosoni esistano davvero o se siano solo costrutti teorici?
Dobbiamo rivelarli sperimentalmente, ma per rivelarli sperimentalmente dobbiamo prima sapere che tipo di massa possiamo aspettarci per queste particelle.

Un giochino poco rigoroso è quello di usare il principio di Heisenberg esposto sopra, perché a quel punto l’energia di massa dei bosoni si ottiene dividendo per “∆t

L’energia di massa dei bosoni in funzione del raggio di interazione

Applichiamo ora questa formula ai bosoni delle interazioni: fotone, gravitone, pione e bosoni W,Z.

  • Fotone: l’interazione elettromagnetica ha un raggio di azione infinito. Se diamo a “R” un valore molto grande nella formula troviamo che la massa tende a zero. I fotoni, come si sa comunemente, hanno massa nulla, e quindi sono capaci di viaggiare alla massima velocità dell’universo, cioè la velocità della luce. Non una grandissima notizia, dato che i fotoni sono proprio la luce stessa.
  • Gravitone: l’interazione gravitazionale è sorella (molto più debole a parità di distanza) della forza elettromagnetica, e ha anche lei un raggio di azione infinito. Troviamo quindi una massa nulla anche per il fantomatico bosone dell’interazione gravitazionale: se mai troveremo una teoria quantistica della gravità, il suo bosone si propagherà alla velocità della luce.

Per discutere del pione (mediatore della forza nucleare forte a bassa energia) e dei bosoni della forza debole, diamo prima una formula numerica utile

Con “fm” intendiamo “fermi”, cioè l’unità di misura delle lunghezze nucleari.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

L’energia delle particelle atomiche si misura infatti con una scala energetica chiamata MeV.
Come per tutte le unità di misura, fatti bastare solo qualche numero di orientamento: l’energia di massa dei neutroni e dei protoni è di circa 1000 MeV, mentre l’elettrone “pesa” solo 0.5 MeV. Le energie dei legami nucleari sono invece dell’ordine di qualche MeV.

Per quanto riguarda il bosone W dell’interazione debole, per la quale il raggio di azione è dell’ordine di 0.0025 fermi

Questo era il valore appunto trovato nel 1983! Per la precisione parliamo di 80,379 migliaia di MeV. Oggi questo valore è in discordanza dello 0.09% con quello misurato al Fermilab.

Se il risultato verrà confermato da ulteriori esperimenti, siamo davanti al primo reale superamento del Modello Standard.

È un arrivo una nuova stagione eccitante per i fisici teorici?


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

La Matematica di come diventiamo bravi in qualcosa

Spesso mi viene chiesto se la Fisica possa essere imparata da tutti, e quasi sempre ho la stessa difficoltà nel formulare una risposta.

Ovviamente mi viene da dire “Certo che sì, non c’è nulla di speciale, basta applicarsi con costanza“, ma dentro di me so che la parola cruciale è “costanza“: come per tutte le discipline la differenza sta nel reale interesse. Tutti possiamo imparare tutto, il punto è che tutti (com’è naturale) prima o poi scegliamo solo una tra le tante possibilità. La vita è una sola e quindi sarebbe poco pratico investire energie in più interessi.

La formulazione più corretta della mia risposta sarebbe quindi “Basta avere l’interesse, dopodiché bisogna riporre fiducia nella costanza della pratica”. Qui molti storcono il naso: “Devi esserci nato con la passione per la Fisica, non è per tutti, è roba poco accessibile”.

Quello della passione è in realtà un falso mito, e il discorso può essere applicato non solo alla Fisica, ma a tutte le discipline e tutti gli hobby che cerchiamo di imparare: sono infatti convinto che per diventare bravi in qualcosa bastino due ingredienti:

  • L’interesse.
  • La fiducia nella costanza.

L’autosabotaggio del cervello

Capita a tutti di avere, in qualcosa di specifico, abbastanza interesse da volerne sapere di più e imparare. Non sempre riusciamo a trovare la motivazione per dedicarci a questo interesse, semplicemente perché il cervello si lascia spaventare dalla mole necessaria di lavoro.
In sostanza ho imparato che in questi casi il cervello individua due macro-stati di esistenza:

  • 1) Ciò che so ora
  • 2) Ciò che saprò quando avrò “finito” di imparare

questa suddivisione innaturale elimina tutto quello che sta in mezzo, e cioè il processo stesso dell’imparare.
Il cervello si spaventa perché “imparare a fare quella cosa” diventa all’improvviso una montagna da scalare e non un semplice sentiero da percorrere in leggera pendenza. Diversamente, l’arte dell’apprendimento segue la stessa filosofia degli scalatori: guarda il sentiero, non la cima della montagna!

Inoltre la suddivisione elimina un prerequisito fondamentale dell’animo dello studente: non c’è mai fine all’apprendimento, e “imparare a fare qualcosa” non è un obbiettivo, ma un percorso, uno stato dell’esistenza.

Ho letto in giro che il primo passo per imparare qualcosa è togliere pressione da se stessi.
Bisogna cioè trasformare il nostro modo di formulare gli obbiettivi: passare da questa affermazione: “imparerò a suonare la chitarra” a quest’altra: “dedicherò qualche ora alla chitarra, perché mi piace”.
Questa trasformazione fa la differenza perché toglie tanta pressione al cervello.
Rimane però la questione annosa a cui siamo ben familiari: ma quanta fatica devo fare prima di vedere progressi in ciò che imparo?

Perché non faccio progressi?

Chiaro che non si possa ignorare il fatto che ci piace praticare solo ciò che ci dà un minimo di soddisfazione. Come si fa a “guardare solo il percorso” se non si vedono progressi immediati? È chiaro che si arrivi a credere di non essere portati se si osserva solo una minima percentuale di miglioramento.
Siamo campioni del mollare appena le cose non procedono come ci aspettiamo.

Il punto è che bisogna “imparare anche come impariamo”.

Ho preso ispirazione da un articolo di James Clear, in cui si evidenziava come le nostre aspettative sull’apprendimento siano completamente irrealistiche. Provo a riformulare il ragionamento nello stile che preferisco io. Iniziamo con un’affermazione su cui penso si possa concordare facilmente:

Ogni volta che facciamo pratica, miglioriamo dell’1% rispetto a prima.

Questa dell’1% è la nostra assunzione fondamentale su un modello dell’apprendimento molto semplificativo, non per forza realistico, ma che rende l’idea degli ordini di grandezza (è il modus operandi dei fisici).

Il punto è che è proprio quel 1% che ci scoraggia: ai nostri occhi è troppo poco!

Immaginiamo però di fare pratica “n“-volte su qualcosa che vogliamo imparare, e indichiamo con “Bi” la nostra bravura al tentativo “i“-esimo. All’inizio siamo completamente ignoranti perché abbiamo fatto zero tentativi, quindi la nostra bravura sarà indicata con “B0“. Dopo un tentativo, siamo migliorati solo dell’1% rispetto a prima. In formule ciò significa che la nostra bravura “B1” dopo il “tentativo 1″ sarà

Dopo 1 tentativo saremo l’1% più bravi di prima

Ora la nostra bravura è “B1“, per cui la prossima volta che faremo pratica miglioreremo ancora dell’1%, ma stavolta la nostra base di partenza è “B1” quindi al tentativo “2″ la nostra bravura “B2” sarà

Dopo 2 tentativi saremo l’1% più bravi di prima, ma ora non stiamo partendo da zero!

Detta così non sembra chissà cosa, ma ricordiamoci da dove siamo partiti: bisogna confrontarsi con la propria bravura di partenza “B0” inserendo l’espressione di “B1” nell’equazione precedente:

Al secondo tentativo siamo più bravi di un fattore (1.01)2=1.0201

Al secondo tentativo saremo un fattore (1.01)2=1.0201 più bravi del nostro stato iniziale, cioè un miglioramento del 2.01%.
D’altronde che ci aspettavamo? Se migliori dell’1% a ogni tentativo, è chiaro che dopo due tentativi sarai migliorato del 2%! Invece è proprio qui che la matematica degli esponenziali prende il sopravvento: nota che non siamo migliorati del 2%, ma del 2.01%, quel 0.1% in più fa tutta la differenza del mondo.

Magia esponenziale

Applicando “x“-volte lo stesso ragionamento, dopo “x“-tentativi saremo più bravi di un fattore:

Ad esempio al decimo tentativo non saremo migliorati del 10%, ma un po’ di più, perché (1.01)10 rappresenta invece un miglioramento del 10.46%. Sembra ancora molto poco, eppure le cifre decimali stanno crescendo abbastanza in fretta grazie al modello esponenziale.
Tuttavia il nostro cervello penserà di aver capito la matematica: “sì va bene, la nostra bravura crescerà, ma crescerà sempre molto poco, è intuitivo”. Il cervello ha un modo di ragionare lineare: “se sono migliorato di poco le prime volte, allora migliorerò di poco anche tutte le volte successive!”. In questo ragionamento si trascura però un punto fondamentale: ogni volta che facciamo un nuovo tentativo non stiamo più partendo da zero, ma stiamo accumulando esperienza dai tentativi precedenti. Il cervello non è bravo a capire questo dettaglio.
Per questo motivo ci immaginiamo che il grafico del progresso sia una retta y=mx:

Quello che ci immaginiamo quando stiamo imparando qualcosa di nuovo: il nostro cervello ragiona in maniera lineare.

Quindi il cervello si immagina che la differenza tra i nostri stati di bravura finale e iniziale stia in proporzionalità diretta con il numero di tentativi “x“, cioè “Bx-B0=0.01x”, (dove 0.01 è il miglioramento del 1%) che ha il seguente grafico:

Il grafico “mentale” che ci suggerisce di smettere di imparare: meglio lasciar stare, non si migliorerà mai.

Il punto cruciale è che questo grafico non è un modello sufficientemente realistico dell’apprendimento: ogni volta che impari un po’ di più, non stai partendo da capo! Un modello più realistico che tiene conto di ciò è invece quello esponenziale che abbiamo visto sopra, anche se è difficile accorgersi della differenza almeno all’inizio. Ciò è evidenziato nel seguente grafico in cui confronto i due modelli di crescita (esponenziale e lineare) fino a un numero 70 di tentativi:

I due andamenti (quello mentale e quello reale) sono quasi indistinguibili nei primi 70 tentativi. Il nostro cervello è bravo ad approssimare la realtà, ma qualcosa succede dopo il numero 70…

Anche se teniamo in conto di “non partire sempre da zero” e usiamo il modello di crescita esponenziale, i progressi che facciamo sono abbastanza trascurabili, almeno fino al tentativo 70, dopodiché entra in gioco la magia dell’esponenziale! Il grafico in rosso inizia a crescere leggermente di più del grafico in blu. Se aumentiamo ancora il numero di tentativi, arriviamo a questo risultato spettacolare:

Dopo tantissimi tentativi, i miglioramenti rispetto al nostro stato iniziale schizzano alle stelle. L’andamento è esattamente analogo a quello dell’interesse composto.

Riflettiamo un attimo davanti a questo grafico: noi tutti siamo soliti mollare la pratica ben prima del settantesimo tentativo, proprio perché osserviamo pochissimi progressi rispetto al nostro stato iniziale. Spesso ci sembra anzi di fare passi indietro, vuoi per via della scarsa memoria, vuoi perché semplicemente abbiamo capito male qualcosa che pensavamo di aver capito. Il punto è che i miglioramenti arrivano solo dopo centinaia e centinaia di tentativi: ad esempio dopo aver praticato qualcosa 300 volte, migliorando dell’1% ogni volta, arriviamo a diventare più bravi circa del 1878%!

Ne deduciamo che in molte cose della vita non è solo il talento innato che ci permette di fare progressi.
Ovviamente se uno ha un talento innato non migliorerà dell’1% ogni volta, ma magari del 3%. Poco importa, vorrà dire che per diventare eccellente farà 200-300 tentativi in meno di noi, il punto è che compararsi con gli altri ha poco valore nel momento in cui ci concentriamo nel percorso dello scalatore: il fine non è imparare “la cosa” in particolare, ma godersi il sentiero.

In verde: una persona che migliora del 3% ogni tentativo. In rosso: una persona che migliora del 1% ogni tentativo.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questo discorso mi ha portato a ragionare su un aspetto importante: nella vita possiamo potenzialmente scegliere qualunque lavoro vogliamo, indipendentemente dai nostri talenti (a meno che quel lavoro non ci faccia proprio ribrezzo). Il punto sta nel capire quanti tentativi siamo disposti a fare prima di raggiungere un livello che pensiamo possa essere redditizio.
La volontà, dopo un lungo cammino, ci porta dovunque. Il talento ci porta dovunque, in aereo.

Per quanto riguarda ciò di cui mi occupo io, mi verrebbe da dare proprio questa risposta:
“Ok, ti piace la Fisica e vorresti impararla come hobby, ma quanti tentativi saresti disposto a fare? Pensi che se non migliorerai subito entro qualche mese sarà il caso di mollare? Pensi che sia necessario passare notte e giorno sui libri per tutto il resto della tua vita per vedere un miglioramento del 30%?”

Siamo ossessionati dal successo immediato, quindi l’idea di studiare una materia complicata si trasforma subito in una questione di vita o di morte: “Non ho il talento, per capirci qualcosa dovrei dedicarci il 90% della mia giornata!”, la mia risposta invece è “Non è umanamente possibile pretendere di dedicare a un hobby una percentuale così grossa dell’esistenza quotidiana, ma è certamente possibile migliorare di una percentuale insignificante, tipo l’1%, ogni mese per tutto il resto della propria vita”.
L’elefante si mangia a pezzetti.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Cosa possiamo imparare dal diario degli appunti di Feynman

Richard P. Feynman (1918-1988)

Fin da quando ho iniziato il mio percorso nella Fisica sono stato affascinato tanto dalla materia quanto dalle personalità che l’hanno costruita. Anzi, ripensandoci devo ammettere che traevo ispirazione dalle azioni quotidiane, dalle abitudini o dai modi di ragionare dei grandi fisici del passato. Non che volessi “emularli” , semplicemente li ammiravo così tanto da voler portare dei pezzi di loro dentro di me, per sentirli più vicini, per guidarmi nelle decisioni e nella motivazione.

Una parte che trovo estremamente interessante della storia di ogni fisico è il suo metodo di studio, e non di quando era già grande e formato, ma di quando era giusto agli inizi.

Un filo conduttore che ho notato è il seguente: per capire a fondo una materia, devi farla tua. Per fare ciò servono due step fondamentali:

  • Bisogna essere autodidatti per una buona percentuale del tempo. Il professore ha il ruolo di mostrare la via più proficua e fornire gli schemi per aiutarti a non perderti, il resto devi coltivarlo da solo usando dei libri adeguati allo scopo.
  • Dopo aver letto il libro devi estrapolare le tue visioni e i tuoi schemi per poi riorganizzarli come preferisci in forma scritta, su diari o quadernini personali.
Il diario di Feynman: “The Calculus”, in italiano “Il calcolo infinitesimale”.

Uno dei più grandi che seguiva questo metodo era Richard Feynman, celebre fisico teorico americano (Nobel 1965). Ne sono venuto a conoscenza perché sono incappato di recente in un articolo di Physics Today in cui è stato riesumato da un archivio il “diario degli appunti” di quando Feynman decise di imparare il calcolo infinitesimale da autodidatta quando era ancora al liceo.

Il giovane Feynman decise che il curriculum di matematica liceale (che arrivava a stento alla trigonometria) non era abbastanza per chi volesse iniziare ad interessarsi di Fisica. Per sua fortuna il matematico Edgar Thompson decise di scrivere una serie di libri con l’intento di rendere più accessibili alcune tecniche matematiche che all’epoca erano ancora trattate in maniera piuttosto “aulica”. Feynman trovò particolarmente utile il libro di Thompson “Il calcolo infinitesimale reso facile” del 1923, su cui decise di basare tutta la sua preparazione (introduttiva) alla matematica universitaria.

Trovo giusto rimarcare un attimo l’importanza dell’opera di personaggi come Thompson: se Feynman non avesse potuto sviluppare da solo certe attitudini grazie a libri così accessibili, avrebbe magari avuto più dubbi nel suo percorso, e chissà magari non avremmo mai sentito parlare dei “diagrammi di Feynman”.

Cosa possiamo imparare?

Ci sono poche immagini condivise in rete sul diario di Feynman. Tuttavia da quel poco che abbiamo possiamo comunque trarre alcuni spunti interessanti, oltre ad evidenziare alcuni tratti fondamentali che per Feynman diventeranno caratteristici del suo metodo di lavoro.

L’importanza della schematicitià

La cosa che mi ha sorpreso di più di questo diario è anzitutto la presenza di un indice.

L’indice del diario di Feynman. I capitoli sono organizzati in una maniera molto simile a quella del libro di Thompson.

Uno degli ingredienti fondamentali per imparare una materia nuova e complessa è infatti quello di riuscire a organizzare le informazioni in maniera che siano rapidamente accessibili. L’indice è probabilmente il modo migliore per visualizzare graficamente tutti gli aspetti di una materia, e non parlo dell’indice di un libro, ma dell’indice dei propri appunti. Nel mio caso, se i tuoi appunti non hanno un indice è più facile provare un senso di confusione generale quando scorri le pagine. Questo piccolo dettaglio può trasformare una “confusa raccolta” in un serio “arsenale di conoscenze”.
Feynman conservò tutta la vita questa propensione per la schematicità. James Gleick riporta un aneddoto di quando Feynman era ancora studente a Princeton:

[…] Aprì un quaderno degli appunti. Il titolo era “DIARIO DELLE COSE CHE NON SO”. […] Lavorava per settimane per disassemblare ogni branca della Fisica, semplificandone le parti e mettendo tutto assieme, cercando nel mentre inconsistenze e punti spigolosi. Provava a trovare il cuore essenziale di ogni argomento.

James Gleick

Qui non siamo solo davanti a un esercizio “di umiltà” che consiste nel cercare di perfezionare le proprie lacune, ma a una ricerca sistematica, ottimizzata.

Quando Feynman aveva finito il lavoro, si ritrovava con un diario degli appunti di cui andava particolarmente orgoglioso.

James Gleick

La schematicità di questo lavoro permetteva a Feynman di accedere rapidamente a tutti gli argomenti che lui riteneva più importanti, nella grafia e nello stile di presentazione che a lui era più congeniale: il suo.

Da questa lezione possiamo imparare l’importanza della rielaborazione e della schematicità: non solo bisogna far proprio un argomento, ma bisogna organizzare le proprie note in modo che siano accessibili con il minor sforzo possibile, solo così si può andare avanti con una mente abbastanza lucida, pronta ad imparare cose ancora più difficili.

Prendersi un po’ più sul serio

Il secondo aspetto su cui voglio soffermarmi riguarda queste due pagine di appunti:

L’argomento riguarda l’analisi matematica ordinaria: l’angolo iperbolico e le funzioni iperboliche, ma non è questa la cosa interessante, bensì è l’utilizzo di intermezzi stilistici del tipo: “come abbiamo visto”, “se dividiamo…” tutti rivolti al plurale, proprio come farebbe un professore che sta spiegando un argomento in un’aula. Feynman si prendeva sul serio. Questo prendersi sul serio lo portava a redigere gli appunti con uno stile che poteva essere letto da tutti, aumentandone la facilità di lettura e senza sacrificare la rigorosa riorganizzazione delle informazioni.
Ricordiamo: Feynman era appena un adolescente mentre scriveva questo diario, non stiamo parlando di uno studente universitario che si suppone abbia già consolidato certi metodi di studio. Qui sta la precoce genialità di Feynman.

Il diario degli appunti di Enrico Fermi.

Se si vogliono scrivere degli appunti che ci potrebbero essere utili in futuro, bisogna farlo prendendosi sul serio, scrivendo come se dovessimo esporre in un’aula con persone che su quell’argomento non sanno nulla.
Se non si fa ciò, si rischia di ritrovarsi con degli appunti illeggibili presi distrattamente qualche anno prima, con il risultato di aver sprecato ore di studio senza poter riacquisire in maniera rapida le conoscenze dimenticate.

Anche uno dei più grandi fisici del novecento, Enrico Fermi, usò la tecnica del diario degli appunti fin da quando era al liceo. Proprio come Feynman, Fermi era ossessivo nel redigere i propri appunti, dedicandovi una meticolosa attenzione, fin dalla stesura dell’indice:

L’indice di un quaderno di Fermi.

Come testimoniarono i suoi colleghi e amici, Fermi riutilizzava spesso i propri quadernini anche in età adulta, proprio perché gli consentivano l’accesso immediato a numerose branche del sapere, diventando quasi “un’estensione” del proprio cervello.
Di nuovo, la loro efficacia stava probabilmente nel fatto di essere stati scritti in uno stile a lui più congeniale, usando schemi con cui aveva maggiore confidenza. Qualcuno disse che Fermi aveva fatto sua tutta la Fisica, tanto da definirlo “l’ultimo uomo che sapeva tutto“.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Il Teorema “CPT”, o il motivo per cui un anti-universo sarebbe indistinguibile dal nostro

Ci sono pochi argomenti che fanno da musa ispiratrice sia per i fisici teorici che per i fisici sperimentali. Le simmetrie discrete rappresentano una guida importantissima con cui interpretiamo i risultati sperimentali e con cui strutturiamo la forma matematica delle teorie, perché hanno la capacità di predire “cosa è concesso e cosa è vietato”.

  • Vuoi osservare il decadimento di una particella e non sai quali proprietà aspettarti dai suoi prodotti di decadimento? Argomenti di simmetria scarteranno alcune tra le varie possibilità, permettendoti di focalizzare le tue misure su altre proprietà.
  • Vuoi scrivere una teoria che descrive l’interazione nucleare? Sappi che gli esperimenti non hanno mai osservato la violazione di una certa simmetria “A”, quindi assicurati che le tue equazioni abbiano la stessa simmetria!

Quando diciamo “il sistema ha una simmetria” dobbiamo prima specificare rispetto a quale trasformazione. Infatti una simmetria è sempre preceduta da una trasformazione, altrimenti dire “simmetria” perde ogni significato. (Per un’introduzione al concetto di simmetria rimando a un precedente articolo).

Non tutte le trasformazioni sono una simmetria di un certo sistema. Ciò non è un problema: in ogni caso abbiamo scoperto che è molto comodo catalogare gli oggetti in base al loro comportamento sotto determinate trasformazioni.
Ad esempio la freccia in figura possiamo chiamarla “generica freccia bianca con punta a destra”

Potremmo decidere arbitrariamente di studiare il comportamento di questa freccia sotto alcune trasformazioni interessanti: ad esempio la trasformazione “inversione speculare” trasforma la freccia in quest’altra:

L’oggetto ottenuto non è lo stesso di prima, ora la freccia ha la punta verso sinistra: diremo che “la riflessione speculare non è una sua simmetria della freccia”. Pazienza! Non tutto può essere simmetrico.
Abbiamo comunque imparato qualcosa di nuovo: possiamo dare un nuovo nome a questo sistema: tipo “freccia bianca che sotto riflessione va nel suo opposto“. Questo modo di chiamare un oggetto in base a come si comporta sotto una trasformazione è ciò che facciamo per catalogare le particelle e le interazioni fondamentali del Modello Standard.

Il Modello Standard è caratterizzato da tre simmetrie fondamentali: la simmetria di Lorentz (le leggi della Fisica hanno la stessa forma in tutti i sistemi di riferimento inerziali, o in altri termini, sono simmetriche sotto una trasformazione di Lorentz), la simmetria di gauge (gli oggetti matematici della Fisica presentano più variabili di quelle fisicamente necessarie), e la simmetria CPT. Le prime due sono abbastanza astratte rispetto all’ultima, su cui ci concentriamo oggi.

La simmetria “CPT” evidenzia un fatto importantissimo della nostra realtà: le leggi della Fisica rimangono inalterate se applichiamo tutte e tre le seguenti trasformazioni:

  • Inversione spaziale “P”
  • Inversione di carica “C”
  • Inversione temporale “T”

Le trasformazioni P, C, T sono chiamate in gergo “simmetrie discrete”. Svisceriamole una ad una.

La simmetria P: inversione spaziale

L’inversione spaziale, altrimenti nota come “trasformazione di parità” consiste nell’invertire tutte e tre le direzioni spaziali: le coordinate cartesiane (x,y,z) vengono mandate in (-x,-y,-z).
Per visualizzare meglio questa trasformazione, considera una freccia in tre dimensioni, ad esempio dotata di un certo spessore, una punta e due facce rettangolari. Chiamiamo “A” e “B” le due facce di questa freccia.

Le due facce “A” e “B” della stessa freccia.

Visualizziamo la freccia in una certa posizione iniziale, ad esempio disponiamola con la faccia “A” rivolta verso di noi (quindi la faccia “B” è rivolta verso la pagina di questo articolo), e la punta è rivolta verso destra.
Per ottenere una trasformazione di parità eseguiamo due step: anzitutto ruotiamo di 180 gradi la freccia attorno alla direzione della sua punta ed infine invertiamo la punta. Infatti così facendo abbiamo mandato la faccia “A” nel suo opposto (cioè la faccia B), poi abbiamo invertito il basso con l’alto, ed infine abbiamo invertito la destra con la sinistra. Gli step sono illustrati in figura

Una trasformazione di parità della freccia. Dall’alto verso il basso: la freccia nella sua posizione iniziale, la freccia dopo una rotazione di 180 gradi attorno alla direzione della sua punta, e poi l’inversione della punta nell’ultimo step.

Nota bene, una trasformazione di parità è ben diversa da una trasformazione “speculare”. Non è come vedere la freccia davanti a uno specchio!

Una trasformazione speculare della freccia.

Spesso invece capita di sentire che l’inversione spaziale corrisponde a “vedere l’universo attraverso uno specchio”, come mai questa inesattezza?
Immagina per un attimo se la freccia avesse due facce uguali e non ci fosse modo di distinguere il basso dall’alto, in quel caso la riflessione speculare e la trasformazione di parità coincidono!

Questo perché la freccia iniziale era simmetrica sotto una rotazione di 180 gradi rispetto alla direzione della punta (quindi il primo step della trasformazione di parità la lascia invariata). Moltissimi sistemi fisici di interesse godono di una simmetria sotto rotazioni attorno a una certa direzione, per cui non è così scorretto dire che l’inversione spaziale “coincide” con l’osservare l’universo allo specchio.

"Però mi sfugge cosa c'entri con la Fisica tutto questo discorso sull'inversione dello spazio. Cosa gliene frega alle particelle se prendo gli assi cartesiani in un verso o nell'altro?" 

Magari non è immediato vederlo, ma la connessione è piuttosto profonda e ha a che fare con le interazioni fondamentali.

In particolare ha a che fare con il modo con cui scriviamo le teorie della Fisica.
Se le evidenze sperimentali suggeriscono ad esempio che un processo ha la stessa probabilità di avvenire in una direzione rispetto alla direzione opposta, allora sarà meglio che la teoria sia simmetrica sotto una trasformazione di parità dal punto di vista matematico! Lo schema di queste ragionamento è il seguente:

Per fare un esempio consideriamo la teoria di Dirac per un fermione di massa m. Nella teoria il termine di massa è scritto accoppiando i campi ψ del fermione nel seguente modo:

La trasformazione di parità dei campi fermionici si ottiene moltiplicandoli per una matrice detta “di Dirac”: γ0

Trasformazione di parità per i campi fermionici. La matrice di Dirac è caratterizzata dall’equazione (γ0)2 =1, cioè il suo quadrato è uguale all’identità.

A questo punto mostriamo che il termine di massa della teoria di Dirac è invariante sotto parità:

La trasformazione di parità dei campi fermionici lascia invariato il termine di massa grazie al fatto che 0)2 =1. La teoria di Dirac è costruita in modo da essere invariante sotto parità (ciò era suggerito dagli esperimenti).

In teoria nulla garantisce che le leggi della Natura siano invarianti sotto inversione spaziale, è una nostra assunzione ragionevole, confermata dalla maggior parte dei risultati sperimentali e per la maggior parte delle interazioni fondamentali.
Negli anni 50′, con grossa sorpresa, si scoprì che la nostra assunzione non corrispondeva alla realtà.

L’interazione debole e la violazione della parità

È arcinota l’importanza dei vettori nella Fisica. Siccome i vettori sono quantità riferite agli assi cartesiani, invertire gli assi con una trasformazione di parità invertirà anche i vettori.
Un vettore r verrà mandato nel suo opposto –r in seguito a una trasformazione di parità. Se però consideriamo il prodotto di due vettori, ad esempio come il momento angolare L=rxp , sotto una trasformazione di parità si ha

I segni meno si cancellano e il momento angolare rimane uguale a se stesso, non si inverte.

Un giroscopio davanti a uno specchio. L’asse di rotazione del giroscopio è perpendicolare alla superficie dello specchio: il verso di rotazione rimane inalterato nella riflessione.

Ciò si capisce intuitivamente se pensiamo a un sistema invariante sotto rotazioni e caratterizzato da un asse di rotazione, come un giroscopio. Per questo oggetto la trasformazione di parità equivale alla riflessione speculare (come precisato sopra). Se mettiamo un giroscopio rotante davanti allo specchio, il suo verso di rotazione non viene invertito: se gira in senso orario nel “nostro mondo”, continuerà a girare in verso orario anche nello specchio.

Fatta questa premessa, consideriamo uno degli esperimenti cruciali nella Fisica delle particelle: l’esperimento di Wu (1956).
Nell’esperimento di Wu si considerò un particolare decadimento nucleare del Cobalto-60, che provocava l’emissione di elettroni e antineutrini.
Tramite l’accensione di un campo magnetico, il team di Wu orientò gli spin dei nuclei di Cobalto in una direzione privilegiata, proprio come si farebbe con degli aghi magnetici. Per la conservazione del momento angolare, gli spin dell’elettrone e dell’antineutrino emessi dovevano avere lo stesso orientamento spaziale degli spin dei nuclei di Cobalto.
L’obbiettivo dell’esperimento era di seguire le traiettorie degli elettroni e vedere quale direzione prendessero rispetto allo spin del nucleo decaduto. Dopo un po’ di raccolta dati, si scoprì che gli elettroni avevano una direzione preferita di emissione: opposta allo spin nucleare. L’informazione raccolta sulla Fisica del problema era l’osservazione sperimentale: “la direzione preferita di emissione da parte degli elettroni è quella opposta allo spin del nucleo.”

Di primo acchito questa osservazione non sembra presentare nulla di problematico. Consideriamo però una trasformazione di parità: lo spin nucleare (essendo analogo a un momento angolare) viene mandato in se stesso come abbiamo visto, ma la direzione di moto degli elettroni viene invertita. Quindi in un mondo speculare (con asse di riflessione coincidente con quello dello spin) la conclusione dell’esperimento è che la direzione di emissione preferita da parte degli elettroni è quella concorde allo spin del nucleo.

Sotto una trasformazione di parità le conclusioni sperimentali sono diverse, in netta contrapposizione l’una con l’altra! Per la prima volta nella storia della Fisica una conclusione sperimentale è modificata da una trasformazione di parità, cioè la parità NON è una simmetria del sistema!

Perché la parità potesse essere una simmetria del sistema, ci saremmo aspettati tanti elettroni emessi nella direzione dello spin nucleare, quanti emessi nella direzione opposta. Ciò non è quello che si osserva, per cui siamo portati alla conclusione che la parità non è una simmetria fondamentale della natura, nonostante sia una simmetria delle forze nucleari e delle forze elettromagnetiche.

Interpretazione dell’esperimento di Wu

L’interpretazione dell’esperimento fu la seguente: esiste un’interazione fondamentale capace di far decadere un nucleo emettendo elettroni e antineutrini (oggi nota come interazione debole) che non è simmetrica rispetto a una trasformazione di parità. La parità NON è più una simmetria fondamentale della Natura.
L’universo visto allo specchio ha un comportamento diverso se si considerano i decadimenti deboli di alcuni nuclei. Questa distinzione fu abbastanza sconcertante e i fisici dell’epoca rimasero piuttosto sorpresi.

La simmetria C: inversione di carica

La trasformazione matematica di un elettrone in un positrone.

Una trasformazione di inversione di carica viene effettuata sulle funzioni d’onda che descrivono le particelle.
Le funzioni d’onda possono essere caratterizzate da numeri quantici come: carica elettrica, numero leptonico, numero barionico e numero leptonico di sapore.
L’inversione di carica, come suggerito dal nome, inverte tutti questi numeri quantici: non solo la carica elettrica, ma anche numero leptonico, numero barionico e sapore!


Ad esempio l’inversione di carica su un elettrone lo trasforma in un positrone (cioè una particella con stessa massa, ma carica elettrica opposta e numero leptonico opposto). Quindi effettivamente l’inversione di carica trasforma una particella nella sua anti-particella (per un resoconto su come siamo arrivati a teorizzare le antiparticelle rimando a un precedente articolo).

D’altra parte, una particella senza carica elettrica e senza altri numeri quantici (come il fotone) viene mandato in se stesso da questa trasformazione: il fotone è l’antiparticella di se stesso.

Per la maggior parte dei processi fisici, l’inversione di carica C è una simmetria: potremmo sostituire tutte le particelle del processo con le rispettive antiparticelle e il processo rimarrebbe lo stesso (stesse previsioni teoriche e stessi risultati sperimentali).
Ancora una volta fa eccezione l’interazione debole: per questa interazione entrambe le trasformazioni P e CP (combinazione di C e P) non sono una simmetria. Si pensa che questo fatto sia la risposta al quesito: perché il nostro universo è composto per la maggior parte da materia rispetto ad antimateria? In qualche momento dopo il big bang ci fu una maggior produzione di materia forse proprio grazie al fatto che l’interazione debole presenta questa asimmetria nel trattare particelle e antiparticelle.

La simmetria T: inversione temporale

L’ultima trasformazione discreta è l’inversione temporale: si inverte il tempo nelle equazioni della Fisica. L’inversione del tempo agisce su tutte quelle quantità in cui il tempo compare, ad esempio la quantità di moto (contenendo la velocità definita come il rapporto tra spazio e tempo) acquista un segno negativo sotto inversione temporale: p va in –p. Il momento angolare acquista un segno negativo anche lui, dato che L=rxp e r va in se stesso, ma p va in –p, quindi rx(-p)=-L.

Di nuovo, la maggior parte delle teorie fisiche rimane inalterata sotto inversione temporale, ad eccezione della solita guastafeste: l’interazione debole!

Ciò non sconforta ormai più di tanto, dato che le eventuali simmetrie sotto C,P e T separatamente non hanno motivo di esistere se non per la nostra soddisfazione personale.
Esiste un’unica simmetria che però deve essere rispettata affinché non crolli tutto il palazzo della Fisica Teorica, ed infatti esiste un Teorema che lo dimostra precisamente. Questa simmetria è la combinazione simultanea di C, P e T: la simmetria CPT.

Il Teorema CPT

Il Teorema CPT discende dall’unione tra meccanica quantistica e relatività ristretta, nel contesto della teoria quantistica dei campi. La sua dimostrazione dipende fortemente da tutto ciò che sappiamo essere verificato sperimentalmente sulla meccanica quantistica e sulla relatività ristretta. TUTTE le leggi della Natura sono invarianti se applichiamo successivamente: un’inversione di tutte le coordinate spaziali, un’inversione della carica di tutte le particelle (cioè la trasformazione di tutte le particelle in antiparticelle) e l’inversione temporale dei processi fisici.

Stiamo dicendo che non è possibile distinguere un esperimento di Fisica condotto in un anti-universo composto da anti-particelle, studiate con coordinate spaziali invertite e con i processi che avvengono al contrario nel tempo.

Per capire il significato del teorema, dobbiamo ricollegarci all’interpretazione di Feynman-Stückelberg sulle antiparticelle, come discusso in un articolo precedente. Un’antiparticella può essere interpretata come una particella che si muove “indietro nel tempo”.

Siccome la trasformazione combinata “CP” trasforma tutte le particelle in anti-particelle e inverte le coordinate spaziali (in modo da farle muovere “all’indietro” rispetto alle coordinate originali), se applichiamo un’ulteriore trasformazione “T” di inversione temporale stiamo facendo muovere queste antiparticelle all’indietro nel tempo e in una direzione spaziale opposta alle coordinate originali. Tradotto: siamo ritornati punto e a capo, e cioè all’universo originale. Quindi, se operiamo un’ulteriore trasformazione di inversione temporale “T”, l’anti-universo ottenuto con la trasformazione “CP” può essere reso indistinguibile dall’universo iniziale.

La violazione di CP e T, ma non di CPT

Sottolineiamo: la simmetria sempre conservata è la combinazione simultanea CPT, ma ciascuna delle trasformazioni separate C, P o T può comunque non essere una simmetria delle teorie fisiche.

Abbiamo visto che l’interazione debole viola la simmetria P. Sappi che viola anche la simmetria CP, cioè la combinazione simultanea di C e P ( è stato verificato sperimentalmente). Questo fatto mise in grave allarme i fisici dell’epoca, perché la simmetria CPT era quindi in pericolo, e assieme a lei tutta la struttura matematica della teoria quantistica dei campi.

Grazie all’interpretazione di Feynman-Stückelberg sappiamo che, se CP è violata, allora l’unico modo per avere simmetria CPT è che anche T sia violata. Un po’ come dire: se voglio ottenere +1 dal prodotto di due numeri, dovranno essere entrambi negativi in modo che si cancelli il segno “-“, in questo modo (-1)(-1)=+1. Fisicamente corrisponde a dire:

Analogia tra la violazione delle simmetrie e la moltiplicazione tra numeri negativi.

I risultati sperimentali odierni sembrano confermare che la simmetria T sia violata, quindi la CPT dovrebbe essere salva, assieme a tutto il castello della Fisica Teorica.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

[Immagine di copertina: Kelly Sikkema]

“La tua ricerca è inadeguata!” Quando la Fisica ha bisogno di uno schiaffo

Ci sono svariati motivi per cui la Scienza, pur essendo una disciplina di matrice umana e quindi predisposta all’errore, riesce sempre a raddrizzarsi. Il motivo più cruciale è la spietatezza del giudizio tra pari: l’oggettività e il metodo scientifico non guardano in faccia nessuno.

Naturalmente per garantire il continuo raddrizzamento servono grandi personalità, che devono essere la base di ogni comunità scientifica. E non parlo di “grandi personalità” solo dal punto di vista accademico, servono grandi capacità relazionali e grande onestà intellettuale, anche a costo di dire qualcosa di molto scomodo. La scienza inizia a morire quando inizia a prendere piede il pensiero di gregge, dal quale nessuno ha il coraggio di discostarsi.
A capo del gregge servono dei pastori, pochi fari nella notte, ma sempre accesi e messi nei punti giusti.

In questo contesto, qualche tempo fa sono incappato in una storia condivisa da Freeman Dyson, che è stato uno dei più importanti fisici teorici del secondo novecento. Credo che questa storia riassuma perfettamente lo stato esistenziale del ricercatore: la ricerca è un mondo appassionante in tutti i sensi, passione emotiva e passione in senso latino, “patire, soffrire”.

Un po’ di contesto storico

Un tipico processo di elettrodinamica quantistica, un fotone virtuale viene scambiato tra due elettroni.

Alla fine degli anni ’40 si era raggiunta una soddisfacente descrizione dei processi atomici. L’unica forza fondamentale del mondo quantistico allora compresa, l’elettrodinamica quantistica, aveva come ingredienti i campi fermionici come elettroni, protoni e neutroni, e il campo elettromagnetico (rappresentato dal suo quanto di eccitazione, il fotone).
Come descritto in un precedente articolo, essendo il mediatore di un’interazione a raggio d’azione infinito, il fotone ha massa nulla. Un principio di simmetria, assieme alle nozioni dell’elettrodinamica classica, ci guidano a scrivere l’interazione elettrodinamica, come spiegato in un precedente articolo, con la seguente struttura:

L’accoppiamento tra campi fermionici ψ e il campo elettromagnetico Aμ.
L’intensità dell’interazione è specificata dalla carica dell’elettrone in unità fondamentali (unità di c=ℏ=1).
Freeman Dyson (1923-2020)

A partire da questa struttura, si è in grado di calcolare tutti i processi elettromagnetici possibili, e verificare l’accuratezza della teoria confrontando i valori ottenuti con i dati sperimentali. Questa era l’occupazione di Freeman Dyson e il suo gruppo di studenti. Dyson, allora un giovanissimo professore di Fisica Teorica alla Cornell, era riuscito con il suo gruppo ad ottenere uno spettacolare accordo tra le previsioni teoriche e i dati sperimentali: l’elettrodinamica era una teoria in grado di fare previsioni molto accurate.

Dopo questi successi, nel 1951 il gruppo di Dyson era alla ricerca di altri problemi da conquistare. Uno particolarmente promettente era il problema di studiare cosa tenesse assieme i nuclei: l’interazione nucleare.
All’epoca la Fisica Nucleare era una scienza prettamente empirica: i modelli teorici erano pochi, confusi e dallo scarso potere predittivo. Quello che era certo, almeno alla scala di energia che si esplorava all’epoca, è che il mediatore della forza nucleare doveva essere massivo (per sapere perché leggi qua) perché al di fuori del nucleo la forza nucleare cessava di esistere.
Se il mediatore dell’elettrodinamica era il fotone, il mediatore dell’interazione nucleare fu individuato nel pione. L’obbiettivo era quindi fare degli esperimenti in cui si facevano collidere pioni con altre particelle nucleari, per studiarne l’interazione.

Dyson e il suo gruppo, avendo avuto così tanto successo con il modello dell’elettrodinamica, decisero che la struttura migliore per l’interazione doveva essere molto simile:

L’accoppiamento tra i campi fermionici ψ e il campo del pione ϕ.
L’intensità dell’interazione è specificata dalla costante “g” , che ha un valore molto più elevato della costante di accoppiamento elettromagnetica “e”.
Un protone ed un neutrone interagiscono scambiandosi un pione neutro.
Nota la somiglianza con il diagramma dell’elettrodinamica.


Questa teoria era conosciuta come “teoria del pione pseudoscalare” , e il gruppo di Dyson ci lavorò a tempo pieno per due anni. Dopo uno sforzo di proporzioni eroiche, nel 1953 riuscirono a produrre delle predizioni teoriche in accettabile accordo con i dati disponibili all’epoca. La carriera di alcuni studenti di Dyson dipendeva dal successo di questa teoria, dato che erano per la maggior parte dottorandi o post-doc.

I dati sperimentali con cui confrontavano le loro previsioni teoriche erano stati raccolti da uno dei migliori fisici del novecento, nonché uno dei padri fondatori della ricerca nucleare: Enrico Fermi, professore a Chicago e al tempo uno dei leader nella costruzione del Ciclotrone con cui si studiavano le interazioni nucleari.
Fermi era anche uno dei migliori fisici teorici della sua generazione, quindi Dyson pensò fosse il caso di andare a trovarlo per discutere sul successo del proprio lavoro, prima di pubblicarlo.

Enrico Fermi (1901-1954), premio Nobel per la Fisica 1938.

L’incontro con Fermi

Nella primavera del ’53, Dyson si diresse a Chicago per andare a trovare Fermi nel suo ufficio, portando con sé una pila di fogli con alcuni grafici che riproducevano i dati sperimentali calcolati dal suo gruppo.

Fermi aveva la nomea di incutere una certa soggezione, di certo non solo per la sua fama di grande scienziato, ma anche per l’acutezza del suo giudizio. Quindi è facile immaginarsi che Dyson si sentisse un po’ teso per quell’incontro.
La sua tensione si trasformò presto in soggezione quando vide che Fermi diede solo un rapido sguardo ai fogli che gli aveva portato, per poi invitarlo a sedersi e chiedergli con un tono amichevole come stessero sua moglie e suo figlio neonato.

Dopo qualche chiacchiera, improvvisamente Fermi rilasciò il suo giudizio nella maniera più calma e schietta possibile

Ci sono due modi di fare i calcoli in Fisica Teorica. Il primo modo, che io preferisco, è di avere un chiaro schema mentale del processo fisico che vuoi calcolare. L’altro modo è di avere un preciso ed auto-consistente formalismo matematico. Voi non avete nessuno dei due.

Dyson rimase ammutolito, anche se la parte più orgogliosa di lui era comunque incredula. Quindi cercò di capire cosa non andasse, secondo Fermi, con la teoria del pione pseudoscalare.

Fermi aveva un intuito fisico eccezionale su cui fondò letteralmente una scuola di pensiero in grado di far fruttare ben 8 premi Nobel per la Fisica tra i suoi studenti.

La teoria del pione pseudoscalare, secondo il suo intuito, non poteva essere corretta perché a differenza dell’elettrodinamica l’interazione era molto più intensa e nei calcoli era necessario mascherare alcune divergenze senza avere un chiaro schema fisico di quello che stesse succedendo.

Inoltre, quando Dyson gli chiese, ancora orgogliosamente, come mai secondo lui i dati fossero comunque in accordo con le sue previsioni nonostante la teoria fosse inadeguata, Fermi gli fece notare che il numero di parametri utilizzato (quattro) era troppo alto, e che con un numero così elevato fosse possibile raggiungere un raccordo tra le previsioni teoriche e qualunque dato sperimentale.

In sostanza Fermi demolì, con estrema calma e schiettezza, gli ultimi due anni di lavoro dell’intero gruppo di Dyson, composto da dottorandi e post-doc la cui carriera in quel momento dipendeva dal successo di quella teoria.

La storia diede ragione a Fermi. La teoria del pione pseudoscalare non era quella corretta, al modello delle forze nucleari mancava un pezzo fondamentale del puzzle: i quark, teorizzati da Gell-Mann il decennio successivo, quando Fermi era già morto.

Dopo quell’incontro traumatico, Dyson e il suo gruppo pubblicarono comunque il lavoro, ma abbandonarono completamente quel campo di ricerca. Negli anni successivi, ripensando a quell’evento, Dyson espresse di essere grato eternamente a Fermi per quello “schiaffo” morale, perché la sua teoria non avrebbe portato nessun frutto e avrebbe fatto sprecare preziosi anni di ricerca a lui e al suo gruppo.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

No, le equazioni di Maxwell non furono capite subito

Se consideriamo i più importanti avanzamenti scientifici del XIX secolo, la teoria elettromagnetica di James Clerk Maxwell è seconda solo al lavoro di Darwin “l’origine delle specie”.

Tuttavia questa importanza non fu riconosciuta subito, e non parlo di qualche anno. Rimasi sorpreso quando scoprii che ci vollero circa 30 anni affinché le equazioni di Maxwell fossero capite a pieno, e che addirittura per i primi 20 anni furono praticamente ignorate.
Dopo un po’ di ricerche, ho individuato due motivi principali per spiegare ciò:

James Clerk Maxwell (1831-1879)
  • Il carico concettuale della teoria di Maxwell.
  • La modestia di Maxwell.

Il tangibile e l’intangibile

La teoria di Maxwell, pubblicata per la prima volta nel 1865, risulta ancora oggi un po’ indigesta per la maggior parte dei neofiti, figuriamoci per i fisici del 1800!
Immaginiamo il contesto culturale di questi fisici: l’universo newtoniano era composto da oggetti tangibili, in grado di interagire “a distanza” l’uno con l’altro in maniera misteriosa. Nonostante l’azione a distanza, le quantità misurabili erano tangibili, e questo era quello che contava!
Prima Faraday e poi Maxwell introdussero il giochino astratto dei “campi” intangibili che si estendono nello spazio e producono perturbazioni locali nel moto dei corpi. Per i fisici dell’epoca si trattava giusto di un giochino, un utensile fantasioso per schematizzare un meccanismo che funzionava bene anche senza.

Un disegno originale di Maxwell sulle linee di forza e le superfici equipotenziali.

Infatti i fisici classici ragionavano in termini meccanicistici perché erano figli del loro tempo, a cavallo tra la prima e la seconda rivoluzione industriale. Per loro i “campi” erano la manifestazione di strutture meccaniche composte da una moltitudine di piccoli vortici in grado di trasmettere gli stress meccanici tra cariche e correnti.

Maxwell era un visionario, ma pur sempre un fisico del 1800, per cui i campi da esso descritti avevano come fine ultimo quello di inserirsi nel contesto della teoria dei vortici. Il risultato era di una difficoltà paurosa e fu un po’ come darsi la zappa sui piedi.

Questo fu uno dei principali freni alla comprensione della teoria: per i suoi contemporanei era dannatamente complicata, difficile da visualizzare e senza nessun vantaggio rispetto al framework newtoniano.

Nel framework newtoniano il campo elettrico e il campo magnetico venivano descritti come due entità ben distinte, e la loro azione sui corpi veniva descritta con le leggi empiriche di Faraday, Lenz e Gauss, usando il concetto misterioso di forza a distanza.

Maxwell invece fece uno dei più grandi passi avanti nella Storia del Pensiero: l’interazione si propagava alla velocità della luce attraverso un certo mezzo (l’etere) sotto forma di onda elettromagnetica, e cioè di una nuova entità fisica che vede campo elettrico e campo magnetico come due facce della stessa medaglia.

Nessuno era pronto per capire la portata di questa grande unificazione. Nessuno l’aveva richiesta, e nessuno era volenteroso di imparare la matematica necessaria.

Infatti un altro problema fu che Maxwell non scrisse le sue equazioni nella forma elegante che conosciamo oggi (grazie al lavoro di Heaviside)

Sinistra: le equazioni di Maxwell originali. Destra: le equazioni di Maxwell in notazione di Heaviside.

bensì scrisse delle equazioni vettoriali componente per componente, per un totale di 20 equazioni, e con una notazione un po’ buffa. Pensa che disastro dover fare una peer review di un lavoro simile!

Quando la modestia è controproducente

È riportato che durante una conferenza Maxwell riservò alla sua teoria elettromagnetica giusto una breve menzione:

“[…] Un’altra teoria dell’elettricità che io preferisco rinnega l’azione a distanza e attribuisce l’azione elettrica alle tensioni e pressioni di un mezzo che pervade l’universo. Queste tensioni sono dello stesso tipo di quelle familiari agli ingegneri, e il mezzo è lo stesso in cui si pensa che avvenga la propagazione della luce.”

James Clerk Maxwell

Tutto qui? Tutto qui. Quando Newton scoprì le leggi della gravitazione le annunciò al mondo con un sonoro “Ora dimostrerò la struttura del sistema del Mondo”, mentre Maxwell si limita a citare il proprio lavoro con la frase “un’altra teoria che io preferisco…”


La sua modestia spinse i fisici dell’epoca a non prendere sul serio la teoria, ritardandone la comprensione per almeno 20 anni, fino ai lavori di Hertz, Lorentz e Einstein, i quali crebbero già in un contesto più amichevole al concetto di campo, per cui ai loro occhi sembrava quasi ovvio che il mondo dovesse parlare il linguaggio della teoria di Maxwell.

La transizione concettuale

La teoria di Maxwell diventa semplice e intellegibile solo quando si esegue una transizione concettuale: gli oggetti primari non sono più i modelli meccanici: le forze sono solo un ingrediente secondario, il campo elettromagnetico è l’ingrediente primario!

Ciò che è misurabile non è direttamente il campo elettromagnetico, ma una sua particolare espressione matematica: ad esempio il modulo quadro del campo rappresenta la sua energia, che è una quantità misurabile. Le quantità misurabili, a differenza della teoria di Newton, diventano una manifestazione secondaria di ciò che si nasconde dietro, il quale è molto più profondo.

Questo innovativo modo di pensare è stato replicato per tutto il XX secolo: oggi abbiamo ridotto all’osso le equazioni di Maxwell, capendole dal punto di vista della relatività di Einstein. Dalle 20 equazioni originali, passando per le 4 equazioni di Heaviside, arriviamo alla forma elegantissima di oggi, la quale le condensa tutte in due righe:

Le equazioni di Maxwell nell’elettrodinamica relativistica.

Questo è stato fatto grazie a un altro salto concettuale: il potenziale vettore del campo elettromagnetico, un tempo considerato solo come uno strumento astratto, si è rivelato come l’unico modo per trasportare l’elettromagnetismo nel reame della teoria classica dei campi. Questa necessità ha spalancato le porte alla formulazione dell’elettrodinamica quantistica e di tutta l’infrastruttura delle teorie di gauge moderne.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

L’unico modo che conosco per studiare Fisica

Abbiamo tutti cominciato da qualche parte.
Prima qualche libro divulgativo, di quelli discorsivi ma non troppo: fammi vedere le equazioni diamine! No scusami scherzavo, torniamo alle analogie per favore. Sto capendo la Fisica o sto capendo le analogie?
Poi qualche approfondimento su YouTube, magari un buon documentario. Non si capisce niente, troppe analogie e pochi fatti. Quel discorso era un po’ troppo accelerato!
Poi si inizia a prestare un po’ più di attenzione all’ora di Fisica in classe, e anche gli esercizi sembrano darti l’illusione di fare enormi progressi. Appunto, di illusione si tratta.

Avendo 23 anni, ricordo ancora benissimo le prime sensazioni di quando a 16 anni ho iniziato ad interessarmi seriamente di Fisica. Di sicuro sentivo che le mie conoscenze avanzavano soprattutto quando risolvevo qualche esercizio particolarmente difficile (ma pur sempre algoritmico), o quando riuscivo a spiegare con parole semplici una teoria interessante. Con il senno di ora mi accorgo che in realtà la rapidità dei miei progressi era solo una percezione dovuta alla sovrastimolazione: quando impari Fisica per la prima volta hai voglia di esporti al maggior numero di argomenti possibile, senza nessuna speranza di assorbirli tutti in dettaglio. La sovrastimolazione mentale accorcia la percezione del tempo, quindi si crede di star facendo tantissimi progressi nella comprensione di teorie e dimostrazioni matematiche.

La realtà è che per approcciarmi alla meccanica classica con uno studio da autodidatta (condotto in parallelo agli argomenti del liceo scientifico, che usavo come ripasso di quello che già studiavo per conto mio) ho impiegato quasi più di un anno, studiando nella maggior parte del mio tempo libero (cioè almeno il 60% della mia giornata, in cui il restante era il tempo in classe). Sembra un gran risultato?

Un me 16enne, in pieno delirio di onnipotenza cognitiva.

La vera domanda è: quanto avevo capito davvero?


All’epoca credevo di aver capito quanto basta per risolvere la maggior parte degli esercizi dei libri di testo canonici. D’altronde non pretendevo di diventare un esperto alla prima passata, non ero così stupido.
Ero invece stupido su un altro aspetto, quello di non mettermi alla prova immediatamente.

Solitamente il mio approccio era quello di provare a scrivere degli articoli riassuntivi una volta capito un argomento, ma per fare ciò aspettavo che passassero abbastanza mesi affinché l’argomento mettesse le radici nelle mie connessioni neuronali, in maniera del tutto naturale. Qualcuno dirà che ho fatto bene, certi processi di ragionamento è meglio lasciarli instaurare in maniera naturale, senza forzarli!
In realtà avrei potuto capire il quadruplo delle cose se solo avessi forzato quel processo (o anche se avessi consultato libri più stimolanti di quelli “ortodossi”).

Il libro ha appena proposto una dimostrazione? Dimostrala pure tu. Proprio qui, proprio ora. Immediatamente.
Ripetimi su un foglio quel ragionamento che porta alla formulazione di Clausius del principio della termodinamica (che trovavo particolarmente involuto ed evitavo accuratamente di provare a derivare). Immediatamente. Diamine quanto avrei dovuto farlo! Avrei dovuto faticare molto di più e ne sarebbe valsa la pena! Carta, penna e calcoli! Immediatamente! Meno tempo impiegato, più risultati ottenuti.

Io fallivo nel momento in cui dovevo mettermi alla prova “immediatamente”. Diciamo che preferivo cullarmi nell’illusione che presto l’argomento mi sarebbe entrato in testa in maniera del tutto naturale, senza forzarlo. Quel “presto” era solo un’illusione.

L'unico modo che conosco ora per studiare Fisica è quello di diventare un miscredente nei confronti dell'autore del libro da cui studio. 
Carta e penna: i migliori alleati di un Fisico.

Mi metto nell’ottica in cui ogni cosa che leggo può essere potenzialmente una fregatura nei miei confronti, e così tengo una penna e un foglio di fianco al libro. Ogni passaggio e ogni parte concettualmente più complessa viene industrialmente convertita in alcuni schemi, bozze di calcoli, o dimostrazioni complete, usando carta e penna.

Lo so, è un processo tedioso. Soprattutto perché ti mette a confronto con la tua ignoranza, ti lacera l’ego. Ma l’alternativa qual è? Capire nel quadruplo del tempo ciò che vuoi imparare. Non ci sono shortcuts. Lo so, sono particolarmente duro, ma è ciò che direi al me stesso 16enne.

Una volta fatto ciò, non bisogna poi dimenticare di salvare alcuni di questi fogli di carta, per riutilizzarli in futuro come note personali. Sarebbe anzi preferibile convertirli in formato digitale, usando ad esempio delle app come Notion.

L’unico apprendimento possibile è quello attivo, quello in cui si mette in moto il cervello. Quest’ultimo è infatti una macchina particolarmente efficiente: vuole sprecare meno energia possibile. Sta quindi a noi scegliere in quali direzioni investire le nostre energie, ed imparare attivamente è decisamente la più remunerativa. Questo consiglio non si applica solo alla Fisica, di sicuro.

Ancora oggi mentre studio alcune materie della Magistrale sono spesso tentato dalla vocina nella mia testa “ma sì, leggilo e basta, poi si vedrà, ti entrerà in testa col tempo”. Di certo è la soluzione più comoda: rimandare a domani lo sconforto di oggi. Non credo proprio che la strategia “leggi e poi si vedrà” messa in pratica su un esame come cromodinamica quantistica mi consentirà di masterizzare le cose entro la prossima era geologica…


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Alla ricerca del neutrino di Majorana nel punto più freddo dell’Universo

I neutrini sono secondo molti le particelle più interessanti della Fisica moderna. In un recente articolo ho cercato di dare un’idea del perché questa sia un’opinione così diffusa.

Tra tutti i grattacapi sui neutrini, uno dei più discussi riguarda il meccanismo teorico con cui interpretiamo la loro massa.

"Perché è necessario un meccanismo teorico per interpretare le masse delle particelle? E poi, che vuol dire interpretare? Non si interpreta una massa, la massa esiste e basta, no?"

L’osservazione è ragionevole! Ma la Fisica Teorica (lo strumento con cui facciamo previsioni sull’universo) lo è un po’ meno, o meglio, parla un linguaggio che ai nostri occhi può apparire meno “ragionevole”. In un recente articolo ho provato a illustrare come e perché sia necessario interpretare la massa delle particelle tramite la rottura di una simmetria. Questo meccanismo, in grado di “dare massa” alle particelle, è noto come “meccanismo di Higgs”.
Siccome sappiamo da poco più di un ventennio che i neutrini hanno massa, è lecito estendere il meccanismo di Higgs anche a loro. Tutto funziona perfettamente, se non fosse per due questioni poco soddisfacenti:

  • Come spiegato nell’articolo precedente e accennato qui, la massa dei fermioni (la stessa famiglia dei neutrini) deve essere costruita con due blocchetti matematici fondamentali chiamati “chiralità destra” e “chiralità sinistra”. I neutrini interagiscono solo con la chiralità sinistra della loro funzione d’onda, per cui se vogliamo introdurre una massa con il meccanismo di Higgs, dobbiamo introdurre forzatamente una chiralità destra, la quale sarebbe “sterile” (cioè non avrebbe motivo di esistere se non per costruire la massa della particelle, dato che non partecipa alle interazioni).
    I fisici preferiscono lavorare con quantità che possono misurare, se non possiamo misurare la “chiralità destra” nel senso che non possiamo osservare neutrini che interagiscono con quella chiralità, è poco soddisfacente introdurla.
  • La costante di accoppiamento tra il campo del neutrino e il campo di Higgs (tramite cui possiamo “assegnare“ la massa alla particella) è inspiegabilmente molto più piccola delle costanti di accoppiamenti dei fermioni più famosi (elettroni, quark, muoni, etc.).

Queste questioni poco soddisfacenti fanno sentire la necessità di un meccanismo alternativo per dare massa ai neutrini, un meccanismo personalizzato apposta per loro, per nascondere la nostra ignoranza su una eventuale Fisica oltre il modello standard.

Questo meccanismo è noto come Meccanismo di Majorana: a un livello molto elementare si tratta di ipotizzare che neutrino e antineutrino siano la stessa particella. Il tutto è spiegato brevemente in questo articolo dedicato all’ipotesi di Majorana. In sintesi: se neutrino e antineutrino sono la stessa particella (cosa possibile in quanto il neutrino è neutro elettricamente), allora serve un solo blocchetto matematico per descrivere la sua massa, cioè solo la “chiralità sinistra”, e non serve introdurre chiralità sterili.


Il meccanismo di Majorana, con poche altre ipotesi di contorno, è in grado di spiegare la massa dei neutrini senza incappare nelle questioni elencate sopra, per cui è generalmente favorito tra i fisici.

Il meccanismo dell’altalena per la massa del neutrino. Il motivo per cui i neutrini sono così leggeri è perché esiste un loro partner di Majorana, sterile e molto massivo.

Questo meccanismo identifica neutrino con antineutrino, quindi non illustra solo come la particella acquista una massa, ma ci dice anche che il neutrino è un fermione completamente diverso dagli altri fermioni del Modello Standard.
Inoltre fornisce una possibile interpretazione del perché il neutrino è tanto leggero rispetto agli altri fermioni. Infatti in una delle declinazioni della teoria di Majorana la massa del neutrino è così piccola per via dell’esistenza di un ipotetico neutrino sterile di Majorana (sterile rispetto alle interazioni) avente una massa molto grande.
Con uno speciale accorgimenti teorico, l’introduzione di un neutrino molto massivo di Majorana ha l’effetto di rendere molto piccola la massa del neutrino che osserviamo nelle interazioni comuni.
Il modo migliore per immaginarsi questo particolare escamotage è tramite un’altalena: il neutrino è così leggero in quanto esiste un suo “partner sterile e pesante” molto più massivo.
I due meccanismi sono rappresentati in figura:

Un punto importante da capire del meccanismo “altalena” di Majorana è il seguente: il neutrino finale (quello leggero) è comunque una particella di Majorana. Esistono quindi due “neutrini di Majorana” di cui tenere conto nella teoria, il primo è il neutrino sterile introdotto all’inizio, questo neutrino sterile tramite un particolare accorgimento teorico può essere utilizzato per rendere molto piccola la massa del neutrino che si manifesta nelle interazioni. Un sottoprodotto di questo meccanismo è che il neutrino leggero diventa una particella di Majorana.

Come possiamo capire se il neutrino è una particella di Majorana?

La strategia più favorita è quella di andare a studiare processi nucleari in cui un neutrino si trasforma in un antineutrino, cioè processi che possono avvenire se e solo se il neutrino è una particella di Majorana.

Un processo di questo tipo è il doppio decadimento beta senza neutrini. (Per una breve introduzione sul decadimento beta singolo, leggi qui).
In sintesi in un decadimento beta normale un neutrone all’interno del nucleo si trasforma in un protone grazie all’interazione debole, ma nella trasformazione vengono generati un elettrone (per conservare la carica elettrica), e un antineutrino.

Illustrazione di un singolo decadimento beta nucleare.
Un doppio decadimento beta senza neutrini. La “barra” sopra il nome della particella indica la sua antiparticella. Nell’ipotesi di Majorana neutrino e antineutrino coincidono. Notare che le uniche particelle emesse nello stato finale sono due elettroni.

Questo antineutrino, prima di uscire dal nucleo, può andare a interagire con una certa probabilità (in verità piuttosto bassa) con un altro neutrone. L’interazione può avvenire solo se l’antineutrino interagisce con il neutrone con la chiralità preferita dall’interazione debole, cioè la chiralità sinistra (come illustrato nell’articolo precedente), ma per fare ciò dovrebbe invertire la chiralità con cui è stato emesso nel decadimento iniziale (se i neutrini interagiscono solo con la chiralità sinistra, gli antineutrini interagiscono solo con la chiralità destra, dato che particelle e antiparticelle trasformano in maniera opposta). Quindi deve avvenire il passaggio da chiralità destra a chiralità sinistra, e questo può avvenire solo se neutrino e antineutrino sono la stessa particella, cioè se sono particelle di Majorana!
Se l’antineutrino (neutrino) inverte la propria chiralità, può andare a fare interazione debole con un altro neutrone nucleare, e questo genera l’emissione di un altro protone e di un altro elettrone.
In questo modo nel nucleo spuntano due protoni in più rispetto a prima, e vengono emessi due elettroni in totale (ma nessun neutrino).

Il risultato del doppio decadimento beta è che non vengono emessi neutrini, perché agiscono solo come particelle virtuali di scambio all’interno del processo nucleare.

L’esperimento CUORE

La probabilità di osservazione di un doppio decadimento beta nucleare è così bassa che se stessimo ad aspettare ne accadrebbe in media uno solo in ben dieci milioni di miliardi di volte l’età dell’universo.

La fisica dei neutrini è abituata a cercare l’acqua nel deserto, essendo i neutrini le particelle più sfuggenti che conosciamo. Fortunatamente, come già discusso nell’articolo precedente, possiamo aumentare le nostre probabilità di vincita se giochiamo bene tante schedine!
È sufficiente indagare grandi masse nucleari, dell’ordine della tonnellata, e questa probabilità si innalza considerevolmente: almeno qualcuno fra quei miliardi e miliardi di nuclei dovrà pur decadere!
Tuttavia la probabilità del processo è comunque molto più bassa delle probabilità di tutti i restanti processi dell’ambiente che ci circonda, dalla radioattività naturale fino ai prodotti di spallazione dei raggi cosmici.
Se si vuole cercare il doppio decadimento beta, bisogna schermare tutte queste sorgenti indesiderate di particelle, andando ad esempio sottoterra.

E qui entra in gioco l’esperimento CUORE, uno dei numerosi esperimenti che cercano il doppio decadimento beta, ma comunque uno dei più promettenti. CUORE si trova nel cuore dei Laboratori Nazionali del Gran Sasso, protetto da strati su strati di roccia in grado di schermare i detector che cercano il segnale tipico del doppio decadimento beta (cioè l’emissione di due elettroni dal nucleo).

Il problema è che la sensibilità dei detector richiesta è soddisfacente solo se si lavora a temperature molto vicine allo zero assoluto.

Sia chiaro: non parliamo dello zero Celsius, ma dello zero Kelvin (cioè 273 gradi sotto lo zero Celsius). L’esperimento CUORE è stato in grado di raggiungere temperature dell’ordine del millesimo di Kelvin, cioè poco maggiori di 0.001 Kelvin, questo al fine di ottenere sensibilità sperimentali in grado di discernere, con sufficiente accuratezza, il segnale del doppio decadimento beta dal segnale delle altre eventuali fonti di radioattività naturale. Questo fa di CUORE “il metro cubo più freddo dell’Universo”.

Ecco cosa dovrebbe succedere in uno scenario positivo e idealizzato:

Nell'ipotesi che il nucleo decada con doppio decadimento beta senza neutrini, nel processo vengono emessi due elettroni. Il nucleo si trova all'interno di un materiale cristallino mantenuto a temperature dell'ordine del millesimo di Kelvin. I due elettroni uscenti dal nucleo depositano una certa energia nel cristallo, e questa energia viene captata da un detector, che a queste temperature ha la sensibilità sufficiente per distinguere l'energia degli elettroni dal rumore circostante. 
L'energia viene registrata dal detector: se essa corrisponde al calcolo teorico caratteristico del processo, allora con una buona probabilità il neutrino è una particella di Majorana!
Un gruppo di ricercatori di CUORE esegue dei controlli sulla struttura che contiene il materiale nucleare candidato per il decadimento cercato.

Ribadiamo un fatto fondamentale: se il neutrino NON è una particella di Majorana, non osserveremo mai il doppio decadimento beta senza neutrini.
Finora l’esperimento CUORE, in accordo con altri esperimenti internazionali, non ha trovato evidenza del decadimento (ultimi dati del 2020). Ciò NON esclude che i neutrini siano particelle di Majorana, perché dobbiamo ancora raggiungere la sensibilità sperimentale sufficiente (abbassare la temperatura purtroppo non basta, serve anche riuscire ad eliminare completamente il rumore ambientale che può influenzare i detector e coprire il segnale che stiamo cercando).

A fini divulgativi (almeno a un livello universitario), ho cercato di mettere assieme una guida per lo studente interessato alla questione del doppio decadimento beta e alle difficoltà sperimentali di CUORE:

Clicca qui per il download

Lo scopo era quello di fornire una referenza più completa e al contempo succinta possibile, poiché l’argomento è in continua evoluzione e ricco di letteratura specializzata (citata in bibliografia).


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Il neutrino: la particella che non dovremmo conoscere

Tutte le particelle note del nostro universo sono state da noi classificate con alcune proprietà che a nostro giudizio sono le più interessanti: la carica elettrica, la massa e lo spin.
Per studiare queste proprietà è di vitale importanza osservare il comportamento delle particelle nelle interazioni con il mondo, in particolare ci si concentra su:

  • Come interagiscono con un campo elettromagnetico: questo al fine di stimare la loro carica elettrica e la loro massa.
  • Come interagiscono con le altre particelle di un materiale noto: questo al fine di capire il particolare meccanismo di forza a cui la particella è sensibile.

Per il neutrone, elettrone, protone e tante altre particelle, questi metodi ci hanno permesso di avere delle stime molto accurate sulla loro carica elettrica, massa e spin.
Ad esempio neutrone e protone hanno quasi la stessa massa, ma il primo è neutro elettricamente: quindi il neutrone non è sensibile alla forza elettromagnetica, percepisce solo la forza forte e la forza debole (per una rapida infarinatura sulle interazioni fondamentali consulta un articolo recente cliccando qui). Il protone invece è sensibile a tutte le forze fondamentali della natura. L’elettrone non è sensibile alla forza forte, ma lo è alla forza elettromagnetica e debole. Il modo che abbiamo per scoprirlo è utilizzando i due metodi esposti sopra.

Il modo in cui studiamo le interazioni: un proiettile di particelle viene mandato contro un bersaglio. Dopo aver interagito con il bersaglio, le particelle vengono rivelate con un rivelatore. Grazie a calcoli teorici, si può capire che tipo di interazione hanno fatto le particelle nel materiale, ad esempio in base all’angolo di uscita.

Tra tutta la zoologia di particelle, il neutrino è senza dubbio la più seccante.

Immagina se dovessimo studiare le proprietà di una particella che risponde molto male ai nostri metodi di indagine. Una bella gatta da pelare! Una particella parecchio seccante è proprio il neutrino: il primo metodo è inefficace in quanto il neutrino è neutro, mentre il secondo metodo è frustrante in quanto il neutrino interagisce pochissimo con la materia che lo circonda:

In media, un neutrino interagisce una sola volta dopo aver percorso 100 miliardi di volte un diametro terrestre.

In sintesi: il neutrino si comporta come un fantasma in grado di attraversare i muri: non c’è peggior comportamento che una particella possa avere, se il fine è quello di studiare come interagisce!

“Siamo sicuri che questo neutrino esista? Come fanno i fisici a studiare una cosa che non si lascia studiare e poi affermare che esiste con certezza?"

Questo è l’aspetto più frustrante: non possiamo fare a meno del neutrino: per una giustificazione storica dell’esistenza del neutrino clicca su questo articolo. I neutrini sono stati scoperti sperimentalmente e vengono studiati con cura dagli anni ’50, questo perché sono state impiegate sorgenti che emettono grandi quantità di neutrini: in questo modo si contrasta la scarsa probabilità di interazione con l’enorme numero di proiettili. È la stessa filosofia di comprare un centinaio di “gratta e vinci” per aumentare le chances di pescarne almeno uno vincente.

I neutrini interagiscono così poco perché sono sensibili (per quanto ne sappiamo oggi) a un solo tipo di interazione che sfortunatamente è la più debole di tutte (alle energie tipiche degli sperimenti), non per niente si chiama “forza debole“.
Ora devi sapere che dal punto di vista della relatività speciale (leggi qui e qui) ogni particella di spin 1/2 può partecipare alle interazioni in due configurazioni possibili: con il proprio spin orientato come la quantità di moto, o con lo spin orientato in direzione opposta. Il primo modo si dice destrorso, il secondo modo si dice sinistrorso.
Non esiste nessun motivo teorico per cui la configurazione destrorsa debba essere favorita rispetto alla sinistrorsa, eppure per qualche mistero l’interazione debole accoppia le particelle solo nella loro configurazione sinistrorsa (questo fatto si chiama “violazione della simmetria di parità spaziale”).

Il mistero della massa

Siccome i neutrini interagiscono solo con l’interazione debole, essi hanno di fatto un’unica configurazione che possiamo studiare sperimentalmente: quella sinistrorsa. Questo fa sorgere un dubbio dato che, come spiegato brevemente qui, una particella massiva avente lo stesso spin del neutrino dovrebbe invece manifestarsi con entrambe le configurazioni, per questione di relatività.
Se i neutrini si manifestano solo con una delle due configurazioni, potrebbero non avere massa?

Questo sospetto andava a braccetto con i dati sperimentali sulla massa del neutrino: dagli esperimenti sul decadimento beta nucleare (spiegato brevemente qui) si osservava che la massa doveva essere piccolissima, almeno un milione di volte più piccola anche di quella dell’elettrone. Se poggio e buca fa pari, i neutrini dovevano allora avere massa esattamente uguale a zero!

Invece i neutrini si sono rivelati ancora una volta una spina nel fianco, perché nel 1998 furono osservate le oscillazioni dei neutrini.
Devi sapere infatti che di neutrini ne esistono ben tre specie (sono chiamati sapori leptonici): “e, μ, τ”. Siccome si pensava che i neutrini non avessero massa, questi sapori erano ben distinti l’uno dall’altro. Nelle oscillazioni accade proprio il contrario: un neutrino può cambiare sapore con una certa probabilità, e la grande notizia è che ciò può avvenire solo se la massa del neutrino è diversa da zero!

Un neutrino può cambiare sapore con una certa probabilità dovuta alla sovrapposizione quantistica degli stati.

D’accordo, i neutrini hanno massa, ma per via degli esperimenti sul decadimento beta nucleare sappiamo che questa massa deve essere piccolissima, e dunque molto difficile da misurare (in un mondo di particelle molto più massive è difficile misurare una massa piccola). Gli esperimenti sulle oscillazioni dei neutrini evidenziano che una massa c’è, ma non ci dicono quanto vale. A dire il vero ci dicono solo quanto vale la differenza tra i quadrati delle masse. Infatti la notizia interessante è che le masse dei tre neutrini non sono identiche, anche se la differenza dei quadrati è comunque un numero molto piccolo.

Cosa potremmo desiderare di più? Siamo di fronte a particelle neutre, che interagiscono in un solo modo e pure molto debolmente, di cui non sappiamo precisamente nemmeno la massa. Inoltre queste non sono particelle rare: si stima che in ogni centimetro cubo della nostra vita ci siano almeno 300 neutrini! Sono la seconda particella più abbondante nell’universo dopo il fotone!

Il vero motivo per cui i neutrini sono frustranti

Tutte queste difficoltà della Fisica dei neutrini non sarebbero così tragiche se questi fossero particelle noiose e poco importanti. Il problema è che è vero il contrario: i neutrini prendono parte ad alcuni dei processi più importanti della storia dell’universo, dalle teorie cosmologiche fino al meccanismo di funzionamento delle Stelle, e nel fare ciò mettono a nudo la nostra ignoranza residua sul Modello Standard attuale.

Perché la forza debole viola la simmetria di parità? Perché i neutrini sono così leggeri rispetto alle altre particelle elementari? Perché i neutrini sono le uniche particelle elementari neutre? I neutrini possono coincidere con la propria antiparticella? E se sì, i neutrini possono spiegare la iniziale asimmetria tra materia e antimateria negli istanti dopo il Big Bang?

È un po’ come se queste particelle celassero la chiave per aprire le porte a una nuova teoria oltre il Modello Standard, e per via di ciò, ci fosse “reso” molto difficile lavorare con loro. In un certo senso è quasi come se l’universo cercasse di ostacolare il nostro percorso, quasi come se non dovessimo proprio sapere dell’esistenza di queste particelle, le più eccitanti della Fisica moderna.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

L’anatomia dell’equazione di Dirac

Paul A. M. Dirac, 1902-1984

In un precedente articolo abbiamo parlato della genesi dell’equazione di Dirac. Ora però mettiamo le mani nella marmellata ed eseguiamo una vera e propria dissezione dell’equazione, in ogni suo elemento chiave.

Cosa contiene

Partiamo dal capire cosa c’è dentro. Abbiamo di fronte a noi cinque simboli diversi, ciascuno con un ruolo ben preciso. Procediamo da sinistra verso destra

  • La “i”, altrimenti nota come unità immaginaria.
    Cosa è?: È un numero, proprio come anche 2 è un numero, o 13.4. L’unica differenza è che “i” ha delle proprietà speciali, infatti è l’unico numero che moltiplicato algebricamente per se stesso è capace di dare come risultato un numero negativo, cioè i2 = −1.
    Perché è presente nell’equazione?: la meccanica quantistica prevede l’utilizzo delle unità immaginarie al fine di semplificare la scrittura delle equazioni più importanti. I fisici sono pigri e preferiscono usare la notazione più comoda e diretta possibile. I “numeri complessi“ garantiscono comodità logistica. Nulla di più, nulla di meno.
  • “La matrice γμ “, nota come matrice di Dirac.
    Cosa è?: È una matrice, cioè un oggetto matematico che ha il compito di trasformare altri oggetti formati da più componenti. La trasformazione ha l’effetto di mischiare queste componenti secondo una particolare ricetta contenuta nella struttura matematica della matrice. In questo caso l’oggetto da trasformare è la funzione d’onda ψ, che nella teoria di Dirac è formata da 4 componenti.
    Perché è presente nell’equazione?: come discusso nel precedente articolo sulla genesi, le γμ sono presenti al fine di garantire la covarianza dell’equazione sotto le trasformazioni relativistiche di Einstein. (Per saperne di più sul concetto di covarianza clicca qui).
  • “La derivata parziale ∂μ” , scritta in un formato criptico e riassuntivo.
    Cosa è?: è un operatore, cioè trasforma gli oggetti proprio come una matrice, ma in aggiunta ha anche il compito di calcolare la variazione dell’oggetto in una specifica direzione dello spazio-tempo. Le direzioni dello spaziotempo sono specificate dall’indice μ=0,1,2,3 in cui μ=0 è la direzione temporale, e μ=1,2,3 sono le tre direzioni cartesiane x,y,z a cui siamo abituati.
    Perché è presente nell’equazione?: In fisica studiamo i sistemi chiedendoci come variano sotto certi stimoli. Le variazioni sono calcolate con le derivate. Le equazioni chiave della fisica sono chiamate “equazioni differenziali” perché contengono le derivate delle soluzioni che vogliamo trovare, cioè hanno il compito di descrivere l’evoluzione di un sistema chiedendoci: “sai trovare quella funzione soluzione ψ che quando varia in un certo modo descritto dall’equazione differenziale ci dà questo risultato?”. La risposta a questa domanda, matematicamente, fornisce la soluzione che permette di fare previsioni teoriche da verificare sperimentalmente.
  • “La massa m”.
    Cosa è?: è la massa della particella descritta dalla soluzione ψ.
    Perché è presente nell’equazione?: come spiegato nella genesi dell’equazione, l’equazione di Dirac è stata ricavata modellando l’equazione di Schrödinger e adattandola al caso relativistico. In tal caso l’energia di una particella ferma è proporzionale alla sua massa, come evidenziato da E=mc2: questa massa deve quindi comparire esplicitamente nell’equazione differenziale relativistica (perché l’equazione di Schrödinger coinvolge proprio l’energia della particella).
  • “La funzione d’onda ψ“, altrimenti nota come spinore di Dirac.
    Cosa è?: dal punto di vista quantistico rappresenta quella quantità matematica il cui modulo al quadrato rappresenta la densità di probabilità di trovare la particella in un certo punto dello spazio. Dal punto di vista della teoria dei campi rappresenta il campo della particella di massa m, distribuito nello spaziotempo. Le eccitazioni di questo campo vengono interpretate come la particella stessa.
    Perché è presente nell’equazione?: per trovare l’espressione matematica del campo ψ, occorre capire come si comporta quando si calcola una sua variazione. Questo è il metodo delle equazioni differenziali, e l’equazione di Dirac è un’equazione differenziale. L’equazione ci chiede di trovare la più generica ψ che rispetta una certa proprietà. Questa proprietà è evidenziata da un altro modo di scrivere la stessa equazione (portando cioè il termine di massa a secondo membro):
Un altro modo di scrivere l’equazione di Dirac.

L’equazione ci sta parlando, ci chiede di risolvere un determinato problema:

Sai trovare quella funzione ψ tale che, una volta trasformata tramite gli operatori “γμμ” e moltiplicata per il numero “i”, produce come risultato la moltiplicazione di se stessa per una costante “m”?

La risposta a questa domanda fornisce la soluzione per il campo di una particella massiva, libera da forze.

Come si interpreta

Per capire il potere concettuale di questo modo di porre i problemi, cioè quello di ricavare delle informazioni su un certo oggetto ψ studiando prima come si comporta sotto trasformazioni generate da degli operatori, è molto utile sfruttare un’analogia con il concetto di vettori.
Un vettore 2D può essere rappresentato sul piano cartesiano (x,y) come una freccia uscente dall’origine:

La rappresentazione cartesiana del vettore (1,1). Le sue componenti sono v1=1 sull’asse x, e v2=1 sull’asse y.

Ad esempio per costruire un vettore di componenti (1,1), cioè v1=1 sull’asse x, e v2=1 sull’asse y, parto dall’origine e mi sposto di 1 sull’asse x, poi mi sposto di 1 sull’asse y. Il punto in cui arrivo è la testa del vettore. Collegando la testa con la coda (cioè l’origine) ottengo una linea diagonale che chiamo “vettore”.
Un vettore può essere trasformato da una matrice usando la seguente ricetta di composizione:

Il risultato della trasformazione di un vettore è un nuovo vettore le cui componenti possono essere ottenute dalla ricetta contenuta nella matrice.

Il vettore trasformato ha le sue componenti che nascono mischiando le componenti del vettore di partenza, secondo una particolare ricetta descritta dalla matrice-operatore.
Anche il non fare niente è una trasformazione: prende il nome di matrice identità, la sua azione mi fa ottenere di nuovo il vettore di partenza. Puoi verificare anche tu con la ricetta data sopra che il seguente calcolo lascia invariato il vettore di partenza:

La matrice identità lascia il vettore invariato.

Infatti in questo caso l’operatore è tale che a1=1, a2=0, a3=0, a4=1, e sostituendo nella ricetta di sopra otteniamo proprio che il vettore rimane invariato.
Una trasformazione meno banale può invece essere una riflessione, descritta da:

La riflessione del vettore produce un vettore con la componente y invertita di segno.

Puoi verificare il risultato pure tu usando la solita ricetta. Graficamente abbiamo invertito la componente verticale del vettore, come si vede sul piano cartesiano:

La riflessione di un vettore produce un vettore diverso, speculare rispetto al primo.

L’equazione di Dirac si presenta, come accennato, nella seguente veste:

La quale ricalca fortemente il modo in cui trasformiamo i vettori. In questo caso la ricetta prescritta dall’equazione è molto specifica: la trasformazione di ψ è tale da restituire come risultato la ψ stessa, moltiplicata per la massa m. Dal punto di vista matematico, questa richiesta può permetterci di trovare la ψ in maniera non ambigua.


NB: non a caso ψ soddisfa un’equazione con una struttura simile alle equazioni vettoriali con le matrici. Infatti ψ sono oggetti parenti dei vettori, chiamati spinori di Dirac. La differenza fondamentale con i vettori è legata al modo in cui trasformano sotto trasformazioni di Lorentz, come accennato in questo articolo.

Come si usa

Per dare un assaggio di come si affronti una situazione in cui si deve risolvere l’equazione di Dirac, scegliamo la situazione più semplice possibile: il caso di una particella libera e ferma rispetto a noi.
Prima permettimi di trasformare l’operatore “γμμ in una sua forma più agevole matematicamente:

In meccanica quantistica l’operatore μ può essere espresso in termini della quantità di moto “p” della particella. Per ora prendi questa affermazione come un “ipse dixit”, non è questo il luogo e il momento per giustificarla. L’equazione di Dirac può quindi essere scritta come

L’equazione di Dirac espressa con la quantità di moto.

In cui esplicitiamo una volta per tutte il fatto che con γμpμ intendiamo una somma che per pigrizia non avevamo voglia di esplicitare prima

La somma ha il segno negativo nelle componenti spaziali per via della struttura dello spaziotempo della relatività ristretta di Einstein.

Le quantità γ123 sono tutte matrici di Dirac che non ci interessano perché noi supponiamo che la particella sia ferma rispetto a noi, quindi le componenti spaziali della quantità di moto sono nulle, cioè px=py=pz=0. La “quantità di moto” di indice p0 è invece solo un modo lezioso di chiamare l’energia totale della particella. Nel caso di particella a riposo l’energia è, com’è arcinoto:

m è la massa della particella, c è la velocità della luce.

Da ora in poi porremo c=1 per pigrizia, dato che questa scelta non cambia di sicuro la fisica del problema. L’equazione di Dirac si traduce in

che ha la stessa identica forma delle equazioni con i vettori studiate sopra. Le quantità scritte hanno le seguenti espressioni esplicite

Lasciando agire γ0 su u(p) otteniamo

L’effetto di γ0 su u(p) è quello di capovolgere le sue componenti. Puoi verificare usando la regola di composizione matrice-vettore.

Eguagliando questo risultato con u(p) stesso, come ci dice di fare l’equazione di Dirac, scopriamo di dover risolvere il seguente sistema a due incognite

il quale ha la soluzione ovvia u1=u2: una particella di Dirac ferma rispetto a noi ha uguali componenti spinoriali. La soluzione può essere scritta sostituendo u1=u2 e invocando la struttura di onda piana (che è ovviamente soluzione, ed è evidenziata dall’esponenziale contenente quantità di moto e coordinate spaziali):

Da questa espressione si evince che in realtà lo spinore che abbiamo trovato è composto da altre due componenti aggiuntive. In realtà ti ho ingannato tutto il tempo per salvare la semplicità concettuale: uno spinore di Dirac è un oggetto a quattro dimensioni, non due. Tuttavia può essere visto come un oggetto di due componenti, le quali sono a loro volta composte da altre due componenti, per un totale di quattro. La matematica è molto simile e si presta bene a questo inganno.


Una volta ottenuta la soluzione per la particella ferma si può effettuare una trasformazione di Lorentz per osservarla in movimento e derivare così la soluzione più generica per una particella libera.

“Però io credevo che il mondo della Fisica fosse costellato da interazioni tra particelle. Che utilità hanno le soluzioni di particella “libera" senza interazioni?"

Giusta osservazione. Le soluzioni di particella libera in realtà sono ottime approssimazioni per trattare processi in cui le particelle arrivano a collidere e poi si allontanano: nei due stati iniziale e finale possiamo considerare le particelle come libere, ed usiamo la soluzione molto semplice dell’equazione di Dirac per descriverle. L’interazione viene trattata in maniera perturbativa considerando piccoli contributi delle interazioni, basandoci sempre sulla soluzione libera.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

La genesi dell’equazione di Dirac

L’equazione d’onda relativistica dell’elettrone rappresenta uno dei trionfi più importanti della scienza del XX secolo.

Nota come “equazione di Dirac”, dal nome del suo scopritore Paul Dirac, essa costituisce la base di tutta la Chimica e di quasi tutta la Fisica moderna.

Trovo molto interessante provare a riavvolgere il filo del pensiero di Dirac, immedesimandoci in lui quando in una fredda serata a Cambridge nel 1928 arrivò a scrivere la sua equazione dopo essere stato tanto tempo seduto a fissare il caminetto (o così dice la leggenda).

Innegabilmente l’equazione di Dirac vanta una certa eleganza estetica, ed è per questo motivo bersaglio di una sempre crescente mercatizzazione (non è raro trovarsela stampata sulle tazze o sulle magliette).
Trovo anche io difficile resistere al suo fascino e decido quindi di raffigurarla qui in bella vista, prima di iniziare l’articolo:

L’equazione di Dirac descrive una particella libera (relativistica) di spin 1/2.
Piccolo suggerimento: prima di procedere può essere utile dare un'occhiata a due articoli più introduttivi come questo e questo. Se non ne hai voglia ora, li citerò comunque nel prosieguo, inserendoli nei punti chiave in caso tu voglia approfondire.

Schrödinger: le particelle libere come onde piane

Nel 1926 Schrödinger aveva illustrato al mondo che le particelle quantistiche potevano essere descritte da funzioni d’onda la cui forma funzionale era fissata dalla soluzione dell’equazione

In questa equazione ψ è la funzione d’onda che vogliamo trovare, e H rappresenta l’interazione tra particella e il mondo circostante. Questa interazione, agendo su ψ nel membro di destra, produce una variazione nel tempo della ψ stessa, come evidenziato nel membro di sinistra col simbolo di variazione nel tempo ∂/∂t lasciato agire su ψ.
Per una particella libera (cioè senza interazioni con il mondo circostante, o con interazioni così deboli da poter essere trascurate rispetto all’energia cinetica della particella), l’equazione di Schrödinger ha una soluzione semplicissima: un’onda piana

Se non sei familiare con quella forma curiosa per l’energia cinetica ti basti sapere che partendo da 1/2 m v2, questa può essere riscritta in una forma più conveniente sostituendo la quantità di moto p=mv.

In che senso “più conveniente”? In meccanica quantistica si usano gli operatori, che sono oggetti matematici che trasformano le funzioni d’onda in un certo modo. Non tutte le quantità a cui siamo abituati classicamente sono dei buoni operatori. La quantità di moto è un operatore che sappiamo maneggiare bene nei calcoli, al contrario della velocità che è mal definita.

L’energia relativistica, un passo oltre Schrödinger

Nel 1905 Einstein rivoluzionò la meccanica newtoniana con la teoria della Relatività Ristretta. Una delle conseguenze fu la correzione all’energia totale di una particella libera. La forma newtoniana prevedeva, come abbiamo visto, E= p2/2m. In realtà questa non è altro che l’approssimazione della versione einsteiniana una volta che consideriamo velocità molto più basse di quelle della luce, in cui si ha:

In queste formule “m” è la massa della particella, “p” la quantità di moto e “c” la velocità della luce.
A basse velocità otteniamo di nuovo la formula newtoniana per l’energia.

Le energie di legame atomiche sono solitamente così piccole da far sì che le particelle si muovano a velocità molto più basse di quella della luce. L’equazione di Schrödinger era stata creata proprio per descrivere i processi atomici, quindi all’inizio nessuno si preoccupò che non fosse relativistica, c’erano problemi ben più importanti da risolvere.
Se invece si indaga sulla scala subatomica si scopre che bisogna tenere conto delle correzioni relativistiche, proprio perché stavolta aumenta l’energia in gioco.
La strategia più naturale per rendere relativistica l’equazione di Schrödinger è quella di sostituire la vecchia forma di H con la formulazione relativistica:

La forma relativistica dell’equazione di Schrödinger.

Il problema è che, come anticipato prima, in meccanica quantistica la quantità di moto è un operatore, ed è problematico definire la radice quadrata di un operatore. Come superiamo questo ostacolo?

La Klein-Gordon e i suoi problemi

L’approccio proposto da Klein e Gordon per eliminare la radice fu quello di calcolare la variazione temporale di entrambi i membri dell’equazione relativistica, applicando ∂/∂t a sinistra e a destra

In questo conto è fondamentale sapere che l’unità immaginaria “i” è definita in modo che i2=-1

A sinistra abbiamo quindi una doppia derivazione rispetto al tempo, mentre a destra (siccome H è costante nel tempo) otteniamo ψ/∂t, alla quale possiamo sostituire l’equazione di Schrödinger stessa. Con questo piccolo trucco otteniamo che la radice quadrata sparisce.
Ora per semplificare i conti che seguiranno scegliamo di lavorare con delle unità in cui ħ=c=1 e facciamo un cambio di variabili, l’equazione di sopra diventa l’equazione di Klein-Gordon:

L’equazione di Klein-Gordon scritta in una forma più simpatica all’occhio.

L’equazione di Klein-Gordon fu il primo tentativo di relativizzare l’equazione di Schrödinger. La soluzione di questa equazione è ancora un’onda piana per una particella di massa m, solo che a differenza di prima la forma dell’equazione è immediatamente covariante sotto trasformazioni di Lorentz, in quanto P2 e m2 sono degli scalari di Lorentz: in sostanza il principio di relatività è automaticamente soddisfatto (mentre non lo era nell’equazione di Schrödinger).

Dove sta la fregatura?

L’aver mandato via la radice quadrata ha sollevato un problema irritante: l’evoluzione temporale nell’equazione di Schrödinger era espressa da un termine di primo grado ψ/∂t, mentre ora nella Klein-Gordon è espressa da un termine di secondo grado (∂2ψ/∂t2), e ciò fa sì che la densità di probabilità possa ora assumere valori non solo positivi, ma anche negativi o nulli.

Infatti i moduli quadri delle funzioni d’onda (che per la regola di Born rappresentano le densità di probabilità) possono essere calcolati tramite una particolare “ricetta” che dipende in una maniera molto precisa dal tipo di equazione dinamica da cui si parte. Si dà il caso che la “ricetta” ereditata dall’equazione di Klein-Gordon sia difettosa rispetto a quella dell’equazione di Schrödinger.
Ciò fa perdere di significato fisico tutta la struttura matematica della nostra teoria, una bella gatta da pelare!

Non c'era via di uscita? È questo il prezzo da pagare per aver cercato di introdurre la relatività nella meccanica quantistica?

L’illuminazione di Dirac

Per dei motivi che oggi non sono più rilevanti, Dirac era fortemente preoccupato dal problema della densità di probabilità nella Klein-Gordon. Per questa ragione si ossessionò al punto da forzare la matematica stessa: voleva abbassare l’ordine delle derivate temporali dal secondo grado al primo grado a tutti i costi, pur mantenendo un’equazione relativisticamente permessa. Nella sua mente la forma prediletta doveva essere, per ragioni relativistiche e di “eleganza”

In cui γ0 è un termine per ora indeterminato. Questa equazione doveva comunque essere collegata alla Klein-Gordon in qualche modo, perché questa garantisce l’invarianza relativistica. L’illuminazione arrivò quando fu colto il seguente parallelismo con la differenza algebrica dei quadrati a2-b2

dove le γμ sono degli oggetti per ora ignoti, e la notazione va intesa nel modo seguente:

j=1,2,3 indica le tre direzioni cartesiane x,y,z. Quindi x1=x , x2=y , x3=z. γP è quindi solo un modo rapido di scrivere quella somma di termini, comprendenti tutte le direzioni spaziali cartesiane.

Affinché valga l’uguaglianza con la Klein-Gordon tramite la differenza dei quadrati le misteriose γμ devono soddisfare

in cui ημν è la metrica dello spazio-tempo della relatività ristretta. Infatti per avere uguaglianza deve essere

e questa condizione può essere soddisfatta solo se vale la relazione scritta sopra, che lega la metrica ημν con gli oggetti γμ.

La richiesta di un’equazione con derivata temporale al primo ordine ha quindi generato due possibili equazioni relativistiche:

le quali descrivono particelle aventi energia di segno “opposto” (per saperne di più sulla questione dell’antimateria e l’equazione di Dirac clicca qui).

L’uguaglianza del loro prodotto con la Klein-Gordon impone poi che gli oggetti γμ debbano essere delle matrici quattro-dimensionali con delle ben determinate regole di composizione legate alla metrica dello spaziotempo. Non solo, la forma matematica di queste equazioni impone che la funzione d’onda ψ trasformi in una maniera ben precisa sotto trasformazioni di Lorentz.

Fu la prima volta nella storia della Fisica in cui una richiesta di struttura visiva della matematica portò a scoprire un’intera classe di nuovi oggetti matematici.

Tornando alla notazione con le derivate scritte in una forma più elegante:

otteniamo la forma dell’equazione di Dirac che si stampa sulle magliette:

È cruciale il fatto che ora possiamo interpretarla proprio come una sorta di decomposizione della Klein-Gordon per far sì di ottenere solo derivate di primo grado nel tempo. Nonostante ciò, è in realtà è più proficuo (dal punto di vista teorico) interpretare questa equazione come l’equazione del moto di una teoria di campo costruita per le particelle che trasformano come una rappresentazione di spin 1/2 sotto trasformazioni di Lorentz (se vuoi saperne di più sul perché classifichiamo le particelle come rappresentazioni di spin clicca qui).


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg


Perché è stato necessario teorizzare il bosone di Higgs? Demistificando la rottura di simmetria

Sono passati quasi 10 anni, e il bosone di Higgs rimane ancora l’ultima grande scoperta del CERN.
Per molti ciò ha chiuso un capitolo della fisica delle particelle, in quanto l’Higgs rappresentava l’ultimo pezzo del puzzle del Modello Standard, la teoria che ad oggi descrive tutto il mondo subatomico.

Il Modello Standard con tutte le particelle e i bosoni mediatori

Tuttavia rimane ancora un po’ di “misticismo” attorno al ruolo teorico giocato da questa particella, che è stata impropriamente soprannominata “la particella di Dio” in più occasioni. Il suo ruolo dovrebbe essere quello di “dare massa” alle particelle del Modello Standard, ma in che senso ciò avviene? E perché serve proprio il campo di Higgs per dare massa a un qualcosa che la massa (nel nostro immaginario) ce l’ha già di per sé?

Il campo di Higgs (da cui nasce il suo bosone come fluttuazione quantistica) non descrive un’interazione fondamentale, e non ha radici teoriche nei princìpi primi.
Ma allora, perché non potevamo fare a meno di teorizzarlo?

In realtà il campo di Higgs è uno strumento teorico che permette il funzionamento di un meccanismo ben preciso. La rivelazione sperimentale del bosone ha solo confermato che il meccanismo è stato azzeccato appieno.

Al contrario delle interazioni fondamentali, il campo di Higgs non è venuto a cercarci, siamo stati noi a invocarlo per poi verificarne l’esistenza

Vediamo quali sono i punti concettuali che hanno fatto sorgere l’esigenza del meccanismo di Higgs.

L’elettrodinamica e le simmetrie: squadra che vince non si cambia

Tra le quattro forze fondamentali, la prima che fu spiegata con una teoria quantistica di campo fu l’elettromagnetismo. Come spiegato in un precedente articolo, si scoprì negli anni ’30 che il modo più semplice per descrivere l’interazione elettromagnetica tra le particelle era quello di richiedere che la teoria fosse simmetrica sotto una particolare trasformazione che chiamiamo “θ“.
Il campo elettromagnetico è noto, nel gergo tecnico, come campo di gauge. I campi di gauge trasformano in una maniera particolare sotto la “θ“, in modo da far sì che le equazioni del moto (e quindi la Fisica del sistema) rimangano invariate.
D’altro canto, gli oggetti che compongono la teoria quantistica delle particelle (cioè i campi) non lasciano invariata la Fisica del sistema una volta che li trasformiamo sotto la “θ“. La trasformazione produce purtroppo dei pezzetti in più, e la teoria non è quindi invariante. Un modo per cancellare i pezzetti in più è quello di accoppiare il campo di gauge con il campo della particella.

La cosa stupefacente è che questo accoppiamento è perfettamente sufficiente per descrivere tutti i fenomeni di interazione tra le particelle con la teoria. Il mediatore dell’interazione diventa proprio il campo di gauge.

Abbiamo ottenuto un’interazione a partire da una questione che apparentemente non c’entrava proprio nulla, e cioè la richiesta di simmetria sotto una certa trasformazione.

Il meccanismo con cui otteniamo le interazioni in teoria quantistica dei campi

Il campo mediatore tra le particelle per una teoria di campo che conservi la carica elettrica (la quantità conservata sotto la trasformazione “θ“) è proprio il campo elettromagnetico, il cui bosone (cioè le oscillazioni del campo) è noto come fotone.

Questa tecnica di accoppiamento con un campo di gauge funzionò così bene che oggi l’elettrodinamica quantistica è ritenuta essere la teoria scientifica meglio testata di sempre.

Nel momento in cui si presentò il problema di descrivere le altre due interazioni subatomiche, cioè l’interazione debole e l’interazione nucleare forte, si decise di seguire un vecchio motto: squadra che vince non si cambia. Si cercò quindi di scrivere una teoria di campo per le interazioni a partire da princìpi di simmetria e introducendo altri campi di gauge.

L’interazione debole e il problema della massa

Per garantire la simmetria della teoria, il campo di gauge deve godere di una caratteristica fondamentale: i suoi quanti di eccitazione (cioè i suoi bosoni), devono avere massa nulla. Se il campo di gauge ha massa, non si può garantire la simmetria della teoria quantistica con la tecnica esposta sopra. Fortunatamente questa condizione è soddisfatta dal fotone, il quale ha notoriamente massa nulla.
Ma non è detto che saremo sempre così fortunati.

C’è infatti una differenza sostanziale tra interazione elettromagnetica e interazioni deboli: la prima è a raggio di azione infinito, mentre le seconde sono confinate alle dimensioni nucleari. Come spiegato in un precedente articolo, ciò significa che i bosoni mediatori delle interazioni deboli devono essere massivi, al contrario del fotone elettromagnetico, che non ha massa. Quindi se dovessimo introdurre dei campi di gauge per costruire una teoria dell’interazione usando la tecnica della simmetria, questi dovrebbero essere massivi, ma allora dovremmo sacrificare la simmetria, e quindi anche le quantità conservate che da essa derivano.

Si arrivò a un punto in cui si ritenne che il principio di simmetria di gauge fosse indispensabile per descrivere le interazioni fondamentali, quindi le teorie del Modello Standard vennero scritte usando campi di gauge senza massa, così come le particelle coinvolte.
Che cosa da pazzi, sacrificare la massa pur di avere la simmetria!

Il colpo di genio fu quello di immaginare che i bosoni di gauge, così come le particelle, acquisissero massa spontaneamente, con un particolare meccanismo alle basse energie

L’approccio è simile a quello che si usa quando si studia il moto di una particella massiva avente energia relativistica “E” data da:

“p” è la quantità di moto della particella, “m” è la sua massa.

Una particella senza massa ha energia data da “E=pc” (le particelle senza massa possono trasportare quantità di moto, come dimostrato dalle vele solari che sfruttano la pressione di radiazione). Tuttavia anche una particella massiva con grande quantità di moto può essere pensata in prima approssimazione come una particella a massa nulla

La massa può essere trascurata dentro la radice, se la quantità di moto è molto più grande di lei.

L’intenzione era quindi quella di teorizzare le interazioni fondamentali usando particelle senza massa ad alte energie, in modo da garantire la simmetria di gauge. Alle basse energie le masse sarebbero dovute emergere naturalmente, senza appiccicarcele manualmente, perché tale intervento romperebbe la simmetria di gauge accuratamente costruita. Serviva un particolare escamotage teorico affinché questo funzionasse.

Si decise di lasciare che la simmetria si rompesse da sola, spontaneamente, usando un escamotage teorico

Lungo e corto raggio: un’analogia per la rottura di simmetria

Per capire il meccanismo della rottura spontanea di simmetria a livello intuitivo, facciamo un’analogia con un sistema fisico più intuitivo, caratterizzato da una grossa simmetria.
Consideriamo il reticolo di un ferromagnete: ogni molecola del reticolo può essere pensata, per convenienza di ragionamento, come una bussola il cui “ago magnetico” punta, in una configurazione di minima energia, nello stesso verso del campo magnetico locale. Ciò succede se supponiamo che ogni ago magnetico sia a sua volta una sorgente di magnetismo e che riesca a interagire con gli aghi magnetici vicini al suo sito.
L’allineamento è contrastato dall’agitazione termica:

  • Ad alte temperature l’orientamento degli aghi magnetici è casuale, perché l’agitazione termica è ben più forte delle interazioni locali. In media troveremo tanti aghi allineati in un verso, quanti ne troveremo allineati in verso opposto, il risultato netto è una magnetizzazione nulla.
  • A basse temperature la configurazione di minima energia è quella in cui tutti gli aghi sono allineati nello stesso verso e il materiale acquista una magnetizzazione media diversa da zero.

Quale delle due situazioni ha maggiore simmetria geometrica? Si tenderebbe a pensare che sia la seconda, dato che siamo abituati a pensare la simmetria come un “grado di ordine” delle cose. Per lo stesso motivo potremmo sostenere che l’acqua sia più simmetrica quando si solidifica in ghiaccio, rispetto alla sua fase liquida.
In realtà la simmetria va pensata come segue:

“Io eseguo una trasformazione mentre tu chiudi gli occhi, quando li riapri possono succedere due cose: se vedi che il sistema è uguale a prima, allora la trasformazione era una simmetria del sistema, se invece vedi che il sistema è cambiato, quella trasformazione non era una simmetria.”


Il moto delle particelle agitate termicamente è molto più simmetrico, perché possiamo eseguire qualsiasi rotazione geometrica e il sistema rimarrà uguale a se stesso (nel nostro esempio continueranno a esserci tanti aghi magnetici allineati in qualsiasi direzione, con un risultato netto nullo). Le molecole sono così tante e in una disposizione così caotica che non avremmo modo di accorgerci di qualsiasi rotazione attorno a qualsiasi asse.

A sinistra un dipinto caotico di Marc Quinn, a destra lo stesso dipinto ruotato di 180 gradi. Difficile notare la differenza, eh?

Se ora abbassiamo la temperatura il sistema si “irrigidisce” e perde molta simmetria, gli aghi magnetici si dispongono in una situazione di energia minima allineandosi tutti, e ora una rotazione manda il sistema in se stesso solo se la eseguiamo attorno all’asse di magnetizzazione.

Il sistema ha ridotto spontaneamente la simmetria iniziale una volta scelto lo stato energetico più basso!

La simmetria non viene però semplicemente rotta e dispersa, ma viene tradotta in una certa libertà: l’allineamento degli aghi può comunque avvenire in qualsiasi direzione dello spazio in maniera casuale. Il sistema può scegliere di allinearsi lungo tantissime direzioni diverse, tuttavia una volta scelta un’orientazione si stabilizza solo in quella e in nessun’ altra. La simmetria è rotta dalla particolare scelta dell’orientamento, ma tale scelta è comunque casuale per via della simmetria globale iniziale.

In figura sono mostrati due stati di minima energia tra i quali il sistema può scegliere. Questi due stati sono differenziati da una rotazione simultanea di tutti gli aghi magnetici, ma il livello energetico è lo stesso

Non costa energia trasformare uno stato di minima energia in un altro alla stessa energia

Nel gergo della fisica teorica, se una certa interazione non costa energia, può essere descritta da un quanto di vibrazione senza massa.
Che succede se invece di ruotarli tutti assieme, ruotiamo un solo aghetto magnetico rispetto agli altri? Questo ci costerà energia! Invece nello stato di massima energia questa azione non sarebbe costata così tanta energia, per via dell’agitazione termica. Ora è come se l’interazione fosse descritta da un modo di vibrazione massivo.
Il motivo è che costa più fatica portare in cima a una collina una massa più grande rispetto a una massa più piccola. Se la massa più piccola diventa nulla, costerà nessuna fatica muoverla nel campo gravitazionale.

I modi di vibrazione che erano senza massa ad alta energia, diventano massivi a bassa energia.

L’accoppiamento con il campo di Higgs

La grossa simmetria di gauge del Modello Standard alle alte energie è composta da tre simmetrie principali, che vengono indicate con dei nomi simpatici a cui non devi badare troppo:

La simmetria di gauge del Modello Standard

Alle alte energie le interazioni deboli sono un tutt’uno con le interazioni elettromagnetiche, e in totale l’interazione elettrodebole risultante è descritta da quattro campi di gauge senza massa.
Tuttavia le interazioni deboli devono prevedere dei bosoni di gauge massivi, per fare previsioni sperimentali accurate.
Per salvare le simmetrie di gauge e al contempo avere dei bosoni di gauge massivi, i fisici teorici decisero di introdurre un’interazione ad hoc con un campo chiamato “campo di Higgs”, caratterizzato da un potenziale a forma di cappello messicano:

Il potenziale del campo di Higgs. Sulla cima del cappello l’energia è maggiore che sulla valle. Tutti i punti della valle sono alla stessa energia,.

Possiamo immaginarlo di nuovo come una collina: ciascuna particella sulla sommità preferirà rotolare verso il basso e stabilizzarsi in una situazione di minima energia. Il campo di Higgs può assumere spontaneamente una valore di minimo in ogni punto della valle nel cappello messicano.
Siccome nella teoria quantistica dei campi i valori medi sono un’indicazione del numero di particelle in un determinato stato, possiamo dire che la sommità del cappello rappresenta uno stato poco popolato con valore medio nullo del campo di Higgs, mentre la valle è uno stato densamente popolato con valore medio diverso da zero per il campo di Higgs. Popolato da chi? Da bosoni di Higgs, cioè i quanti di eccitazione del campo. Questo è analogo alla magnetizzazione degli aghi magnetici, che aveva valore medio nullo alle alte energie, mentre alle basse energie acquisisce un valore medio diverso da zero.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Se ora accoppiamo il campo di Higgs con i campi del Modello Standard, cioè sia i campi di gauge che i campi delle particelle, abbiamo una rottura spontanea di simmetria alle basse energie.
L’accoppiamento va scelto saggiamente, perché vogliamo far acquisire massa solo ai bosoni dell’interazione debole. Per far ciò possiamo costruire il campo di Higgs in modo che trasformi come un oggetto appartenente allo spazio di simmetria SU(2), che è la simmetria caratteristica dell’interazione debole.

La simmetria iniziale di gauge da cui siamo partiti viene ora utilizzata per scegliere una posizione qualsiasi sul cappello messicano. Infatti ricordiamo: una trasformazione dei campi di gauge non cambia la fisica, e questa libertà può essere utilizzata per scegliere una determinata configurazione in cui l’universo andrà a sostare.
Ciò è analogo al modo in cui gli aghi magnetici erano liberi (per via della simmetria iniziale) di scegliere un’orientazione privilegiata a basse temperature, ed una volta scelta, si stabilivano lì.

L’accoppiamento tra i campi di gauge e il campo di Higgs fa sì che ora non tutte le direzioni di movimento sul cappello messicano siano gratuite: se volessimo risalire lungo la collina ci costerebbe un po’ di energia. Questo costo in energia viene interpretato come un modo di vibrazione massivo. I bosoni delle interazioni deboli, tramite un particolare formalismo matematico, si mischiano tra di loro per via di una particolare scelta della configurazione nello spazio della simmetria iniziale ed acquisiscono massa. Con un altro speciale tipo di accoppiamento acquisiscono massa anche le particelle del Modello Standard!

Siccome la “rottura” di simmetria avviene spontaneamente alle basse energie, abbiamo salvato la simmetria iniziale alle alte energie e le teorie di campo hanno una forma elegante e sperimentalmente solida.

Una visualizzazione pittorica del campo di Higgs e delle particelle frenate da questo “fluido universale”.

In un certo senso il campo di Higgs può essere pensato come un fluido che permea l’universo, e in questo fluido le particelle senza massa (che si muoverebbero alla velocità della luce) vengono “frenate” dal campo di Higgs come se ci fosse un certo attrito, che è il risultato dell’accoppiamento.
Il risultato è che le particelle non si muovono più alla velocità della luce, perciò hanno una massa ben precisa, predetta dal meccanismo di Higgs.

Il risultato del mixing dei campi di gauge dopo la rottura di simmetria corrisponde a tre bosoni di gauge massivi e uno senza massa.
I tre bosoni massivi corrispondono ai mediatori dell’interazione debole alle basse energie, mentre il bosone senza massa corrisponde a quello dell’elettromagnetismo, cioè il fotone.

La verifica sperimentale della massa del bosone di Higgs ha permesso di verificare con grande precisione tutte le previsioni sulle masse dei bosoni dell’interazione debole e sulle masse delle particelle del Modello Standard (con poche eccezioni come i neutrini, che rimangono ancora oggi un grande mistero).

Che mondo imperfetto sarebbe se ogni simmetria fosse perfetta!

B.G. Wybourne

PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Perché scrivo guide per lo studente e l’importanza di condividere ciò che si impara

Ho passato buona parte di novembre appresso al feroce bisogno di approfondire una mantra che ho sentito spesso dai miei docenti di alcuni corsi di teorica che sto seguendo:

"Fermi scrisse la teoria del decadimento beta usando un vertice a quattro fermioni, fate il conto e ricavatevi la costante di accoppiamento dalla vita media." 

Una nota di background: nei principali corsi teorici della mia facoltà è riservato poco spazio alla teoria elettrodebole, per cui uno studente tra il primo e il secondo anno (come me) ha a disposizione giusto una buona base sulla seconda quantizzazione e teoria dello scattering, con alcune nozioni qua e là di fenomenologia di fisica delle particelle.

Riguardo al conto per il decadimento beta di Fermi ho pensato tra me e me:

"Ok, suppongo si possa fare, è un decadimento fermionico che posso trattare con il formalismo della matrice S che ci hanno insegnato a Teorica 1. Scrivo gli operatori di creazione etc. etc." 
Io, impegnato nel non capire in che modo strutturare un discorso sull’argomento che sto studiando, in un triste quadro novembrino.

Il tempo di poggiare la penna sul foglio e vengo travolto da un turbinio di dubbi, non tanto sui conti, quanto più su cosa stessi davvero facendo: ho realizzato che il formalismo della matrice S funziona bene per le particelle asintoticamente libere, ma se voglio descrivere le particelle nucleari che decadono, come posso fare? Da qui è iniziata una ricerca che mi ha portato ad analizzare per intero l’articolo originale di Fermi, per scoprire che i miei dubbi erano comunque fondati: non posso trascurare i nuclei! E subito sorgono nuovi dubbi: ma allora il conto a quattro fermioni che processo calcola esattamente? Il decadimento del neutrone libero? Ma la costante non torna mica! E poi, come si è passati dalla teoria di Fermi alla teoria elettrodebole? In che senso la teoria di Fermi è una Effective Field Theory della elettrodebole, e in che modo questa descrive i processi nucleari con il formalismo che si usa oggi? La ricerca di risposte a queste domande mi ha portato sui libri specialistici in teoria elettrodebole, dove però era dedicato decisamente poco spazio alla costruzione di un percorso pedagogico.

È molto probabile che la mia ossessione per la necessità di avere una struttura pedagogica da seguire per poter capire un argomento sia una cosa un po’ stupida e inutile, ma sono fatto così:

Per capire le cose ho necessità che mi venga spiegato non solo come funzionano, ma anche perché gli umani le hanno fatte funzionare in quel modo e non in un altro.

Questa sidequest ha occupato la maggior parte delle mie giornate di quest’ultimo mese, portandomi a una realizzazione:

“Tutto questo poteva essere enormemente semplificato da una trattazione più organica e rivolta a uno studente con il mio stesso background".

Mi sono quindi immaginato:

"E se qualcuno si fosse messo a scrivere un bel riassunto introduttivo di tutto quello che concerne la teoria di Fermi fino alla teoria elettrodebole, in modo da farmi fare in poche ore quel sentiero concettuale che ho sviluppato in tutti questi giorni?"

Non trovando nulla in merito, ho deciso di farlo io. Il risultato è “Guida per lo studente al calcolo di Fermi sul decadimento β“, in cui esploro e commento il famoso articolo del 1934 di Enrico Fermi, e lo analizzo da un punto di vista degli strumenti matematici che vengono insegnati nei corsi universitari introduttivi di fisica teorica, cercando di costruire un percorso pedagogico fino ad arrivare a un cenno sulla teoria elettrodebole e al concetto di Effective Field Theory.

Guida per lo Studente al calcolo di Fermi sul decadimento β

Clicca per il download

Perché è importante condividere ciò che si impara, oggi più che mai

Gestisco questo blog da ormai 6 anni, cioè fin da quando ero in quarta liceo, e lo scopo è sempre stato lo stesso: voglio scrivere delle note/appunti approfonditi che desidererei dare al me stesso del passato per fargli fare meno della metà della fatica che ha fatto effettivamente per costruire il ragionamento logico. Ho notato con piacere che negli anni questi sforzi sono stati apprezzati da altri studenti che erano curiosi di imparare gli stessi argomenti, come evidenziato dal numero di download sempre crescente negli anni.

In questo senso coltivo un ambizione probabilmente poco realistica: desidererei che partisse un movimento di scambio culturale tra studenti, volto a condividere ciò che si impara.
Sia chiaro non basta condividere lo straccio dei propri appunti scritti a penna, ma serve una vera e propria esposizione pedagogicamente strutturata e studiata per toccare le corde giuste nella mente di chi legge, con lo scopo di far suonare tanti “eureka” nella sua testa. In questo modo tutti assieme si potrebbe imparare a più del triplo della velocità ed efficienza, e si verrebbe a creare un vero e proprio circolo intellettuale tra studenti.

Questo discorso diventa sempre più importante man mano che la scienza progredisce, perché inevitabilmente nessuno ha più il tempo materiale di specializzarsi anche solo su una frazione delle numerosissime branche di un campo scientifico. La necessità di semplificare i percorsi di apprendimento, condividendo ciò che si impara, è oggi più urgente che mai.

Perché fare questo invece di affidarsi solo ai libri di testo universitari?

Semplicemente perché la conoscenza è strutturata in diversi livelli di comprensione, dal livello zero al livello “esperto”; inoltre vale la regola generale che:

Non sempre il libro che stai studiando è sintonizzato con il tuo livello di apprendimento attuale.

Il risultato? Una fatica immensa.

Ciò che penso è questo:

Se io voglio capire un argomento “x” appartenente a un insieme di concetti “X” del quale ho comunque un minimo di background, non è necessario che la persona che arrivi a spiegarmi “x” sappia poi tutto di “X”, perché a me basta la sintonizzazione col mio attuale livello di apprendimento. Solo dopo, una volta compreso “x” al livello precedente, potrò muovermi al livello successivo, in cui mi servirà magari un’esposizione da parte di una persona che dovrà comunque essere anche lei al mio stesso livello di apprendimento.

Io credo che in questo modo si faccia molta meno fatica, soprattutto in branche come la fisica teorica in cui di uno stesso argomento “x” si possono avere tantissimi livelli diversi di comprensione, da quello basico a quello totalmente astratto. In ciascuno di questi livelli è utilissimo, per chi sta imparando, poter trovare spunti da chi si è preso del tempo per organizzare i propri schemi mentali e si sia sforzato di tirar fuori una spiegazione quanto più pedagogica possibile.

Ricapitolando, scrivo guide per lo studente (o per il me stesso del passato) perché: