Sì ma, alla fine, cosa sono ‘sti numeri quantici?

Giusto per ricordare che i gatti sono riusciti a conquistarsi pure la meccanica quantistica, nell’immaginario popolare.

Ciò che frullava nella mia testa quando ho sentito la parola “numeri quantici” per la prima volta, durante una lezione di chimica in terza liceo, era qualcosa tipo:

“Tutto interessante e sembra anche molto logico. Giusto una cosa però: ma alla fine cosa sono 'sti numeri quantici? Proprio terra-terra, in meno parole possibili!"

Dopo aver studiato meccanica quantistica alla triennale credevo di essere praticamente pronto per dare una risposta terra-terra, a una persona non addetta ai lavori come il me stesso della terza liceo, ma poi mi sono accorto che non è tutto così “rapido”.

Non c’è NIENTE di intuitivo nel concetto di “numero quantico”.


Quando mi è stata posta la stessa domanda qualche tempo fa, nel bel mezzo dei miei studi alla magistrale, ho sputato fuori questa risposta un po’ frettolosa:

“Sono dei numeri che usiamo per catalogare delle soluzioni particolarmente semplici per risolvere problemi molto complessi. Sono utili anche perché nei processi "si conservano“, un po' come l'energia di un sistema, e semplificano quindi un po' di calcoli e previsioni."

Non è che fossi tanto convinto di questa risposta, e ancora meno lo era la persona di fronte a me. Mi sono accorto che probabilmente non sapevo dare una risposta più rapida senza coinvolgere dei semestri di algebra lineare, spazi di funzioni e fenomenologia delle interazioni fondamentali.
Se a te questa risposta soddisfa: nessun problema, è comprensibile. Rende comunque l’idea da un punto di vista pragmatico.

Se invece senti ci sia un gap nella divulgazione di questi concetti e provi curiosità, allora questo articolo vuole provare a rimediare.
Per raggiungere più persone possibili sarò molto conciso con ragionamenti “a grandi linee”, con varie licenze tecniche necessarie per un’esposizione di taglio divulgativo. Inoltre, per ragioni logistiche (e per non affaticare il lettore), l’articolo è suddiviso in due parti, questa è la prima parte!


Una tazza di caffè e possiamo iniziare!

Gli operatori della meccanica quantistica

Alla fine tutto l’ambaradan nasce dal fatto che la meccanica quantistica, a differenza della fisica classica, si basa su degli oggetti chiamati operatori. Come suggerisce il nome, questi oggetti operano sugli stati della teoria: prendono in input uno stato e ne restituiscono un altro come output, generalmente diverso dal primo:

Tutte le quantità che in meccanica classica erano dei semplici numeri reali (posizione, quantità di moto, energia, e così via) diventano, in meccanica quantistica, degli operatori: operatore posizione, operatore quantità di moto , operatore dell’energia (altrimenti detto “hamiltoniano”) etc.


Perché sono così necessari gli operatori? (qualsiasi cosa significhi per te in questo momento la parola “operatore”).
In breve, serviva un formalismo matematico capace di spiegare un fatto sperimentale: lo stato di un sistema poteva essere completamente determinato dalla posizione di una particella, ma al contempo la misura della quantità di moto della stessa particella non restituiva un valore ben preciso. È il principio di indeterminazione di Heisenberg.
Un modo per esprimere questo fatto dal punto di vista matematico era quello di trasformare posizione e quantità di moto in degli operatori lineari e scrivere che:

\hbar è la costante di Planck divisa per 2\pi.

Questa relazione racchiude, in un formalismo compatto (e criptico per i non addetti) la chiave per il principio di Heisenberg su posizione e quantità di moto. La compattezza del formalismo e la facilità del calcolo sono due condizioni che spinsero i fisici ad adottare l’approccio operatoriale nella meccanica quantistica, ed è il motivo per cui la matematica di questa teoria è ritenuta essere “più complicata” di quella della fisica classica.

L’operatore più importante

Ciò che nella fisica classica rappresentava un modo alternativo di risolvere i problemi, nella meccanica quantistica diventa l’unico modo matematicamente conveniente di descrivere l’evoluzione di un sistema. Si tratta dell’energia, la quale nel formalismo quantistico diventa l’operatore hamiltoniano.

Nella fisica classica l’energia di un sistema era un semplice numero indicato con la lettera “E”. In meccanica quantistica diventa un operatore chiamato “Hamiltoniano“.


L’energia di un sistema è definita come la somma tra energia cinetica (p^2/2m) ed energia potenziale V. Coloro che prima erano semplici numeri ora diventano due operatori che, come dice il nome, “operano” sugli stati di una particella, comandandone l’evoluzione dinamica.

Ecco come si procede di solito: immagina una particella immersa in un certo spazio e sensibile a certe interazioni fisiche (elettromagnetiche ad esempio, come un elettrone in un campo magnetico, o in prossimità del nucleo di un atomo).

La seguente frase “questa particella si muoverà in questo spazio con una certa velocità e occuperà maggiormente alcune posizioni invece di altre, sulla base delle interazioni che percepisce” viene tradotta quantisticamente nella seguente:

Lo stato di una particella evolve da un valore iniziale a un valore finale grazie all’azione dell’operatore Hamiltoniano, il quale rappresenta le interazioni e il contenuto cinetico che caratterizzano il moto della particella.

Come forse avrai sentito da qualche parte, lo stato di una particella è indicato da una funzione a più valori, nel tempo e nello spazio: \Psi(\vec{x},t). Il fatto che questo stato venga trasformato nel tempo per via delle interazioni è riassunto dalla seguente scrittura molto compatta:

L’esponenziale di un operatore è lo sviluppo in potenze dell’operatore stesso, secondo la regola degli sviluppi di Taylor. Non preoccuparti di questo dettaglio matematico, l’ho messo solo per completezza.

L’operatore hamiltoniano agisce sullo stato iniziale della particella, e per ogni tempo t successivo restituisce un certo stato finale.

Questa è la ricetta prescritta dalla celebre equazione di Schrödinger, la quale governa la dinamica degli stati quantistici di un sistema. Quella che ti ho mostrato è proprio la soluzione dell’equazione: Schrödinger scrisse che, una volta noto l’operatore hamiltoniano, la dinamica del sistema è nota..

Più facile a dirsi che a farsi: è difficile trovare il corretto operatore che riesca a riprodurre gli stati in cui evolvono i sistemi quantistici negli esperimenti. Trovare l’hamiltoniano giusto equivale a trovare la teoria giusta per descrivere il sistema, ed è esattamente il mestiere del fisico.

Se un fisico ha fatto bene il suo mestiere, otterrà una predizione sull’evoluzione temporale dello stato del sistema, e potrà fare previsioni probabilistiche su quale sarà lo stato in cui verrà misurata la particella a un dato istante di tempo dell’esperimento.

Gli autostati di un operatore

A differenza di uno stato normale, l’autostato di un operatore mantiene la sua direzione dopo la trasformazione, e al massimo si allunga o si accorcia.

Possiamo architettare un esperimento con lo scopo di misurare una certa proprietà della particella quantistica di cui abbiamo parlato prima. L’atto della “misurazione” consiste inevitabilmente in una “riorganizzazione” delle informazioni quantistiche dello stato della particella e anche dello stato del rivelatore che stiamo utilizzando per misurare quella proprietà.

Per via di uno dei postulati della meccanica quantistica (i quali fanno sì che la teoria riproduca quanto si osserva negli esperimenti) a ogni osservabile (sono chiamate così le uniche quantità misurabili negli esperimenti) è associato un operatore, e gli stati possibili in cui la particella può essere rivelata nell’esperimento vanno ricercati in alcuni stati molto speciali che hanno la particolarità di rimanere “quasi inalterati” sotto l’azione dell’operatore.

Per spiegarlo in termini semplici, immagina che lo stato sia una freccia nello spazio: l’operatore in generale può far compiere alla freccia una certa rotazione (il che corrisponde al trasformare lo stato in un altro stato diverso dal primo). Tuttavia alcune frecce speciali vengono trasformate dall’operatore in modo che al massimo si allungano o si accorciano, ma senza ruotare:: la direzione rimane la stessa. Questi stati speciali sono chiamati autostati.

In generale ogni operatore ha il suo set di autostati “personale”.

In sostanza gli autostati di un operatore ci semplificano la vita perché trasformano in maniera molto semplice: significa meno calcoli da fare!

Un esempio preso in prestito dalla geometria: in alcuni casi gli operatori della meccanica quantistica e le matrici sono praticamente la stessa cosa (se non sai come funziona una matrice, vai a questo articolo). Una matrice come quella di rotazione attorno all’asse z sul piano x-y ha il compito di ruotare un vettore di un certo angolo. Siccome la rotazione si svolge attorno all’asse z, la componente z del vettore rimane inalterata. Il vettore di componenti (0,0,1) viene quindi mandato in se stesso, cioè è un autovettore di questa particolare matrice di rotazione.

Il vettore (0,0,1) viene trasformato in se stesso dalla rotazione attorno all’asse z.

La scrittura che ci semplifica tanto la vita, e che ricerchiamo continuamente in meccanica quantistica, è

La costante \lambda è chiamata, in gergo, “autovalore” dell’autostato. A ogni autostato viene associato il suo “autovalore”, il suo numerino personale da utilizzare come etichetta. Possono esserci anche più autostati aventi lo stesso autovalore, ma non vedrai due autovalori diversi associati allo stesso autostato.

Questa scrittura è un vero sospiro di sollievo: l’esistenza di stati che rimangono praticamente invariati sotto l’azione degli operatori rappresenta una semplificazione incredibile per i calcoli della teoria. Invece di chiederci come trasforma qualsiasi stato dell’universo sotto l’operatore (una pretesa diabolicamente assurda), ci interessiamo solo a quegli stati che invece “cambiano molto poco”.

Il motivo di ciò va ricercato in uno dei postulati fondamentali della meccanica quantistica, già accennato sopra:

Le quantità che misuriamo sperimentalmente corrispondono agli autostati della particolare osservabile a cui siamo interessati. Lo so che suona strano e inutilmente astratto, ma è grazie a questo postulato che vengono riprodotti i risultati sperimentali.

La cattiva notizia: non tutti gli stati della teoria sono autostati dell’operatore che ci interessa.


La buona notizia: gli autostati dell’operatore che ci interessa possono essere usati come blocchetti elementari per costruire gli stati più generici della particella.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.


Questo è il principio di sovrapposizione degli stati: ogni stato può essere costruito sovrapponendo tra loro tanti altri stati.

In generale conviene, anzi è proprio mandatorio, utilizzare come blocchetti elementari gli autostati dell’operatore che ci interessa. Ti conviene pensare agli autostati proprio come a dei “Lego” con cui costruire uno stato più generico possibile (la struttura fatta coi Lego è lo stato generico).

Questi autostati andranno a comporre lo stato della particella, ciascuno con un proprio peso statistico, come specificato dalle regole della meccanica quantistica (la quantistica è praticamente una teoria della probabilità, camuffata)

La tipica struttura di uno stato generico, sviluppato come somma di autostati di un certo operatore di nostro interesse. I numeri a_i sono i pesi statistici, cioè il loro modulo al quadrato, ad esempio |a_2|^2, rappresenta la probabilità che la particella, inizialmente nello stato generico “\ket{\Psi}“, venga misurata in un ‘autostato \ket{p_2}.

Il risultato della misurazione (misurazione dell’osservabile, associata a sua volta a un certo operatore della teoria) è il famigerato, e ancora dinamicamente poco compreso, “collasso della funzione d’onda”, il quale seleziona uno degli autostati dell’operatore associato all’osservabile coinvolta:

La particella viene rivelata in UNO solo degli autostati possibili dell’operatore associato all’osservabile.
Prima aveva una probabilità ben precisa di trovarsi in ciascuno degli autostati possibili, mentre DOPO la misura la probabilità di ritrovarla nello stesso autostato sarà il 100%.

ed è proprio questo a cui ci si riferisce quando si parla di “collasso della \Psi“.

Il numero che si misura nell’esperimento coincide con la costante \lambda, cioè l’autovalore dell’autostato in cui è stata rivelata la particella.

Un esempio rapido di quanto detto: un’osservabile di una particella può essere il suo spin (che sperimentalmente si misura grazie all’effetto di un campo magnetico sulla traiettoria della particella). A questo effetto osservabile è associato un operatore di spin.
Se ad esempio sperimentalmente si osserva che alcune particelle possono avere solo due tipi di deflessioni in un campo magnetico allora all’operatore di spin della teoria verranno associati due autostati.

Un tipico esperimento in cui è possibile misurare lo spin di una particella: Stern-Gerlach.

Prima di misurare la deflessione tramite l’accensione del campo magnetico, dal punto di vista della nostra interpretazione la particella si trova in una sovrapposizione di autostati di spin, e con la misurazione (l’accensione del campo magnetico) viene “selezionato un autostato” con una certa probabilità calcolabile quantisticamente.

Tutto questo discorso è importante per capire il seguito, e cioè capire perché ci interessiamo a specifici numeri quantici associati ad operatori accuratamente selezionati della teoria.

I numeri quantici non sono altro che gli autovalori di specifici operatori della teoria, accuratamente selezionati affinché soddisfino delle proprietà che ci permettono di semplificare il modo in cui possiamo fare previsioni verificabili con l’esperimento.

In ogni caso, non basta essere un autovalore di un’osservabile per essere un buon numero quantico!

Un buon numero quantico ci semplifica la vita negli esperimenti, e nella parte II di questa serie vedremo perché!
(Per chi si incuriosice: ha a che fare con il teorema di una famosa matematica tedesca…)


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Come Fermi scoprì la statistica degli elettroni assieme a Dirac

Per capire l’entità del contributo di Enrico Fermi in ciò che servì ad ispirare una delle scoperte più importanti dell’umanità (la teoria dei semiconduttori), è necessario fare qualche passo indietro e considerare il contesto storico-scientifico dell’epoca.

Negli anni ’20 del secolo scorso si sapeva molto poco sulle strutture fondamentali della materia. Le teorie dell’atomo erano giovanissime e l’unico metodo di indagine consisteva nell’osservare l’assorbimento luminoso di alcuni gas della tavola periodica.

Ludwig Boltzmann (1844-1906), uno dei padri fondatori della fisica statistica.

Proprio sui gas si sapeva dire un po’ di più, essendo una collezione di atomi che potevano essere trattati (in certe condizioni di densità e temperatura) come un grosso insieme di biglie microscopiche su cui, tramite la fisica statistica di Maxwell, Boltzmann e Gibbs, si potevano fare previsioni termodinamiche verificabili sperimentalmente.

Una particolarità interessante della teoria statistica di Maxwell e Boltzmann era il contenuto minimale di ipotesi sulla natura fisica di queste “biglie microscopiche”. Stiamo parlando di una teoria formulata nella seconda metà del secolo XIX, un periodo in cui non era ancora riconosciuta l’esistenza dell’atomo!

Trattandosi tuttavia di atomi, nemmeno la teoria di Maxwell e Boltzmann uscì indenne dalla rivoluzione della teoria dei quanti, iniziata con Planck nel 1900.

La teoria dei quanti funzionò sia da completamento che da antidoto per la vecchia fisica statistica. Da antidoto perché aiutò ad indagare meglio alcuni problemi matematici della teoria di Maxwell e Boltzmann, i quali conducevano a calcoli errati nella trattazione di particelle tra loro indistinguibili, e davano dei risultati impossibili per alcune quantità come l’entropia dei gas a basse temperature.

Un problema statistico dell’entropia

Queste difficoltà erano dovute al fatto che la fisica statistica si basa essenzialmente sul “contare, per tutte le particelle, tutte le possibili configurazioni microscopiche che conducono alla stessa situazione fisica del gas“, come illustrato in figura:

Lo schema concettuale che sta alla base della teoria statistica dei gas.

Pressione, volume, temperatura (P,V,T), sono tutte quantità macroscopiche misurabili sperimentalmente. In fisica statistica ci immaginiamo di conoscere le posizioni e velocità di tutte le particelle del gas in ciascuna configurazione possibile ammessa dalle condizioni ambientali (cosa non possibile da un punto di vista computazionale, ma che facciamo finta di poter fare comunque).


Siccome non sappiamo in quale configurazione microscopica precisa si trovi il gas in ciascun istante di tempo (non è misurabile sperimentalmente), immaginiamo di avere N copie del nostro gas e di fare delle estrazioni per contare quante volte esce una certa configurazione piuttosto che un’altra. La distribuzione di queste estrazioni definisce alcune quantità macroscopiche (P_i,V_i,T_i) associate alla specifica configurazione microscopica i estratta un numero N_i di volte. Le quantità macroscopiche (P,V,T) che misuriamo sperimentalmente possono quindi essere pensate come la media di tutte le (P_i,V_i,T_i) pesate con la probabilità di estrazione N_i/N.

La misura sperimentale di (P,V,T) ci dà quindi informazioni sulla distribuzione delle configurazioni microscopiche del nostro gas.


Immaginando il gas in equilibrio termico a una certa energia interna, il numero di configurazioni del gas corrispondenti a tale energia possono essere contate, dal punto di vista teorico, sommando tutte le possibili accoppiate di posizione-velocità (x,y,z),(v_x,v_y,v_z) nelle tre dimensioni spaziali, e ciò deve essere fatto per tutte le particelle del gas.

Siccome il numero di possibili accoppiate è virtualmente infinito, i padri fondatori della fisica statistica immaginarono di dividere lo spazio dei possibili valori di posizione e velocità in cellette elementari di dimensione finita che chiamiamo \tau. In questo modo due stati dinamici specificati da (x_1,y_1,z_1),(v_{x1},v_{y1},v_{z1}) e (x_2,y_2,z_2),(v_{x2},v_{y2},v_{z2}) che caschino nella stessa celletta di questo spazio sono considerati essere lo stesso stato dinamico. È come se ammettessimo, in un certo senso, di non sapere distinguere tra (x_1,y_1,z_1),(v_{x1},v_{y1},v_{z1}) e (x_2,y_2,z_2),(v_{x2},v_{y2},v_{z2}) nel caso appartengano alla stessa cella, è un’approssimazione.

La suddivisione in cellette dello spazio di posizioni e velocità per le particelle. Secondo questa suddivisione due set di posizioni e velocità che appartengono alla stessa celletta non sono distinguibili (qui non distinguiamo il rosa dal celeste), mentre sono distinguibili da quella in verde, dato che appartiene a un’altra celletta.

Dal punto di vista statistico, l’entropia del gas è pensabile come una misura di quanti stati dinamici microscopici sono associabili a un certo stato termodinamico macroscopico, una misura della nostra “ignoranza” sull’effettiva configurazione microscopica del gas.

Il problema era che la dimensione \tau della celletta elementare era del tutto arbitraria, e ciò influiva pesantemente sul conteggio delle configurazioni. Essendo il numero delle configurazioni direttamente collegato alla definizione statistica di entropia, una scelta di \tau troppo piccola conduceva a valori infiniti per l’entropia del gas. Questa indeterminazione sulla scelta di \tau impediva inoltre di calcolare, statisticamente, il valore della costante dell’entropia alla temperatura dello zero assoluto.

Il problema della costante dell’entropia stava molto a cuore ai fisici dell’epoca. Nella termodinamica ottocentesca ci si interessava solo alle differenze di entropia, e quindi era di scarso interesse pratico domandarsi quale fosse il valore assoluto dell’entropia a una determinata temperatura come T=0\,\text{K}, e in ogni caso questa costante spariva quando si faceva la differenza \Delta S=S(B)-S(A) tra due stati termodinamici B e A.
Tuttavia con l’arrivo del teorema di Nernst e quindi del terzo principio della termodinamica (il quale postula che l’entropia allo zero assoluto sia esattamente zero) si rivelò essenziale determinare il valore di questa costante.

Un altro problema fastidioso era quello che riguardava il conteggio di particelle indistinguibili: quando si contavano tutte le configurazioni possibili di tutte le particelle del gas si finiva per contare più volte la stessa configurazione per via del fatto che non è possibile distinguere una particella dall’altra. Per via di ciò si arrivava a dei paradossi che riguardavano l’entropia di mescolamento dei gas.
Di questo problema si interessò Gibbs, il quale propose di dividere i conteggi per il fattore combinatorico N! dove N è il numero di particelle e con “!” si intende il fattoriale N!=N(N-1)(N-2)....
Tuttavia anche questa soluzione non risolveva tutti i problemi…

La teoria dei quanti sistemò i problemi dell’entropia. Si dimostrò che la dimensione \tau delle cellette elementari doveva essere pari alla costante di Planck h: la natura discreta della teoria quantistica si sposava bene con l’ipotesi delle cellette elementari della fisica statistica.

Il punto è che gli effetti quantistici delle particelle non sono più trascurabili a basse temperature. In fisica statistica esiste una quantità chiamata lunghezza d’onda termica di De Broglie, la quale ha la seguente espressione per un gas perfetto monoatomico:

La lunghezza termica delle particelle di un gas, dove h è la costante di Planck, m la massa delle particelle, k_B la costante di Boltzmann che converte da dimensioni di energia a dimensioni di temperatura tramite E=k_BT, e T la temperatura del gas.

Questa lunghezza d’onda deriva dalla formulazione ondulatoria di De Broglie per le particelle quantistiche.
Secondo De Broglie, a ogni particella avente quantità di moto p è associabile una lunghezza d’onda \lambda=h/p. Se come p si prende la quantità di moto termica delle particelle del gas si ottiene la \lambda_T riportata sopra.
A temperature normali questa lunghezza d’onda è molto più piccola della distanza media tra gli atomi di un gas. Vediamo però che al diminuire di T, la relazione di inversa proporzionalità \lambda_T\propto 1/\sqrt{T} aiuta a far crescere questa lunghezza d’onda. Per temperature sufficientemente basse la lunghezza d’onda \lambda_T diventa comparabile con le distanze inter-atomiche del gas.

Man mano che si abbassa la temperatura del sistema, aumenta la lunghezza d’onda di De Broglie e dominano le interferenze quantistiche tra le funzioni d’onda delle particelle.
Nel caso in figura sono mostrati dei bosoni.

Quindi, per via delle loro proprietà quantistiche, le particelle iniziano ad interferire tra loro come tante onde, e questo succede quando la loro lunghezza d’onda diventa almeno comparabile con la distanza tra una particella e l’altra, a temperature molto basse.

Siccome parliamo di funzioni d’onda che creano interferenze, l’indistinguibilità delle particelle gioca un ruolo centrale in questo processo quantistico, e ciò sta alla base di tutte le difficoltà teoriche della vecchia fisica statistica, la quale non teneva conto di queste proprietà quantistiche. Fino alla prima metà degli anni ’20, questa sottigliezza quantistica non era ancora stata compresa in profondità.

Statistica quantistica: la strada di Fermi

Enrico Fermi (1901-1954). Premio Nobel per la Fisica nel 1938.

Ancora fresco di laurea, Fermi divenne particolarmente ossessionato dal problema della costante dell’entropia, pubblicando diversi articoli tra il 1924 e il 1926.

Aveva intuito che il problema risiedesse nella natura quantistica delle particelle, in particolare dal punto di vista della loro indistinguibilità, ma mancava ancora qualche pezzo del puzzle.

Il pezzo mancante fu messo a disposizione da Pauli con la formulazione del principio di esclusione: non possiamo avere due elettroni con tutti i numeri quantici uguali tra loro. Gli elettroni sono particelle indistinguibili, quindi Fermi si ispirò al loro comportamento per provare a quantizzare un gas di particelle a temperature sufficientemente basse.

Possiamo immaginarci un Fermi che lavora assiduamente all’alba (il suo momento preferito per studiare e lavorare su nuovi articoli) in qualche fredda mattina di Firenze, nell’inverno del 1925-26, sforzandosi di sfruttare il principio di Pauli per ottenere la costante corretta dell’entropia allo zero assoluto.

La prima pagina dell’articolo di Fermi, presentato all’accademia dei Lincei nel febbraio del 1926.

Nel suo articolo “Sulla quantizzazione del gas perfetto monoatomico” uscito nel febbraio del 1926, Fermi ipotizzò che un gas ideale si comportasse proprio come gli elettroni del principio di Pauli e cambiò completamente il modo di contare le configurazioni possibili in fisica statistica: in ciascuno stato dinamico possono esserci zero o al massimo una sola particella, mai due nello stesso stato.
Immaginò poi che il gas potesse essere caratterizzato da determinati livelli energetici discreti, proprio come si faceva nella quantizzazione dell’atomo di idrogeno. Questa spaziatura tra i livelli energetici era tanto più rilevante per la fisica del problema quanto più era bassa la temperatura del gas, essenzialmente per il motivo enunciato sopra. Ad alte temperature gli effetti quantistici devono essere trascurabili e si ritorna alla termodinamica dell’ottocento.

La conseguenza di questo nuovo modo di contare era che ciascuno stato i era occupato da un numero medio di particelle in funzione dell’energia E_i dello stato, secondo la seguente espressione:

Il numero di nepero e (o Eulero), l’energia E_i dello stato, la temperatura T, la costante di Boltzmann k_B. Il parametro \mu è noto come “potenziale chimico” e allo zero assoluto corrisponde all’energia di Fermi: E_F.

Usando questa informazione, Fermi calcolò l’espressione della costante dell’entropia, la quale coincideva con il valore sperimentale dedotto da Sackur e Tetrode nel 1912. La sua teoria era un successo!

Tuttavia, come confermato anche da alcuni studiosi (Belloni, Perez et al), Fermi non si interessò delle radici quantistiche di questa nuova statistica, cioè non provò a collegare il principio di Pauli con la natura ondulatoria della materia. Inoltre non esisteva, al tempo, un gas capace di comportarsi come gli elettroni dell’articolo di Fermi. La soluzione di Fermi voleva andare nella direzione della statistica quantistica, ma con un approccio molto cauto sulle ipotesi alla base. Fermi utilizzò la sua intuizione per dare una nuova soluzione a dei problemi annosi di fisica statistica (già risolti recentemente da Bose e Einstein con la loro statistica) e dedusse una statistica completamente nuova.

Tuttavia, al contrario di quanto si dice solitamente in giro, Fermi non applicò direttamente questa nuova statistica al problema degli elettroni nei metalli (cosa che fu fatta da altri e che condusse alla teoria dei semiconduttori).

La statistica di Fermi-Dirac

La distribuzione trovata da Fermi è dipendente dalla temperatura. Abbiamo già anticipato che gli effetti quantistici diventano preponderanti a temperature vicine allo zero assoluto. In questo caso il principio di Pauli emerge direttamente dalla forma analitica della distribuzione, riportata in figura:

La formula di Fermi al variare della temperatura.

Man mano che la temperatura del gas di elettroni si avvicina a T=0\,\text{K}, la distribuzione di Fermi si avvicina sempre di più alla “funzione gradino”

La funzione gradino, cioè il limite a basse temperature della formula di Fermi.

Allo zero assoluto, gli elettroni occupano i livelli energetici riempiendoli dal più basso fino a un’energia chiamata “energia di Fermi”, indicata con E_F.
Puoi notare come a T=0 il numero medio di occupazione dello stato a energia E_i sia esattamente 1: non può esserci più di un elettrone per stato, è il principio di esclusione di Pauli in tutta la sua gloria. Nota anche che non ci sono elettroni che occupano stati a energia maggiore di quella di Fermi.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questo comportamento è essenzialmente verificato anche per temperature più alte di T=0, basta solo che sia T\ll T_F dove T_F è detta “temperatura di Fermi”, ed è pari a T_F=E_F/k_B. Nelle situazioni di interesse fisico (come nei metalli), la condizione T\ll T_F è praticamente sempre soddisfatta, essendo T_F di solito dell’ordine di alcune centinaia di migliaia di gradi kelvin.

I gas di elettroni sono fortemente influenzati dal principio di Pauli: è un po’ come se ci fosse una forza “repulsiva” tra gli elettroni, la quale gli impedisce di occupare lo stesso stato energetico. Questa è anche un’interpretazione euristica del fatto che la pressione di un gas di Fermi sia più elevata di un gas classico: è difficile comprimere un gas di elettroni perché non vogliono mai “occupare lo stesso punto spaziale”.

Come mai questa statistica è chiamata “Fermi-Dirac” e non solo “Fermi”?
È noto che Dirac pubblicò la stessa formula alla fine dell’estate del 1926, mentre Fermi l’aveva presentata nella primavera dello stesso anno. Dirac, su sollecito scritto da parte del fisico italiano, ammise di aver letto il lavoro di Fermi, ma sostenne di averlo completamente scordato.

In difesa di Dirac va detto che il suo lavoro (“On the Theory of Quantum Mechanics“) è molto più generale di quello presentato da Fermi, il quale si era invece proposto di risolvere un problema particolare (quello dell’entropia) che c’entrava poco con i postulati della meccanica quantistica.

Dirac giustificò in maniera elegante il principio di esclusione di Pauli notando che la meccanica quantistica era il luogo naturale per trattare i sistemi di particelle indistinguibili, grazie al formalismo delle funzioni d’onda.

La chiave del ragionamento di Dirac si trova proprio nel fatto che le particelle elementari possono essere considerate indistinguibili. La conseguenza quanto-meccanicistica è che se consideriamo due particelle non interagenti tra loro, e che possono occupare gli stati A e B, la funzione d’onda che le descrive collettivamente è data dal prodotto delle due funzioni d’onda

    \[\psi(x_1;x_2)=\psi_A(x_1)\psi_B(x_2)\]

in cui x_1 e x_2 sono le posizioni delle due particelle. Se scambiamo le due particelle, e cioè le portiamo dallo stato A allo stato B e viceversa, otteniamo la funzione d’onda modificata

    \[\psi'(x_1;x_2)=\psi_B(x_1)\psi_A(x_2)\]

Ma se assumiamo che le particelle siano indistinguibili, la densità di probabilità deve restare la stessa (ricordiamo che è data dal modulo al quadrato della funzione d’onda):

    \[|\psi'(x_1;x_2)|^2=|\psi(x_1;x_2)|^2\]

Quindi al massimo possiamo avere che \psi' è diversa da \psi per un fattore \eta

    \[\psi'(x_1;x_2)=\eta \psi(x_1;x_2)\]

in cui \eta è un numero tale che |\eta|^2=1 in modo da soddisfare |\psi'(x_1;x_2)|^2=|\psi(x_1;x_2)|^2 (verifica pure!).

Se ri-scambiamo le due particelle, torniamo punto e a capo, e cioè deve essere \psi''(x_1;x_2)=\psi(x_1;x_2)

    \[\psi''(x_1;x_2)=\eta \psi'(x_1;x_2)=\eta^2\psi(x_1;x_2)=\psi(x_1;x_2)\]

ovvero \eta^2=1, la quale ha soluzione \eta=\pm 1.
Se \eta=-1 stiamo parlando di particelle con funzioni d’onda antisimmetriche (cioè lo scambio delle particelle produce un segno meno moltiplicativo nella funzione d’onda totale). Una conseguenza è che se parliamo dello stesso stato A=B allora lo scambio delle particelle produce la seguente relazione

    \[\psi_A(x_1)\psi_A(x_2)=-\psi_A(x_1)\psi_A(x_2)\]

la quale implica identicamente \psi_A(x_1)\psi_A(x_2)=0, cioè non esiste uno stato quantistico in cui queste particelle hanno gli stessi numeri quantici. Questa è la giustificazione quanto-meccanicistica del principio di Pauli, e condusse Dirac a ricavare la stessa formula di Fermi per la statistica degli elettroni.

La lettera in cui Fermi richiamò l’attenzione di Dirac sul suo articolo del febbraio precedente.


Fermi si limitò all’applicazione del principio di esclusione su un problema specifico, senza provare a darne un’interpretazione quanto-meccanicistica.

In ogni caso, Dirac riconobbe comunque l’importanza del lavoro di Fermi, e propose di chiamare la nuova statistica “Fermi-Dirac”, mettendo il nome di Fermi al primo posto.

Oggi le particelle (come gli elettroni) che obbediscono alla statistica di Fermi-Dirac sono note come “fermioni”, sempre in onore di Fermi. I fermioni sono tutte quelle particelle caratterizzate da uno spin semi-intero. Per un teorema rigorosamente dimostrabile in teoria quantistica dei campi, tutte le particelle a spin semi-intero obbediscono alla statistica di Fermi-Dirac, mentre quelle a spin intero (note come “bosoni“) obbediscono alla statistica di Bose-Einstein (sono le particelle con \eta=1 dopo uno scambio).

Alle basse temperature i bosoni possono occupare tutti lo stesso stato a energia più bassa, mentre i fermioni sono forzati ad occupare stati a energia crescente fino all’energia di Fermi (nella figura sono presenti al massimo due fermioni per via del numero quantico di spin, il quale assume due valori possibili se lo spin è 1/2).

Alle alte temperature (dove gli effetti quantistici sono meno preponderanti) sia fermioni che bosoni tornano ad obbedire alla statistica di Maxwell-Boltzmann e Gibbs.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Il neutrino sterile: la particella “fantasma” che arrovella i fisici da decenni

I neutrini sono a tutti gli effetti le particelle che abbiamo capito meno in tutto il Modello Standard.

In sintesi, le difficoltà sorgono dal fatto che queste particelle interagiscono con una sola delle interazioni fondamentali (senza contare la gravità), e questa è sfortunatamente l‘interazione debole. Alle tipiche energie dei nostri esperimenti questa interazione è fortemente soppressa (ecco perché si chiama “debole”), per cui è molto difficile produrre o far interagire dei neutrini:

In media, un neutrino interagisce una sola volta dopo aver percorso 100 miliardi di volte un diametro terrestre.

Nonostante ciò, i neutrini sono stati scoperti sperimentalmente e vengono studiati con cura dagli anni ’50, questo perché sono state impiegate sorgenti che ne emettono grandi quantità: in questo modo si contrasta la scarsa probabilità di interazione con l’enorme numero di “proiettili”. È la stessa filosofia di comprare un centinaio di “gratta e vinci” per aumentare le chances di pescarne almeno uno vincente.

Cosa non capiamo dei neutrini?

Per poter dire che “capiamo” tutto di una particella dobbiamo essere in grado di affermare quali siano i suoi numeri quantici, e di solito ci si concentra su questi tre:

  • Carica elettrica
  • Spin
  • Massa

Dei neutrini conosciamo con precisione solo i primi due: sono elettricamente neutri (infatti non interagiscono con la forza elettromagnetica) ed hanno spin 1/2, mentre sorprendentemente non sappiamo ancora con precisione il valore della loro massa. Sappiamo solo che non può essere più grande di un numero molto piccolo, per via delle evidenze sperimentali.

Ciò che stupisce è che rispetto alle altre particelle hanno una massa stupidamente minuscola, così piccola che è difficile da misurare: gli esperimenti ci consentono solo di porre dei limiti superiori sempre più piccoli. Per dare un’idea, l’elettrone ha una massa di mezzo milione di elettronvolt, mentre si stima che quella dei neutrini sia inferiore a un solo elettronvolt. Se l’elettrone è considerato la particella carica più leggera del Modello Standard, i neutrini sono davvero dei pesi piuma.

È di fondamentale importanza riuscire a determinare la massa di una particella. Nel Modello Standard la massa è spesso l’unico numero quantico che permette di distinguere tra due particelle che hanno gli altri numeri quantici uguali.

Ad esempio il muone e l’elettrone sono due particelle elementari con la stessa carica elettrica e lo stesso spin, ma il muone è circa 200 volte più pesante dell’elettrone ed è proprio ciò che ci permette di distinguerli nella maggior parte dei casi. Allo stesso modo il tau è la terza “sorella” di muone ed elettrone, in quanto ha stessa carica e stesso spin, ma massa pari a circa 18 volte quella del muone.
Queste tre particelle furono raggruppate in un trio chiamato “leptoni carichi”.

Elettrone, Muone e Tau: le tre particelle “sorelle” del Modello Standard costituiscono la famiglia dei leptoni carichi.

Per spiegare i risultati sperimentali degli anni ’30 e ’50, si associò a ciascun leptone carico (elettrone, muone e tau) un neutrino di tipo corrispondente. Infatti si dimostrò che in ciascun processo di interazione debole di un leptone carico compariva sempre un neutrino, di conseguenza:

  • All’elettrone venne associato un neutrino-elettronico: \nu_e
  • Al muone venne associato un neutrino-muonico: \nu_\mu
  • Al tau venne associato un neutrino-tau: \nu_\tau

Quindi anche i neutrini sono considerati dei leptoni, solo che hanno carica elettrica nulla. Assieme ai leptoni carichi costituiscono i 6 leptoni del Modello Standard.

La cosa importante da capire è che siamo in grado di distinguere un neutrino \nu_e da un neutrino \nu_\mu o da un neutrino \nu_\tau: basta guardare qual è il leptone carico coinvolto nelle interazioni (rare) di questi neutrini!

Il modo in cui siamo in grado di dire quale dei tre neutrini stiamo considerando: basta guardare i leptoni carichi che escono fuori dalle interazioni del neutrino con la materia.

In questo senso si parla di conservazione del sapore leptonico: un neutrino di sapore “muonico” è sempre associato, in un’interazione debole, a un muone. Se c’era un sapore elettronico all’inizio, dovrà esserci un sapore leptonico anche alla fine.

Le oscillazioni di sapore

Alla fine del secolo scorso si scoprì che i neutrini sono in grado di cambiare sapore leptonico durante il loro viaggio tra due punti dello spazio, e fu proprio questo fatto ad evidenziare che i neutrini dovevano avere una massa: senza una massa non è possibile questa oscillazione tra sapori!

L’oscillazione rompe la conservazione del sapore leptonico!

Ad esempio da un processo debole che coinvolge un elettrone (rivelabile) sappiamo che sbucherà fuori un \nu_e, il quale, dopo una certa distanza, si tramuterà in un \nu_\mu, il quale interagirà facendo comparire un muone, che sarà a sua volta rivelabile e ci permetterà di dire che questa oscillazione è effettivamente avvenuta!

Per spiegare questo effetto vengono introdotti gli “stati di massa” dei neutrini, chiamati \nu_1,\nu_2,\nu_3 a cui vengono associate le masse m_1,m_2,m_3. Ciascun stato di massa “contiene” al suo interno i tre sapori dei neutrini \nu_e,\nu_\mu,\nu_\tau in proporzioni che possono essere studiate sperimentalmente.
Graficamente abbiamo quindi tre neutrini ciascuno contenente al suo interno il mixing di sapori:

Gli autostati di massa dei neutrini con al loro interno i mixing dei sapori.
Celeste: \nu_e, Marroncino: \nu_\mu, Grigio: \nu_\tau.

Questo mixing avviene nel senso quanto-meccanico di sovrapposizione di stati: ciascuno stato di massa è una sovrapposizione delle funzioni d’onda dei sapori leptonici e,\mu,\tau.

Ad esempio dalla figura leggiamo che sperimentalmente è stato verificato che lo stato \nu_1 contiene per la maggior parte il sapore elettronico \nu_e (indicato in blu), mentre il sapore tau \nu_\tau è presente solo in minima parte.

Essendo tutto ciò un effetto quanto-meccanico, a ogni oscillazione tra sapori è associata una certa probabilità che sarà tanto più elevata quanto più grande è il mixing tra sapori negli stati di massa. Questa probabilità è verificabile sperimentalmente: basta chiedersi “se nel punto di partenza ho N neutrini di tipo \nu_e, quanti neutrini di tipo \nu_\mu mi ritroverò a una certa distanza dal punto di partenza?”

Ad esempio la probabilità che un neutrino \nu_e si trasformi in un neutrino \nu_\mu è data dalla seguente formula:

Vengono chiamate “oscillazioni” perché la probabilità dipende da un seno al quadrato, il quale rappresenta graficamente un’oscillazione nelle variabili L,E,\Delta m^2.

in cui \theta è un parametro del Modello Standard che è stato misurato sperimentalmente (e definisce il grado di mixing dei due sapori in questo caso). D’altra parte \Delta m^2=m_2^2-m_1^2 riguarda la differenza tra i quadrati delle masse di \nu_2 e \nu_1, mentre L è la distanza a cui hanno viaggiato i neutrini prima di essere rivelati, ed E è la loro energia.
Nota bene che se questi neutrini avessero la stessa massa, e cioè \Delta m^2=0, non si potrebbero avere oscillazioni (la probabilità sarebbe nulla perché il seno di zero fa zero).

Ad esempio è molto più probabile che un \nu_e si trasformi in un \nu_\mu quando l’argomento del seno è vicino al punto in cui il seno ha un massimo, e cioè in prossimità di 90^{\circ} (o in radianti pi/2), e cioè quando

Da questa formula è possibile capire a che valore del rapporto L/E si è più sensibili per rivelare un’oscillazione da \nu_e in \nu_\mu. Si può quindi ottenere una stima di \Delta m^2.

Studiando l’andamento dell’oscillazione con L/E si può quindi ricavare \Delta m^2 proprio da questa formula.

La differenza tra le masse dei neutrini \nu_2 e \nu_1 è minuscola, ma comunque calcolabile dai dati sperimentali. Allo stesso modo è stata calcolata la differenza tra le masse quadre di \nu_3 e \nu_2, e da ciò si può ricavare la differenza tra le masse quadre di \nu_3 e \nu_1.
Conosciamo solo queste \Delta m^2, ma non i valori singoli di m_3,m_2,m_1, che frustrazione, eh?

Misurando il numero di eventi di neutrini di un certo sapore ad alcuni valori del rapporto L/E si possono ricavare i valori sperimentali di \theta e \Delta m^2. Questo è proprio ciò che si fa da qualche decina di anni: la teoria delle oscillazioni è verificata con un alto grado di accuratezza, tranne per qualche anomalia…

Le anomalie delle oscillazioni

Immagina di stare conducendo un esperimento in cui produci dei neutrini \nu_\mu, li fai viaggiare per una certa distanza L e ti aspetti che si trasformino in neutrini \nu_e con una probabilità data dalla formula vista sopra: P_{\nu_e\to\nu_\mu}=\sin^2(2\theta)\sin^2\left(\frac{\Delta m^2 L}{4E}\right), solo che con sorpresa ti ritrovi a rivelare più neutrini \nu_e di quelli che ti aspettavi, un eccesso rispetto alla previsione teorica.

Questo è proprio quello che capitò nell’esperimento LSND degli anni ’90 (immagine di copertina): comparvero più neutrini \nu_e di quelli previsti dal modello delle oscillazioni a tre stati di massa \nu_1,\nu_2,\nu_3.

Questo fenomeno fu spiegato con l’introduzione di un quarto stato di massa \nu_4, avente massa m_4 apparentemente molto più grande di m_1,m_2,m_3.

Questo \nu_4 permetteva l’oscillazione di \nu_\mu in \nu_e a un ritmo più elevato, dato dalla formula modificata:

Stavolta \Delta m^2_{41}=m_4^2-m_1^2, e non più \Delta m^2=m_2^2-m_1^2.

in cui si trovò che, appunto, \Delta m_{41}^2\gg \Delta m_{21}^2: il quarto stato di massa doveva avere una massa molto più elevata degli altri tre stati di neutrini.

Ricorda però che ad ogni stato \nu_1,\nu_2,\nu_3 avevamo associato un certo mixing di sapori \nu_e,\nu_\mu,\nu_\tau, quindi aggiungendo un \nu_4 dobbiamo aggiungere anche un nuovo sapore \nu_s. Questo è necessario per far quadrare i conti della teoria dei mixing.

Il Modello Standard però proibisce (con misure sperimentalmente verificate) un numero di sapori di neutrini superiore a tre! Cioè possono esistere solo i sapori “canonici”: \nu_e,\nu_\mu,\nu_\tau.

Il nuovo sapore \nu_s associato alla comparsa di \nu_4 dovrà allora essere completamente sconnesso dal Modello Standard, e cioè dovrà essere sterile rispetto a tutte le interazioni fondamentali. Questo suo essere sterile proibisce una rivelazione diretta del neutrino, e i suoi effetti compaiono solo come eccessi di oscillazioni, come nell’esperimento LSND.

Il nuovo mixing dei neutrini usando un quarto stato di massa \nu_4 e un nuovo sapore sterile (indicato in rosa). Notare come \nu_4 contenga il nuovo sapore per la maggior parte, mentre una componente sterile è presente in quantità molto piccole negli altri stati \nu_1,\nu_2,\nu_3.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Se già i neutrini di sapore tradizionale erano difficili da rivelare, il neutrino sterile è quindi una vera e propria particella fantasma. Non ne vediamo l’effetto diretto, ma solo quello indiretto sulle oscillazioni tra gli altri sapori “attivi” \nu_e,\nu_\mu,\nu_\tau.
Tuttavia anche questi “eccessi” nelle oscillazioni sono abbastanza misteriosi, ad oggi non è detto che il neutrino sterile esista per forza.

Ci sono parecchie discordanze sulle anomalie rivelate da LSND, dato che gli esperimenti successivi non sono riusciti a confermarle, ma nemmeno a smentirle! Anche al Gran Sasso (esperimento GALLEX) furono misurate delle anomalie nelle oscillazioni, e ad oggi pure queste anomalie restano senza conferma da altri esperimenti, nonostante siano però difficili da smentire.

La scoperta del neutrino sterile segnerebbe il primo passo verso il superamento definitivo del Modello Standard

Questo perché essendo sterile non potrebbe accoppiarsi nemmeno con il campo di Higgs per sviluppare la massa dello stato m_4, dunque servirebbe un nuovo meccanismo che implicherebbe l’utilizzo di teorie oltre il Modello Standard.

Per mettere la parola definitiva sul neutrino sterile sono previsti esperimenti sempre più sensibili, ma al contempo sempre più difficili da costruire, con tecnologie all’avanguardia ancora da inventare.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Come la gravità ci impedisce di misurare distanze più piccole della lunghezza di Planck

Uno dei punti fondamentali per la conquista dell’unificazione tra gravità e meccanica quantistica riguarda la comprensione dello spaziotempo a una scala subatomica di lunghezza.

Lo spaziotempo è essenzialmente un concetto classico: possiamo immaginarcelo come una struttura invisibile che può essere descritta utilizzando i numeri reali (cioè quelli della quotidianità: 2.3, 0.01, \pi, e^{-\pi/2}, -3/4, 2.9999...).

Come immaginiamo la griglia dello spaziotempo curvata dalla massa.

I numeri reali costituiscono un insieme non numerabile, in parole povere non solo abbiamo a disposizione un’infinità di numeri da -\infty a +\infty, ma anche che tra due numeri come 0 e 1 è compresa un’altra infinità di numeri. Inoltre è anche un insieme continuo, cioè dato un certo numero x, è sempre possibile trovare un altro numero y sufficientemente “vicino” al primo in modo che la distanza x-y tra i due si avvicini a zero fino alla cifra decimale che si desidera.
Nei numeri interi, invece, la distanza tra due numeri può solo coincidere con lo zero nel caso in cui i due numeri siano uguali, altrimenti esiste una distanza minima che è quella che riguarda due numeri consecutivi come 4 e 5.

Ecco, classicamente si pensa che lo spaziotempo possa essere descritto con un insieme di numeri reali piuttosto che di numeri naturali. Non è definita una distanza minima se non quella uguale a zero.

Cosa succede quando tiriamo in ballo la meccanica quantistica?

Ispirato dal seguente brillante articolo di Calmet, Graesser e Hsu pubblicato nella Physical Review Letters, ho deciso di volgarizzare un ragionamento che ho trovato molto intrigante, dato che su questi temi si discute sempre pochino e male.

Immaginiamo di avere un certo detector per rivelare la distanza tra due punti x(t) e x(0) nella griglia dello spaziotempo, uno al tempo t=0 e l’altro al tempo t.
Supponiamo per semplicità che il detector, di grandezza L e massa M, misuri questi due punti spostandosi con una velocità v=p/M dove p è la sua quantità di moto. Avremo cioè

Il discorso che sto per fare ora si basa su un’approssimazione euristica al fine di scongiurare l’introduzione di operatori quantistici, dato che aggiungerebbero poco o niente alla sostanza del discorso principale.

Una volta misurate le posizioni x(t) e x(0) con una certa incertezza \Delta x(t) e \Delta x(0), possiamo anche stimare l’incertezza sulla quantità di moto \Delta p usando le formule sulla propagazione delle incertezze:

Considerando ad esempio il punto x(t), varrà il principio di indeterminazione di Heisenberg:

A questo punto sostituiamo dentro il principio di Heisenberg l’espressione di \Delta p=(M/t)[\Delta x(t)+\Delta x(0)] trovata con la propagazione delle incertezze. Trascurando termini quadratici del tipo (\Delta x(t))^2 essendo più piccoli di un ordine di grandezza, si arriva a una relazione interessante:

Le incertezze sulla posizione iniziale e finale sono legate da un principio di indeterminazione, il cui valore aumenta all’aumentare del tempo. Di sicuro questa è una relazione interessante.
Ancora più interessante è chiedersi quale sia l’incertezza sulla distanza tra x(t) e x(0), cioè s=x(t)-x(0). Anche ora, per via della propagazione degli errori, si ha che

    \[\Delta s=\Delta x(t)+\Delta x(0)\]

Se \Delta x(t) diminuisce allora \Delta x(0) aumenta al fine di mantenere vera la \Delta x(0)\Delta x(t)\ge \frac{\hbar t}{2M}, quindi \Delta s è limitato dal valore più grande tra \Delta x(0) e \Delta x(t).

Nel caso in cui \Delta x(t)\approx \Delta x(0) cioè misuriamo i punti x(t) e x(0) con incertezze circa uguali, il principio di indeterminazione fornisce:

Quindi da un punto di vista quantistico possiamo misurare una lunghezza spaziale con una precisione

Dove ricordiamo, t è il tempo che abbiamo lasciato correre tra una misura e l’altra, e M è la massa del nostro detector (che abbiamo fatto interagire con lo spazio attorno a sé lasciandolo muovere liberamente).
Controllando questi due parametri possiamo rendere \Delta s piccolo a piacere. Possiamo costruire un detector molto massivo e fare tante misure consecutive separate da intervalli di tempo t molto piccoli.
Rendendo piccolo il rapporto t/M possiamo rendere \Delta s piccolo a piacere.

Tutto ciò andrebbe bene in un mondo in cui non esiste la gravità. Questo è il messaggio da portare a casa! Se non ci fosse di mezzo la gravità, come puoi vedere, nulla impedirebbe di rendere \Delta s piccolo a piacere (anche se non può mai essere nullo, per via del principio di Heisenberg).

L’intervento della gravità

Ho mentito, non possiamo rendere t piccolo a piacere! Se L è la dimensione del nostro detector, dobbiamo considerare dei tempi t tali che t>L/c cioè maggiori del tempo impiegato dalla luce a percorrere il nostro detector (altrimenti solo una frazione del detector può essere considerato “detector”).

Inoltre non possiamo rendere M grande a piacere: se rendiamo M troppo grande rispetto alle dimensioni L del detector, questi potrebbe collassare in un buco nero, e ciò impedirebbe di leggere qualsiasi informazione sulle misure del nostro esperimento. Il parametro di lunghezza fondamentale di un buco nero è dato dall’orizzonte degli eventi

    \[r_s\sim \frac{GM}{c^2}\]

dove G è la costante di gravitazione di Newton e c la velocità della luce.

Affinché il detector non sia un buco nero da cui non escono informazioni, desideriamo che sia L>r_s. Mettendo tutto assieme avremo quindi

La quantità risultante è identificata come lunghezza di Planck \ell_p, definita come:

La lunghezza di Planck, costante fondamentale della Fisica.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Non c’è nessun parametro che possiamo controllare nella formula della lunghezza di Planck: è composta da costanti fondamentali della Fisica come G, \hbar, c (costante di gravitazione di Newton, costante di Planck e velocità della luce). Quindi \Delta s\ge \ell_p è un limite inferiore che non possiamo sormontare in alcun modo ingegnoso: la gravità impedisce di misurare distanze più piccole della lunghezza di Planck.

Se vuoi sapere da dove spunta fuori la lunghezza di Planck da un punto di vista storico, ho scritto un articolo a riguardo.

Quanto è piccola una lunghezza di Planck nelle nostre unità di misura quotidiane? \ell_p\sim 10^{-33}\,\text{cm}, ovvero 10^{-25} volte il raggio tipico di un atomo. Per enfatizzare, il numero 10^{-25} corrisponde a 24 cifre dopo lo zero, cioè qualcosa del tipo 0.\underbrace{000.....0}_{24}1. Giusto per intenderci.

Il punto fondamentale è che se non ci fosse la gravità, non esisterebbe una lunghezza minima misurabile e potremmo rendere piccola a piacere l’incertezza quantistica della misura!

Ad avere l’ultima parola sulle dimensioni spaziali subatomiche non è quindi la quantistica, ma la gravità!
Questo risultato è molto significativo per la Fisica! Perché?

Quando si effettuano esperimenti di Fisica delle interazioni fondamentali (come le collisioni tra particelle) si esplorano scale di energia sempre più alte (che equivale a dire: si esplorano regioni di spazio sempre più piccole). La presenza di una scala di lunghezza sotto la quale non si può andare implica anche l’esistenza di una scala di energia sopra la quale non si può andare (perché la gravità diventerebbe rilevante e si inizierebbe a parlare di collasso in buco nero, avendo accumulato tanta energia in una regione di dimensioni molto ridotte). Un altro pezzo del puzzle per la lunga scalata che ci porterà verso la gravità quantistica?


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’Università di Pisa, fa ricerca sulle simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Il trucco per stimare la temperatura di Hawking: la gravità quantistica dietro le unità naturali

Stephen Hawking, 1942-2018.

Quello che propongo è un esercizio concettuale che ci porterà a stimare in maniera molto euristica (e non rigorosa) la temperatura di evaporazione dei buchi neri, altrimenti nota come “temperatura di Hawking”, dal suo scopritore Stephen Hawking. Su ispirazione da una lettura del fisico Anthony Zee, ritengo ci sia tanta fisica teorica dietro questo semplice giochino concettuale, quindi ci tengo a condividerlo con gli appassionati.

Alle fine, tutto inizia con Planck.
Max Planck è uno scienziato rinomato non solo per l’ipotesi sulla quantizzazione della radiazione, ma anche per essere stato il primo a proporre le “unità naturali” nella Fisica. Intendo proprio delle unità di misura molto speciali, dette “naturali” per un motivo ben preciso.

Perché mai avremmo bisogno di utilizzare delle “unità naturali", e poi che significa “naturale"? Naturale rispetto a cosa?

Se ci pensiamo un attimo, la storia dell’umanità è cosparsa di convenzioni sulle unità di misura:
cos’è un litro? Un piede? Una spanna? Un centimetro? Un gallone? Un secondo?

Chiaramente ogni unità di misura ha la sua definizione riconosciuta internazionalmente, ma tutte hanno in comune un unico fatto: sono antropocentriche per costruzione (d’altronde non poteva essere altrimenti, no?).
Questo porrebbe non pochi problemi dal punto di vista della comunicazione scientifica interstellare!

Per fare un esempio, a un abitante di un pianeta della galassia di Andromeda non può fregare di meno che per misurare quella che chiamiamo “temperatura” ci riferiamo alla graduazione di alcuni tubi contenenti mercurio, riferendoci alla convenzione proposta in un laboratorio nel 700′.

La fisica moderna ci ha insegnato invece che alcune quantità fondamentali, come tempo, lunghezza e massa, devono necessariamente essere espresse in modo che qualsiasi civiltà della nostra galassia (e oltre) possa concordare sul loro valore. Pensa quanto sarebbe difficile descrivere l’unità di misura del “piede del Re” a un abitante di un altro pianeta! Sfortunatamente tutte le unità di misura quotidiane sono affette da questa arbitrarietà.

Ad esempio utilizziamo un’unità temporale che essenzialmente deriva da quanto velocemente il nostro pianeta compie una rivoluzione attorno al proprio asse, e scandiamo il passaggio dei tempi lunghi riferendoci a quante volte il nostro pianeta compie un giro completo intorno alla sua stella. In una galassia popolata da 100 miliardi di pianeti, la misura del tempo riferita al numero di rivoluzioni di UNO solo tra questi appare tutto tranne che efficiente.

Tutto quello che chiediamo è di poter misurare tempi, lunghezze e masse usando qualcosa su cui ogni essere vivente può concordare (supponendo che la Fisica sia la stessa in tutta la galassia).

È possibile misurare tempo, lunghezza e massa senza riferirsi ad unità di misura inventate dall’uomo?

Tempo, lunghezza e massa. Ci bastano queste tre cose per poter fare previsioni fisiche sul mondo che ci circonda, e fortunatamente le costanti fondamentali della Fisica vengono in nostro soccorso.

L’indizio di Newton: lunghezza e massa sono correlate

Se nella teoria di Newton compariamo l’energia cinetica di un corpo gravitante con la sua energia potenziale gravitazionale

Comparando l’energia cinetica di un corpo di massa ”m” con l’energia potenziale nel campo gravitazionale di una massa “M“.

ed esprimiamo la sua velocità come una frazione di quella della luce, cioè v=\beta c con 0<\beta<1, vediamo che è possibile, tramite le costanti fondamentali c e G (velocità della luce e costante di gravitazione universale) esprimere una lunghezza in funzione di una massa

Semplificando m e risolvendo per r, otteniamo una relazione tra lunghezza e massa che dipende solamente da costanti fondamentali.

Il rapporto G/c^2 è una costante fondamentale della Natura, su cui potenzialmente tutti gli osservatori dell’universo possono concordare (magari nel loro linguaggio o nella loro matematica, ma sarebbe comunque possibile capirsi in qualche modo). Stiamo dicendo implicitamente che basta conoscere la teoria della gravità (costante G) e la velocità della luce (costante c) per poter convertire da lunghezza a massa!

Ok, magari questa relazione non significa nulla se la decontestualizziamo dal problema fisico (eguagliare energia cinetica con energia potenziale serve per risolvere un problema specifico), ma qui stiamo cercando delle relazioni che ci consentano di esprimere delle quantità in funzione di alcune costanti fondamentali.

“Aspetta un attimo, ma anche le costanti fondamentali sono riferite alle unità di misura antropocentriche. La velocità della luce si misura in m/s ad esempio. Non è un discorso circolare?"

Semplicemente diremo che nelle unità fondamentali la velocità della luce ha un valore unitario, e che ogni altra velocità ha un valore che è una frazione di quel valore unitario, cioè v=\beta con 0<\beta<1 e c=1.

”Ma non ha senso, in questo modo come facciamo a distinguere una velocità da una massa? Come faccio a dire che il numero “1" si riferisce a uno spazio percorso nel tempo invece che a un chilogrammo?

Giusta osservazione, ecco perché dovremmo provare ad esprimere tempi, lunghezze e masse in maniera indipendente tra loro, in funzione di poche costanti fondamentali. Siccome abbiamo tre quantità, ci servono tre costanti fondamentali, ma finora ne abbiamo raccolto solo due.

Nella teoria di Newton abbiamo a disposizione solo la costante G, e con Einstein abbiamo guadagnato la costante c. Il prossimo passo fu compiuto da Max Planck quando introdusse \hbar nella definizione di quanto di energia

Se \omega è ad esempio la frequenza di un fotone, la conversione tra frequenza ed energia è garantita dalla costante di Planck \hbar.

Il contributo quantistico

A meno che tu non abbia vissuto dentro una caverna negli ultimi anni, se ti interessa la Fisica avrai sicuramente sentito parlare del principio di Heisenberg, che relaziona una quantità spaziale (\Delta x) con la quantità di moto (\Delta p) (per un approfondimento sul significato matematico del principio, ho scritto un articolo). Il mediatore di questa relazione è la costante di Planck, \hbar

Se proviamo a far incontrare gravità e meccanica quantistica risulta naturale considerare la lunghezza gravitazionale travata in precedenza, e cioè la combinazione GM/c^2. Se al posto della quantità di moto poniamo poi Mv=M\beta c con al solito 0<\beta<1 possiamo ricavare, con un po’ di sorpresa, una massa in funzione di sole costanti fondamentali:

Ignorando il fattore arbitrario \beta e calcolando la radice quadrata, incappiamo in una massa espressa solamente in funzione delle tre costanti fondamentali, la cosiddetta “massa di Planck”:

La massa di Planck.

A questa massa contribuiscono le tre costanti delle tre teorie fondamentali della Natura:

  • G, la costante di gravitazione per la teoria della gravità di Newton.
  • c, la costante della velocità della luce, per la teoria della relatività di Einstein.
  • \hbar, la costante dei quanti di energia, per la teoria quantistica di Planck e Heisenberg.

Tre costanti, tre teorie fondamentali, e in regalo abbiamo una massa espressa in maniera universale.

Se come quantità di moto usiamo questa massa, cioè p=M_p(\beta c), la lunghezza quantistica associata è, sempre per il principio di Heisenberg

Sostituendo il valore trovato per M_p=\sqrt{\hbar c/G} e trascurando la costante \beta irrilevante, troviamo quella che è definita lunghezza di Planck

La lunghezza di Planck

che è anche pensabile come la distanza percorsa dalla luce in un tempo di Planck definito così

Il tempo di Planck

Grazie alle tre teorie fondamentali: gravità, relatività e quantistica, siamo riusciti a trovare tre costanti fondamentali per esprimere le tre quantità più importanti della Fisica in maniera indipendente

Le tre costanti fondamentali da cui discendono massa, lunghezza e tempo.

Cosa ci abbiamo guadagnato? Ora possiamo esprimere qualsiasi altra massa, lunghezza o tempo in unità di queste che abbiamo trovato! Cioè diremo che

Le costanti \apha_m,\alpha_\ell,\alpha_t sono adimensionali, cioè sono dei numeri puri.

in cui \alpha_m, \alpha_\ell,\alpha,t sono ora le letture di “quanta massa, quanta lunghezza o quanto tempo c’è” nelle unità M_p,\ell_p,t_p.

Ovviamente in queste unità la massa di Planck ha \alpha_m=1, il tempo di Planck ha \alpha_t=1 e la lunghezza di Planck ha \alpha_\ell=1 (per definizione). È come dire “quanti chili ci sono in un chilo?” ovviamente uno, è la definizione.

Un ritorno alle unità primordiali

Volendo potremmo esprimere queste nuove unità utilizzando quelle a cui siamo abituati quotidianamente, come il chilogrammo, il secondo e il metro, giusto per avere un’idea delle scale in gioco.

Siccome la parola “quantistica” ci fa venire in mente quantità molto piccole, non ti sorprenderà sapere che tempo di Planck e lunghezza di Planck sono spaventosamente piccole nelle nostre unità

Ma anche questo non dovrebbe scandalizzarci. Chi ci dice che le nostre unità di misura quotidiane siano significative? Quanto piccolo è troppo piccolo, e quanto grande è troppo grande? Dipende dalle unità che si sta usando. Nelle unità naturali fondamentali t_p=1, \ell_p=1, nulla di insolito, non sono piccole.
Nelle unità primordiali a cui siamo abituati invece si ha:

  • t_p\sim 10^{-44}\,\text{s}, ovvero un numero così piccolo che non vale nemmeno la pena specificare quanto.
  • \ell_p\sim 10^{-33}\,\text{cm}, ovvero 10^{-25} volte il raggio tipico di un atomo. Per enfatizzare, il numero 10^{-25} corrisponde a 24 cifre dopo lo zero, cioè qualcosa del tipo 0.\underbrace{000.....0}_{24}1. Giusto per intenderci.

La massa di Planck corrisponde invece a M_p\sim 10^{-5}\,\text{grammi}.
Dal punto di vista “quotidiano” M_p può sembrare molto piccola, ma in realtà corrisponde a 10^{19} volte la massa del protone, un valore spropositatamente elevato per la fisica delle particelle. Nelle nostre unità, M_p appare così grande perché dipende dalla costante G al denominatore, cioè M_p\propto 1/\sqrt{G}, con G che è un numero molto piccolo nella teoria della gravità.

Ma passiamo ora alla questione di interesse: le unità naturali ci permettono di calcolare con estrema velocità una quantità che è il risultato di una primordiale teoria di gravità quantistica: la temperatura di Hawking per l’evaporazione dei buchi neri.

L’evaporazione dei buchi neri

In termini rozzissimi “l’evaporazione” di un buco nero si basa su due aspetti fondamentali:

  • Il “vuoto“, dal punto di vista quantistico, non è davvero un vuoto, ma una “brodaglia quantistica” caratterizzata da processi di creazione-distruzione di coppie particella-antiparticella. Queste particelle sono “virtuali“, nel senso che non sono osservabili fisicamente e rappresentano solo un conveniente costrutto matematico, una conseguenza delle nostre teorie. Il loro utilizzo conduce tuttavia a predizioni accurate sulle particelle osservabili.
  • L’orizzonte degli eventi di un buco nero è definito sul vuoto spaziotemporale attorno al buco nero, e racchiude una regione (il buco nero) dalla quale NULLA, nemmeno la luce, può sfuggire.

Che succede se si viene a creare una coppia virtuale di particella-antiparticella esattamente sull’orizzonte degli eventi? Una delle due particelle non potrà più uscire dalla regione spaziotemporale, mentre l’altra proseguirà in direzione opposta per la conservazione della quantità di moto.

Una coppia virtuale di particella-antiparticella si crea sull’orizzonte del buco nero.

Ci tengo a rimarcare: questa descrizione del processo è molto euristica e non del tutto precisa, ma rende bene l’idea. Non ne ho mai trovate di più semplici di questa.


Il punto importante da capire è che in un certo senso è come se il buco nero avesse emesso della radiazione sotto forma di particella! Un attimo prima non c’era nulla, e un attimo dopo è come se si fosse creata radiazione dal niente, anche se in realtà il partner della particella emessa è stato risucchiato nel buco nero.

La particella che procede verso l’universo circostante è stata promossa da “particella virtuale” a “particella reale”, e questa promozione ha un costo energetico ben preciso, garantito dall’energia gravitazionale del buco nero. Tutto questo processo è noto come “radiazione di Hawking”.

La radiazione di Hawking prevede che i buchi neri perdano energia gravitazionale sotto forma di radiazione di particelle.

In questo senso si dice che i buchi neri “evaporano”, cioè è come se iniziassero a perdere massa.

Stima della temperatura di Hawking

Nelle unità naturali definite prima si pone convenzionalmente \hbar=c=1 per semplificare le equazioni. Come conseguenza di ciò, l’energia ha le stesse dimensioni di una massa:

Energia e massa diventano la stessa cosa in unità naturali.

In questo modo il principio di Heisenberg \Delta x\Delta p\sim\hbar per lunghezza di Planck \ell_p e quantità di moto\Delta p\propto M_p c=M_p con c=1, si scrive con \hbar=1:

Il principio di Heisenberg in unità naturali ci dice che le lunghezze hanno come unità l’inverso di un’energia.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

quindi impariamo che la lunghezza equivale all’inverso di una massa, cioè all’inverso di un’energia per quanto appena detto.

Da un punto di vista microscopico possiamo associare una certa temperatura alla radiazione di Hawking. Questo perché la temperatura è una misura dell’energia cinetica di un sistema. In un certo senso la temperatura è la manifestazione macroscopica di un processo microscopico, rappresentato dal moto caotico delle particelle. Noi vediamo solo “la temperatura” dal punto di vista sperimentale, quindi per via di questa limitazione abbiamo creato una costante ad hoc per convertire l’energia microscopica in scale graduate di colonnine di mercurio con cui misuravamo le temperature qualche secolo fa.

La conversione tra energia microscopica e la sua manifestazione “misurabile”, cioè la temperatura, avviene grazie alla costante di Boltzmann k_b.

Siccome non vogliamo usare unità antropocentriche come le colonnine di mercurio, porremo k_b=1 per semplicità. Quindi l’energia è proprio la temperatura: E=T.

Parlando del buco nero possiamo allora dire che siccome l’energia equivale all’inverso di una lunghezza, e che al contempo l’energia equivale a una temperatura, si ha che

Come lunghezza caratteristica del buco nero possiamo prendere proprio la lunghezza gravitazionale definita all’inizio di questo articolo, cioè GM/c^2, che in unità c=1 supponendo che il buco nero abbia una massa M diventa:

Di conseguenza possiamo fornire una stima (molto rozza, ma efficace) della temperatura di Hawking del buco nero di massa M

La temperatura di Hawking della radiazione.

Nonostante la nostra stima sia estremamente rozza, il risultato è comunque corretto: la temperatura del buco nero è tanto più alta quanto più è piccolo (cioè meno massivo). Inoltre, come la massa del buco nero diminuisce per via dell’evaporazione, la sua temperatura crescerà sempre di più ed evaporerà ancora più velocemente. Questo è quello che ci dice la formula per la temperatura di Hawking.

Ciò ha del paradossale: hai mai visto un corpo che più perde energia, più si riscalda ed emette in fretta? Questo è solo uno dei tanti problemi che derivano dall’infelice connubio tra relatività generale e meccanica quantistica, e questi problemi dovranno essere risolti da una pretendente teoria di gravità quantistica.

Abbiamo mai rivelato una radiazione di Hawking proveniente da un buco nero? Non ancora, specialmente perché per buchi neri di massa comune (abbastanza elevata) la temperatura di Hawking, andando come T_H\sim 1/M, è molto molto piccola, più piccola di quella del punto più freddo dell’universo, vicino allo zero assoluto in gradi Kelvin. La speranza è rivolta verso i buchi neri primordiali in quanto dovrebbero essere in fase di evaporazione finale, un momento in cui la loro massa tende a M\to0, e quindi dovremmo essere in grado di rivelare un incremento anomalo nella temperatura dell’emissione.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

La genesi dell’equazione di Dirac

L’equazione d’onda relativistica dell’elettrone rappresenta uno dei trionfi più importanti della scienza del XX secolo.

Nota come “equazione di Dirac”, dal nome del suo scopritore Paul Dirac, essa costituisce la base di tutta la Chimica e di quasi tutta la Fisica moderna.

Trovo molto interessante provare a riavvolgere il filo del pensiero di Dirac, immedesimandoci in lui quando in una fredda serata a Cambridge nel 1928 arrivò a scrivere la sua equazione dopo essere stato tanto tempo seduto a fissare il caminetto (o così dice la leggenda).

Innegabilmente l’equazione di Dirac vanta una certa eleganza estetica, ed è per questo motivo bersaglio di una sempre crescente mercatizzazione (non è raro trovarsela stampata sulle tazze o sulle magliette).
Trovo anche io difficile resistere al suo fascino e decido quindi di raffigurarla qui in bella vista, prima di iniziare l’articolo:

L’equazione di Dirac descrive una particella libera (relativistica) di spin 1/2.
Piccolo suggerimento: prima di procedere può essere utile dare un'occhiata a due articoli più introduttivi come questo e questo. Se non ne hai voglia ora, li citerò comunque nel prosieguo, inserendoli nei punti chiave in caso tu voglia approfondire.

Schrödinger: le particelle libere come onde piane

Nel 1926 Schrödinger aveva illustrato al mondo che le particelle quantistiche potevano essere descritte da funzioni d’onda la cui forma funzionale era fissata dalla soluzione dell’equazione

In questa equazione ψ è la funzione d’onda che vogliamo trovare, e H rappresenta l’interazione tra particella e il mondo circostante. Questa interazione, agendo su ψ nel membro di destra, produce una variazione nel tempo della ψ stessa, come evidenziato nel membro di sinistra col simbolo di variazione nel tempo ∂/∂t lasciato agire su ψ.
Per una particella libera (cioè senza interazioni con il mondo circostante, o con interazioni così deboli da poter essere trascurate rispetto all’energia cinetica della particella), l’equazione di Schrödinger ha una soluzione semplicissima: un’onda piana

Se non sei familiare con quella forma curiosa per l’energia cinetica ti basti sapere che partendo da 1/2 m v2, questa può essere riscritta in una forma più conveniente sostituendo la quantità di moto p=mv.

In che senso “più conveniente”? In meccanica quantistica si usano gli operatori, che sono oggetti matematici che trasformano le funzioni d’onda in un certo modo. Non tutte le quantità a cui siamo abituati classicamente sono dei buoni operatori. La quantità di moto è un operatore che sappiamo maneggiare bene nei calcoli, al contrario della velocità che è mal definita.

L’energia relativistica, un passo oltre Schrödinger

Nel 1905 Einstein rivoluzionò la meccanica newtoniana con la teoria della Relatività Ristretta. Una delle conseguenze fu la correzione all’energia totale di una particella libera. La forma newtoniana prevedeva, come abbiamo visto, E= p2/2m. In realtà questa non è altro che l’approssimazione della versione einsteiniana una volta che consideriamo velocità molto più basse di quelle della luce, in cui si ha:

In queste formule “m” è la massa della particella, “p” la quantità di moto e “c” la velocità della luce.
A basse velocità otteniamo di nuovo la formula newtoniana per l’energia.

Le energie di legame atomiche sono solitamente così piccole da far sì che le particelle si muovano a velocità molto più basse di quella della luce. L’equazione di Schrödinger era stata creata proprio per descrivere i processi atomici, quindi all’inizio nessuno si preoccupò che non fosse relativistica, c’erano problemi ben più importanti da risolvere.
Se invece si indaga sulla scala subatomica si scopre che bisogna tenere conto delle correzioni relativistiche, proprio perché stavolta aumenta l’energia in gioco.
La strategia più naturale per rendere relativistica l’equazione di Schrödinger è quella di sostituire la vecchia forma di H con la formulazione relativistica:

La forma relativistica dell’equazione di Schrödinger.

Il problema è che, come anticipato prima, in meccanica quantistica la quantità di moto è un operatore, ed è problematico definire la radice quadrata di un operatore. Come superiamo questo ostacolo?

La Klein-Gordon e i suoi problemi

L’approccio proposto da Klein e Gordon per eliminare la radice fu quello di calcolare la variazione temporale di entrambi i membri dell’equazione relativistica, applicando ∂/∂t a sinistra e a destra

In questo conto è fondamentale sapere che l’unità immaginaria “i” è definita in modo che i2=-1

A sinistra abbiamo quindi una doppia derivazione rispetto al tempo, mentre a destra (siccome H è costante nel tempo) otteniamo ψ/∂t, alla quale possiamo sostituire l’equazione di Schrödinger stessa. Con questo piccolo trucco otteniamo che la radice quadrata sparisce.
Ora per semplificare i conti che seguiranno scegliamo di lavorare con delle unità in cui ħ=c=1 e facciamo un cambio di variabili, l’equazione di sopra diventa l’equazione di Klein-Gordon:

L’equazione di Klein-Gordon scritta in una forma più simpatica all’occhio.

L’equazione di Klein-Gordon fu il primo tentativo di relativizzare l’equazione di Schrödinger. La soluzione di questa equazione è ancora un’onda piana per una particella di massa m, solo che a differenza di prima la forma dell’equazione è immediatamente covariante sotto trasformazioni di Lorentz, in quanto P2 e m2 sono degli scalari di Lorentz: in sostanza il principio di relatività è automaticamente soddisfatto (mentre non lo era nell’equazione di Schrödinger).

Dove sta la fregatura?

L’aver mandato via la radice quadrata ha sollevato un problema irritante: l’evoluzione temporale nell’equazione di Schrödinger era espressa da un termine di primo grado ψ/∂t, mentre ora nella Klein-Gordon è espressa da un termine di secondo grado (∂2ψ/∂t2), e ciò fa sì che la densità di probabilità possa ora assumere valori non solo positivi, ma anche negativi o nulli.

Infatti i moduli quadri delle funzioni d’onda (che per la regola di Born rappresentano le densità di probabilità) possono essere calcolati tramite una particolare “ricetta” che dipende in una maniera molto precisa dal tipo di equazione dinamica da cui si parte. Si dà il caso che la “ricetta” ereditata dall’equazione di Klein-Gordon sia difettosa rispetto a quella dell’equazione di Schrödinger.
Ciò fa perdere di significato fisico tutta la struttura matematica della nostra teoria, una bella gatta da pelare!

Non c'era via di uscita? È questo il prezzo da pagare per aver cercato di introdurre la relatività nella meccanica quantistica?

L’illuminazione di Dirac

Per dei motivi che oggi non sono più rilevanti, Dirac era fortemente preoccupato dal problema della densità di probabilità nella Klein-Gordon. Per questa ragione si ossessionò al punto da forzare la matematica stessa: voleva abbassare l’ordine delle derivate temporali dal secondo grado al primo grado a tutti i costi, pur mantenendo un’equazione relativisticamente permessa. Nella sua mente la forma prediletta doveva essere, per ragioni relativistiche e di “eleganza”

In cui γ0 è un termine per ora indeterminato. Questa equazione doveva comunque essere collegata alla Klein-Gordon in qualche modo, perché questa garantisce l’invarianza relativistica. L’illuminazione arrivò quando fu colto il seguente parallelismo con la differenza algebrica dei quadrati a2-b2

dove le γμ sono degli oggetti per ora ignoti, e la notazione va intesa nel modo seguente:

j=1,2,3 indica le tre direzioni cartesiane x,y,z. Quindi x1=x , x2=y , x3=z. γP è quindi solo un modo rapido di scrivere quella somma di termini, comprendenti tutte le direzioni spaziali cartesiane.

Affinché valga l’uguaglianza con la Klein-Gordon tramite la differenza dei quadrati le misteriose γμ devono soddisfare

in cui ημν è la metrica dello spazio-tempo della relatività ristretta. Infatti per avere uguaglianza deve essere

e questa condizione può essere soddisfatta solo se vale la relazione scritta sopra, che lega la metrica ημν con gli oggetti γμ.

La richiesta di un’equazione con derivata temporale al primo ordine ha quindi generato due possibili equazioni relativistiche:

le quali descrivono particelle aventi energia di segno “opposto” (per saperne di più sulla questione dell’antimateria e l’equazione di Dirac clicca qui).

L’uguaglianza del loro prodotto con la Klein-Gordon impone poi che gli oggetti γμ debbano essere delle matrici quattro-dimensionali con delle ben determinate regole di composizione legate alla metrica dello spaziotempo. Non solo, la forma matematica di queste equazioni impone che la funzione d’onda ψ trasformi in una maniera ben precisa sotto trasformazioni di Lorentz.

Fu la prima volta nella storia della Fisica in cui una richiesta di struttura visiva della matematica portò a scoprire un’intera classe di nuovi oggetti matematici.

Tornando alla notazione con le derivate scritte in una forma più elegante:

otteniamo la forma dell’equazione di Dirac che si stampa sulle magliette:

È cruciale il fatto che ora possiamo interpretarla proprio come una sorta di decomposizione della Klein-Gordon per far sì di ottenere solo derivate di primo grado nel tempo. Nonostante ciò, è in realtà è più proficuo (dal punto di vista teorico) interpretare questa equazione come l’equazione del moto di una teoria di campo costruita per le particelle che trasformano come una rappresentazione di spin 1/2 sotto trasformazioni di Lorentz (se vuoi saperne di più sul perché classifichiamo le particelle come rappresentazioni di spin clicca qui).


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg


Perché è stato necessario teorizzare il bosone di Higgs? Demistificando la rottura di simmetria

Sono passati quasi 10 anni, e il bosone di Higgs rimane ancora l’ultima grande scoperta del CERN.
Per molti ciò ha chiuso un capitolo della fisica delle particelle, in quanto l’Higgs rappresentava l’ultimo pezzo del puzzle del Modello Standard, la teoria che ad oggi descrive tutto il mondo subatomico.

Il Modello Standard con tutte le particelle e i bosoni mediatori

Tuttavia rimane ancora un po’ di “misticismo” attorno al ruolo teorico giocato da questa particella, che è stata impropriamente soprannominata “la particella di Dio” in più occasioni. Il suo ruolo dovrebbe essere quello di “dare massa” alle particelle del Modello Standard, ma in che senso ciò avviene? E perché serve proprio il campo di Higgs per dare massa a un qualcosa che la massa (nel nostro immaginario) ce l’ha già di per sé?

Il campo di Higgs (da cui nasce il suo bosone come fluttuazione quantistica) non descrive un’interazione fondamentale, e non ha radici teoriche nei princìpi primi.
Ma allora, perché non potevamo fare a meno di teorizzarlo?

In realtà il campo di Higgs è uno strumento teorico che permette il funzionamento di un meccanismo ben preciso. La rivelazione sperimentale del bosone ha solo confermato che il meccanismo è stato azzeccato appieno.

Al contrario delle interazioni fondamentali, il campo di Higgs non è venuto a cercarci, siamo stati noi a invocarlo per poi verificarne l’esistenza

Vediamo quali sono i punti concettuali che hanno fatto sorgere l’esigenza del meccanismo di Higgs.

L’elettrodinamica e le simmetrie: squadra che vince non si cambia

Tra le quattro forze fondamentali, la prima che fu spiegata con una teoria quantistica di campo fu l’elettromagnetismo. Come spiegato in un precedente articolo, si scoprì negli anni ’30 che il modo più semplice per descrivere l’interazione elettromagnetica tra le particelle era quello di richiedere che la teoria fosse simmetrica sotto una particolare trasformazione che chiamiamo “θ“.
Il campo elettromagnetico è noto, nel gergo tecnico, come campo di gauge. I campi di gauge trasformano in una maniera particolare sotto la “θ“, in modo da far sì che le equazioni del moto (e quindi la Fisica del sistema) rimangano invariate.
D’altro canto, gli oggetti che compongono la teoria quantistica delle particelle (cioè i campi) non lasciano invariata la Fisica del sistema una volta che li trasformiamo sotto la “θ“. La trasformazione produce purtroppo dei pezzetti in più, e la teoria non è quindi invariante. Un modo per cancellare i pezzetti in più è quello di accoppiare il campo di gauge con il campo della particella.

La cosa stupefacente è che questo accoppiamento è perfettamente sufficiente per descrivere tutti i fenomeni di interazione tra le particelle con la teoria. Il mediatore dell’interazione diventa proprio il campo di gauge.

Abbiamo ottenuto un’interazione a partire da una questione che apparentemente non c’entrava proprio nulla, e cioè la richiesta di simmetria sotto una certa trasformazione.

Il meccanismo con cui otteniamo le interazioni in teoria quantistica dei campi

Il campo mediatore tra le particelle per una teoria di campo che conservi la carica elettrica (la quantità conservata sotto la trasformazione “θ“) è proprio il campo elettromagnetico, il cui bosone (cioè le oscillazioni del campo) è noto come fotone.

Questa tecnica di accoppiamento con un campo di gauge funzionò così bene che oggi l’elettrodinamica quantistica è ritenuta essere la teoria scientifica meglio testata di sempre.

Nel momento in cui si presentò il problema di descrivere le altre due interazioni subatomiche, cioè l’interazione debole e l’interazione nucleare forte, si decise di seguire un vecchio motto: squadra che vince non si cambia. Si cercò quindi di scrivere una teoria di campo per le interazioni a partire da princìpi di simmetria e introducendo altri campi di gauge.

L’interazione debole e il problema della massa

Per garantire la simmetria della teoria, il campo di gauge deve godere di una caratteristica fondamentale: i suoi quanti di eccitazione (cioè i suoi bosoni), devono avere massa nulla. Se il campo di gauge ha massa, non si può garantire la simmetria della teoria quantistica con la tecnica esposta sopra. Fortunatamente questa condizione è soddisfatta dal fotone, il quale ha notoriamente massa nulla.
Ma non è detto che saremo sempre così fortunati.

C’è infatti una differenza sostanziale tra interazione elettromagnetica e interazioni deboli: la prima è a raggio di azione infinito, mentre le seconde sono confinate alle dimensioni nucleari. Come spiegato in un precedente articolo, ciò significa che i bosoni mediatori delle interazioni deboli devono essere massivi, al contrario del fotone elettromagnetico, che non ha massa. Quindi se dovessimo introdurre dei campi di gauge per costruire una teoria dell’interazione usando la tecnica della simmetria, questi dovrebbero essere massivi, ma allora dovremmo sacrificare la simmetria, e quindi anche le quantità conservate che da essa derivano.

Si arrivò a un punto in cui si ritenne che il principio di simmetria di gauge fosse indispensabile per descrivere le interazioni fondamentali, quindi le teorie del Modello Standard vennero scritte usando campi di gauge senza massa, così come le particelle coinvolte.
Che cosa da pazzi, sacrificare la massa pur di avere la simmetria!

Il colpo di genio fu quello di immaginare che i bosoni di gauge, così come le particelle, acquisissero massa spontaneamente, con un particolare meccanismo alle basse energie

L’approccio è simile a quello che si usa quando si studia il moto di una particella massiva avente energia relativistica “E” data da:

“p” è la quantità di moto della particella, “m” è la sua massa.

Una particella senza massa ha energia data da “E=pc” (le particelle senza massa possono trasportare quantità di moto, come dimostrato dalle vele solari che sfruttano la pressione di radiazione). Tuttavia anche una particella massiva con grande quantità di moto può essere pensata in prima approssimazione come una particella a massa nulla

La massa può essere trascurata dentro la radice, se la quantità di moto è molto più grande di lei.

L’intenzione era quindi quella di teorizzare le interazioni fondamentali usando particelle senza massa ad alte energie, in modo da garantire la simmetria di gauge. Alle basse energie le masse sarebbero dovute emergere naturalmente, senza appiccicarcele manualmente, perché tale intervento romperebbe la simmetria di gauge accuratamente costruita. Serviva un particolare escamotage teorico affinché questo funzionasse.

Si decise di lasciare che la simmetria si rompesse da sola, spontaneamente, usando un escamotage teorico

Lungo e corto raggio: un’analogia per la rottura di simmetria

Per capire il meccanismo della rottura spontanea di simmetria a livello intuitivo, facciamo un’analogia con un sistema fisico più intuitivo, caratterizzato da una grossa simmetria.
Consideriamo il reticolo di un ferromagnete: ogni molecola del reticolo può essere pensata, per convenienza di ragionamento, come una bussola il cui “ago magnetico” punta, in una configurazione di minima energia, nello stesso verso del campo magnetico locale. Ciò succede se supponiamo che ogni ago magnetico sia a sua volta una sorgente di magnetismo e che riesca a interagire con gli aghi magnetici vicini al suo sito.
L’allineamento è contrastato dall’agitazione termica:

  • Ad alte temperature l’orientamento degli aghi magnetici è casuale, perché l’agitazione termica è ben più forte delle interazioni locali. In media troveremo tanti aghi allineati in un verso, quanti ne troveremo allineati in verso opposto, il risultato netto è una magnetizzazione nulla.
  • A basse temperature la configurazione di minima energia è quella in cui tutti gli aghi sono allineati nello stesso verso e il materiale acquista una magnetizzazione media diversa da zero.

Quale delle due situazioni ha maggiore simmetria geometrica? Si tenderebbe a pensare che sia la seconda, dato che siamo abituati a pensare la simmetria come un “grado di ordine” delle cose. Per lo stesso motivo potremmo sostenere che l’acqua sia più simmetrica quando si solidifica in ghiaccio, rispetto alla sua fase liquida.
In realtà la simmetria va pensata come segue:

“Io eseguo una trasformazione mentre tu chiudi gli occhi, quando li riapri possono succedere due cose: se vedi che il sistema è uguale a prima, allora la trasformazione era una simmetria del sistema, se invece vedi che il sistema è cambiato, quella trasformazione non era una simmetria.”


Il moto delle particelle agitate termicamente è molto più simmetrico, perché possiamo eseguire qualsiasi rotazione geometrica e il sistema rimarrà uguale a se stesso (nel nostro esempio continueranno a esserci tanti aghi magnetici allineati in qualsiasi direzione, con un risultato netto nullo). Le molecole sono così tante e in una disposizione così caotica che non avremmo modo di accorgerci di qualsiasi rotazione attorno a qualsiasi asse.

A sinistra un dipinto caotico di Marc Quinn, a destra lo stesso dipinto ruotato di 180 gradi. Difficile notare la differenza, eh?

Se ora abbassiamo la temperatura il sistema si “irrigidisce” e perde molta simmetria, gli aghi magnetici si dispongono in una situazione di energia minima allineandosi tutti, e ora una rotazione manda il sistema in se stesso solo se la eseguiamo attorno all’asse di magnetizzazione.

Il sistema ha ridotto spontaneamente la simmetria iniziale una volta scelto lo stato energetico più basso!

La simmetria non viene però semplicemente rotta e dispersa, ma viene tradotta in una certa libertà: l’allineamento degli aghi può comunque avvenire in qualsiasi direzione dello spazio in maniera casuale. Il sistema può scegliere di allinearsi lungo tantissime direzioni diverse, tuttavia una volta scelta un’orientazione si stabilizza solo in quella e in nessun’ altra. La simmetria è rotta dalla particolare scelta dell’orientamento, ma tale scelta è comunque casuale per via della simmetria globale iniziale.

In figura sono mostrati due stati di minima energia tra i quali il sistema può scegliere. Questi due stati sono differenziati da una rotazione simultanea di tutti gli aghi magnetici, ma il livello energetico è lo stesso

Non costa energia trasformare uno stato di minima energia in un altro alla stessa energia

Nel gergo della fisica teorica, se una certa interazione non costa energia, può essere descritta da un quanto di vibrazione senza massa.
Che succede se invece di ruotarli tutti assieme, ruotiamo un solo aghetto magnetico rispetto agli altri? Questo ci costerà energia! Invece nello stato di massima energia questa azione non sarebbe costata così tanta energia, per via dell’agitazione termica. Ora è come se l’interazione fosse descritta da un modo di vibrazione massivo.
Il motivo è che costa più fatica portare in cima a una collina una massa più grande rispetto a una massa più piccola. Se la massa più piccola diventa nulla, costerà nessuna fatica muoverla nel campo gravitazionale.

I modi di vibrazione che erano senza massa ad alta energia, diventano massivi a bassa energia.

L’accoppiamento con il campo di Higgs

La grossa simmetria di gauge del Modello Standard alle alte energie è composta da tre simmetrie principali, che vengono indicate con dei nomi simpatici a cui non devi badare troppo:

La simmetria di gauge del Modello Standard

Alle alte energie le interazioni deboli sono un tutt’uno con le interazioni elettromagnetiche, e in totale l’interazione elettrodebole risultante è descritta da quattro campi di gauge senza massa.
Tuttavia le interazioni deboli devono prevedere dei bosoni di gauge massivi, per fare previsioni sperimentali accurate.
Per salvare le simmetrie di gauge e al contempo avere dei bosoni di gauge massivi, i fisici teorici decisero di introdurre un’interazione ad hoc con un campo chiamato “campo di Higgs”, caratterizzato da un potenziale a forma di cappello messicano:

Il potenziale del campo di Higgs. Sulla cima del cappello l’energia è maggiore che sulla valle. Tutti i punti della valle sono alla stessa energia,.

Possiamo immaginarlo di nuovo come una collina: ciascuna particella sulla sommità preferirà rotolare verso il basso e stabilizzarsi in una situazione di minima energia. Il campo di Higgs può assumere spontaneamente una valore di minimo in ogni punto della valle nel cappello messicano.
Siccome nella teoria quantistica dei campi i valori medi sono un’indicazione del numero di particelle in un determinato stato, possiamo dire che la sommità del cappello rappresenta uno stato poco popolato con valore medio nullo del campo di Higgs, mentre la valle è uno stato densamente popolato con valore medio diverso da zero per il campo di Higgs. Popolato da chi? Da bosoni di Higgs, cioè i quanti di eccitazione del campo. Questo è analogo alla magnetizzazione degli aghi magnetici, che aveva valore medio nullo alle alte energie, mentre alle basse energie acquisisce un valore medio diverso da zero.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Se ora accoppiamo il campo di Higgs con i campi del Modello Standard, cioè sia i campi di gauge che i campi delle particelle, abbiamo una rottura spontanea di simmetria alle basse energie.
L’accoppiamento va scelto saggiamente, perché vogliamo far acquisire massa solo ai bosoni dell’interazione debole. Per far ciò possiamo costruire il campo di Higgs in modo che trasformi come un oggetto appartenente allo spazio di simmetria SU(2), che è la simmetria caratteristica dell’interazione debole.

La simmetria iniziale di gauge da cui siamo partiti viene ora utilizzata per scegliere una posizione qualsiasi sul cappello messicano. Infatti ricordiamo: una trasformazione dei campi di gauge non cambia la fisica, e questa libertà può essere utilizzata per scegliere una determinata configurazione in cui l’universo andrà a sostare.
Ciò è analogo al modo in cui gli aghi magnetici erano liberi (per via della simmetria iniziale) di scegliere un’orientazione privilegiata a basse temperature, ed una volta scelta, si stabilivano lì.

L’accoppiamento tra i campi di gauge e il campo di Higgs fa sì che ora non tutte le direzioni di movimento sul cappello messicano siano gratuite: se volessimo risalire lungo la collina ci costerebbe un po’ di energia. Questo costo in energia viene interpretato come un modo di vibrazione massivo. I bosoni delle interazioni deboli, tramite un particolare formalismo matematico, si mischiano tra di loro per via di una particolare scelta della configurazione nello spazio della simmetria iniziale ed acquisiscono massa. Con un altro speciale tipo di accoppiamento acquisiscono massa anche le particelle del Modello Standard!

Siccome la “rottura” di simmetria avviene spontaneamente alle basse energie, abbiamo salvato la simmetria iniziale alle alte energie e le teorie di campo hanno una forma elegante e sperimentalmente solida.

Una visualizzazione pittorica del campo di Higgs e delle particelle frenate da questo “fluido universale”.

In un certo senso il campo di Higgs può essere pensato come un fluido che permea l’universo, e in questo fluido le particelle senza massa (che si muoverebbero alla velocità della luce) vengono “frenate” dal campo di Higgs come se ci fosse un certo attrito, che è il risultato dell’accoppiamento.
Il risultato è che le particelle non si muovono più alla velocità della luce, perciò hanno una massa ben precisa, predetta dal meccanismo di Higgs.

Il risultato del mixing dei campi di gauge dopo la rottura di simmetria corrisponde a tre bosoni di gauge massivi e uno senza massa.
I tre bosoni massivi corrispondono ai mediatori dell’interazione debole alle basse energie, mentre il bosone senza massa corrisponde a quello dell’elettromagnetismo, cioè il fotone.

La verifica sperimentale della massa del bosone di Higgs ha permesso di verificare con grande precisione tutte le previsioni sulle masse dei bosoni dell’interazione debole e sulle masse delle particelle del Modello Standard (con poche eccezioni come i neutrini, che rimangono ancora oggi un grande mistero).

Che mondo imperfetto sarebbe se ogni simmetria fosse perfetta!

B.G. Wybourne

PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Come una simmetria fa nascere la teoria dell’elettromagnetismo

Gran parte del lavoro della fisica degli ultimi 70 anni è stato quello di scovare nuove leggi della natura a partire da princìpi di simmetria. Un esempio di questo modo di lavorare può essere fornito andando a re-inventare la ruota, cioè analizzando l’emergere della teoria dell’elettromagnetismo (studiata e compresa da ormai un secolo e mezzo) da un principio di simmetria.

L’identikit di una simmetria

Se mi chiedessero di riassumere ciò che i fisici teorici intendono con la parola magica “simmetria” tramite l’esempio più semplice possibile, userei questo:

Stai osservando un sistema fisico e nel mentre che chiudi gli occhi eseguo una certa trasformazione del sistema in modo che quando li riapri per te non è cambiato nulla: allora quella trasformazione è una simmetria del sistema.

Esistono simmetrie più intuitive e meno astratte di altre, e quelle della meccanica quantistica sono decisamente poco intuitive. Per questo motivo la nostra strategia sarà quella di cercare delle analogie con le simmetrie geometriche, con cui abbiamo più confidenza.

Prima di poter apprezzare il discorso è però necessario passare un piccolo purgatorio di matematica dei numeri complessi, perché è li che si nasconde la simmetria che fa nascere l’elettromagnetismo.

La natura complessa della quantistica

La meccanica quantistica studia il moto delle particelle tramite le funzioni d’onda che “vivono” in uno speciale spazio matematico.
Si scoprì presto che, per riprodurre i risultati sperimentali a partire dalla teoria, tale spazio matematico doveva essere a valori complessi. Perché? Semplicemente è più facile fare i conti con i numeri complessi, ed alcune proprietà fisiche appaiono più evidenti.

In ogni punto dello spazio, il valore della funzione d’onda è rappresentato da un numero complesso: cioè una freccia sul piano di Gauss.

Se non hai molta dimestichezza col concetto di numero complesso, può aiutare un’analogia.
L’essenza matematica è molto simile a quella di un vettore sul piano cartesiano, dove con “vettore” devi sostituire “numero complesso” e con “piano cartesiano” devi sostituire “piano di Gauss”.

Le analogie non finiscono qui!

  • Proprio come un vettore, un numero complesso può allungarsi, accorciarsi, ribaltarsi, e in generale ruotare sul piano di Gauss.
  • La lunghezza di un vettore è un numero reale ed è chiamata in gergo ”modulo”.
  • La “lunghezza“ di un numero complesso è un numero reale ed è chiamata in gergo ”modulo”.

I numeri complessi godono però di alcune proprietà aggiuntive che tornano molto comode nei calcoli, per cui vanno in ogni caso ben distinti dai vettori.

Nota bene: ciò che calcoliamo dalle misure negli esperimenti sono i numeri reali, non i numeri complessi.
Per questo motivo la funzione d’onda di una particella è stata interpretata dai fisici come un numero complesso il cui modulo al quadrato restituisce un numero reale che è la densità di probabilità

La funzione d’onda di una particella è un numero complesso il cui modulo al quadrato (numero reale) viene interpretato come la probabilità di trovarla in un certo punto dello spazio.

dove la probabilità è in un certo senso ciò che si manifesta sperimentalmente, e quindi è la connessione tra mondo teorico e mondo degli esperimenti. Tutti i calcoli della meccanica quantistica hanno lo scopo di arrivare a una stima della probabilità.

La cosa interessante è che la definizione di probabilità come modulo quadro della funzione d’onda ci lascia una certa libertà: potremmo moltiplicare la funziona d’onda per un altro numero complesso “z” avente modulo uguale a uno, e la probabilità rimarrebbe la stessa

Se il numero complesso z ha modulo uguale a uno, la sua moltiplicazione con la funzione d’onda non ha alcun effetto sulla probabilità.

Dal punto di vista del mondo reale non è cambiato nulla (la probabilità è la stessa), ma dal punto di vista matematico la moltiplicazione per il numero “z” ha trasformato, in ogni punto dello spazio, il valore della funzione d’onda.

“Trasformato? Che vuol dire? Non è un semplice prodotto algebrico quello che abbiamo appena visto?"

Lo sarebbe se stessimo parlando di numeri reali. Tuttavia una proprietà molto interessante dei numeri complessi è che quando li moltiplichiamo tra loro otteniamo una rotazione sul piano di Gauss.
La trasformazione prende il nome gergale “trasformazione di fase”.

Il numero complesso A viene ruotato di un angolo pari all’inclinazione del numero complesso B. Il risultato è un numero complesso AB ruotato.

La matematica della meccanica quantistica ci dà la libertà di trasformare il valore complesso delle funzioni d’onda in ogni punto dello spazio, senza intaccare la probabilità di osservazione che esse descrivono.

L’atto di trasformare un oggetto con il risultato di lasciare intatta una certa quantità (come la probabilità che osserviamo) corrisponde proprio all’identikit di una simmetria.

“Non mi convincono troppo queste parole altisonanti. “Simmetria" mi fa pensare più a una cosa geometrica, mentre mi pare di capire che qui siano solo astrazioni matematiche..."

Però abbiamo appena visto che la trasformazione di fase è parecchio analoga a una rotazione!

“Vorrai mica dire che c'è un modo per rendere più intuitive tutte queste astrazioni?"

Le interpretazioni di una simmetria: la teoria dei gruppi

Considera un quadrato disteso su un piano e immagina di chiudere gli occhi mentre io ruoto il quadrato di 5 gradi. Quando riapri gli occhi sei in grado di capire se ho eseguito una rotazione o meno?

Il quadrato iniziale (linea tratteggiata), e il quadrato dopo la rotazione di 5 gradi (linea continua).
“Mi prendi per uno stolto? Il quadrato ora è diverso da prima, è un po' più storto! Come fai a pretendere che non mi accorga della trasformazione?"

Ciò è successo perché la trasformazione “rotazione di 5 gradi” non è una simmetria del quadrato. Il quadrato non è rimasto identico a se stesso.

Un quadrato rimane identico a se stesso se invece lo ruotiamo per alcuni angoli speciali:

  • Possiamo non fare nulla, cioè ruotarlo di 0 gradi, e il quadrato rimane identico a se stesso.
  • Possiamo ruotarlo di 90 gradi e il quadrato rimane identico a se stesso.
  • Possiamo ruotarlo di 180 gradi e il quadrato rimane identico a se stesso.
  • Possiamo ruotarlo di 270 gradi e il quadrato rimane identico a se stesso.

In sostanza se io avessi eseguito una qualsiasi delle suddette rotazioni mentre tenevi gli occhi chiusi, dopo non saresti in grado di dirmi se io abbia trasformato il quadrato o meno.
In gergo gli angoli {90, 180, 270, 0} formano un gruppo: il gruppo di simmetria del quadrato.

Una rotazione di 90 gradi lascia il quadrato identico a se stesso.

Il nome “gruppo” si riferisce al fatto che se eseguissi due trasformazioni consecutive usando gli elementi del gruppo {90, 180, 270, 0} otterrei comunque una trasformazione che lascia invariato il quadrato, e quindi tale trasformazione deve fare anche lei parte del gruppo {90, 180, 270, 0}.
Ad esempio se ruoto di 90 e poi ruoto di 180, ottengo una rotazione totale di 270, che è un elemento del gruppo. Se ruoto di 270 e poi ruoto di 180 ottengo una rotazione di 450 gradi, che equivale a 90 gradi. Il gruppo è una “società chiusa“.

Spingendoci un po’ più sull’astratto desideriamo che un gruppo di simmetria, per ritenersi tale ai nostri occhi, abbia queste proprietà importanti:

  • Chiusura: se due elementi appartengono al gruppo, allora anche la loro composizione (cioè applico prima l’uno e poi l’altro) appartiene al gruppo. Lo abbiamo appena visto con le rotazioni.
  • Esistenza dell’identità: anche la trasformazione “non faccio nulla” deve appartenere al gruppo. Come ben sai, il “fare nulla” lascia le cose uguali a come erano prima.
  • Esistenza dell’inverso: se ruoto di 90 gradi e poi voglio tornare indietro, posso ruotare di altri 270 gradi e fare quindi un angolo giro di 360 gradi per tornare da dove ero partito. La composizione 90+270 equivale al “non fare niente”. Quindi diremo che l’elemento 270 gradi è la trasformazione inversa della rotazione di 90 gradi.

Il gruppo di simmetria del quadrato ha, come hai visto, pochi elementi. Esistono però gruppi con un numero infinito di elementi. Considera ad esempio un cerchio

Nel caso del cerchio qualsiasi angolo di rotazione è un elemento del gruppo di simmetria. Se chiudessi gli occhi e io ruotassi il cerchio di 13.42 gradi, dopo non sapresti dire se io abbia eseguito la rotazione o meno.
Il gruppo di simmetria del cerchio è definito da un angolo che può assumere infiniti valori.

“Tutto molto elegante, ma quindi? Non stavamo parlando di trasformazioni di fase?"

Le trasformazioni di fase: il gruppo U(1)

Abbiamo visto che le trasformazioni di fase che si fanno sulle funzioni d’onda sono delle rotazioni nel piano di Gauss, e la notizia è che sono molto simili al gruppo di simmetria del cerchio. Il loro collettivo ha un nome speciale: gruppo U(1).

Un elemento del gruppo può essere rappresentato da un esponenziale avente come esponente l’angolo di cui si sta facendo la rotazione.

“i” è l’unità immaginaria dei numeri complessi: la radice quadrata di -1.

Questa rappresentazione esponenziale degli elementi del gruppo rende più evidenti le proprietà dei gruppi elencate sopra:

Quindi la trasformazione di fase U(1) ha pieno diritto di essere considerata un gruppo di simmetria.

Quando trasformiamo una funzione d’onda moltiplicandola per un elemento del gruppo U(1), stiamo ruotando il suo valore sul piano complesso in ogni punto dello spazio in cui la funzione d’onda è definita. Se facciamo il modulo quadro di questo prodotto, l’effetto è quello di effettuare una rotazione inversa: la composizione delle due cose restituisce l’identità, cioè il non fare niente.

“Continuo a non capire perché porre tanta enfasi sulle simmetrie. È un accidente matematico e nulla di più, perché perderci tutto questo tempo?"

Il motivo di tanta enfasi è il teorema di Noether.

Simmetrie e conservazione

Il teorema di Noether garantisce che per ogni simmetria debba esserci una quantità conservata. Ad esempio se un sistema fisico ha lo stesso gruppo di simmetria del cerchio, la quantità conservata è il momento angolare nel tempo.

È lecito chiedersi quale quantità conservata si nasconda dietro la simmetria U(1).

La teoria della relatività impone che la teoria più semplice per la descrizione di una particella libera sia quella di Dirac

La teoria di Dirac per una particella libera di spin 1/2 e massa m.

Dove la parte di sinistra descrive un cambiamento della funzione d’onda nello spaziotempo, e la parte di destra descrive la massa “m” della particella.

La parte sinistra della teoria di Dirac coinvolge una derivata rispetto alle coordinate spaziotemporali, cioè calcola le variazioni della quantità su cui agisce. In questo caso agisce sulla funzione d’onda a destra.

La teoria di Dirac è stata costruita in modo da essere simmetrica rispetto a una trasformazione di fase globale. Le due funzioni d’onda scritte sopra trasformano infatti in modo opposto sotto una trasformazione U(1)

In modo che il loro prodotto rimanga invariato

La trasformazione di fase globale, ripetiamo ancora una volta, ha l’effetto di ruotare simultaneamente in ogni punto dello spaziotempo il valore della funzione d’onda nel piano di Gauss. In sostanza il valore dell’angolo di rotazione θ è uguale per tutti i punti dello spaziotempo.

Siccome θ è una costante (cioè uguale in tutti i punti dello spazio tempo, da cui il nome globale), la parte di variazione della teoria di Dirac è anch’essa lasciata intatta dalla trasformazione

L’angolo θ non dipende dallo spaziotempo e la derivata non ha effetto su di lui.

Questa simmetria della teoria di Dirac genera una quantità conservata molto importante: la differenza tra numero di particelle e numero di antiparticelle.

Tuttavia la relatività vieta che la trasformazione di una fase in un certo punto dello spaziotempo possa ruotare istantaneamente la fase in un altro punto.

Richiediamo che debba esserci un “tempo di propagazione diverso da zero” tra un punto e l’altro.
L’unico rimedio è assumere che l’angolo di rotazione θ abbia un valore diverso punto per punto nello spaziotempo e che la trasformazione si propaghi ad una velocità finita, trasmessa da un qualche campo ignoto che siamo costretti a introdurre nella teoria:

Introduzione di un campo ignoto nella teoria per fare da mediatore nella trasmissione dell’informazione sulla fase tra i punti dello spaziotempo. “q” è una costante ignota.

Inoltre ora la teoria di Dirac ha perso la simmetria U(1), in quanto la parte di variazione comprende sia la variazione della funzione d’onda, sia la variazione dell’angolo che passa da θ costante a θ(x) funzione dello spaziotempo:

La richiesta che l’angolo di rotazione dipenda dallo spazio rompe la simmetria globale U(1)

quel termine aggiuntivo a destra rovina la festa, perché l’espressione non rimane uguale a se stessa dopo la trasformazione!

“Mi pare che andiamo di male in peggio. Ora non solo dobbiamo aggiungere alla teoria un campo ignoto per rispettare la relatività, ma abbiamo anche un pezzo in più dovuto alla variazione dell'angolo θ(x)! 

Non ha proprio nulla di simmetrico, non ne usciremo mai!"

Siccome nella realtà nessun esperimento è in grado di rivelare questo cambiamento di fase θ(x) che abbiamo effettuato matematicamente, vorremmo eliminare questa imbarazzante rottura della simmetria nella matematica della nostra teoria. E se la via d’uscita fosse proprio il campo ignoto che siamo stati costretti a postulare?

Per preservare sia la simmetria U(1) che la relatività ristretta, possiamo imporre che la nostra teoria sia simmetrica rispetto a un nuovo tipo di trasformazione.

Ad esempio una trasformazione del tipo:

Per quale motivo proprio questa trasformazione? Furbizia!
Infatti facendo entrambe queste trasformazioni, i termini aggiuntivi si eliminano e la nostra teoria rimane invariata, cioè abbiamo di nuovo una simmetria, che chiamiamo per ragioni storiche “simmetria U(1) di Gauge“.

L’azione combinata di entrambe le trasformazioni fa in modo di cancellare il termine aggiuntivo, la teoria è ora simmetrica.

Nasce l’elettrodinamica quantistica

Tramite alcune ragionevoli considerazioni si dimostra che il famigerato campo ignoto non è altro che il campo elettromagnetico. La teoria di Dirac descrive il comportamento delle particelle cariche in presenza di un campo elettromagnetico!

La costante “e” rappresenta la carica dell’elettrone, se vogliamo descrivere l’interazione di un elettrone con un campo elettromagnetico rappresentato da “A”.

Si è presentata la necessità dell’esistenza del campo elettromagnetico nel momento in cui abbiamo richiesto che venisse rispettata la relatività ristretta assieme alla simmetria U(1). Ciò ci ha condotto a considerare un nuovo insieme di trasformazioni sotto le quali la teoria è simmetrica: la U(1) di Gauge.

Inoltre la quantità conservata sotto questa nuova simmetria è proprio la carica elettrica.

La teoria ottenuta da queste considerazioni è nota come elettrodinamica quantistica, ed è la teoria del modello standard meglio verificata sperimentalmente.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Come l’antimateria nasce dalla relatività

Antiparticella = particella di uguale massa, ma con carica elettrica opposta

Il concetto di antimateria si è imposto praticamente da solo e prepotentemente, senza che nessuno lo abbia cercato di proposito, nel momento in cui sono state unificate meccanica quantistica e relatività ristretta alla fine degli anni ’20. Le prove sperimentali arrivarono fin dai primi anni ’30.
Oggi siamo in grado di produrre antimateria anche a fini medici (si pensi alla PET dove si sfruttano gli anti-elettroni, noti come positroni).

Ha un fascino particolare provare a seguire il percorso concettuale che, dalla relatività di Einstein, ha condotto alla teorizzazione dell’antimateria (dovuta a Dirac).

Facciamo finta di star scoprendo noi stessi il concetto di antiparticella in questo momento, e ripercorriamo tutte le tappe logiche fondamentali in cui potremo apprezzare il ruolo fondamentale giocato dalla teoria di Einstein.

L’energia di una particella

Nella meccanica quantistica ordinaria l’energia di una particella libera avente una quantità di moto p e una massa m si trova inserendo dentro l’equazione di Schrödinger la soluzione di onda piana (che è il modo quantistico di dire “particella esente da forze”). Il risultato è

La relatività di Einstein impone invece che tale espressione matematica per l’energia sia solo la versione approssimata della seguente

c è la velocità della luce

nell’approssimazione di quantità di moto molto piccole rispetto all’energia di massa. Fin qui nessun problema, la Fisica funziona così: quella che oggi sembra la forma definitiva di un’equazione, sarà l’approssimazione della versione più completa scoperta in futuro.

Il vero problema nasce quando si tenta di rendere l’equazione di Schrödinger relativistica

Lo schema è lo stesso: l’equazione non relativistica è solo l’approssimazione di quella relativistica, la quale, ad oggi, è la “vera equazione del moto” in quanto rispetta il principio di relatività di Einstein.

Il principio di relatività cambia la struttura matematica dell’equazione di Schrödinger, e se si prova a calcolare l’energia di una particella libera inserendovi al suo interno una soluzione di onda piana, si ottiene stavolta l’energia in questa forma curiosa e problematica

“Scusa, ma dove sta il problema? Abbiamo appena detto che la vera energia di una particella è data da quell'espressione brutta con m e c al quadrato e così via, non siamo contenti che l'equazione relativistica di Schrödinger restituisca la stessa energia per la particella libera?"

Il punto è che la struttura matematica dell’equazione di Schrödinger relativistica ci pone ora dinanzi a due vie, perché non ci dà l’energia, ma l’energia al quadrato!

Prima o poi nella vita siamo stati tutti mazziati dalla seguente proprietà matematica:

Ora il gioco è lo stesso, per la prima volta in Fisica l’equazione del moto di una particella esente da forze ci impone che l’energia possa essere data sia da un numero negativo che da un numero positivo

“E che ci vuole? Buttiamo via la soluzione negativa come si fa a scuola. Non esistono particelle libere con energia negativa!"

Facciamo però l’avvocato del diavolo e scegliamo di ascoltare la matematica imposta dalla relatività ristretta (ha sempre portato bene nella storia della Fisica!). Facciamo finta che possa esistere una particella ad energia negativa.

Come si comporta una particella di energia negativa?

L’energia in meccanica quantistica è importante perché ci dice come si evolve, nel tempo, la dinamica di una particella. Tale evoluzione è descritta, in soldoni, da

è insomma un esponenziale di un certo numero (di Eulero) avente come esponente il prodotto tra il numero complesso “i”, l’energia “E” e il tempo “t”. Non soffermarti sul perché, non è questo il punto.

Concentrati solo sul fatto che l’evoluzione dipende dal prodotto tra energia e tempo.

Se l’energia di una particella è negativa, il prodotto viene mandato in:

Ed ora è il momento di dire la cruda verità: ai fisici non piace per niente il fatto che le particelle possano avere energie negative, perché ci sarebbero non pochi problemi riguardo alla stabilità stessa della materia (mancherebbe un limite inferiore all’energia, un fatto molto pericoloso perché la natura vuole sempre occupare stati a energia minore).

Ma allora è tutto da buttare?


Continuiamo a fare gli avvocati del diavolo. Forse c’è un modo interessante di interpretare quel segno meno nel prodotto.

Continuiamo a seguire ciò che ci ha insegnato la relatività ristretta sulla struttura spaziotemporale della nostra realtà.

Questione di interpretazione: lo spaziotempo di Einstein

Supponiamo di osservare due eventi (contrassegnati da “1″ e “2″) che accadono in due punti dello spazio e a due istanti di tempo diversi. Li annotiamo sul nostro taccuino come

Ipotizziamo che, secondo noi, l’evento 1 sia avvenuto prima dell’evento 2. Matematicamente chiediamo quindi che sia

Se un altro osservatore in moto con una velocità costante “v” rispetto a noi osserva gli stessi eventi, annoterà anche lui i due eventi sul suo taccuino usando le sue personalissime coordinate

Einstein ci ha insegnato a collegare le due descrizioni dello stesso evento con la seguente trasformazione:

dove “γ” è una quantità positiva che dipende dalla velocità, di cui non devi preoccuparti.

Preoccupiamoci invece di sottrarre le due equazioni di sopra per ottenere la differenza tra gli istanti di tempo dei due eventi rilevati dall’osservatore in moto, rispetto alle nostre coordinate (così per curiosità, perché non farlo?)

La matematica della relatività ci tenta di porre la seguente domanda “e se la differenza tra i due istanti di tempo per il secondo osservatore fosse negativa?”. Ciò si tradurrebbe in:

La seconda condizione è possibile se la velocità del secondo osservatore è tale che

A patto però, come dicono le regole di Einstein, che v non superi la velocità della luce. Cioè deve essere

L’ultima condizione ci dice che la distanza spaziale tra i due eventi deve essere maggiore della distanza percorsa da un raggio di luce (di velocità c) nel tempo che intercorre tra i due eventi stessi. Se gli eventi soddisfano questa particolare caratteristica, allora è possibile trovare un osservatore con una velocità v tale da rendere

ovvero l’ordine degli eventi è invertito per il secondo osservatore: secondo lui è successo prima l’evento “2″ dell’evento “1”.

In relatività ristretta è permesso che l’ordine temporale degli eventi possa essere invertito dal punto di vista di un osservatore in moto

“Aspetta un attimo, ma questo mi consentirebbe di vedere la gallina prima dell'uovo, no? Non c'è un problema di causa-effetto?"

Ottima osservazione, ma non c’è nessun problema! Infatti l’inversione temporale avviene solo per eventi che non possono essere connessi da alcuna relazione causale: non ci può essere trasmissione di informazioni tra eventi che distano nello spazio più della distanza percorribile dalla luce nel tempo che li separa! Lo abbiamo incluso tacitamente nella condizione:

“Ok...e quindi? Cosa c'entrano nella fisica gli eventi senza connessione causale? La fisica è fatta di causalità! Mi pare che tu stia a chiacchierare di metafisica!“

Ora interviene la meccanica quantistica!

Per il principio di indeterminazione di Heisenberg, è possibile che una particella si propaghi da un punto all’altro dello spazio anche se questi due punti non sono connessi causalmente.

Se una particella viene emessa in un punto A ed assorbita in un punto B (e tali punti non sono causalmente connessi per ipotesi) allora un osservatore che si muove con una certa velocità (calcolata sopra), vedrebbe l’assorbimento della particella nel punto B in un tempo che precede l’istante in cui viene emessa nel punto A.

Come si esce da questo paradosso?

L’interpretazione di Feynman-Stückelberg

Il fisico americano Richard Feynman

Torniamo al prodotto tra energia e tempo per quanto riguarda l’evoluzione temporale di una particella. Avevamo detto che se l’energia è negativa abbiamo

Immagina che io ti abbia bendato gli occhi e avessi messo il segno meno davanti al prodotto senza dirti a quale fattore è stato applicato. Potrei benissimo aver cambiato segno a “t” invece che all’energia, senza dirti nulla. Il risultato è a tutti gli effetti equivalente:

Matematicamente non cambia nulla, ma il risultato è rivoluzionario:

Una particella di energia negativa può essere pensata anche come una particella di energia positiva che si muove indietro nel tempo!

Questa è l’interpretazione di Feynman-Stückelberg, i quali volevano cancellare dall’esistenza il concetto di energia negativa. Dal punto di vista delle interazioni tra le particelle, la relatività prevede l’inversione temporale, come abbiamo discusso sopra.

“Ma che senso ha questa propagazione indietro nel tempo? A me pare ancora che si stia parlando di metafisica qui..."

Hai ragione. Infatti bisogna sedersi un attimo e ragionare su cosa significhi, dal punto di vista fisico, l’inversione temporale.

L’interpretazione dell’inversione temporale

Generalmente classifichiamo le particelle in base al modo in cui si comportano nelle interazioni fondamentali. In particolare ci interessa studiarne la traiettoria in una regione in cui è presente un campo elettromagnetico.

L’accoppiamento tra una particella e un campo elettromagnetico ha un nome tutto suo: la carica elettrica “q”.

La forza elettromagnetica su una carica “q” modifica la sua traiettoria accelerandola.

Le particelle descrivono traiettorie in una certa direzione, in base al segno della carica “q”, che può essere positivo o negativo.

Tra tutti i simboli dell’equazione appena scritta, concentriamoci solo sul tempo “τ“. Ci sono solo due termini che contengono il tempo esplicitamente, ed entrambi si trovano al denominatore ed appaiono come

Se invertiamo il tempo, otteniamo che il termine a sinistra non cambia (essendo un quadrato). Quindi cambia solo il secondo e si ha

Quindi sotto inversione temporale compare un segno meno globale per tutta l’equazione.
Ora immagina di nuovo che io ti abbia bendato gli occhi e avessi fatto spuntare fuori questo segno meno senza dirti che ho invertito il tempo. Potresti benissimo interpretare il segno meno in questo modo

Dal punto di vista sperimentale, l’effetto è quello di aver invertito il segno della carica elettrica. Le equazioni del moto relativistiche ci dicono che invertire il tempo si traduce, sperimentalmente, come il moto di una particella di carica elettrica opposta.

Una particella di energia positiva che si muove indietro nel tempo può essere interpretata come una particella di energia positiva, ma con carica opposta, che si muove avanti nel tempo.

Ecco che sparisce tutta la stranezza dell’inversione temporale! Ed ecco cosa ci ha insegnato la relatività ristretta applicata alla meccanica quantistica!

Le particelle ad energia negativa possono essere interpretate come delle particelle ad energia positiva che si muovono avanti nel tempo, ma che hanno carica opposta.

Oggi abbiamo un nome particolare per questo tipo di particelle che differiscono dalle particelle originali solo per il segno della carica elettrica e degli altri numeri quantici: le antiparticelle.

Una particella di energia negativa può essere interpretata come un’antiparticella di energia positiva che si muove, come tutte le altre particelle, avanti nel tempo. L’antiparticella differisce dalla particella solo per il segno della carica elettrica e di altri numeri quantici.

In questo modo abbiamo risolto anche il paradosso enunciato sopra:

Mettiamo che io veda una particella emessa in un punto A ed assorbita in un punto B. Come ci dice la relatività un altro osservatore potrebbe invece vedere una particella assorbita in B in un istante che precede la sua emissione nel punto A (se A e B non sono connessi causalmente). Ma ora sappiamo che ciò equivale ad osservare una particella di carica opposta che viene emessa in B ed assorbita in A. La causalità è salva.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’Università di Pisa, fa ricerca sulle simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Come la particella di Majorana potrebbe rivoluzionare la Fisica

Perché il neutrino?

Le particelle più famose sono notoriamente:

ProtoneElettroneNeutrone
Carica elettrica: +1 -1 0
La carica è data in unità della carica elementare dell’elettrone.

le quali erano le uniche particelle note al tempo in cui si studiavano i primi meccanismi nucleari (agli inizi degli anni 30′). Furono proprio i primi esperimenti sui nuclei a suggerire l’esistenza di una nuova, inedita particella elementare.

Il decadimento beta dei nuclei
Negli esperimenti si notava che alcuni nuclei erano in grado di emettere spontaneamente degli elettroni, con il nucleo che di conseguenza finiva per trasformarsi in quello dell’elemento successivo nella tavola periodica.

 
“Aspetta rallenta un attimo, quindi gli elettroni stanno dentro al nucleo e poi vengono rilasciati? Non torna mica con il modellino dell'atomo che s'è fatto a scuola!"


No: gli elettroni non possono “vivere” dentro i nuclei, perché sono troppo leggeri. I nuclei sono abitati da protoni e neutroni. Quindi questa emissione doveva essere spiegata in un altro modo. La teoria proposta era questa:
Dentro al nucleo un neutrone può trasformarsi in un protone (ciò spiega l’aumento del numero atomico nucleare) al prezzo di produrre anche un elettrone (al fine di lasciare inalterata la carica elettrica originale).
La reazione dovrebbe quindi essere

Un neutrone nucleare si trasforma in un protone più un elettrone

Il protone rimane confinato nel nucleo, mentre l’elettrone riesce a sfuggire con una certa energia ben definita dal punto di vista teorico.

Sperimentalmente invece l’energia dell’elettrone era tutt’altro che ben definita, ma distribuita in un certo intervallo.

Questo poteva voler dire due cose: o l’energia totale non si conserva, o l’energia dell’elettrone viene un po’ distribuita anche in quella di una terza particella invisibile emessa nel decadimento

Nessuno vuole mai sacrificare il principio di conservazione dell’energia, ma allo stesso tempo negli esperimenti non si vedeva nessuna “terza particella”, quindi che alternative avevano i fisici?
Inoltre siccome il processo deve conservare la carica elettrica totale, partendo da un neutrone (che è neutro come dice il nome) e arrivando a un protone più un elettrone (la cui carica totale è nulla), l’aggiunta di una terza particella senza intaccare la carica totale sarebbe possibile solo se tale particella fosse neutra.


In sintesi la “terza particella” deve soddisfare questo identikit:

  • Deve essere neutra
  • Deve interagire poco con le altre particelle (il motivo per cui non la vediamo sperimentalmente)
  • Deve essere molto leggera (per spiegare i dati sperimentali).

Enrico Fermi propose il nome “neutrino” per ovvie ragioni (ma non perché è “figlio del neutrone”: sono particelle davvero molto diverse, non farti ingannare dal nome). La reazione completa è quindi

La reazione corretta con l’aggiunta del neutrino

Il problema della massa del neutrino

I dati sperimentali lasciavano presagire che il neutrino dovesse avere una massa piccolissima, e che dovesse essere strutturalmente analogo all’elettrone, ma con carica nulla.

Siccome le particelle vengono catalogate in base a come trasformano sotto le simmetrie, il neutrino trovò subito la sua perfetta catalogazione nel ruolo di “particella di spin 1/2 con massa molto piccola” .

Le particelle di spin 1/2 sono descrivibili con due blocchetti matematici fondamentali:

I campi L e i campi R

Non soffermarti sui loro nomi per ora, sappi solo che si riferiscono al modo in cui entrambi trasformano sotto la simmetria di Lorentz (per saperne di più leggi questo).

Solitamente le particelle di spin 1/2 come gli elettroni possono essere pensate come la composizione di questi due blocchetti L e R perché partecipano sia ai tipi di interazione L sia ai tipi di interazione R.

Ora un fatto importante:

Per costruire una particella di spin 1/2 massiva occorrono entrambe le componenti L e R

D’altra parte i neutrini, in tutti i processi noti, interagivano solo con la componente L. Questa fu una conferma del fatto che il neutrino dovesse avere una massa esattamente uguale a zero: infatti siccome interagisce solo con la parte L, e siccome non è possibile descrivere una particella massiva con solo la parte L senza una parte R (si otterrebbe una teoria che viola il principio di relatività), allora il neutrino poteva benissimo essere descritto con un unico blocchetto L e avere massa nulla.

Due piccioni con una fava: Ettore Majorana

Ogni particella ha la sua antiparticella (di uguale massa e con carica opposta): l’elettrone ha il positrone, il protone ha l’anti-protone e il neutrone ha l’anti-neutrone.

Le anti-particelle sono ciò che si ottiene quando si mischia la teoria quantistica con la teoria della relatività, per cui sono un qualcosa di abbastanza fondamentale.
Per questo motivo anche il neutrino doveva avere un’antiparticella: l’anti-neutrino. Se il neutrino interagisce solo tramite un campo L, l’anti-neutrino interagisce solo tramite un campo R. Tutto torna matematicamente.

“Non me la bevo mica questa! Una particella di uguale massa e carica opposta si chiama anti-particella...ma il neutrone non ha carica, come si fa a distinguerlo dall'antineutrone?"

Il neutrone ha una struttura interna composta da quark: è possibile distinguerlo dall’anti-neutrone con alcuni esperimenti ben congegnati. Però hai sollevato un dubbio interessante che potrebbe riguardare il neutrino:

Chi ci dice che neutrino e antineutrino non siano in realtà la stessa particella? Dopotutto sono neutri…

e dopotutto non hanno una struttura interna di quark (essendo fatti della stessa pasta degli elettroni).

Purtroppo c’è un problema: se sono la stessa particella, come mai interagiscono in modo diverso? Il neutrino interagisce solo come blocchetto L e l’anti-neutrino solo come R. Una bella gatta da pelare.

Poi arrivò il genio di Majorana e prese due piccioni con una fava:

È possibile costruire una teoria che rispetti il principio di relatività a partire da un blocchetto L e un blocchetto R, ma con quest’ultimo costruito a partire da un blocchetto L tramite il meccanismo della coniugazione di carica. Un neutrino può quindi essere descritto da

campo L + C ( campo L)

con “C” si intende il meccanismo della coniugazione di carica

questa costruzione impone che neutrino e anti-neutrino sono la stessa particella: quello che in precedenza era visto come anti-neutrino era in realtà la componente R costruita con “C(L)”.

La cosa più sorprendente dell’intuizione di Majorana era però un’altra: s’era detto poco fa che si possono costruire particelle di spin 1/2 massive solo se hanno entrambe le componenti L e R: ebbene ora il neutrino di Majorana le ha entrambe, quindi è possibile dargli una massa ed ottenere allo stesso tempo una teoria che rispetti il principio di relatività!

Il neutrino di Majorana ha una massa

Per anni il lavoro di Majorana fu trascurato perché la comunità scientifica era invece fermamente convinta che i neutrini dovessero avere massa nulla, e per distinguerli dai neutrini di Majorana, furono chiamati neutrini di Weyl del modello standard. In questo modello il neutrino e l’anti-neutrino sono particelle distinte.

Ettore Majorana 1906 – 1938 (morte presunta)

Inoltre i neutrini di Weyl permettevano matematicamente la conservazione di un certo “numero leptonico” (un numero quantico derivante da una simmetria accidentale, cioè non giustificata teoricamente), il quale era un concetto molto caro ai fisici dell’epoca.
Il neutrino di Majorana avrebbe invece distrutto la simmetria del numero leptonico, per via della sua struttura matematica (campo L più campo C(L)). Un prezzo alto da pagare.

Lo scacco matto: i neutrini hanno massa!

La svolta arrivò con la scoperta del meccanismo di oscillazione dei neutrini. La cosa più importante che devi sapere di questo meccanismo è che letteralmente non potrebbe avvenire se i neutrini avessero massa nulla:

L’oscillazione dei neutrini IMPLICA che i neutrini hanno massa!

Tale fatto era prettamente sperimentale e si traduce nella questione seguente: la massa c’è, ma di che massa si tratta?

Massa di Dirac o massa di Majorana?

  • Una massa di Dirac cioè un neutrino composto da campi L e R che però interagisce solo con L;
    e l’anti-neutrino (distinto dal neutrino) composto anche lui da L e R, ma che interagisce solo con R.
    Le componenti R e L di neutrino e anti-neutrino rispettivamente sarebbero sterili (non partecipano alle interazioni).
  • Una massa di Majorana cioè il neutrino e l’anti-neutrino sono la stessa particella.

La massa di Dirac manterrebbe conservato il numero leptonico, mentre la massa di Majorana no. La massa di Dirac implica l’esistenza di componenti sterili del neutrino (che non partecipano alle interazioni), un fatto abbastanza misterioso. La massa di Majorana non ha bisogno di misteriose componenti sterili.

Conseguenze: la fine di una simmetria

Come possiamo sapere se la massa dei neutrini è di Dirac o di Majorana? Basta cercare un processo di neutrini che comporti la violazione del numero leptonico. Un processo di questo tipo è noto come “doppio decadimento beta senza neutrini” ed è molto raro, cioé molto difficile da rilevare sperimentalmente (vedi esperimento CUORE).

Se si dovesse osservare tale processo si dimostrerebbe una volta per tutte che i neutrini sono particelle di Majorana (a quasi un secolo dalla sua prematura scomparsa) e si aprirebbero nuovi orizzonti oltre il Modello Standard delle particelle: ad esempio la violazione del numero leptonico potrebbe dare nuova linfa ai modelli cosmologici che cercano di spiegare perché ci sia più materia che anti-materia nel nostro universo!


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg