“Smarriti nella matematica”? Gli ultimi tristi anni di Albert Einstein

Gli ultimi anni della vita di Einstein furono decisamente poco memorabili (scientificamente parlando). Il più grande fisico del XX secolo fu un po’ vittima dei suoi enormi successi giovanili, i quali lo condussero verso un isolamento intellettuale sempre più marcato.

Einstein sognava di unificare gravità ed elettromagnetismo in un unica, elegante “teoria del tutto”. Ovviamente nella sua epoca non si conoscevano ancora le forze nucleari debole e forte.

Uno dei motivi di questo isolamento era che Einstein rigettava la formulazione convenzionale della meccanica quantistica, che secondo lui era una teoria incompleta, esteticamente “sgraziata” e complicata.
Purtroppo il 99% della ricerca in fisica fondamentale dagli anni 20′ in poi si basava invece proprio sulla meccanica quantistica, quindi Einstein aveva ben pochi alleati su questo fronte.

Un altro motivo era dovuto a una sua ossessione: aveva il sogno di unificare due forze fondamentali, gravità ed elettromagnetismo. Queste due forze erano descritte da quelle che allora erano due teorie classiche di campo molto mature (classiche nel senso che non erano “quantizzate”. La quantizzazione dell’elettromagnetismo fu accuratamente ignorata da Einstein…)

Questa sua ossessione si fondava sul credere che la Natura avesse in serbo una teoria “elegante”, scritta con una matematica “bellissima” che lui era intenzionato a scoprire.


Effettivamente le teorie classiche di gravità ed elettromagnetismo erano due teorie, per certi versi, abbastanza simili (almeno nei temi).

Infatti la Relatività Generale di Einstein e l’Elettrodinamica classica possono essere entrambe costruite richiedendo che le loro equazioni rimangano invariate dopo che si eseguono certi tipi di trasformazioni sui loro campi fondamentali.

La ridondanza elettromagnetica

Il potenziale elettromagnetico quadri-dimensionale con cui viene formulata l’elettrodinamica (che chiamiamo A_\mu) presenta al suo interno un eccesso di informazioni. Che significa? Significa che per formulare l’elettromagnetismo è sufficiente un numero inferiore di parametri teorici rispetto a quelli forniti dalla formulazione 4-dimensionale della teoria (che con successo concilia l’elettromagnetismo di Maxwell con la relatività speciale).

Da un certo potenziale elettromagnetico sono ottenibili, tramite una specifica trasformazione, una serie di altri potenziali elettromagnetici che tuttavia lasciano invariate le leggi di Maxwell scritte con il potenziale originale. Le conclusioni fisiche sono le stesse.

Questo eccesso di informazioni si traduce nella seguente affermazione: il potenziale quadri-dimensionale può essere “traslato” nello spazio-tempo di una certa quantità, e la conseguenza è che l’elettromagnetismo rimane invariato.

Le equazioni non cambiano, la Fisica è la stessa.


Il motivo di ciò fu spiegato dalla teoria quantistica dei campi: quello che succede è che il fotone (la particella mediatrice dell’interazione elettromagnetica) ha massa nulla, e questo fa tutta la differenza del mondo in relatività speciale, perché può quindi muoversi alla velocità della luce (non è un grande sorpresa per te che la luce si muova alla velocità della luce).

I parametri che partecipano alla Fisica dell’elettromagnetismo si chiamano “stati di polarizzazione” (avrai sentito parlare degli occhiali polarizzati, ecco quel “polarizzato” si riferisce alla volontà di sfruttare le polarizzazioni della luce a proprio piacimento). La polarizzazione è per convenzione la direzione di oscillazione della campo elettrico di un’onda elettromagnetica (chiamata comunemente “luce”).

Dal punto di vista teorico, gli stati di polarizzazione possono essere studiati mettendoci nel sistema di riferimento in cui la particella mediatrice è ferma. Questi stati di polarizzazione hanno a che fare con la seguente domanda: che succede se ruoto il campo della particella nel suo sistema di riposo?
Il modo in cui il campo risponde alle rotazioni ci dà un’indicazione sui suoi stati di polarizzazione.

La quantità di moto di un oggetto fermo è nulla (per definizione di oggetto fermo), quindi se ruotiamo i nostri assi cartesiani la quantità di moto rimane la stessa (cioè nulla). Che furbata, eh? Beh questa libertà di ruotare le tre dimensioni si traduce in tre possibili stati di polarizzazione della particella.

Una rotazione attorno ad un asse è specificata da due componenti su un piano. In figura stiamo ruotando attorno all’asse z. Immagina che l’asse z sia la direzione di propagazione del fotone.

Il problema con il fotone è che avendo massa nulla si muove alla velocità della luce e quindi per via della relatività speciale non c’è modo di mettersi in un sistema di riferimento in cui il fotone è fermo: per ogni osservatore la velocità della luce è la stessa! Non riusciremo mai ad andare abbastanza veloci da vedere un fotone fermo! Il valore della velocità della luce non dipende in alcun modo dalla velocità di chi la misura.

Il meglio che possiamo fare è puntare il nostro asse cartesiano nella direzione di propagazione del fotone e studiare le rotazioni dei suoi stati attorno a questo asse. Le rotazioni attorno a un asse avvengono in un piano, il quale, essendo bidimensionale, è rappresentato da due parametri invece che tre. Quindi il fotone è specificato da solo due possibili stati di polarizzazione: solo due stati su tre partecipano alla Fisica dell’elettromagnetismo.

Che ce ne facciamo del terzo parametro che non utilizziamo? Ecco cosa intendevo con “eccesso di informazioni”. In soldoni, quella libertà viene tradotta dicendo che se aggiungiamo (o sottraiamo) al potenziale elettromagnetico una certa quantità arbitraria (la derivata di una funzione che chiamiamo \Lambda), le leggi della Fisica non cambiano. A scopo illustrativo questa è la trasformazione di cui parlo:

Il potenziale viene trasformato sottraendolo alla derivata di una funzione \Lambda. In gergo si parla di “trasformazioni di gauge”.

Dalla richiesta che la fisica non cambi se al potenziale elettromagnetico A_\mu aggiungiamo quella funzione arbitraria \partial_\mu \Lambda, discende la struttura matematica (con tanto di conseguenze fisiche) dell’elettromagnetismo.

Questo concetto è molto elegante: dalla richiesta che ci sia una certa ridondanza nella descrizione dei campi della teoria, discendono le equazioni che descrivono la realtà fisica.

So che risulta astratto da capire, ma tra tutte le forme possibili che possono assumere le leggi della fisica, richiedere che rimangano invariate dopo una trasformazione dei “blocchetti” di cui sono composte vincola parecchio il numero di forme possibili in cui possono presentarsi, assieme alle conseguenze fisiche che predicono. È in questo senso che diciamo “da questa richiesta derivano le leggi della Fisica” .

Questa eleganza stregò (e continua a stregare) i fisici teorici dell’epoca. Einstein fu tra i più colpiti.
Lo colpì soprattutto il fatto che la sua teoria della Relatività Generale (la migliore teoria che abbiamo ancora oggi sulla gravità classica) si basava su un principio molto simile.

Le leggi della gravità di Einstein discendono dalla richiesta che le leggi stesse rimangano invariate se si esegue una trasformazione di coordinate. In sostanza, la Fisica non deve dipendere da che tipo di “unità di misura” stai usando, o non deve dipendere dal fatto che il tuo laboratorio risulti ruotato in una certa direzione rispetto al centro della galassia (per esempio).

A grandi distanze dalla sorgente del campo gravitazionale, che chiamiamo h_{\mu\nu}, la trasformazione di coordinate del campo (la quale viene indicata con il simbolo \partial_\mu \epsilon_\nu) ha la seguente forma:

Magari non sarai familiare con la notazione degli indici spazio-temporali \mu,\nu , ma il punto della faccenda è notare la somiglianza (chiudendo un occhio) con la trasformazione del potenziale elettromagnetico:

Elettrodinamica (sopra) e gravità (sotto) a confronto. Entrambe queste trasformazioni hanno la proprietà di lasciare invariate le leggi della Fisica.

Secondo Einstein, questa somiglianza era una chiara indicazione che doveva esistere una teoria più fondamentale in grado di racchiudere gravità ed elettromagnetismo in un unico, elegantissimo linguaggio matematico.

Risulta interessante il fatto che non fu lui ad arrivare per primo ad un possibile tentativo di unificazione. La teoria di Kaluza-Klein nacque praticamente subito dopo la Relatività Generale, ed Einstein ne rimase estasiato.

Il primo tentativo di unificazione

La Kaluza-Klein si basava sul postulato che allo spaziotempo (già 4-dimensionale) dovesse essere aggiunta un’ulteriore dimensione, portando il totale a cinque. Questa dimensione sarebbe tuttavia troppo piccola per potere avere riscontri sperimentali, e la sua utlilità consiste unicamente nel fatto che in questo modo è possibile unificare gravità ed elettromagnetismo in un’unica elegante equazione di partenza.

La quinta dimensione nella teoria di Kaluza-Klein.

Tutti noi per disegnare un punto su un foglio ruotiamo leggermente la punta della penna per tracciare dei piccoli cerchi concentrici attorno a un punto fisso. Secondo la teoria Kaluza-Klein la quinta dimensione si nasconde nel bordo di ogni cerchio che circonda ciascun punto dello spaziotempo. Questi cerchi hanno un raggio R piccolissimo, molto più piccolo di qualsiasi scala subnucleare, questo è il motivo per cui non si osservano effetti fisici di tutto ciò.

Sfortunatamente la teoria della quinta dimensione ha serie difficoltà teorico-fenomenologiche: ad esempio ignora completamente l’esistenza delle altre interazioni fondamentali come la forza debole, della quale oggi sappiamo che a una certa scala di energia si unisce alla forza elettromagnetica per formare l’interazione elettrodebole.
Chiaramente Kaluza e Klein, avendo formulato la teoria nei primi anni ’20 , conoscevano solo la gravità e l’elettromagnetismo, per cui a detta loro (e anche di Einstein) la teoria era molto promettente.

Furono proprio le scoperte delle altre due forze fondamentali (quelle nucleari debole e forte) a far cadere nel dimenticatoio la Kaluza-Klein per qualche decennio. La teoria quantistica dei campi produceva risultati a un ritmo elevatissimo, spazzando via come un’onda tutte le teorie classiche di campo.

Einstein, che si assicurava di non utilizzare le teorie quantistiche di campo nei suoi lavori, lavorò alla Kaluza-Klein fino agli inizi degli anni ’40. Il suo obbiettivo era di ottenere, dalle soluzioni delle equazioni di campo della teoria a cinque dimensioni, dei campi che descrivevano delle particelle cariche in grado di interagire elettromagneticamente e gravitazionalmente.


Il suo obbiettivo era anche quello di derivare in qualche modo anche la meccanica quantistica a partire dalla sua teoria classica (non quantizzata). Tutto questo era sempre in linea con il suo intuito che la teoria quantistica non fosse completa, e che dovesse derivare da qualcosa di classico e molto più profondo.

Una volta introdotta l’ipotesi ondulatoria di De Broglie, il fisico Klein (uno degli ideatori della Kaluza-Klein) era stato in grado di spiegare anche la discretizzazione della carica elettrica delle particelle, proprio grazie alla quinta dimensione. Einstein evitò con cura di utilizzare l’ipotesi di De Broglie, e non menzionò mai il risultato di Klein. Insomma, se non si era capito, Einstein non apprezzava la teoria quantistica.

In ogni caso, Einstein concluse che la teoria di Kaluza-Klein non era in grado di spiegare un fatto empirico importantissimo: la gravità è estremamente più debole dell’elettromagnetismo. Questo spinse Einstein ad abbandonare per sempre la teoria dopo il 1941.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Continuò quindi a lavorare, assieme a pochissimi altri, a teorie matematiche molto astratte e con pochi risvolti empirici. L’obbiettivo era sempre quello di unificare elettromagnetismo e gravità.

Non che fosse in torto nel perseguire questa sua ricerca, dato che l’obbiettivo delle teorie di grande unificazione che studiamo oggi è proprio quello di conciliare gravità e teorie quantistiche di campo (quindi non solo gravità ed elettromagnetismo, ma gravità e le altre tre interazioni fondamentali. Per una breve esposizione delle quattro interazioni, rimando al mio articolo).

Tuttavia fu proprio il suo ostentato rifiuto delle teorie quantistiche di campo a isolarlo sempre di più dal panorama scientifico internazionale. Anche se avesse fatto in tempo ad assistere alla sua nascita, Einstein non avrebbe mai approvato il nostro Modello Standard: in tale modello lavoriamo con teorie quantistiche basate solo sulla relatività speciale, ignorando completamente la gravità e lasciandola da parte in un settore chiamato “Relatività Generale”.
Invece secondo lui la gravità doveva avere un ruolo di primaria importanza negli sforzi dei fisici teorici:

Cosa sarebbe la Fisica senza la gravitazione?

Albert Einstein

Lavorò alla grande unificazione fino all’ultimo dei suoi giorni, facendo fede sulla sua convinzione (appartenente a un pensiero illuminista oggi superato) che una singola mente umana è in grado di scoprire ogni mistero dell’universo.

Sono comunque sicuro che a lui piacesse parecchio ciò che faceva, e non poteva esserci una fine più lieta per il più grande fisico del secolo scorso: morire “smarrito nella matematica”.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei Neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Sì ma, alla fine, cosa sono ‘sti numeri quantici?

Giusto per ricordare che i gatti sono riusciti a conquistarsi pure la meccanica quantistica, nell’immaginario popolare.

Ciò che frullava nella mia testa quando ho sentito la parola “numeri quantici” per la prima volta, durante una lezione di chimica in terza liceo, era qualcosa tipo:

“Tutto interessante e sembra anche molto logico. Giusto una cosa però: ma alla fine cosa sono 'sti numeri quantici? Proprio terra-terra, in meno parole possibili!"

Dopo aver studiato meccanica quantistica alla triennale credevo di essere praticamente pronto per dare una risposta terra-terra, a una persona non addetta ai lavori come il me stesso della terza liceo, ma poi mi sono accorto che non è tutto così “rapido”.

Non c’è NIENTE di intuitivo nel concetto di “numero quantico”.


Quando mi è stata posta la stessa domanda qualche tempo fa, nel bel mezzo dei miei studi alla magistrale, ho sputato fuori questa risposta un po’ frettolosa:

“Sono dei numeri che usiamo per catalogare delle soluzioni particolarmente semplici per risolvere problemi molto complessi. Sono utili anche perché nei processi "si conservano“, un po' come l'energia di un sistema, e semplificano quindi un po' di calcoli e previsioni."

Non è che fossi tanto convinto di questa risposta, e ancora meno lo era la persona di fronte a me. Mi sono accorto che probabilmente non sapevo dare una risposta più rapida senza coinvolgere dei semestri di algebra lineare, spazi di funzioni e fenomenologia delle interazioni fondamentali.
Se a te questa risposta soddisfa: nessun problema, è comprensibile. Rende comunque l’idea da un punto di vista pragmatico.

Se invece senti ci sia un gap nella divulgazione di questi concetti e provi curiosità, allora questo articolo vuole provare a rimediare.
Per raggiungere più persone possibili sarò molto conciso con ragionamenti “a grandi linee”, con varie licenze tecniche necessarie per un’esposizione di taglio divulgativo. Inoltre, per ragioni logistiche (e per non affaticare il lettore), l’articolo è suddiviso in due parti, questa è la prima parte!


Una tazza di caffè e possiamo iniziare!

Gli operatori della meccanica quantistica

Alla fine tutto l’ambaradan nasce dal fatto che la meccanica quantistica, a differenza della fisica classica, si basa su degli oggetti chiamati operatori. Come suggerisce il nome, questi oggetti operano sugli stati della teoria: prendono in input uno stato e ne restituiscono un altro come output, generalmente diverso dal primo:

Tutte le quantità che in meccanica classica erano dei semplici numeri reali (posizione, quantità di moto, energia, e così via) diventano, in meccanica quantistica, degli operatori: operatore posizione, operatore quantità di moto , operatore dell’energia (altrimenti detto “hamiltoniano”) etc.


Perché sono così necessari gli operatori? (qualsiasi cosa significhi per te in questo momento la parola “operatore”).
In breve, serviva un formalismo matematico capace di spiegare un fatto sperimentale: lo stato di un sistema poteva essere completamente determinato dalla posizione di una particella, ma al contempo la misura della quantità di moto della stessa particella non restituiva un valore ben preciso. È il principio di indeterminazione di Heisenberg.
Un modo per esprimere questo fatto dal punto di vista matematico era quello di trasformare posizione e quantità di moto in degli operatori lineari e scrivere che:

\hbar è la costante di Planck divisa per 2\pi.

Questa relazione racchiude, in un formalismo compatto (e criptico per i non addetti) la chiave per il principio di Heisenberg su posizione e quantità di moto. La compattezza del formalismo e la facilità del calcolo sono due condizioni che spinsero i fisici ad adottare l’approccio operatoriale nella meccanica quantistica, ed è il motivo per cui la matematica di questa teoria è ritenuta essere “più complicata” di quella della fisica classica.

L’operatore più importante

Ciò che nella fisica classica rappresentava un modo alternativo di risolvere i problemi, nella meccanica quantistica diventa l’unico modo matematicamente conveniente di descrivere l’evoluzione di un sistema. Si tratta dell’energia, la quale nel formalismo quantistico diventa l’operatore hamiltoniano.

Nella fisica classica l’energia di un sistema era un semplice numero indicato con la lettera “E”. In meccanica quantistica diventa un operatore chiamato “Hamiltoniano“.


L’energia di un sistema è definita come la somma tra energia cinetica (p^2/2m) ed energia potenziale V. Coloro che prima erano semplici numeri ora diventano due operatori che, come dice il nome, “operano” sugli stati di una particella, comandandone l’evoluzione dinamica.

Ecco come si procede di solito: immagina una particella immersa in un certo spazio e sensibile a certe interazioni fisiche (elettromagnetiche ad esempio, come un elettrone in un campo magnetico, o in prossimità del nucleo di un atomo).

La seguente frase “questa particella si muoverà in questo spazio con una certa velocità e occuperà maggiormente alcune posizioni invece di altre, sulla base delle interazioni che percepisce” viene tradotta quantisticamente nella seguente:

Lo stato di una particella evolve da un valore iniziale a un valore finale grazie all’azione dell’operatore Hamiltoniano, il quale rappresenta le interazioni e il contenuto cinetico che caratterizzano il moto della particella.

Come forse avrai sentito da qualche parte, lo stato di una particella è indicato da una funzione a più valori, nel tempo e nello spazio: \Psi(\vec{x},t). Il fatto che questo stato venga trasformato nel tempo per via delle interazioni è riassunto dalla seguente scrittura molto compatta:

L’esponenziale di un operatore è lo sviluppo in potenze dell’operatore stesso, secondo la regola degli sviluppi di Taylor. Non preoccuparti di questo dettaglio matematico, l’ho messo solo per completezza.

L’operatore hamiltoniano agisce sullo stato iniziale della particella, e per ogni tempo t successivo restituisce un certo stato finale.

Questa è la ricetta prescritta dalla celebre equazione di Schrödinger, la quale governa la dinamica degli stati quantistici di un sistema. Quella che ti ho mostrato è proprio la soluzione dell’equazione: Schrödinger scrisse che, una volta noto l’operatore hamiltoniano, la dinamica del sistema è nota..

Più facile a dirsi che a farsi: è difficile trovare il corretto operatore che riesca a riprodurre gli stati in cui evolvono i sistemi quantistici negli esperimenti. Trovare l’hamiltoniano giusto equivale a trovare la teoria giusta per descrivere il sistema, ed è esattamente il mestiere del fisico.

Se un fisico ha fatto bene il suo mestiere, otterrà una predizione sull’evoluzione temporale dello stato del sistema, e potrà fare previsioni probabilistiche su quale sarà lo stato in cui verrà misurata la particella a un dato istante di tempo dell’esperimento.

Gli autostati di un operatore

A differenza di uno stato normale, l’autostato di un operatore mantiene la sua direzione dopo la trasformazione, e al massimo si allunga o si accorcia.

Possiamo architettare un esperimento con lo scopo di misurare una certa proprietà della particella quantistica di cui abbiamo parlato prima. L’atto della “misurazione” consiste inevitabilmente in una “riorganizzazione” delle informazioni quantistiche dello stato della particella e anche dello stato del rivelatore che stiamo utilizzando per misurare quella proprietà.

Per via di uno dei postulati della meccanica quantistica (i quali fanno sì che la teoria riproduca quanto si osserva negli esperimenti) a ogni osservabile (sono chiamate così le uniche quantità misurabili negli esperimenti) è associato un operatore, e gli stati possibili in cui la particella può essere rivelata nell’esperimento vanno ricercati in alcuni stati molto speciali che hanno la particolarità di rimanere “quasi inalterati” sotto l’azione dell’operatore.

Per spiegarlo in termini semplici, immagina che lo stato sia una freccia nello spazio: l’operatore in generale può far compiere alla freccia una certa rotazione (il che corrisponde al trasformare lo stato in un altro stato diverso dal primo). Tuttavia alcune frecce speciali vengono trasformate dall’operatore in modo che al massimo si allungano o si accorciano, ma senza ruotare:: la direzione rimane la stessa. Questi stati speciali sono chiamati autostati.

In generale ogni operatore ha il suo set di autostati “personale”.

In sostanza gli autostati di un operatore ci semplificano la vita perché trasformano in maniera molto semplice: significa meno calcoli da fare!

Un esempio preso in prestito dalla geometria: in alcuni casi gli operatori della meccanica quantistica e le matrici sono praticamente la stessa cosa (se non sai come funziona una matrice, vai a questo articolo). Una matrice come quella di rotazione attorno all’asse z sul piano x-y ha il compito di ruotare un vettore di un certo angolo. Siccome la rotazione si svolge attorno all’asse z, la componente z del vettore rimane inalterata. Il vettore di componenti (0,0,1) viene quindi mandato in se stesso, cioè è un autovettore di questa particolare matrice di rotazione.

Il vettore (0,0,1) viene trasformato in se stesso dalla rotazione attorno all’asse z.

La scrittura che ci semplifica tanto la vita, e che ricerchiamo continuamente in meccanica quantistica, è

La costante \lambda è chiamata, in gergo, “autovalore” dell’autostato. A ogni autostato viene associato il suo “autovalore”, il suo numerino personale da utilizzare come etichetta. Possono esserci anche più autostati aventi lo stesso autovalore, ma non vedrai due autovalori diversi associati allo stesso autostato.

Questa scrittura è un vero sospiro di sollievo: l’esistenza di stati che rimangono praticamente invariati sotto l’azione degli operatori rappresenta una semplificazione incredibile per i calcoli della teoria. Invece di chiederci come trasforma qualsiasi stato dell’universo sotto l’operatore (una pretesa diabolicamente assurda), ci interessiamo solo a quegli stati che invece “cambiano molto poco”.

Il motivo di ciò va ricercato in uno dei postulati fondamentali della meccanica quantistica, già accennato sopra:

Le quantità che misuriamo sperimentalmente corrispondono agli autostati della particolare osservabile a cui siamo interessati. Lo so che suona strano e inutilmente astratto, ma è grazie a questo postulato che vengono riprodotti i risultati sperimentali.

La cattiva notizia: non tutti gli stati della teoria sono autostati dell’operatore che ci interessa.


La buona notizia: gli autostati dell’operatore che ci interessa possono essere usati come blocchetti elementari per costruire gli stati più generici della particella.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.


Questo è il principio di sovrapposizione degli stati: ogni stato può essere costruito sovrapponendo tra loro tanti altri stati.

In generale conviene, anzi è proprio mandatorio, utilizzare come blocchetti elementari gli autostati dell’operatore che ci interessa. Ti conviene pensare agli autostati proprio come a dei “Lego” con cui costruire uno stato più generico possibile (la struttura fatta coi Lego è lo stato generico).

Questi autostati andranno a comporre lo stato della particella, ciascuno con un proprio peso statistico, come specificato dalle regole della meccanica quantistica (la quantistica è praticamente una teoria della probabilità, camuffata)

La tipica struttura di uno stato generico, sviluppato come somma di autostati di un certo operatore di nostro interesse. I numeri a_i sono i pesi statistici, cioè il loro modulo al quadrato, ad esempio |a_2|^2, rappresenta la probabilità che la particella, inizialmente nello stato generico “\ket{\Psi}“, venga misurata in un ‘autostato \ket{p_2}.

Il risultato della misurazione (misurazione dell’osservabile, associata a sua volta a un certo operatore della teoria) è il famigerato, e ancora dinamicamente poco compreso, “collasso della funzione d’onda”, il quale seleziona uno degli autostati dell’operatore associato all’osservabile coinvolta:

La particella viene rivelata in UNO solo degli autostati possibili dell’operatore associato all’osservabile.
Prima aveva una probabilità ben precisa di trovarsi in ciascuno degli autostati possibili, mentre DOPO la misura la probabilità di ritrovarla nello stesso autostato sarà il 100%.

ed è proprio questo a cui ci si riferisce quando si parla di “collasso della \Psi“.

Il numero che si misura nell’esperimento coincide con la costante \lambda, cioè l’autovalore dell’autostato in cui è stata rivelata la particella.

Un esempio rapido di quanto detto: un’osservabile di una particella può essere il suo spin (che sperimentalmente si misura grazie all’effetto di un campo magnetico sulla traiettoria della particella). A questo effetto osservabile è associato un operatore di spin.
Se ad esempio sperimentalmente si osserva che alcune particelle possono avere solo due tipi di deflessioni in un campo magnetico allora all’operatore di spin della teoria verranno associati due autostati.

Un tipico esperimento in cui è possibile misurare lo spin di una particella: Stern-Gerlach.

Prima di misurare la deflessione tramite l’accensione del campo magnetico, dal punto di vista della nostra interpretazione la particella si trova in una sovrapposizione di autostati di spin, e con la misurazione (l’accensione del campo magnetico) viene “selezionato un autostato” con una certa probabilità calcolabile quantisticamente.

Tutto questo discorso è importante per capire il seguito, e cioè capire perché ci interessiamo a specifici numeri quantici associati ad operatori accuratamente selezionati della teoria.

I numeri quantici non sono altro che gli autovalori di specifici operatori della teoria, accuratamente selezionati affinché soddisfino delle proprietà che ci permettono di semplificare il modo in cui possiamo fare previsioni verificabili con l’esperimento.

In ogni caso, non basta essere un autovalore di un’osservabile per essere un buon numero quantico!

Un buon numero quantico ci semplifica la vita negli esperimenti, e nella parte II di questa serie vedremo perché!
(Per chi si incuriosice: ha a che fare con il teorema di una famosa matematica tedesca…)


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Come Fermi scoprì la statistica degli elettroni assieme a Dirac

Per capire l’entità del contributo di Enrico Fermi in ciò che servì ad ispirare una delle scoperte più importanti dell’umanità (la teoria dei semiconduttori), è necessario fare qualche passo indietro e considerare il contesto storico-scientifico dell’epoca.

Negli anni ’20 del secolo scorso si sapeva molto poco sulle strutture fondamentali della materia. Le teorie dell’atomo erano giovanissime e l’unico metodo di indagine consisteva nell’osservare l’assorbimento luminoso di alcuni gas della tavola periodica.

Ludwig Boltzmann (1844-1906), uno dei padri fondatori della fisica statistica.

Proprio sui gas si sapeva dire un po’ di più, essendo una collezione di atomi che potevano essere trattati (in certe condizioni di densità e temperatura) come un grosso insieme di biglie microscopiche su cui, tramite la fisica statistica di Maxwell, Boltzmann e Gibbs, si potevano fare previsioni termodinamiche verificabili sperimentalmente.

Una particolarità interessante della teoria statistica di Maxwell e Boltzmann era il contenuto minimale di ipotesi sulla natura fisica di queste “biglie microscopiche”. Stiamo parlando di una teoria formulata nella seconda metà del secolo XIX, un periodo in cui non era ancora riconosciuta l’esistenza dell’atomo!

Trattandosi tuttavia di atomi, nemmeno la teoria di Maxwell e Boltzmann uscì indenne dalla rivoluzione della teoria dei quanti, iniziata con Planck nel 1900.

La teoria dei quanti funzionò sia da completamento che da antidoto per la vecchia fisica statistica. Da antidoto perché aiutò ad indagare meglio alcuni problemi matematici della teoria di Maxwell e Boltzmann, i quali conducevano a calcoli errati nella trattazione di particelle tra loro indistinguibili, e davano dei risultati impossibili per alcune quantità come l’entropia dei gas a basse temperature.

Un problema statistico dell’entropia

Queste difficoltà erano dovute al fatto che la fisica statistica si basa essenzialmente sul “contare, per tutte le particelle, tutte le possibili configurazioni microscopiche che conducono alla stessa situazione fisica del gas“, come illustrato in figura:

Lo schema concettuale che sta alla base della teoria statistica dei gas.

Pressione, volume, temperatura (P,V,T), sono tutte quantità macroscopiche misurabili sperimentalmente. In fisica statistica ci immaginiamo di conoscere le posizioni e velocità di tutte le particelle del gas in ciascuna configurazione possibile ammessa dalle condizioni ambientali (cosa non possibile da un punto di vista computazionale, ma che facciamo finta di poter fare comunque).


Siccome non sappiamo in quale configurazione microscopica precisa si trovi il gas in ciascun istante di tempo (non è misurabile sperimentalmente), immaginiamo di avere N copie del nostro gas e di fare delle estrazioni per contare quante volte esce una certa configurazione piuttosto che un’altra. La distribuzione di queste estrazioni definisce alcune quantità macroscopiche (P_i,V_i,T_i) associate alla specifica configurazione microscopica i estratta un numero N_i di volte. Le quantità macroscopiche (P,V,T) che misuriamo sperimentalmente possono quindi essere pensate come la media di tutte le (P_i,V_i,T_i) pesate con la probabilità di estrazione N_i/N.

La misura sperimentale di (P,V,T) ci dà quindi informazioni sulla distribuzione delle configurazioni microscopiche del nostro gas.


Immaginando il gas in equilibrio termico a una certa energia interna, il numero di configurazioni del gas corrispondenti a tale energia possono essere contate, dal punto di vista teorico, sommando tutte le possibili accoppiate di posizione-velocità (x,y,z),(v_x,v_y,v_z) nelle tre dimensioni spaziali, e ciò deve essere fatto per tutte le particelle del gas.

Siccome il numero di possibili accoppiate è virtualmente infinito, i padri fondatori della fisica statistica immaginarono di dividere lo spazio dei possibili valori di posizione e velocità in cellette elementari di dimensione finita che chiamiamo \tau. In questo modo due stati dinamici specificati da (x_1,y_1,z_1),(v_{x1},v_{y1},v_{z1}) e (x_2,y_2,z_2),(v_{x2},v_{y2},v_{z2}) che caschino nella stessa celletta di questo spazio sono considerati essere lo stesso stato dinamico. È come se ammettessimo, in un certo senso, di non sapere distinguere tra (x_1,y_1,z_1),(v_{x1},v_{y1},v_{z1}) e (x_2,y_2,z_2),(v_{x2},v_{y2},v_{z2}) nel caso appartengano alla stessa cella, è un’approssimazione.

La suddivisione in cellette dello spazio di posizioni e velocità per le particelle. Secondo questa suddivisione due set di posizioni e velocità che appartengono alla stessa celletta non sono distinguibili (qui non distinguiamo il rosa dal celeste), mentre sono distinguibili da quella in verde, dato che appartiene a un’altra celletta.

Dal punto di vista statistico, l’entropia del gas è pensabile come una misura di quanti stati dinamici microscopici sono associabili a un certo stato termodinamico macroscopico, una misura della nostra “ignoranza” sull’effettiva configurazione microscopica del gas.

Il problema era che la dimensione \tau della celletta elementare era del tutto arbitraria, e ciò influiva pesantemente sul conteggio delle configurazioni. Essendo il numero delle configurazioni direttamente collegato alla definizione statistica di entropia, una scelta di \tau troppo piccola conduceva a valori infiniti per l’entropia del gas. Questa indeterminazione sulla scelta di \tau impediva inoltre di calcolare, statisticamente, il valore della costante dell’entropia alla temperatura dello zero assoluto.

Il problema della costante dell’entropia stava molto a cuore ai fisici dell’epoca. Nella termodinamica ottocentesca ci si interessava solo alle differenze di entropia, e quindi era di scarso interesse pratico domandarsi quale fosse il valore assoluto dell’entropia a una determinata temperatura come T=0\,\text{K}, e in ogni caso questa costante spariva quando si faceva la differenza \Delta S=S(B)-S(A) tra due stati termodinamici B e A.
Tuttavia con l’arrivo del teorema di Nernst e quindi del terzo principio della termodinamica (il quale postula che l’entropia allo zero assoluto sia esattamente zero) si rivelò essenziale determinare il valore di questa costante.

Un altro problema fastidioso era quello che riguardava il conteggio di particelle indistinguibili: quando si contavano tutte le configurazioni possibili di tutte le particelle del gas si finiva per contare più volte la stessa configurazione per via del fatto che non è possibile distinguere una particella dall’altra. Per via di ciò si arrivava a dei paradossi che riguardavano l’entropia di mescolamento dei gas.
Di questo problema si interessò Gibbs, il quale propose di dividere i conteggi per il fattore combinatorico N! dove N è il numero di particelle e con “!” si intende il fattoriale N!=N(N-1)(N-2)....
Tuttavia anche questa soluzione non risolveva tutti i problemi…

La teoria dei quanti sistemò i problemi dell’entropia. Si dimostrò che la dimensione \tau delle cellette elementari doveva essere pari alla costante di Planck h: la natura discreta della teoria quantistica si sposava bene con l’ipotesi delle cellette elementari della fisica statistica.

Il punto è che gli effetti quantistici delle particelle non sono più trascurabili a basse temperature. In fisica statistica esiste una quantità chiamata lunghezza d’onda termica di De Broglie, la quale ha la seguente espressione per un gas perfetto monoatomico:

La lunghezza termica delle particelle di un gas, dove h è la costante di Planck, m la massa delle particelle, k_B la costante di Boltzmann che converte da dimensioni di energia a dimensioni di temperatura tramite E=k_BT, e T la temperatura del gas.

Questa lunghezza d’onda deriva dalla formulazione ondulatoria di De Broglie per le particelle quantistiche.
Secondo De Broglie, a ogni particella avente quantità di moto p è associabile una lunghezza d’onda \lambda=h/p. Se come p si prende la quantità di moto termica delle particelle del gas si ottiene la \lambda_T riportata sopra.
A temperature normali questa lunghezza d’onda è molto più piccola della distanza media tra gli atomi di un gas. Vediamo però che al diminuire di T, la relazione di inversa proporzionalità \lambda_T\propto 1/\sqrt{T} aiuta a far crescere questa lunghezza d’onda. Per temperature sufficientemente basse la lunghezza d’onda \lambda_T diventa comparabile con le distanze inter-atomiche del gas.

Man mano che si abbassa la temperatura del sistema, aumenta la lunghezza d’onda di De Broglie e dominano le interferenze quantistiche tra le funzioni d’onda delle particelle.
Nel caso in figura sono mostrati dei bosoni.

Quindi, per via delle loro proprietà quantistiche, le particelle iniziano ad interferire tra loro come tante onde, e questo succede quando la loro lunghezza d’onda diventa almeno comparabile con la distanza tra una particella e l’altra, a temperature molto basse.

Siccome parliamo di funzioni d’onda che creano interferenze, l’indistinguibilità delle particelle gioca un ruolo centrale in questo processo quantistico, e ciò sta alla base di tutte le difficoltà teoriche della vecchia fisica statistica, la quale non teneva conto di queste proprietà quantistiche. Fino alla prima metà degli anni ’20, questa sottigliezza quantistica non era ancora stata compresa in profondità.

Statistica quantistica: la strada di Fermi

Enrico Fermi (1901-1954). Premio Nobel per la Fisica nel 1938.

Ancora fresco di laurea, Fermi divenne particolarmente ossessionato dal problema della costante dell’entropia, pubblicando diversi articoli tra il 1924 e il 1926.

Aveva intuito che il problema risiedesse nella natura quantistica delle particelle, in particolare dal punto di vista della loro indistinguibilità, ma mancava ancora qualche pezzo del puzzle.

Il pezzo mancante fu messo a disposizione da Pauli con la formulazione del principio di esclusione: non possiamo avere due elettroni con tutti i numeri quantici uguali tra loro. Gli elettroni sono particelle indistinguibili, quindi Fermi si ispirò al loro comportamento per provare a quantizzare un gas di particelle a temperature sufficientemente basse.

Possiamo immaginarci un Fermi che lavora assiduamente all’alba (il suo momento preferito per studiare e lavorare su nuovi articoli) in qualche fredda mattina di Firenze, nell’inverno del 1925-26, sforzandosi di sfruttare il principio di Pauli per ottenere la costante corretta dell’entropia allo zero assoluto.

La prima pagina dell’articolo di Fermi, presentato all’accademia dei Lincei nel febbraio del 1926.

Nel suo articolo “Sulla quantizzazione del gas perfetto monoatomico” uscito nel febbraio del 1926, Fermi ipotizzò che un gas ideale si comportasse proprio come gli elettroni del principio di Pauli e cambiò completamente il modo di contare le configurazioni possibili in fisica statistica: in ciascuno stato dinamico possono esserci zero o al massimo una sola particella, mai due nello stesso stato.
Immaginò poi che il gas potesse essere caratterizzato da determinati livelli energetici discreti, proprio come si faceva nella quantizzazione dell’atomo di idrogeno. Questa spaziatura tra i livelli energetici era tanto più rilevante per la fisica del problema quanto più era bassa la temperatura del gas, essenzialmente per il motivo enunciato sopra. Ad alte temperature gli effetti quantistici devono essere trascurabili e si ritorna alla termodinamica dell’ottocento.

La conseguenza di questo nuovo modo di contare era che ciascuno stato i era occupato da un numero medio di particelle in funzione dell’energia E_i dello stato, secondo la seguente espressione:

Il numero di nepero e (o Eulero), l’energia E_i dello stato, la temperatura T, la costante di Boltzmann k_B. Il parametro \mu è noto come “potenziale chimico” e allo zero assoluto corrisponde all’energia di Fermi: E_F.

Usando questa informazione, Fermi calcolò l’espressione della costante dell’entropia, la quale coincideva con il valore sperimentale dedotto da Sackur e Tetrode nel 1912. La sua teoria era un successo!

Tuttavia, come confermato anche da alcuni studiosi (Belloni, Perez et al), Fermi non si interessò delle radici quantistiche di questa nuova statistica, cioè non provò a collegare il principio di Pauli con la natura ondulatoria della materia. Inoltre non esisteva, al tempo, un gas capace di comportarsi come gli elettroni dell’articolo di Fermi. La soluzione di Fermi voleva andare nella direzione della statistica quantistica, ma con un approccio molto cauto sulle ipotesi alla base. Fermi utilizzò la sua intuizione per dare una nuova soluzione a dei problemi annosi di fisica statistica (già risolti recentemente da Bose e Einstein con la loro statistica) e dedusse una statistica completamente nuova.

Tuttavia, al contrario di quanto si dice solitamente in giro, Fermi non applicò direttamente questa nuova statistica al problema degli elettroni nei metalli (cosa che fu fatta da altri e che condusse alla teoria dei semiconduttori).

La statistica di Fermi-Dirac

La distribuzione trovata da Fermi è dipendente dalla temperatura. Abbiamo già anticipato che gli effetti quantistici diventano preponderanti a temperature vicine allo zero assoluto. In questo caso il principio di Pauli emerge direttamente dalla forma analitica della distribuzione, riportata in figura:

La formula di Fermi al variare della temperatura.

Man mano che la temperatura del gas di elettroni si avvicina a T=0\,\text{K}, la distribuzione di Fermi si avvicina sempre di più alla “funzione gradino”

La funzione gradino, cioè il limite a basse temperature della formula di Fermi.

Allo zero assoluto, gli elettroni occupano i livelli energetici riempiendoli dal più basso fino a un’energia chiamata “energia di Fermi”, indicata con E_F.
Puoi notare come a T=0 il numero medio di occupazione dello stato a energia E_i sia esattamente 1: non può esserci più di un elettrone per stato, è il principio di esclusione di Pauli in tutta la sua gloria. Nota anche che non ci sono elettroni che occupano stati a energia maggiore di quella di Fermi.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questo comportamento è essenzialmente verificato anche per temperature più alte di T=0, basta solo che sia T\ll T_F dove T_F è detta “temperatura di Fermi”, ed è pari a T_F=E_F/k_B. Nelle situazioni di interesse fisico (come nei metalli), la condizione T\ll T_F è praticamente sempre soddisfatta, essendo T_F di solito dell’ordine di alcune centinaia di migliaia di gradi kelvin.

I gas di elettroni sono fortemente influenzati dal principio di Pauli: è un po’ come se ci fosse una forza “repulsiva” tra gli elettroni, la quale gli impedisce di occupare lo stesso stato energetico. Questa è anche un’interpretazione euristica del fatto che la pressione di un gas di Fermi sia più elevata di un gas classico: è difficile comprimere un gas di elettroni perché non vogliono mai “occupare lo stesso punto spaziale”.

Come mai questa statistica è chiamata “Fermi-Dirac” e non solo “Fermi”?
È noto che Dirac pubblicò la stessa formula alla fine dell’estate del 1926, mentre Fermi l’aveva presentata nella primavera dello stesso anno. Dirac, su sollecito scritto da parte del fisico italiano, ammise di aver letto il lavoro di Fermi, ma sostenne di averlo completamente scordato.

In difesa di Dirac va detto che il suo lavoro (“On the Theory of Quantum Mechanics“) è molto più generale di quello presentato da Fermi, il quale si era invece proposto di risolvere un problema particolare (quello dell’entropia) che c’entrava poco con i postulati della meccanica quantistica.

Dirac giustificò in maniera elegante il principio di esclusione di Pauli notando che la meccanica quantistica era il luogo naturale per trattare i sistemi di particelle indistinguibili, grazie al formalismo delle funzioni d’onda.

La chiave del ragionamento di Dirac si trova proprio nel fatto che le particelle elementari possono essere considerate indistinguibili. La conseguenza quanto-meccanicistica è che se consideriamo due particelle non interagenti tra loro, e che possono occupare gli stati A e B, la funzione d’onda che le descrive collettivamente è data dal prodotto delle due funzioni d’onda

    \[\psi(x_1;x_2)=\psi_A(x_1)\psi_B(x_2)\]

in cui x_1 e x_2 sono le posizioni delle due particelle. Se scambiamo le due particelle, e cioè le portiamo dallo stato A allo stato B e viceversa, otteniamo la funzione d’onda modificata

    \[\psi'(x_1;x_2)=\psi_B(x_1)\psi_A(x_2)\]

Ma se assumiamo che le particelle siano indistinguibili, la densità di probabilità deve restare la stessa (ricordiamo che è data dal modulo al quadrato della funzione d’onda):

    \[|\psi'(x_1;x_2)|^2=|\psi(x_1;x_2)|^2\]

Quindi al massimo possiamo avere che \psi' è diversa da \psi per un fattore \eta

    \[\psi'(x_1;x_2)=\eta \psi(x_1;x_2)\]

in cui \eta è un numero tale che |\eta|^2=1 in modo da soddisfare |\psi'(x_1;x_2)|^2=|\psi(x_1;x_2)|^2 (verifica pure!).

Se ri-scambiamo le due particelle, torniamo punto e a capo, e cioè deve essere \psi''(x_1;x_2)=\psi(x_1;x_2)

    \[\psi''(x_1;x_2)=\eta \psi'(x_1;x_2)=\eta^2\psi(x_1;x_2)=\psi(x_1;x_2)\]

ovvero \eta^2=1, la quale ha soluzione \eta=\pm 1.
Se \eta=-1 stiamo parlando di particelle con funzioni d’onda antisimmetriche (cioè lo scambio delle particelle produce un segno meno moltiplicativo nella funzione d’onda totale). Una conseguenza è che se parliamo dello stesso stato A=B allora lo scambio delle particelle produce la seguente relazione

    \[\psi_A(x_1)\psi_A(x_2)=-\psi_A(x_1)\psi_A(x_2)\]

la quale implica identicamente \psi_A(x_1)\psi_A(x_2)=0, cioè non esiste uno stato quantistico in cui queste particelle hanno gli stessi numeri quantici. Questa è la giustificazione quanto-meccanicistica del principio di Pauli, e condusse Dirac a ricavare la stessa formula di Fermi per la statistica degli elettroni.

La lettera in cui Fermi richiamò l’attenzione di Dirac sul suo articolo del febbraio precedente.


Fermi si limitò all’applicazione del principio di esclusione su un problema specifico, senza provare a darne un’interpretazione quanto-meccanicistica.

In ogni caso, Dirac riconobbe comunque l’importanza del lavoro di Fermi, e propose di chiamare la nuova statistica “Fermi-Dirac”, mettendo il nome di Fermi al primo posto.

Oggi le particelle (come gli elettroni) che obbediscono alla statistica di Fermi-Dirac sono note come “fermioni”, sempre in onore di Fermi. I fermioni sono tutte quelle particelle caratterizzate da uno spin semi-intero. Per un teorema rigorosamente dimostrabile in teoria quantistica dei campi, tutte le particelle a spin semi-intero obbediscono alla statistica di Fermi-Dirac, mentre quelle a spin intero (note come “bosoni“) obbediscono alla statistica di Bose-Einstein (sono le particelle con \eta=1 dopo uno scambio).

Alle basse temperature i bosoni possono occupare tutti lo stesso stato a energia più bassa, mentre i fermioni sono forzati ad occupare stati a energia crescente fino all’energia di Fermi (nella figura sono presenti al massimo due fermioni per via del numero quantico di spin, il quale assume due valori possibili se lo spin è 1/2).

Alle alte temperature (dove gli effetti quantistici sono meno preponderanti) sia fermioni che bosoni tornano ad obbedire alla statistica di Maxwell-Boltzmann e Gibbs.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Il neutrino sterile: la particella “fantasma” che arrovella i fisici da decenni

I neutrini sono a tutti gli effetti le particelle che abbiamo capito meno in tutto il Modello Standard.

In sintesi, le difficoltà sorgono dal fatto che queste particelle interagiscono con una sola delle interazioni fondamentali (senza contare la gravità), e questa è sfortunatamente l‘interazione debole. Alle tipiche energie dei nostri esperimenti questa interazione è fortemente soppressa (ecco perché si chiama “debole”), per cui è molto difficile produrre o far interagire dei neutrini:

In media, un neutrino interagisce una sola volta dopo aver percorso 100 miliardi di volte un diametro terrestre.

Nonostante ciò, i neutrini sono stati scoperti sperimentalmente e vengono studiati con cura dagli anni ’50, questo perché sono state impiegate sorgenti che ne emettono grandi quantità: in questo modo si contrasta la scarsa probabilità di interazione con l’enorme numero di “proiettili”. È la stessa filosofia di comprare un centinaio di “gratta e vinci” per aumentare le chances di pescarne almeno uno vincente.

Cosa non capiamo dei neutrini?

Per poter dire che “capiamo” tutto di una particella dobbiamo essere in grado di affermare quali siano i suoi numeri quantici, e di solito ci si concentra su questi tre:

  • Carica elettrica
  • Spin
  • Massa

Dei neutrini conosciamo con precisione solo i primi due: sono elettricamente neutri (infatti non interagiscono con la forza elettromagnetica) ed hanno spin 1/2, mentre sorprendentemente non sappiamo ancora con precisione il valore della loro massa. Sappiamo solo che non può essere più grande di un numero molto piccolo, per via delle evidenze sperimentali.

Ciò che stupisce è che rispetto alle altre particelle hanno una massa stupidamente minuscola, così piccola che è difficile da misurare: gli esperimenti ci consentono solo di porre dei limiti superiori sempre più piccoli. Per dare un’idea, l’elettrone ha una massa di mezzo milione di elettronvolt, mentre si stima che quella dei neutrini sia inferiore a un solo elettronvolt. Se l’elettrone è considerato la particella carica più leggera del Modello Standard, i neutrini sono davvero dei pesi piuma.

È di fondamentale importanza riuscire a determinare la massa di una particella. Nel Modello Standard la massa è spesso l’unico numero quantico che permette di distinguere tra due particelle che hanno gli altri numeri quantici uguali.

Ad esempio il muone e l’elettrone sono due particelle elementari con la stessa carica elettrica e lo stesso spin, ma il muone è circa 200 volte più pesante dell’elettrone ed è proprio ciò che ci permette di distinguerli nella maggior parte dei casi. Allo stesso modo il tau è la terza “sorella” di muone ed elettrone, in quanto ha stessa carica e stesso spin, ma massa pari a circa 18 volte quella del muone.
Queste tre particelle furono raggruppate in un trio chiamato “leptoni carichi”.

Elettrone, Muone e Tau: le tre particelle “sorelle” del Modello Standard costituiscono la famiglia dei leptoni carichi.

Per spiegare i risultati sperimentali degli anni ’30 e ’50, si associò a ciascun leptone carico (elettrone, muone e tau) un neutrino di tipo corrispondente. Infatti si dimostrò che in ciascun processo di interazione debole di un leptone carico compariva sempre un neutrino, di conseguenza:

  • All’elettrone venne associato un neutrino-elettronico: \nu_e
  • Al muone venne associato un neutrino-muonico: \nu_\mu
  • Al tau venne associato un neutrino-tau: \nu_\tau

Quindi anche i neutrini sono considerati dei leptoni, solo che hanno carica elettrica nulla. Assieme ai leptoni carichi costituiscono i 6 leptoni del Modello Standard.

La cosa importante da capire è che siamo in grado di distinguere un neutrino \nu_e da un neutrino \nu_\mu o da un neutrino \nu_\tau: basta guardare qual è il leptone carico coinvolto nelle interazioni (rare) di questi neutrini!

Il modo in cui siamo in grado di dire quale dei tre neutrini stiamo considerando: basta guardare i leptoni carichi che escono fuori dalle interazioni del neutrino con la materia.

In questo senso si parla di conservazione del sapore leptonico: un neutrino di sapore “muonico” è sempre associato, in un’interazione debole, a un muone. Se c’era un sapore elettronico all’inizio, dovrà esserci un sapore leptonico anche alla fine.

Le oscillazioni di sapore

Alla fine del secolo scorso si scoprì che i neutrini sono in grado di cambiare sapore leptonico durante il loro viaggio tra due punti dello spazio, e fu proprio questo fatto ad evidenziare che i neutrini dovevano avere una massa: senza una massa non è possibile questa oscillazione tra sapori!

L’oscillazione rompe la conservazione del sapore leptonico!

Ad esempio da un processo debole che coinvolge un elettrone (rivelabile) sappiamo che sbucherà fuori un \nu_e, il quale, dopo una certa distanza, si tramuterà in un \nu_\mu, il quale interagirà facendo comparire un muone, che sarà a sua volta rivelabile e ci permetterà di dire che questa oscillazione è effettivamente avvenuta!

Per spiegare questo effetto vengono introdotti gli “stati di massa” dei neutrini, chiamati \nu_1,\nu_2,\nu_3 a cui vengono associate le masse m_1,m_2,m_3. Ciascun stato di massa “contiene” al suo interno i tre sapori dei neutrini \nu_e,\nu_\mu,\nu_\tau in proporzioni che possono essere studiate sperimentalmente.
Graficamente abbiamo quindi tre neutrini ciascuno contenente al suo interno il mixing di sapori:

Gli autostati di massa dei neutrini con al loro interno i mixing dei sapori.
Celeste: \nu_e, Marroncino: \nu_\mu, Grigio: \nu_\tau.

Questo mixing avviene nel senso quanto-meccanico di sovrapposizione di stati: ciascuno stato di massa è una sovrapposizione delle funzioni d’onda dei sapori leptonici e,\mu,\tau.

Ad esempio dalla figura leggiamo che sperimentalmente è stato verificato che lo stato \nu_1 contiene per la maggior parte il sapore elettronico \nu_e (indicato in blu), mentre il sapore tau \nu_\tau è presente solo in minima parte.

Essendo tutto ciò un effetto quanto-meccanico, a ogni oscillazione tra sapori è associata una certa probabilità che sarà tanto più elevata quanto più grande è il mixing tra sapori negli stati di massa. Questa probabilità è verificabile sperimentalmente: basta chiedersi “se nel punto di partenza ho N neutrini di tipo \nu_e, quanti neutrini di tipo \nu_\mu mi ritroverò a una certa distanza dal punto di partenza?”

Ad esempio la probabilità che un neutrino \nu_e si trasformi in un neutrino \nu_\mu è data dalla seguente formula:

Vengono chiamate “oscillazioni” perché la probabilità dipende da un seno al quadrato, il quale rappresenta graficamente un’oscillazione nelle variabili L,E,\Delta m^2.

in cui \theta è un parametro del Modello Standard che è stato misurato sperimentalmente (e definisce il grado di mixing dei due sapori in questo caso). D’altra parte \Delta m^2=m_2^2-m_1^2 riguarda la differenza tra i quadrati delle masse di \nu_2 e \nu_1, mentre L è la distanza a cui hanno viaggiato i neutrini prima di essere rivelati, ed E è la loro energia.
Nota bene che se questi neutrini avessero la stessa massa, e cioè \Delta m^2=0, non si potrebbero avere oscillazioni (la probabilità sarebbe nulla perché il seno di zero fa zero).

Ad esempio è molto più probabile che un \nu_e si trasformi in un \nu_\mu quando l’argomento del seno è vicino al punto in cui il seno ha un massimo, e cioè in prossimità di 90^{\circ} (o in radianti pi/2), e cioè quando

Da questa formula è possibile capire a che valore del rapporto L/E si è più sensibili per rivelare un’oscillazione da \nu_e in \nu_\mu. Si può quindi ottenere una stima di \Delta m^2.

Studiando l’andamento dell’oscillazione con L/E si può quindi ricavare \Delta m^2 proprio da questa formula.

La differenza tra le masse dei neutrini \nu_2 e \nu_1 è minuscola, ma comunque calcolabile dai dati sperimentali. Allo stesso modo è stata calcolata la differenza tra le masse quadre di \nu_3 e \nu_2, e da ciò si può ricavare la differenza tra le masse quadre di \nu_3 e \nu_1.
Conosciamo solo queste \Delta m^2, ma non i valori singoli di m_3,m_2,m_1, che frustrazione, eh?

Misurando il numero di eventi di neutrini di un certo sapore ad alcuni valori del rapporto L/E si possono ricavare i valori sperimentali di \theta e \Delta m^2. Questo è proprio ciò che si fa da qualche decina di anni: la teoria delle oscillazioni è verificata con un alto grado di accuratezza, tranne per qualche anomalia…

Le anomalie delle oscillazioni

Immagina di stare conducendo un esperimento in cui produci dei neutrini \nu_\mu, li fai viaggiare per una certa distanza L e ti aspetti che si trasformino in neutrini \nu_e con una probabilità data dalla formula vista sopra: P_{\nu_e\to\nu_\mu}=\sin^2(2\theta)\sin^2\left(\frac{\Delta m^2 L}{4E}\right), solo che con sorpresa ti ritrovi a rivelare più neutrini \nu_e di quelli che ti aspettavi, un eccesso rispetto alla previsione teorica.

Questo è proprio quello che capitò nell’esperimento LSND degli anni ’90 (immagine di copertina): comparvero più neutrini \nu_e di quelli previsti dal modello delle oscillazioni a tre stati di massa \nu_1,\nu_2,\nu_3.

Questo fenomeno fu spiegato con l’introduzione di un quarto stato di massa \nu_4, avente massa m_4 apparentemente molto più grande di m_1,m_2,m_3.

Questo \nu_4 permetteva l’oscillazione di \nu_\mu in \nu_e a un ritmo più elevato, dato dalla formula modificata:

Stavolta \Delta m^2_{41}=m_4^2-m_1^2, e non più \Delta m^2=m_2^2-m_1^2.

in cui si trovò che, appunto, \Delta m_{41}^2\gg \Delta m_{21}^2: il quarto stato di massa doveva avere una massa molto più elevata degli altri tre stati di neutrini.

Ricorda però che ad ogni stato \nu_1,\nu_2,\nu_3 avevamo associato un certo mixing di sapori \nu_e,\nu_\mu,\nu_\tau, quindi aggiungendo un \nu_4 dobbiamo aggiungere anche un nuovo sapore \nu_s. Questo è necessario per far quadrare i conti della teoria dei mixing.

Il Modello Standard però proibisce (con misure sperimentalmente verificate) un numero di sapori di neutrini superiore a tre! Cioè possono esistere solo i sapori “canonici”: \nu_e,\nu_\mu,\nu_\tau.

Il nuovo sapore \nu_s associato alla comparsa di \nu_4 dovrà allora essere completamente sconnesso dal Modello Standard, e cioè dovrà essere sterile rispetto a tutte le interazioni fondamentali. Questo suo essere sterile proibisce una rivelazione diretta del neutrino, e i suoi effetti compaiono solo come eccessi di oscillazioni, come nell’esperimento LSND.

Il nuovo mixing dei neutrini usando un quarto stato di massa \nu_4 e un nuovo sapore sterile (indicato in rosa). Notare come \nu_4 contenga il nuovo sapore per la maggior parte, mentre una componente sterile è presente in quantità molto piccole negli altri stati \nu_1,\nu_2,\nu_3.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Se già i neutrini di sapore tradizionale erano difficili da rivelare, il neutrino sterile è quindi una vera e propria particella fantasma. Non ne vediamo l’effetto diretto, ma solo quello indiretto sulle oscillazioni tra gli altri sapori “attivi” \nu_e,\nu_\mu,\nu_\tau.
Tuttavia anche questi “eccessi” nelle oscillazioni sono abbastanza misteriosi, ad oggi non è detto che il neutrino sterile esista per forza.

Ci sono parecchie discordanze sulle anomalie rivelate da LSND, dato che gli esperimenti successivi non sono riusciti a confermarle, ma nemmeno a smentirle! Anche al Gran Sasso (esperimento GALLEX) furono misurate delle anomalie nelle oscillazioni, e ad oggi pure queste anomalie restano senza conferma da altri esperimenti, nonostante siano però difficili da smentire.

La scoperta del neutrino sterile segnerebbe il primo passo verso il superamento definitivo del Modello Standard

Questo perché essendo sterile non potrebbe accoppiarsi nemmeno con il campo di Higgs per sviluppare la massa dello stato m_4, dunque servirebbe un nuovo meccanismo che implicherebbe l’utilizzo di teorie oltre il Modello Standard.

Per mettere la parola definitiva sul neutrino sterile sono previsti esperimenti sempre più sensibili, ma al contempo sempre più difficili da costruire, con tecnologie all’avanguardia ancora da inventare.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Come la gravità ci impedisce di misurare distanze più piccole della lunghezza di Planck

Uno dei punti fondamentali per la conquista dell’unificazione tra gravità e meccanica quantistica riguarda la comprensione dello spaziotempo a una scala subatomica di lunghezza.

Lo spaziotempo è essenzialmente un concetto classico: possiamo immaginarcelo come una struttura invisibile che può essere descritta utilizzando i numeri reali (cioè quelli della quotidianità: 2.3, 0.01, \pi, e^{-\pi/2}, -3/4, 2.9999...).

Come immaginiamo la griglia dello spaziotempo curvata dalla massa.

I numeri reali costituiscono un insieme non numerabile, in parole povere non solo abbiamo a disposizione un’infinità di numeri da -\infty a +\infty, ma anche che tra due numeri come 0 e 1 è compresa un’altra infinità di numeri. Inoltre è anche un insieme continuo, cioè dato un certo numero x, è sempre possibile trovare un altro numero y sufficientemente “vicino” al primo in modo che la distanza x-y tra i due si avvicini a zero fino alla cifra decimale che si desidera.
Nei numeri interi, invece, la distanza tra due numeri può solo coincidere con lo zero nel caso in cui i due numeri siano uguali, altrimenti esiste una distanza minima che è quella che riguarda due numeri consecutivi come 4 e 5.

Ecco, classicamente si pensa che lo spaziotempo possa essere descritto con un insieme di numeri reali piuttosto che di numeri naturali. Non è definita una distanza minima se non quella uguale a zero.

Cosa succede quando tiriamo in ballo la meccanica quantistica?

Ispirato dal seguente brillante articolo di Calmet, Graesser e Hsu pubblicato nella Physical Review Letters, ho deciso di volgarizzare un ragionamento che ho trovato molto intrigante, dato che su questi temi si discute sempre pochino e male.

Immaginiamo di avere un certo detector per rivelare la distanza tra due punti x(t) e x(0) nella griglia dello spaziotempo, uno al tempo t=0 e l’altro al tempo t.
Supponiamo per semplicità che il detector, di grandezza L e massa M, misuri questi due punti spostandosi con una velocità v=p/M dove p è la sua quantità di moto. Avremo cioè

Il discorso che sto per fare ora si basa su un’approssimazione euristica al fine di scongiurare l’introduzione di operatori quantistici, dato che aggiungerebbero poco o niente alla sostanza del discorso principale.

Una volta misurate le posizioni x(t) e x(0) con una certa incertezza \Delta x(t) e \Delta x(0), possiamo anche stimare l’incertezza sulla quantità di moto \Delta p usando le formule sulla propagazione delle incertezze:

Considerando ad esempio il punto x(t), varrà il principio di indeterminazione di Heisenberg:

A questo punto sostituiamo dentro il principio di Heisenberg l’espressione di \Delta p=(M/t)[\Delta x(t)+\Delta x(0)] trovata con la propagazione delle incertezze. Trascurando termini quadratici del tipo (\Delta x(t))^2 essendo più piccoli di un ordine di grandezza, si arriva a una relazione interessante:

Le incertezze sulla posizione iniziale e finale sono legate da un principio di indeterminazione, il cui valore aumenta all’aumentare del tempo. Di sicuro questa è una relazione interessante.
Ancora più interessante è chiedersi quale sia l’incertezza sulla distanza tra x(t) e x(0), cioè s=x(t)-x(0). Anche ora, per via della propagazione degli errori, si ha che

    \[\Delta s=\Delta x(t)+\Delta x(0)\]

Se \Delta x(t) diminuisce allora \Delta x(0) aumenta al fine di mantenere vera la \Delta x(0)\Delta x(t)\ge \frac{\hbar t}{2M}, quindi \Delta s è limitato dal valore più grande tra \Delta x(0) e \Delta x(t).

Nel caso in cui \Delta x(t)\approx \Delta x(0) cioè misuriamo i punti x(t) e x(0) con incertezze circa uguali, il principio di indeterminazione fornisce:

Quindi da un punto di vista quantistico possiamo misurare una lunghezza spaziale con una precisione

Dove ricordiamo, t è il tempo che abbiamo lasciato correre tra una misura e l’altra, e M è la massa del nostro detector (che abbiamo fatto interagire con lo spazio attorno a sé lasciandolo muovere liberamente).
Controllando questi due parametri possiamo rendere \Delta s piccolo a piacere. Possiamo costruire un detector molto massivo e fare tante misure consecutive separate da intervalli di tempo t molto piccoli.
Rendendo piccolo il rapporto t/M possiamo rendere \Delta s piccolo a piacere.

Tutto ciò andrebbe bene in un mondo in cui non esiste la gravità. Questo è il messaggio da portare a casa! Se non ci fosse di mezzo la gravità, come puoi vedere, nulla impedirebbe di rendere \Delta s piccolo a piacere (anche se non può mai essere nullo, per via del principio di Heisenberg).

L’intervento della gravità

Ho mentito, non possiamo rendere t piccolo a piacere! Se L è la dimensione del nostro detector, dobbiamo considerare dei tempi t tali che t>L/c cioè maggiori del tempo impiegato dalla luce a percorrere il nostro detector (altrimenti solo una frazione del detector può essere considerato “detector”).

Inoltre non possiamo rendere M grande a piacere: se rendiamo M troppo grande rispetto alle dimensioni L del detector, questi potrebbe collassare in un buco nero, e ciò impedirebbe di leggere qualsiasi informazione sulle misure del nostro esperimento. Il parametro di lunghezza fondamentale di un buco nero è dato dall’orizzonte degli eventi

    \[r_s\sim \frac{GM}{c^2}\]

dove G è la costante di gravitazione di Newton e c la velocità della luce.

Affinché il detector non sia un buco nero da cui non escono informazioni, desideriamo che sia L>r_s. Mettendo tutto assieme avremo quindi

La quantità risultante è identificata come lunghezza di Planck \ell_p, definita come:

La lunghezza di Planck, costante fondamentale della Fisica.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Non c’è nessun parametro che possiamo controllare nella formula della lunghezza di Planck: è composta da costanti fondamentali della Fisica come G, \hbar, c (costante di gravitazione di Newton, costante di Planck e velocità della luce). Quindi \Delta s\ge \ell_p è un limite inferiore che non possiamo sormontare in alcun modo ingegnoso: la gravità impedisce di misurare distanze più piccole della lunghezza di Planck.

Se vuoi sapere da dove spunta fuori la lunghezza di Planck da un punto di vista storico, ho scritto un articolo a riguardo.

Quanto è piccola una lunghezza di Planck nelle nostre unità di misura quotidiane? \ell_p\sim 10^{-33}\,\text{cm}, ovvero 10^{-25} volte il raggio tipico di un atomo. Per enfatizzare, il numero 10^{-25} corrisponde a 24 cifre dopo lo zero, cioè qualcosa del tipo 0.\underbrace{000.....0}_{24}1. Giusto per intenderci.

Il punto fondamentale è che se non ci fosse la gravità, non esisterebbe una lunghezza minima misurabile e potremmo rendere piccola a piacere l’incertezza quantistica della misura!

Ad avere l’ultima parola sulle dimensioni spaziali subatomiche non è quindi la quantistica, ma la gravità!
Questo risultato è molto significativo per la Fisica! Perché?

Quando si effettuano esperimenti di Fisica delle interazioni fondamentali (come le collisioni tra particelle) si esplorano scale di energia sempre più alte (che equivale a dire: si esplorano regioni di spazio sempre più piccole). La presenza di una scala di lunghezza sotto la quale non si può andare implica anche l’esistenza di una scala di energia sopra la quale non si può andare (perché la gravità diventerebbe rilevante e si inizierebbe a parlare di collasso in buco nero, avendo accumulato tanta energia in una regione di dimensioni molto ridotte). Un altro pezzo del puzzle per la lunga scalata che ci porterà verso la gravità quantistica?


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Il trucco per stimare la temperatura di Hawking: la gravità quantistica dietro le unità naturali

Stephen Hawking, 1942-2018.

Quello che propongo è un esercizio concettuale che ci porterà a stimare in maniera molto euristica (e non rigorosa) la temperatura di evaporazione dei buchi neri, altrimenti nota come “temperatura di Hawking”, dal suo scopritore Stephen Hawking. Su ispirazione da una lettura del fisico Anthony Zee, ritengo ci sia tanta fisica teorica dietro questo semplice giochino concettuale, quindi ci tengo a condividerlo con gli appassionati.

Alle fine, tutto inizia con Planck.
Max Planck è uno scienziato rinomato non solo per l’ipotesi sulla quantizzazione della radiazione, ma anche per essere stato il primo a proporre le “unità naturali” nella Fisica. Intendo proprio delle unità di misura molto speciali, dette “naturali” per un motivo ben preciso.

Perché mai avremmo bisogno di utilizzare delle “unità naturali", e poi che significa “naturale"? Naturale rispetto a cosa?

Se ci pensiamo un attimo, la storia dell’umanità è cosparsa di convenzioni sulle unità di misura:
cos’è un litro? Un piede? Una spanna? Un centimetro? Un gallone? Un secondo?

Chiaramente ogni unità di misura ha la sua definizione riconosciuta internazionalmente, ma tutte hanno in comune un unico fatto: sono antropocentriche per costruzione (d’altronde non poteva essere altrimenti, no?).
Questo porrebbe non pochi problemi dal punto di vista della comunicazione scientifica interstellare!

Per fare un esempio, a un abitante di un pianeta della galassia di Andromeda non può fregare di meno che per misurare quella che chiamiamo “temperatura” ci riferiamo alla graduazione di alcuni tubi contenenti mercurio, riferendoci alla convenzione proposta in un laboratorio nel 700′.

La fisica moderna ci ha insegnato invece che alcune quantità fondamentali, come tempo, lunghezza e massa, devono necessariamente essere espresse in modo che qualsiasi civiltà della nostra galassia (e oltre) possa concordare sul loro valore. Pensa quanto sarebbe difficile descrivere l’unità di misura del “piede del Re” a un abitante di un altro pianeta! Sfortunatamente tutte le unità di misura quotidiane sono affette da questa arbitrarietà.

Ad esempio utilizziamo un’unità temporale che essenzialmente deriva da quanto velocemente il nostro pianeta compie una rivoluzione attorno al proprio asse, e scandiamo il passaggio dei tempi lunghi riferendoci a quante volte il nostro pianeta compie un giro completo intorno alla sua stella. In una galassia popolata da 100 miliardi di pianeti, la misura del tempo riferita al numero di rivoluzioni di UNO solo tra questi appare tutto tranne che efficiente.

Tutto quello che chiediamo è di poter misurare tempi, lunghezze e masse usando qualcosa su cui ogni essere vivente può concordare (supponendo che la Fisica sia la stessa in tutta la galassia).

È possibile misurare tempo, lunghezza e massa senza riferirsi ad unità di misura inventate dall’uomo?

Tempo, lunghezza e massa. Ci bastano queste tre cose per poter fare previsioni fisiche sul mondo che ci circonda, e fortunatamente le costanti fondamentali della Fisica vengono in nostro soccorso.

L’indizio di Newton: lunghezza e massa sono correlate

Se nella teoria di Newton compariamo l’energia cinetica di un corpo gravitante con la sua energia potenziale gravitazionale

Comparando l’energia cinetica di un corpo di massa ”m” con l’energia potenziale nel campo gravitazionale di una massa “M“.

ed esprimiamo la sua velocità come una frazione di quella della luce, cioè v=\beta c con 0<\beta<1, vediamo che è possibile, tramite le costanti fondamentali c e G (velocità della luce e costante di gravitazione universale) esprimere una lunghezza in funzione di una massa

Semplificando m e risolvendo per r, otteniamo una relazione tra lunghezza e massa che dipende solamente da costanti fondamentali.

Il rapporto G/c^2 è una costante fondamentale della Natura, su cui potenzialmente tutti gli osservatori dell’universo possono concordare (magari nel loro linguaggio o nella loro matematica, ma sarebbe comunque possibile capirsi in qualche modo). Stiamo dicendo implicitamente che basta conoscere la teoria della gravità (costante G) e la velocità della luce (costante c) per poter convertire da lunghezza a massa!

Ok, magari questa relazione non significa nulla se la decontestualizziamo dal problema fisico (eguagliare energia cinetica con energia potenziale serve per risolvere un problema specifico), ma qui stiamo cercando delle relazioni che ci consentano di esprimere delle quantità in funzione di alcune costanti fondamentali.

“Aspetta un attimo, ma anche le costanti fondamentali sono riferite alle unità di misura antropocentriche. La velocità della luce si misura in m/s ad esempio. Non è un discorso circolare?"

Semplicemente diremo che nelle unità fondamentali la velocità della luce ha un valore unitario, e che ogni altra velocità ha un valore che è una frazione di quel valore unitario, cioè v=\beta con 0<\beta<1 e c=1.

”Ma non ha senso, in questo modo come facciamo a distinguere una velocità da una massa? Come faccio a dire che il numero “1" si riferisce a uno spazio percorso nel tempo invece che a un chilogrammo?

Giusta osservazione, ecco perché dovremmo provare ad esprimere tempi, lunghezze e masse in maniera indipendente tra loro, in funzione di poche costanti fondamentali. Siccome abbiamo tre quantità, ci servono tre costanti fondamentali, ma finora ne abbiamo raccolto solo due.

Nella teoria di Newton abbiamo a disposizione solo la costante G, e con Einstein abbiamo guadagnato la costante c. Il prossimo passo fu compiuto da Max Planck quando introdusse \hbar nella definizione di quanto di energia

Se \omega è ad esempio la frequenza di un fotone, la conversione tra frequenza ed energia è garantita dalla costante di Planck \hbar.

Il contributo quantistico

A meno che tu non abbia vissuto dentro una caverna negli ultimi anni, se ti interessa la Fisica avrai sicuramente sentito parlare del principio di Heisenberg, che relaziona una quantità spaziale (\Delta x) con la quantità di moto (\Delta p) (per un approfondimento sul significato matematico del principio, ho scritto un articolo). Il mediatore di questa relazione è la costante di Planck, \hbar

Se proviamo a far incontrare gravità e meccanica quantistica risulta naturale considerare la lunghezza gravitazionale travata in precedenza, e cioè la combinazione GM/c^2. Se al posto della quantità di moto poniamo poi Mv=M\beta c con al solito 0<\beta<1 possiamo ricavare, con un po’ di sorpresa, una massa in funzione di sole costanti fondamentali:

Ignorando il fattore arbitrario \beta e calcolando la radice quadrata, incappiamo in una massa espressa solamente in funzione delle tre costanti fondamentali, la cosiddetta “massa di Planck”:

La massa di Planck.

A questa massa contribuiscono le tre costanti delle tre teorie fondamentali della Natura:

  • G, la costante di gravitazione per la teoria della gravità di Newton.
  • c, la costante della velocità della luce, per la teoria della relatività di Einstein.
  • \hbar, la costante dei quanti di energia, per la teoria quantistica di Planck e Heisenberg.

Tre costanti, tre teorie fondamentali, e in regalo abbiamo una massa espressa in maniera universale.

Se come quantità di moto usiamo questa massa, cioè p=M_p(\beta c), la lunghezza quantistica associata è, sempre per il principio di Heisenberg

Sostituendo il valore trovato per M_p=\sqrt{\hbar c/G} e trascurando la costante \beta irrilevante, troviamo quella che è definita lunghezza di Planck

La lunghezza di Planck

che è anche pensabile come la distanza percorsa dalla luce in un tempo di Planck definito così

Il tempo di Planck

Grazie alle tre teorie fondamentali: gravità, relatività e quantistica, siamo riusciti a trovare tre costanti fondamentali per esprimere le tre quantità più importanti della Fisica in maniera indipendente

Le tre costanti fondamentali da cui discendono massa, lunghezza e tempo.

Cosa ci abbiamo guadagnato? Ora possiamo esprimere qualsiasi altra massa, lunghezza o tempo in unità di queste che abbiamo trovato! Cioè diremo che

Le costanti \apha_m,\alpha_\ell,\alpha_t sono adimensionali, cioè sono dei numeri puri.

in cui \alpha_m, \alpha_\ell,\alpha,t sono ora le letture di “quanta massa, quanta lunghezza o quanto tempo c’è” nelle unità M_p,\ell_p,t_p.

Ovviamente in queste unità la massa di Planck ha \alpha_m=1, il tempo di Planck ha \alpha_t=1 e la lunghezza di Planck ha \alpha_\ell=1 (per definizione). È come dire “quanti chili ci sono in un chilo?” ovviamente uno, è la definizione.

Un ritorno alle unità primordiali

Volendo potremmo esprimere queste nuove unità utilizzando quelle a cui siamo abituati quotidianamente, come il chilogrammo, il secondo e il metro, giusto per avere un’idea delle scale in gioco.

Siccome la parola “quantistica” ci fa venire in mente quantità molto piccole, non ti sorprenderà sapere che tempo di Planck e lunghezza di Planck sono spaventosamente piccole nelle nostre unità

Ma anche questo non dovrebbe scandalizzarci. Chi ci dice che le nostre unità di misura quotidiane siano significative? Quanto piccolo è troppo piccolo, e quanto grande è troppo grande? Dipende dalle unità che si sta usando. Nelle unità naturali fondamentali t_p=1, \ell_p=1, nulla di insolito, non sono piccole.
Nelle unità primordiali a cui siamo abituati invece si ha:

  • t_p\sim 10^{-44}\,\text{s}, ovvero un numero così piccolo che non vale nemmeno la pena specificare quanto.
  • \ell_p\sim 10^{-33}\,\text{cm}, ovvero 10^{-25} volte il raggio tipico di un atomo. Per enfatizzare, il numero 10^{-25} corrisponde a 24 cifre dopo lo zero, cioè qualcosa del tipo 0.\underbrace{000.....0}_{24}1. Giusto per intenderci.

La massa di Planck corrisponde invece a M_p\sim 10^{-5}\,\text{grammi}.
Dal punto di vista “quotidiano” M_p può sembrare molto piccola, ma in realtà corrisponde a 10^{19} volte la massa del protone, un valore spropositatamente elevato per la fisica delle particelle. Nelle nostre unità, M_p appare così grande perché dipende dalla costante G al denominatore, cioè M_p\propto 1/\sqrt{G}, con G che è un numero molto piccolo nella teoria della gravità.

Ma passiamo ora alla questione di interesse: le unità naturali ci permettono di calcolare con estrema velocità una quantità che è il risultato di una primordiale teoria di gravità quantistica: la temperatura di Hawking per l’evaporazione dei buchi neri.

L’evaporazione dei buchi neri

In termini rozzissimi “l’evaporazione” di un buco nero si basa su due aspetti fondamentali:

  • Il “vuoto“, dal punto di vista quantistico, non è davvero un vuoto, ma una “brodaglia quantistica” caratterizzata da processi di creazione-distruzione di coppie particella-antiparticella. Queste particelle sono “virtuali“, nel senso che non sono osservabili fisicamente e rappresentano solo un conveniente costrutto matematico, una conseguenza delle nostre teorie. Il loro utilizzo conduce tuttavia a predizioni accurate sulle particelle osservabili.
  • L’orizzonte degli eventi di un buco nero è definito sul vuoto spaziotemporale attorno al buco nero, e racchiude una regione (il buco nero) dalla quale NULLA, nemmeno la luce, può sfuggire.

Che succede se si viene a creare una coppia virtuale di particella-antiparticella esattamente sull’orizzonte degli eventi? Una delle due particelle non potrà più uscire dalla regione spaziotemporale, mentre l’altra proseguirà in direzione opposta per la conservazione della quantità di moto.

Una coppia virtuale di particella-antiparticella si crea sull’orizzonte del buco nero.

Ci tengo a rimarcare: questa descrizione del processo è molto euristica e non del tutto precisa, ma rende bene l’idea. Non ne ho mai trovate di più semplici di questa.


Il punto importante da capire è che in un certo senso è come se il buco nero avesse emesso della radiazione sotto forma di particella! Un attimo prima non c’era nulla, e un attimo dopo è come se si fosse creata radiazione dal niente, anche se in realtà il partner della particella emessa è stato risucchiato nel buco nero.

La particella che procede verso l’universo circostante è stata promossa da “particella virtuale” a “particella reale”, e questa promozione ha un costo energetico ben preciso, garantito dall’energia gravitazionale del buco nero. Tutto questo processo è noto come “radiazione di Hawking”.

La radiazione di Hawking prevede che i buchi neri perdano energia gravitazionale sotto forma di radiazione di particelle.

In questo senso si dice che i buchi neri “evaporano”, cioè è come se iniziassero a perdere massa.

Stima della temperatura di Hawking

Nelle unità naturali definite prima si pone convenzionalmente \hbar=c=1 per semplificare le equazioni. Come conseguenza di ciò, l’energia ha le stesse dimensioni di una massa:

Energia e massa diventano la stessa cosa in unità naturali.

In questo modo il principio di Heisenberg \Delta x\Delta p\sim\hbar per lunghezza di Planck \ell_p e quantità di moto\Delta p\propto M_p c=M_p con c=1, si scrive con \hbar=1:

Il principio di Heisenberg in unità naturali ci dice che le lunghezze hanno come unità l’inverso di un’energia.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

quindi impariamo che la lunghezza equivale all’inverso di una massa, cioè all’inverso di un’energia per quanto appena detto.

Da un punto di vista microscopico possiamo associare una certa temperatura alla radiazione di Hawking. Questo perché la temperatura è una misura dell’energia cinetica di un sistema. In un certo senso la temperatura è la manifestazione macroscopica di un processo microscopico, rappresentato dal moto caotico delle particelle. Noi vediamo solo “la temperatura” dal punto di vista sperimentale, quindi per via di questa limitazione abbiamo creato una costante ad hoc per convertire l’energia microscopica in scale graduate di colonnine di mercurio con cui misuravamo le temperature qualche secolo fa.

La conversione tra energia microscopica e la sua manifestazione “misurabile”, cioè la temperatura, avviene grazie alla costante di Boltzmann k_b.

Siccome non vogliamo usare unità antropocentriche come le colonnine di mercurio, porremo k_b=1 per semplicità. Quindi l’energia è proprio la temperatura: E=T.

Parlando del buco nero possiamo allora dire che siccome l’energia equivale all’inverso di una lunghezza, e che al contempo l’energia equivale a una temperatura, si ha che

Come lunghezza caratteristica del buco nero possiamo prendere proprio la lunghezza gravitazionale definita all’inizio di questo articolo, cioè GM/c^2, che in unità c=1 supponendo che il buco nero abbia una massa M diventa:

Di conseguenza possiamo fornire una stima (molto rozza, ma efficace) della temperatura di Hawking del buco nero di massa M

La temperatura di Hawking della radiazione.

Nonostante la nostra stima sia estremamente rozza, il risultato è comunque corretto: la temperatura del buco nero è tanto più alta quanto più è piccolo (cioè meno massivo). Inoltre, come la massa del buco nero diminuisce per via dell’evaporazione, la sua temperatura crescerà sempre di più ed evaporerà ancora più velocemente. Questo è quello che ci dice la formula per la temperatura di Hawking.

Ciò ha del paradossale: hai mai visto un corpo che più perde energia, più si riscalda ed emette in fretta? Questo è solo uno dei tanti problemi che derivano dall’infelice connubio tra relatività generale e meccanica quantistica, e questi problemi dovranno essere risolti da una pretendente teoria di gravità quantistica.

Abbiamo mai rivelato una radiazione di Hawking proveniente da un buco nero? Non ancora, specialmente perché per buchi neri di massa comune (abbastanza elevata) la temperatura di Hawking, andando come T_H\sim 1/M, è molto molto piccola, più piccola di quella del punto più freddo dell’universo, vicino allo zero assoluto in gradi Kelvin. La speranza è rivolta verso i buchi neri primordiali in quanto dovrebbero essere in fase di evaporazione finale, un momento in cui la loro massa tende a M\to0, e quindi dovremmo essere in grado di rivelare un incremento anomalo nella temperatura dell’emissione.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Il Teorema “CPT”, o il motivo per cui un anti-universo sarebbe indistinguibile dal nostro

Ci sono pochi argomenti che fanno da musa ispiratrice sia per i fisici teorici che per i fisici sperimentali. Le simmetrie discrete rappresentano una guida importantissima con cui interpretiamo i risultati sperimentali e con cui strutturiamo la forma matematica delle teorie, perché hanno la capacità di predire “cosa è concesso e cosa è vietato”.

  • Vuoi osservare il decadimento di una particella e non sai quali proprietà aspettarti dai suoi prodotti di decadimento? Argomenti di simmetria scarteranno alcune tra le varie possibilità, permettendoti di focalizzare le tue misure su altre proprietà.
  • Vuoi scrivere una teoria che descrive l’interazione nucleare? Sappi che gli esperimenti non hanno mai osservato la violazione di una certa simmetria “A”, quindi assicurati che le tue equazioni abbiano la stessa simmetria!

Quando diciamo “il sistema ha una simmetria” dobbiamo prima specificare rispetto a quale trasformazione. Infatti una simmetria è sempre preceduta da una trasformazione, altrimenti dire “simmetria” perde ogni significato. (Per un’introduzione al concetto di simmetria rimando a un precedente articolo).

Non tutte le trasformazioni sono una simmetria di un certo sistema. Ciò non è un problema: in ogni caso abbiamo scoperto che è molto comodo catalogare gli oggetti in base al loro comportamento sotto determinate trasformazioni.
Ad esempio la freccia in figura possiamo chiamarla “generica freccia bianca con punta a destra”

Potremmo decidere arbitrariamente di studiare il comportamento di questa freccia sotto alcune trasformazioni interessanti: ad esempio la trasformazione “inversione speculare” trasforma la freccia in quest’altra:

L’oggetto ottenuto non è lo stesso di prima, ora la freccia ha la punta verso sinistra: diremo che “la riflessione speculare non è una sua simmetria della freccia”. Pazienza! Non tutto può essere simmetrico.
Abbiamo comunque imparato qualcosa di nuovo: possiamo dare un nuovo nome a questo sistema: tipo “freccia bianca che sotto riflessione va nel suo opposto“. Questo modo di chiamare un oggetto in base a come si comporta sotto una trasformazione è ciò che facciamo per catalogare le particelle e le interazioni fondamentali del Modello Standard.

Il Modello Standard è caratterizzato da tre simmetrie fondamentali: la simmetria di Lorentz (le leggi della Fisica hanno la stessa forma in tutti i sistemi di riferimento inerziali, o in altri termini, sono simmetriche sotto una trasformazione di Lorentz), la simmetria di gauge (gli oggetti matematici della Fisica presentano più variabili di quelle fisicamente necessarie), e la simmetria CPT. Le prime due sono abbastanza astratte rispetto all’ultima, su cui ci concentriamo oggi.

La simmetria “CPT” evidenzia un fatto importantissimo della nostra realtà: le leggi della Fisica rimangono inalterate se applichiamo tutte e tre le seguenti trasformazioni:

  • Inversione spaziale “P”
  • Inversione di carica “C”
  • Inversione temporale “T”

Le trasformazioni P, C, T sono chiamate in gergo “simmetrie discrete”. Svisceriamole una ad una.

La simmetria P: inversione spaziale

L’inversione spaziale, altrimenti nota come “trasformazione di parità” consiste nell’invertire tutte e tre le direzioni spaziali: le coordinate cartesiane (x,y,z) vengono mandate in (-x,-y,-z).
Per visualizzare meglio questa trasformazione, considera una freccia in tre dimensioni, ad esempio dotata di un certo spessore, una punta e due facce rettangolari. Chiamiamo “A” e “B” le due facce di questa freccia.

Le due facce “A” e “B” della stessa freccia.

Visualizziamo la freccia in una certa posizione iniziale, ad esempio disponiamola con la faccia “A” rivolta verso di noi (quindi la faccia “B” è rivolta verso la pagina di questo articolo), e la punta è rivolta verso destra.
Per ottenere una trasformazione di parità eseguiamo due step: anzitutto ruotiamo di 180 gradi la freccia attorno alla direzione della sua punta ed infine invertiamo la punta. Infatti così facendo abbiamo mandato la faccia “A” nel suo opposto (cioè la faccia B), poi abbiamo invertito il basso con l’alto, ed infine abbiamo invertito la destra con la sinistra. Gli step sono illustrati in figura

Una trasformazione di parità della freccia. Dall’alto verso il basso: la freccia nella sua posizione iniziale, la freccia dopo una rotazione di 180 gradi attorno alla direzione della sua punta, e poi l’inversione della punta nell’ultimo step.

Nota bene, una trasformazione di parità è ben diversa da una trasformazione “speculare”. Non è come vedere la freccia davanti a uno specchio!

Una trasformazione speculare della freccia.

Spesso invece capita di sentire che l’inversione spaziale corrisponde a “vedere l’universo attraverso uno specchio”, come mai questa inesattezza?
Immagina per un attimo se la freccia avesse due facce uguali e non ci fosse modo di distinguere il basso dall’alto, in quel caso la riflessione speculare e la trasformazione di parità coincidono!

Questo perché la freccia iniziale era simmetrica sotto una rotazione di 180 gradi rispetto alla direzione della punta (quindi il primo step della trasformazione di parità la lascia invariata). Moltissimi sistemi fisici di interesse godono di una simmetria sotto rotazioni attorno a una certa direzione, per cui non è così scorretto dire che l’inversione spaziale “coincide” con l’osservare l’universo allo specchio.

"Però mi sfugge cosa c'entri con la Fisica tutto questo discorso sull'inversione dello spazio. Cosa gliene frega alle particelle se prendo gli assi cartesiani in un verso o nell'altro?" 

Magari non è immediato vederlo, ma la connessione è piuttosto profonda e ha a che fare con le interazioni fondamentali.

In particolare ha a che fare con il modo con cui scriviamo le teorie della Fisica.
Se le evidenze sperimentali suggeriscono ad esempio che un processo ha la stessa probabilità di avvenire in una direzione rispetto alla direzione opposta, allora sarà meglio che la teoria sia simmetrica sotto una trasformazione di parità dal punto di vista matematico! Lo schema di queste ragionamento è il seguente:

Per fare un esempio consideriamo la teoria di Dirac per un fermione di massa m. Nella teoria il termine di massa è scritto accoppiando i campi ψ del fermione nel seguente modo:

La trasformazione di parità dei campi fermionici si ottiene moltiplicandoli per una matrice detta “di Dirac”: γ0

Trasformazione di parità per i campi fermionici. La matrice di Dirac è caratterizzata dall’equazione (γ0)2 =1, cioè il suo quadrato è uguale all’identità.

A questo punto mostriamo che il termine di massa della teoria di Dirac è invariante sotto parità:

La trasformazione di parità dei campi fermionici lascia invariato il termine di massa grazie al fatto che 0)2 =1. La teoria di Dirac è costruita in modo da essere invariante sotto parità (ciò era suggerito dagli esperimenti).

In teoria nulla garantisce che le leggi della Natura siano invarianti sotto inversione spaziale, è una nostra assunzione ragionevole, confermata dalla maggior parte dei risultati sperimentali e per la maggior parte delle interazioni fondamentali.
Negli anni 50′, con grossa sorpresa, si scoprì che la nostra assunzione non corrispondeva alla realtà.

L’interazione debole e la violazione della parità

È arcinota l’importanza dei vettori nella Fisica. Siccome i vettori sono quantità riferite agli assi cartesiani, invertire gli assi con una trasformazione di parità invertirà anche i vettori.
Un vettore r verrà mandato nel suo opposto –r in seguito a una trasformazione di parità. Se però consideriamo il prodotto di due vettori, ad esempio come il momento angolare L=rxp , sotto una trasformazione di parità si ha

I segni meno si cancellano e il momento angolare rimane uguale a se stesso, non si inverte.

Un giroscopio davanti a uno specchio. L’asse di rotazione del giroscopio è perpendicolare alla superficie dello specchio: il verso di rotazione rimane inalterato nella riflessione.

Ciò si capisce intuitivamente se pensiamo a un sistema invariante sotto rotazioni e caratterizzato da un asse di rotazione, come un giroscopio. Per questo oggetto la trasformazione di parità equivale alla riflessione speculare (come precisato sopra). Se mettiamo un giroscopio rotante davanti allo specchio, il suo verso di rotazione non viene invertito: se gira in senso orario nel “nostro mondo”, continuerà a girare in verso orario anche nello specchio.

Fatta questa premessa, consideriamo uno degli esperimenti cruciali nella Fisica delle particelle: l’esperimento di Wu (1956).
Nell’esperimento di Wu si considerò un particolare decadimento nucleare del Cobalto-60, che provocava l’emissione di elettroni e antineutrini.
Tramite l’accensione di un campo magnetico, il team di Wu orientò gli spin dei nuclei di Cobalto in una direzione privilegiata, proprio come si farebbe con degli aghi magnetici. Per la conservazione del momento angolare, gli spin dell’elettrone e dell’antineutrino emessi dovevano avere lo stesso orientamento spaziale degli spin dei nuclei di Cobalto.
L’obbiettivo dell’esperimento era di seguire le traiettorie degli elettroni e vedere quale direzione prendessero rispetto allo spin del nucleo decaduto. Dopo un po’ di raccolta dati, si scoprì che gli elettroni avevano una direzione preferita di emissione: opposta allo spin nucleare. L’informazione raccolta sulla Fisica del problema era l’osservazione sperimentale: “la direzione preferita di emissione da parte degli elettroni è quella opposta allo spin del nucleo.”

Di primo acchito questa osservazione non sembra presentare nulla di problematico. Consideriamo però una trasformazione di parità: lo spin nucleare (essendo analogo a un momento angolare) viene mandato in se stesso come abbiamo visto, ma la direzione di moto degli elettroni viene invertita. Quindi in un mondo speculare (con asse di riflessione coincidente con quello dello spin) la conclusione dell’esperimento è che la direzione di emissione preferita da parte degli elettroni è quella concorde allo spin del nucleo.

Sotto una trasformazione di parità le conclusioni sperimentali sono diverse, in netta contrapposizione l’una con l’altra! Per la prima volta nella storia della Fisica una conclusione sperimentale è modificata da una trasformazione di parità, cioè la parità NON è una simmetria del sistema!

Perché la parità potesse essere una simmetria del sistema, ci saremmo aspettati tanti elettroni emessi nella direzione dello spin nucleare, quanti emessi nella direzione opposta. Ciò non è quello che si osserva, per cui siamo portati alla conclusione che la parità non è una simmetria fondamentale della natura, nonostante sia una simmetria delle forze nucleari e delle forze elettromagnetiche.

Interpretazione dell’esperimento di Wu

L’interpretazione dell’esperimento fu la seguente: esiste un’interazione fondamentale capace di far decadere un nucleo emettendo elettroni e antineutrini (oggi nota come interazione debole) che non è simmetrica rispetto a una trasformazione di parità. La parità NON è più una simmetria fondamentale della Natura.
L’universo visto allo specchio ha un comportamento diverso se si considerano i decadimenti deboli di alcuni nuclei. Questa distinzione fu abbastanza sconcertante e i fisici dell’epoca rimasero piuttosto sorpresi.

La simmetria C: inversione di carica

La trasformazione matematica di un elettrone in un positrone.

Una trasformazione di inversione di carica viene effettuata sulle funzioni d’onda che descrivono le particelle.
Le funzioni d’onda possono essere caratterizzate da numeri quantici come: carica elettrica, numero leptonico, numero barionico e numero leptonico di sapore.
L’inversione di carica, come suggerito dal nome, inverte tutti questi numeri quantici: non solo la carica elettrica, ma anche numero leptonico, numero barionico e sapore!


Ad esempio l’inversione di carica su un elettrone lo trasforma in un positrone (cioè una particella con stessa massa, ma carica elettrica opposta e numero leptonico opposto). Quindi effettivamente l’inversione di carica trasforma una particella nella sua anti-particella (per un resoconto su come siamo arrivati a teorizzare le antiparticelle rimando a un precedente articolo).

D’altra parte, una particella senza carica elettrica e senza altri numeri quantici (come il fotone) viene mandato in se stesso da questa trasformazione: il fotone è l’antiparticella di se stesso.

Per la maggior parte dei processi fisici, l’inversione di carica C è una simmetria: potremmo sostituire tutte le particelle del processo con le rispettive antiparticelle e il processo rimarrebbe lo stesso (stesse previsioni teoriche e stessi risultati sperimentali).
Ancora una volta fa eccezione l’interazione debole: per questa interazione entrambe le trasformazioni P e CP (combinazione di C e P) non sono una simmetria. Si pensa che questo fatto sia la risposta al quesito: perché il nostro universo è composto per la maggior parte da materia rispetto ad antimateria? In qualche momento dopo il big bang ci fu una maggior produzione di materia forse proprio grazie al fatto che l’interazione debole presenta questa asimmetria nel trattare particelle e antiparticelle.

La simmetria T: inversione temporale

L’ultima trasformazione discreta è l’inversione temporale: si inverte il tempo nelle equazioni della Fisica. L’inversione del tempo agisce su tutte quelle quantità in cui il tempo compare, ad esempio la quantità di moto (contenendo la velocità definita come il rapporto tra spazio e tempo) acquista un segno negativo sotto inversione temporale: p va in –p. Il momento angolare acquista un segno negativo anche lui, dato che L=rxp e r va in se stesso, ma p va in –p, quindi rx(-p)=-L.

Di nuovo, la maggior parte delle teorie fisiche rimane inalterata sotto inversione temporale, ad eccezione della solita guastafeste: l’interazione debole!

Ciò non sconforta ormai più di tanto, dato che le eventuali simmetrie sotto C,P e T separatamente non hanno motivo di esistere se non per la nostra soddisfazione personale.
Esiste un’unica simmetria che però deve essere rispettata affinché non crolli tutto il palazzo della Fisica Teorica, ed infatti esiste un Teorema che lo dimostra precisamente. Questa simmetria è la combinazione simultanea di C, P e T: la simmetria CPT.

Il Teorema CPT

Il Teorema CPT discende dall’unione tra meccanica quantistica e relatività ristretta, nel contesto della teoria quantistica dei campi. La sua dimostrazione dipende fortemente da tutto ciò che sappiamo essere verificato sperimentalmente sulla meccanica quantistica e sulla relatività ristretta. TUTTE le leggi della Natura sono invarianti se applichiamo successivamente: un’inversione di tutte le coordinate spaziali, un’inversione della carica di tutte le particelle (cioè la trasformazione di tutte le particelle in antiparticelle) e l’inversione temporale dei processi fisici.

Stiamo dicendo che non è possibile distinguere un esperimento di Fisica condotto in un anti-universo composto da anti-particelle, studiate con coordinate spaziali invertite e con i processi che avvengono al contrario nel tempo.

Per capire il significato del teorema, dobbiamo ricollegarci all’interpretazione di Feynman-Stückelberg sulle antiparticelle, come discusso in un articolo precedente. Un’antiparticella può essere interpretata come una particella che si muove “indietro nel tempo”.

Siccome la trasformazione combinata “CP” trasforma tutte le particelle in anti-particelle e inverte le coordinate spaziali (in modo da farle muovere “all’indietro” rispetto alle coordinate originali), se applichiamo un’ulteriore trasformazione “T” di inversione temporale stiamo facendo muovere queste antiparticelle all’indietro nel tempo e in una direzione spaziale opposta alle coordinate originali. Tradotto: siamo ritornati punto e a capo, e cioè all’universo originale. Quindi, se operiamo un’ulteriore trasformazione di inversione temporale “T”, l’anti-universo ottenuto con la trasformazione “CP” può essere reso indistinguibile dall’universo iniziale.

La violazione di CP e T, ma non di CPT

Sottolineiamo: la simmetria sempre conservata è la combinazione simultanea CPT, ma ciascuna delle trasformazioni separate C, P o T può comunque non essere una simmetria delle teorie fisiche.

Abbiamo visto che l’interazione debole viola la simmetria P. Sappi che viola anche la simmetria CP, cioè la combinazione simultanea di C e P ( è stato verificato sperimentalmente). Questo fatto mise in grave allarme i fisici dell’epoca, perché la simmetria CPT era quindi in pericolo, e assieme a lei tutta la struttura matematica della teoria quantistica dei campi.

Grazie all’interpretazione di Feynman-Stückelberg sappiamo che, se CP è violata, allora l’unico modo per avere simmetria CPT è che anche T sia violata. Un po’ come dire: se voglio ottenere +1 dal prodotto di due numeri, dovranno essere entrambi negativi in modo che si cancelli il segno “-“, in questo modo (-1)(-1)=+1. Fisicamente corrisponde a dire:

Analogia tra la violazione delle simmetrie e la moltiplicazione tra numeri negativi.

I risultati sperimentali odierni sembrano confermare che la simmetria T sia violata, quindi la CPT dovrebbe essere salva, assieme a tutto il castello della Fisica Teorica.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

[Immagine di copertina: Kelly Sikkema]

La genesi dell’equazione di Dirac

L’equazione d’onda relativistica dell’elettrone rappresenta uno dei trionfi più importanti della scienza del XX secolo.

Nota come “equazione di Dirac”, dal nome del suo scopritore Paul Dirac, essa costituisce la base di tutta la Chimica e di quasi tutta la Fisica moderna.

Trovo molto interessante provare a riavvolgere il filo del pensiero di Dirac, immedesimandoci in lui quando in una fredda serata a Cambridge nel 1928 arrivò a scrivere la sua equazione dopo essere stato tanto tempo seduto a fissare il caminetto (o così dice la leggenda).

Innegabilmente l’equazione di Dirac vanta una certa eleganza estetica, ed è per questo motivo bersaglio di una sempre crescente mercatizzazione (non è raro trovarsela stampata sulle tazze o sulle magliette).
Trovo anche io difficile resistere al suo fascino e decido quindi di raffigurarla qui in bella vista, prima di iniziare l’articolo:

L’equazione di Dirac descrive una particella libera (relativistica) di spin 1/2.
Piccolo suggerimento: prima di procedere può essere utile dare un'occhiata a due articoli più introduttivi come questo e questo. Se non ne hai voglia ora, li citerò comunque nel prosieguo, inserendoli nei punti chiave in caso tu voglia approfondire.

Schrödinger: le particelle libere come onde piane

Nel 1926 Schrödinger aveva illustrato al mondo che le particelle quantistiche potevano essere descritte da funzioni d’onda la cui forma funzionale era fissata dalla soluzione dell’equazione

In questa equazione ψ è la funzione d’onda che vogliamo trovare, e H rappresenta l’interazione tra particella e il mondo circostante. Questa interazione, agendo su ψ nel membro di destra, produce una variazione nel tempo della ψ stessa, come evidenziato nel membro di sinistra col simbolo di variazione nel tempo ∂/∂t lasciato agire su ψ.
Per una particella libera (cioè senza interazioni con il mondo circostante, o con interazioni così deboli da poter essere trascurate rispetto all’energia cinetica della particella), l’equazione di Schrödinger ha una soluzione semplicissima: un’onda piana

Se non sei familiare con quella forma curiosa per l’energia cinetica ti basti sapere che partendo da 1/2 m v2, questa può essere riscritta in una forma più conveniente sostituendo la quantità di moto p=mv.

In che senso “più conveniente”? In meccanica quantistica si usano gli operatori, che sono oggetti matematici che trasformano le funzioni d’onda in un certo modo. Non tutte le quantità a cui siamo abituati classicamente sono dei buoni operatori. La quantità di moto è un operatore che sappiamo maneggiare bene nei calcoli, al contrario della velocità che è mal definita.

L’energia relativistica, un passo oltre Schrödinger

Nel 1905 Einstein rivoluzionò la meccanica newtoniana con la teoria della Relatività Ristretta. Una delle conseguenze fu la correzione all’energia totale di una particella libera. La forma newtoniana prevedeva, come abbiamo visto, E= p2/2m. In realtà questa non è altro che l’approssimazione della versione einsteiniana una volta che consideriamo velocità molto più basse di quelle della luce, in cui si ha:

In queste formule “m” è la massa della particella, “p” la quantità di moto e “c” la velocità della luce.
A basse velocità otteniamo di nuovo la formula newtoniana per l’energia.

Le energie di legame atomiche sono solitamente così piccole da far sì che le particelle si muovano a velocità molto più basse di quella della luce. L’equazione di Schrödinger era stata creata proprio per descrivere i processi atomici, quindi all’inizio nessuno si preoccupò che non fosse relativistica, c’erano problemi ben più importanti da risolvere.
Se invece si indaga sulla scala subatomica si scopre che bisogna tenere conto delle correzioni relativistiche, proprio perché stavolta aumenta l’energia in gioco.
La strategia più naturale per rendere relativistica l’equazione di Schrödinger è quella di sostituire la vecchia forma di H con la formulazione relativistica:

La forma relativistica dell’equazione di Schrödinger.

Il problema è che, come anticipato prima, in meccanica quantistica la quantità di moto è un operatore, ed è problematico definire la radice quadrata di un operatore. Come superiamo questo ostacolo?

La Klein-Gordon e i suoi problemi

L’approccio proposto da Klein e Gordon per eliminare la radice fu quello di calcolare la variazione temporale di entrambi i membri dell’equazione relativistica, applicando ∂/∂t a sinistra e a destra

In questo conto è fondamentale sapere che l’unità immaginaria “i” è definita in modo che i2=-1

A sinistra abbiamo quindi una doppia derivazione rispetto al tempo, mentre a destra (siccome H è costante nel tempo) otteniamo ψ/∂t, alla quale possiamo sostituire l’equazione di Schrödinger stessa. Con questo piccolo trucco otteniamo che la radice quadrata sparisce.
Ora per semplificare i conti che seguiranno scegliamo di lavorare con delle unità in cui ħ=c=1 e facciamo un cambio di variabili, l’equazione di sopra diventa l’equazione di Klein-Gordon:

L’equazione di Klein-Gordon scritta in una forma più simpatica all’occhio.

L’equazione di Klein-Gordon fu il primo tentativo di relativizzare l’equazione di Schrödinger. La soluzione di questa equazione è ancora un’onda piana per una particella di massa m, solo che a differenza di prima la forma dell’equazione è immediatamente covariante sotto trasformazioni di Lorentz, in quanto P2 e m2 sono degli scalari di Lorentz: in sostanza il principio di relatività è automaticamente soddisfatto (mentre non lo era nell’equazione di Schrödinger).

Dove sta la fregatura?

L’aver mandato via la radice quadrata ha sollevato un problema irritante: l’evoluzione temporale nell’equazione di Schrödinger era espressa da un termine di primo grado ψ/∂t, mentre ora nella Klein-Gordon è espressa da un termine di secondo grado (∂2ψ/∂t2), e ciò fa sì che la densità di probabilità possa ora assumere valori non solo positivi, ma anche negativi o nulli.

Infatti i moduli quadri delle funzioni d’onda (che per la regola di Born rappresentano le densità di probabilità) possono essere calcolati tramite una particolare “ricetta” che dipende in una maniera molto precisa dal tipo di equazione dinamica da cui si parte. Si dà il caso che la “ricetta” ereditata dall’equazione di Klein-Gordon sia difettosa rispetto a quella dell’equazione di Schrödinger.
Ciò fa perdere di significato fisico tutta la struttura matematica della nostra teoria, una bella gatta da pelare!

Non c'era via di uscita? È questo il prezzo da pagare per aver cercato di introdurre la relatività nella meccanica quantistica?

L’illuminazione di Dirac

Per dei motivi che oggi non sono più rilevanti, Dirac era fortemente preoccupato dal problema della densità di probabilità nella Klein-Gordon. Per questa ragione si ossessionò al punto da forzare la matematica stessa: voleva abbassare l’ordine delle derivate temporali dal secondo grado al primo grado a tutti i costi, pur mantenendo un’equazione relativisticamente permessa. Nella sua mente la forma prediletta doveva essere, per ragioni relativistiche e di “eleganza”

In cui γ0 è un termine per ora indeterminato. Questa equazione doveva comunque essere collegata alla Klein-Gordon in qualche modo, perché questa garantisce l’invarianza relativistica. L’illuminazione arrivò quando fu colto il seguente parallelismo con la differenza algebrica dei quadrati a2-b2

dove le γμ sono degli oggetti per ora ignoti, e la notazione va intesa nel modo seguente:

j=1,2,3 indica le tre direzioni cartesiane x,y,z. Quindi x1=x , x2=y , x3=z. γP è quindi solo un modo rapido di scrivere quella somma di termini, comprendenti tutte le direzioni spaziali cartesiane.

Affinché valga l’uguaglianza con la Klein-Gordon tramite la differenza dei quadrati le misteriose γμ devono soddisfare

in cui ημν è la metrica dello spazio-tempo della relatività ristretta. Infatti per avere uguaglianza deve essere

e questa condizione può essere soddisfatta solo se vale la relazione scritta sopra, che lega la metrica ημν con gli oggetti γμ.

La richiesta di un’equazione con derivata temporale al primo ordine ha quindi generato due possibili equazioni relativistiche:

le quali descrivono particelle aventi energia di segno “opposto” (per saperne di più sulla questione dell’antimateria e l’equazione di Dirac clicca qui).

L’uguaglianza del loro prodotto con la Klein-Gordon impone poi che gli oggetti γμ debbano essere delle matrici quattro-dimensionali con delle ben determinate regole di composizione legate alla metrica dello spaziotempo. Non solo, la forma matematica di queste equazioni impone che la funzione d’onda ψ trasformi in una maniera ben precisa sotto trasformazioni di Lorentz.

Fu la prima volta nella storia della Fisica in cui una richiesta di struttura visiva della matematica portò a scoprire un’intera classe di nuovi oggetti matematici.

Tornando alla notazione con le derivate scritte in una forma più elegante:

otteniamo la forma dell’equazione di Dirac che si stampa sulle magliette:

È cruciale il fatto che ora possiamo interpretarla proprio come una sorta di decomposizione della Klein-Gordon per far sì di ottenere solo derivate di primo grado nel tempo. Nonostante ciò, è in realtà è più proficuo (dal punto di vista teorico) interpretare questa equazione come l’equazione del moto di una teoria di campo costruita per le particelle che trasformano come una rappresentazione di spin 1/2 sotto trasformazioni di Lorentz (se vuoi saperne di più sul perché classifichiamo le particelle come rappresentazioni di spin clicca qui).


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg


Un semplice conto per stimare la massa dei bosoni delle forze fondamentali


Sono sempre stato un entusiasta delle “stime grossolane”, perché ti aiutano a risolvere un problema molto complesso dandoti almeno un’ordine di grandezza della soluzione. Il senso di soddisfazione quando la stima grossolana viene confermata dai calcoli ben più rigorosi è un po’ una guilty pleasure di ogni fisico. Vediamo quindi un esempio di questo modo di lavorare.

Ad oggi conosciamo quattro forze fondamentali della Natura, meglio note come interazioni fondamentali.
Il modo in cui studiamo queste interazioni su basa sull’analisi di alcuni processi che coinvolgono le particelle. Tali processi possono essere studiati a differenti scale di energia in cui vengono rappresentati con diverse schematizzazioni, le quali ci danno un’idea di quello che sta succedendo.

Da questi schemi teorici emerge che un’interazione tra particelle deve essere mediata da una particella speciale chiamata bosone.
Il modo più diretto per avere l’identikit di questa particella è conoscere la sua massa.

Prima di ricavare una stima di queste masse, facciamo il punto della situazione sulle interazioni fondamentali in gioco:

  • Gravità: interazione tra tutti i corpi con massa. In una teoria di gravità quantistica (ancora solo ipotizzata a stento) deve essere mediata da un bosone chiamato gravitone.
  • Elettromagnetismo: interazione tra tutti i corpi con carica elettrica. Mediata da un bosone chiamato fotone.
  • Forza forte: interazione che tiene assieme i nuclei degli atomi. Ad alte energie si manifesta come un’interazione mediata dai gluoni dei quark, a basse energie ha invece come mediatore il bosone pione.
  • Forza debole: interazione che permette i decadimenti di alcuni nuclei. Mediata da tre bosoni, chiamati W+,W- e Z.

La prima distinzione interessante tra queste quattro forze è il loro raggio di interazione. Sono infatti tutte forze che agiscono a distanza, e due tra queste, cioè gravità ed elettromagnetismo, hanno un raggio di interazione infinito. Ciò significa che la forza gravitazionale tra due masse agli antipodi dell’universo è sempre teoricamente diversa da zero. Nella realtà, ovviamente, tale valore è così piccolo da poter essere considerato irrilevante per lo stato di moto delle due masse. Lo stesso discorso si applica all’elettromagnetismo. Questo raggio di interazione si dice asintoticamente infinito nel senso che la forza può essere considerata “matematicamente” nulla solo all’infinito (cioè un punto irraggiungibile).

Le altre due forze, quella nucleare forte e quella debole, hanno invece a che fare con il mondo dell’infinitamente piccolo, cioè i nuclei degli atomi.
La scala di distanza nucleare è completamente fuori dagli schemi della quotidianità: parliamo di qualche milionesimo di miliardesimo di metro. Questo numero è così difficile da scrivere e pensare che è stata creata direttamente una nuova unità di misura: il fermi (in onore di Enrico Fermi).

Come informazione di orientamento, diremo che il raggio di un nucleo è del valore di qualche fermi.

Siccome l’interazione forte si occupa di tenere assieme i nuclei, composti da tanti protoni e neutroni (protoni che altrimenti si respingerebbero per via dell’interazione elettromagnetica), il suo raggio di interazione è proprio dell’ordine di qualche fermi. L’interazione debole è ancora più a corto raggio, perché agisce su una scala che è un millesimo di quella nucleare.

In che modo vengono interpretati questi differenti raggi di azione delle forze fondamentali dalla fisica teorica?

Livello intuitivo: il diagramma di bassa energia

Un’interazione in un certo intervallo di bassa energia può essere schematizzata da un diagramma tipo questo

Nel quale viene riportato un processo di repulsione elettromagnetica tra due elettroni. Matematicamente questa repulsione viene comunicata da un fotone virtuale “γ” che viene creato con una certa energia per un certo intervallo di tempo. L’informazione elettromagnetica si propaga tra due punti dello spaziotempo diversi e non può essere istantanea (per non contraddire la relatività ristretta), ma può propagarsi, al massimo, alla velocità della luce.

Con poche differenze, i diagrammi delle altre interazioni alle basse energie hanno una struttura molto simile (fatta eccezione per la gravità, per la quale non esiste ancora una teoria quantistica soddisfacente). Ciascun diagramma è caratterizzato dal proprio personalissimo bosone di interazione, che sia il fotone (elettromagnetismo), il pione (forze nucleari forti), o i W e Z (interazione debole).

Lo scambio di un oggetto tra due persone su due barche genera un allontanamento per via della conservazione della quantità di moto totale.

Esiste un esempio intuitivo, seppur da prendere con le pinze perché serve solo a darci un’intuizione fisica, del perché lo scambio di un mediatore produca una forza di interazione. L’esempio viene dalla fisica classica ed è illustrato in figura.

Il principio di Heisenberg in una forma speciale

Vogliamo studiare in maniera intuitiva quali siano le grandezze in gioco nella propagazione dei bosoni mediatori. Sappiamo dalla fisica teorica che possiamo interpretarli come particelle create e riassorbite durante l’interazione, e che esistono per un certo intervallo di tempo che consente la loro propagazione.

“Aspetta, mi stai dicendo che viene creata una particella dal niente? Ma questo non viola il principio di conservazione dell'energia?"

Una forma molto speciale del principio di indeterminazione di Heisenberg riguarda proprio l’energia e il tempo. Una particella può essere creata con una certa energia per un certo intervallo di tempo, senza violare il principio di conservazione, a patto però che valga

Il simbolo “~” indica un’uguaglianza approssimata. A destra, la costante di Planck divisa per 2π.

Per la creazione di un bosone mediatore di massa “m” richiediamo che questi esista per un tempo sufficiente per propagarsi di una distanza “R” (che è proprio il raggio di azione dell’interazione) a una velocità che è dello stesso ordine (ma MAI uguale) a quella della luce “c“. In sintesi:

Il simbolo “~” sta proprio a indicare che la relazione vale solo come ordine di grandezza: non stiamo dicendo in nessun modo che un corpo di massa “m” possa viaggiare alla velocità della luce, ma solo a una velocità comparabile e ad essa inferiore.

Un gioco poco rigoroso, che ci azzecca molto bene

Sfruttando una possibile interpretazione dei diagrammi sulle interazioni, immaginiamo che i bosoni mediatori vengano creati nei processi e che si propaghino per una distanza “R” che è proprio il raggio di azione.

Come facciamo a capire se tali bosoni esistano davvero o se siano solo costrutti teorici?
Dobbiamo rivelarli sperimentalmente, ma per rivelarli sperimentalmente dobbiamo prima sapere che tipo di massa possiamo aspettarci per queste particelle.

Un giochino poco rigoroso è quello di usare il principio di Heisenberg esposto sopra, perché a quel punto l’energia di massa dei bosoni si ottiene dividendo per “∆t

L’energia di massa dei bosoni in funzione del raggio di interazione

Applichiamo ora questa formula ai bosoni delle interazioni: fotone, gravitone, pione e bosoni W,Z.

  • Fotone: l’interazione elettromagnetica ha un raggio di azione infinito. Se diamo a “R” un valore molto grande nella formula troviamo che la massa tende a zero. I fotoni, come si sa comunemente, hanno massa nulla, e quindi sono capaci di viaggiare alla massima velocità dell’universo, cioè la velocità della luce. Non una grandissima notizia, dato che i fotoni sono proprio la luce stessa.
  • Gravitone: l’interazione gravitazionale è sorella (molto più debole a parità di distanza) della forza elettromagnetica, e ha anche lei un raggio di azione infinito. Troviamo quindi una massa nulla anche per il fantomatico bosone dell’interazione gravitazionale: se mai troveremo una teoria quantistica della gravità, il suo bosone si propagherà alla velocità della luce.

Per discutere del pione (mediatore della forza nucleare forte a bassa energia) e dei bosoni della forza debole, diamo prima una formula numerica utile

Con “fm” intendiamo “fermi”, cioè l’unità di misura delle lunghezze nucleari.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

L’energia delle particelle atomiche si misura infatti con una scala energetica chiamata MeV.
Come per tutte le unità di misura, fatti bastare solo qualche numero di orientamento: l’energia di massa dei neutroni e dei protoni è di circa 1000 MeV, mentre l’elettrone “pesa” solo 0.5 MeV. Le energie dei legami nucleari sono invece dell’ordine di qualche MeV.

Detto ciò torniamo al nostro gioco e occupiamoci del pione, cioè il bosone dell’interazione nucleare forte.
Il raggio di azione dell’interazione nucleare forte è dell’ordine di 1.4 fermi

Per quanto riguarda invece il bosone W dell’interazione debole, per la quale il raggio di azione è dell’ordine di 0.0025 fermi

Un confronto con i valori sperimentali

Non ci dilunghiamo sulla massa del fotone, perché essendo un quanto di luce è il bosone meglio conosciuto nella storia e sappiamo con molta confidenza che la sua massa è da considerarsi nulla.
Sul gravitone diciamo solo che il risultato è quantomeno ragionevole: un’onda gravitazionale si propaga alla velocità della luce, quindi è ragionevole aspettarsi che, così come il fotone è la manifestazione dei modi di vibrazione del campo elettromagnetico, allora anche il gravitone avendo a che fare con il campo gravitazionale che si propaga alla velocità della luce, deve avere massa nulla.

Il pione è stato una delle prime particelle a essere scoperta nel dopoguerra (1947), e la sua massa è stata misurata in numerosissimi modi diversi. Tutti i risultati sono in accordo con il valore di circa 139 MeV, in perfetto accordo con quanto abbiamo trovato “giocando”.

La scoperta del bosone W dell’interazione debole ha portato il nobel a Carlo Rubbia (1983). Oggi la sua massa è nota essere di circa 80 mila MeV, proprio come abbiamo stimato.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Perché la teoria di Enrico Fermi rimane una delle vette dell’ingegno umano

La teoria di Fermi sull’interazione debole era così all’avanguardia che fu rifiutata dalla rivista “Nature” perché “contiene speculazioni teoriche troppo distanti dalla realtà“.

Oggi è ritenuta uno dei più importanti avanzamenti del XX secolo.

Per apprezzare la portata della teoria di Fermi, cerchiamo di ripercorrere concettualmente il suo lavoro, immedesimandoci in lui agli inizi degli anni ’30.

Quando nessuno conosceva il contenuto del nucleo

Se avessi fermato un fisico per strada nel 1930 e gli avessi chiesto la struttura del nucleo atomico l’avresti messo in imbarazzo. Ancora non si sapeva nulla del neutrone e si conosceva solo il protone; inoltre non si aveva la minima idea di cosa fosse un’interazione nucleare.

Ovviamente si sapeva, ad esempio, che un nucleo di Elio aveva carica +2 (unità di carica dell’elettrone) e che quindi doveva contenere due protoni. Tuttavia il peso del nucleo corrispondeva a quattro volte la massa del protone. D’accordo, quindi nel nucleo ci sono quattro protoni? Sì, ma allora la carica come fa a essere +2 e non +4? Beh allora ci mettiamo anche due elettroni, così neutralizziamo due cariche e si ha +4-2=+2, tanto la massa degli elettroni è mezzo millesimo di quella dei protoni e l’aggiunta non cambia il peso atomico! Problema risolto?

Il problema teorico: ci possono essere degli elettroni nel nucleo?
Oggi si prenderebbe un’insufficienza per un’affermazione simile, eppure prima della scoperta del neutrone (1932) era una delle spiegazioni accettate. Ma gli elettroni hanno una massa davvero troppo piccola per “accontentarsi” di stare in uno spazio ridotto come il nucleo: la loro lunghezza d’onda di De Broglie è centinaia di volte maggiore della dimensione del nucleo.

La situazione della fisica teorica prima del 1934

La meccanica quantistica di Schrödinger (1926) funzionava bene a livello atomico. Ma nel momento in cui si voleva provare a indagare le alte energie (cioè la struttura dei nuclei e delle particelle) falliva proprio nel formalismo matematico.
Fu Dirac (1928) a portare la relatività nella meccanica quantistica (cioè una teoria delle alte energie) e, assieme a Fock e Jordan, a proporre una seconda quantizzazione per trattare le particelle come eccitazioni dei campi quantistici. Un risultato spettacolare di questa teoria fu la scoperta dell’elettrodinamica quantistica, che era in grado di predire con successo tanti processi elettromagnetici tra particelle dotate di carica elettrica.

Ad esempio la repulsione tra due elettroni veniva spiegata con un’interazione trasmessa da un fotone creato e distrutto nel processo stesso

Leggendo dal basso verso l’alto: due elettroni arrivano, interagiscono scambiando un fotone “γ” e poi si allontanano.

La cosa importante che devi notare qui è il concetto di creazione e distruzione di un fotone. Questo modo di pensare era inglobato nella matematica della seconda quantizzazione, e fu un passo da gigante verso la fisica moderna.

L’imbarazzo del decadimento β nucleare

Tanto per infierire sul problema teorico degli elettroni nel nucleo, c’era un tipo di decadimento nucleare che si conosceva da qualche decennio: il decadimento beta (β).
In tale decadimento un nucleo era in grado di trasformarsi nel nucleo dell’elemento successivo nella tavola periodica, emettendo radiazione beta, che è un gergo sofisticato per dire “elettroni“. Questo decadimento era davvero una bella gatta da pelare per almeno due motivi:

  • Sembrava rafforzare l’idea che gli elettroni dovessero essere contenuti nel nucleo, perché da qualche parte dovevano spuntare fuori questi elettroni beta! Ma ciò era, come detto sopra, in contrasto con il fatto che la lunghezza d’onda di un elettrone avente l’energia tipica dei decadimenti β era molto maggiore delle dimensioni nucleari.
  • Gli elettroni, a parità di nucleo che decade, venivano emessi con tantissime energie diverse, da una minima energia fino a una massima energia. Se l’energia messa a disposizione dal nucleo è sempre la stessa, perché gli elettroni non assumono solo quel valore specifico di energia? Niels Bohr arrivò a dire che le interazioni nucleari non conservavano l’energia!

Il primo azzardo: un’analogia

La genialità di Fermi risiedeva nella semplicità dei suoi ragionamenti, anche se tale semplicità era solo apparente, perché il risultato di un’approfondita analisi concettuale svolta quando nessuno stava guardando.

Fermi nel 1933 conosceva solo un tipo di interazione spiegabile con una teoria delle alte energie: l’elettrodinamica quantistica a cui abbiamo accennato sopra. Questa teoria faceva uso del concetto di creazione e distruzione del fotone nei processi.
Il colpo da maestro di Fermi fu quello di ragionare per analogia: spinto dalla convinzione che gli elettroni non potevano vivere dentro il nucleo, convinzione rafforzata dalla recente scoperta del neutrone, arrivò ad affermare che:

L’elettrone viene creato durante il processo di interazione all’interno del nucleo, dopodiché non può che propagarsi libero, fuori dal nucleo.

Si trattava, questa, della prima applicazione del concetto di creazione e distruzione di particelle, applicato a particelle che non fossero il fotone. Prima si pensava che le particelle come l’elettrone dovessero esistere sempre e che non potessero apparire e scomparire nei processi. Il passo compiuto da Fermi fu di proporzioni gigantesche.

Fermi riconobbe subito che un processo fisico del genere avrebbe dovuto garantire la conservazione della carica, e sfruttando il fatto sperimentale che il nucleo si trasformava in un nucleo con un protone in più, riconobbe che il decadimento beta non era altro che il decadimento del neutrone. Il protone rimane nel nucleo, e l’elettrone viene rilasciato libero. La reazione del processo è:

Il decadimento del neutrone.
Questo processo conserva la carica elettrica: all’inizio abbiamo carica zero, e alla fine abbiamo carica +1-1=0.

Una teoria che conserva la carica elettrica ha proprio la struttura matematica dell’elettrodinamica quantistica. Fermi si affidò di nuovo a un’analogia e scrisse l’interazione come un accoppiamento tra correnti cariche, proprio come nell’elettrodinamica:

Le analogie tra elettrodinamica e teoria di Fermi

Tuttavia questa forma dell’interazione restituiva di nuovo una distribuzione di energia a un singolo valore per l’elettrone uscente. L’analogia con l’elettrodinamica era troppo bella e semplice per essere vera? Non si riesce proprio a salvare il principio di conservazione dell’energia?

Il secondo azzardo: la particella fantasma

Come mai l’energia dell’elettrone assume più valori fino all’energia massima disponibile? Si dimostra matematicamente che questo in realtà è proprio ciò che succede quando il decadimento non produce solo due corpi, ma tre! Se il neutrone decade in protone ed elettrone, chi è la terza particella misteriosa prodotta?

Fermi, su suggerimento di Pauli, decise di fare un passo in più dove molti avrebbero mollato. Ci troviamo di fronte al primo caso in cui una particella viene teorizzata prima di essere scoperta: il neutrino. Il suo identikit è il seguente:

  • È neutro, per non intaccare la conservazione della carica nell’interazione di corrente.
  • È molto leggero, più leggero dell’elettrone (questo serve per giustificare l’energia degli elettroni).
  • Anche se il nome è simile a quello del neutrone (fu Fermi a battezzarlo), il neutrino non ha nulla a che vedere con il neutrone, non farti fregare!


La reazione completa è quindi:

La reazione corretta per il decadimento beta del neutrone. Assieme all’elettrone viene emesso anche un neutrino.

A questo punto basta aggiungere la corrente del neutrino e l’analogia con l’elettrodinamica è salva!

Rappresentazione schematica delle due teorie. A sinistra un vertice di interazione tra protone e fotone (rappresentato da γ). A destra il decadimento del neutrone (ispirato, nella sua struttura, dallo schema di sinistra).

Questa interazione era in grado di spiegare con successo lo spettro energetico degli elettroni nel decadimento beta, con notevole precisione per l’epoca. Fu un trionfo!

Il punto fondamentale è che il neutrino non fu mai rivelato prima degli anni ’50!