Sì ma, alla fine, cosa sono ‘sti numeri quantici?

Giusto per ricordare che i gatti sono riusciti a conquistarsi pure la meccanica quantistica, nell’immaginario popolare.

Ciò che frullava nella mia testa quando ho sentito la parola “numeri quantici” per la prima volta, durante una lezione di chimica in terza liceo, era qualcosa tipo:

“Tutto interessante e sembra anche molto logico. Giusto una cosa però: ma alla fine cosa sono 'sti numeri quantici? Proprio terra-terra, in meno parole possibili!"

Dopo aver studiato meccanica quantistica alla triennale credevo di essere praticamente pronto per dare una risposta terra-terra, a una persona non addetta ai lavori come il me stesso della terza liceo, ma poi mi sono accorto che non è tutto così “rapido”.

Non c’è NIENTE di intuitivo nel concetto di “numero quantico”.


Quando mi è stata posta la stessa domanda qualche tempo fa, nel bel mezzo dei miei studi alla magistrale, ho sputato fuori questa risposta un po’ frettolosa:

“Sono dei numeri che usiamo per catalogare delle soluzioni particolarmente semplici per risolvere problemi molto complessi. Sono utili anche perché nei processi "si conservano“, un po' come l'energia di un sistema, e semplificano quindi un po' di calcoli e previsioni."

Non è che fossi tanto convinto di questa risposta, e ancora meno lo era la persona di fronte a me. Mi sono accorto che probabilmente non sapevo dare una risposta più rapida senza coinvolgere dei semestri di algebra lineare, spazi di funzioni e fenomenologia delle interazioni fondamentali.
Se a te questa risposta soddisfa: nessun problema, è comprensibile. Rende comunque l’idea da un punto di vista pragmatico.

Se invece senti ci sia un gap nella divulgazione di questi concetti e provi curiosità, allora questo articolo vuole provare a rimediare.
Per raggiungere più persone possibili sarò molto conciso con ragionamenti “a grandi linee”, con varie licenze tecniche necessarie per un’esposizione di taglio divulgativo. Inoltre, per ragioni logistiche (e per non affaticare il lettore), l’articolo è suddiviso in due parti, questa è la prima parte!


Una tazza di caffè e possiamo iniziare!

Gli operatori della meccanica quantistica

Alla fine tutto l’ambaradan nasce dal fatto che la meccanica quantistica, a differenza della fisica classica, si basa su degli oggetti chiamati operatori. Come suggerisce il nome, questi oggetti operano sugli stati della teoria: prendono in input uno stato e ne restituiscono un altro come output, generalmente diverso dal primo:

Tutte le quantità che in meccanica classica erano dei semplici numeri reali (posizione, quantità di moto, energia, e così via) diventano, in meccanica quantistica, degli operatori: operatore posizione, operatore quantità di moto , operatore dell’energia (altrimenti detto “hamiltoniano”) etc.


Perché sono così necessari gli operatori? (qualsiasi cosa significhi per te in questo momento la parola “operatore”).
In breve, serviva un formalismo matematico capace di spiegare un fatto sperimentale: lo stato di un sistema poteva essere completamente determinato dalla posizione di una particella, ma al contempo la misura della quantità di moto della stessa particella non restituiva un valore ben preciso. È il principio di indeterminazione di Heisenberg.
Un modo per esprimere questo fatto dal punto di vista matematico era quello di trasformare posizione e quantità di moto in degli operatori lineari e scrivere che:

\hbar è la costante di Planck divisa per 2\pi.

Questa relazione racchiude, in un formalismo compatto (e criptico per i non addetti) la chiave per il principio di Heisenberg su posizione e quantità di moto. La compattezza del formalismo e la facilità del calcolo sono due condizioni che spinsero i fisici ad adottare l’approccio operatoriale nella meccanica quantistica, ed è il motivo per cui la matematica di questa teoria è ritenuta essere “più complicata” di quella della fisica classica.

L’operatore più importante

Ciò che nella fisica classica rappresentava un modo alternativo di risolvere i problemi, nella meccanica quantistica diventa l’unico modo matematicamente conveniente di descrivere l’evoluzione di un sistema. Si tratta dell’energia, la quale nel formalismo quantistico diventa l’operatore hamiltoniano.

Nella fisica classica l’energia di un sistema era un semplice numero indicato con la lettera “E”. In meccanica quantistica diventa un operatore chiamato “Hamiltoniano“.


L’energia di un sistema è definita come la somma tra energia cinetica (p^2/2m) ed energia potenziale V. Coloro che prima erano semplici numeri ora diventano due operatori che, come dice il nome, “operano” sugli stati di una particella, comandandone l’evoluzione dinamica.

Ecco come si procede di solito: immagina una particella immersa in un certo spazio e sensibile a certe interazioni fisiche (elettromagnetiche ad esempio, come un elettrone in un campo magnetico, o in prossimità del nucleo di un atomo).

La seguente frase “questa particella si muoverà in questo spazio con una certa velocità e occuperà maggiormente alcune posizioni invece di altre, sulla base delle interazioni che percepisce” viene tradotta quantisticamente nella seguente:

Lo stato di una particella evolve da un valore iniziale a un valore finale grazie all’azione dell’operatore Hamiltoniano, il quale rappresenta le interazioni e il contenuto cinetico che caratterizzano il moto della particella.

Come forse avrai sentito da qualche parte, lo stato di una particella è indicato da una funzione a più valori, nel tempo e nello spazio: \Psi(\vec{x},t). Il fatto che questo stato venga trasformato nel tempo per via delle interazioni è riassunto dalla seguente scrittura molto compatta:

L’esponenziale di un operatore è lo sviluppo in potenze dell’operatore stesso, secondo la regola degli sviluppi di Taylor. Non preoccuparti di questo dettaglio matematico, l’ho messo solo per completezza.

L’operatore hamiltoniano agisce sullo stato iniziale della particella, e per ogni tempo t successivo restituisce un certo stato finale.

Questa è la ricetta prescritta dalla celebre equazione di Schrödinger, la quale governa la dinamica degli stati quantistici di un sistema. Quella che ti ho mostrato è proprio la soluzione dell’equazione: Schrödinger scrisse che, una volta noto l’operatore hamiltoniano, la dinamica del sistema è nota..

Più facile a dirsi che a farsi: è difficile trovare il corretto operatore che riesca a riprodurre gli stati in cui evolvono i sistemi quantistici negli esperimenti. Trovare l’hamiltoniano giusto equivale a trovare la teoria giusta per descrivere il sistema, ed è esattamente il mestiere del fisico.

Se un fisico ha fatto bene il suo mestiere, otterrà una predizione sull’evoluzione temporale dello stato del sistema, e potrà fare previsioni probabilistiche su quale sarà lo stato in cui verrà misurata la particella a un dato istante di tempo dell’esperimento.

Gli autostati di un operatore

A differenza di uno stato normale, l’autostato di un operatore mantiene la sua direzione dopo la trasformazione, e al massimo si allunga o si accorcia.

Possiamo architettare un esperimento con lo scopo di misurare una certa proprietà della particella quantistica di cui abbiamo parlato prima. L’atto della “misurazione” consiste inevitabilmente in una “riorganizzazione” delle informazioni quantistiche dello stato della particella e anche dello stato del rivelatore che stiamo utilizzando per misurare quella proprietà.

Per via di uno dei postulati della meccanica quantistica (i quali fanno sì che la teoria riproduca quanto si osserva negli esperimenti) a ogni osservabile (sono chiamate così le uniche quantità misurabili negli esperimenti) è associato un operatore, e gli stati possibili in cui la particella può essere rivelata nell’esperimento vanno ricercati in alcuni stati molto speciali che hanno la particolarità di rimanere “quasi inalterati” sotto l’azione dell’operatore.

Per spiegarlo in termini semplici, immagina che lo stato sia una freccia nello spazio: l’operatore in generale può far compiere alla freccia una certa rotazione (il che corrisponde al trasformare lo stato in un altro stato diverso dal primo). Tuttavia alcune frecce speciali vengono trasformate dall’operatore in modo che al massimo si allungano o si accorciano, ma senza ruotare:: la direzione rimane la stessa. Questi stati speciali sono chiamati autostati.

In generale ogni operatore ha il suo set di autostati “personale”.

In sostanza gli autostati di un operatore ci semplificano la vita perché trasformano in maniera molto semplice: significa meno calcoli da fare!

Un esempio preso in prestito dalla geometria: in alcuni casi gli operatori della meccanica quantistica e le matrici sono praticamente la stessa cosa (se non sai come funziona una matrice, vai a questo articolo). Una matrice come quella di rotazione attorno all’asse z sul piano x-y ha il compito di ruotare un vettore di un certo angolo. Siccome la rotazione si svolge attorno all’asse z, la componente z del vettore rimane inalterata. Il vettore di componenti (0,0,1) viene quindi mandato in se stesso, cioè è un autovettore di questa particolare matrice di rotazione.

Il vettore (0,0,1) viene trasformato in se stesso dalla rotazione attorno all’asse z.

La scrittura che ci semplifica tanto la vita, e che ricerchiamo continuamente in meccanica quantistica, è

La costante \lambda è chiamata, in gergo, “autovalore” dell’autostato. A ogni autostato viene associato il suo “autovalore”, il suo numerino personale da utilizzare come etichetta. Possono esserci anche più autostati aventi lo stesso autovalore, ma non vedrai due autovalori diversi associati allo stesso autostato.

Questa scrittura è un vero sospiro di sollievo: l’esistenza di stati che rimangono praticamente invariati sotto l’azione degli operatori rappresenta una semplificazione incredibile per i calcoli della teoria. Invece di chiederci come trasforma qualsiasi stato dell’universo sotto l’operatore (una pretesa diabolicamente assurda), ci interessiamo solo a quegli stati che invece “cambiano molto poco”.

Il motivo di ciò va ricercato in uno dei postulati fondamentali della meccanica quantistica, già accennato sopra:

Le quantità che misuriamo sperimentalmente corrispondono agli autostati della particolare osservabile a cui siamo interessati. Lo so che suona strano e inutilmente astratto, ma è grazie a questo postulato che vengono riprodotti i risultati sperimentali.

La cattiva notizia: non tutti gli stati della teoria sono autostati dell’operatore che ci interessa.


La buona notizia: gli autostati dell’operatore che ci interessa possono essere usati come blocchetti elementari per costruire gli stati più generici della particella.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.


Questo è il principio di sovrapposizione degli stati: ogni stato può essere costruito sovrapponendo tra loro tanti altri stati.

In generale conviene, anzi è proprio mandatorio, utilizzare come blocchetti elementari gli autostati dell’operatore che ci interessa. Ti conviene pensare agli autostati proprio come a dei “Lego” con cui costruire uno stato più generico possibile (la struttura fatta coi Lego è lo stato generico).

Questi autostati andranno a comporre lo stato della particella, ciascuno con un proprio peso statistico, come specificato dalle regole della meccanica quantistica (la quantistica è praticamente una teoria della probabilità, camuffata)

La tipica struttura di uno stato generico, sviluppato come somma di autostati di un certo operatore di nostro interesse. I numeri a_i sono i pesi statistici, cioè il loro modulo al quadrato, ad esempio |a_2|^2, rappresenta la probabilità che la particella, inizialmente nello stato generico “\ket{\Psi}“, venga misurata in un ‘autostato \ket{p_2}.

Il risultato della misurazione (misurazione dell’osservabile, associata a sua volta a un certo operatore della teoria) è il famigerato, e ancora dinamicamente poco compreso, “collasso della funzione d’onda”, il quale seleziona uno degli autostati dell’operatore associato all’osservabile coinvolta:

La particella viene rivelata in UNO solo degli autostati possibili dell’operatore associato all’osservabile.
Prima aveva una probabilità ben precisa di trovarsi in ciascuno degli autostati possibili, mentre DOPO la misura la probabilità di ritrovarla nello stesso autostato sarà il 100%.

ed è proprio questo a cui ci si riferisce quando si parla di “collasso della \Psi“.

Il numero che si misura nell’esperimento coincide con la costante \lambda, cioè l’autovalore dell’autostato in cui è stata rivelata la particella.

Un esempio rapido di quanto detto: un’osservabile di una particella può essere il suo spin (che sperimentalmente si misura grazie all’effetto di un campo magnetico sulla traiettoria della particella). A questo effetto osservabile è associato un operatore di spin.
Se ad esempio sperimentalmente si osserva che alcune particelle possono avere solo due tipi di deflessioni in un campo magnetico allora all’operatore di spin della teoria verranno associati due autostati.

Un tipico esperimento in cui è possibile misurare lo spin di una particella: Stern-Gerlach.

Prima di misurare la deflessione tramite l’accensione del campo magnetico, dal punto di vista della nostra interpretazione la particella si trova in una sovrapposizione di autostati di spin, e con la misurazione (l’accensione del campo magnetico) viene “selezionato un autostato” con una certa probabilità calcolabile quantisticamente.

Tutto questo discorso è importante per capire il seguito, e cioè capire perché ci interessiamo a specifici numeri quantici associati ad operatori accuratamente selezionati della teoria.

I numeri quantici non sono altro che gli autovalori di specifici operatori della teoria, accuratamente selezionati affinché soddisfino delle proprietà che ci permettono di semplificare il modo in cui possiamo fare previsioni verificabili con l’esperimento.

In ogni caso, non basta essere un autovalore di un’osservabile per essere un buon numero quantico!

Un buon numero quantico ci semplifica la vita negli esperimenti, e nella parte II di questa serie vedremo perché!
(Per chi si incuriosice: ha a che fare con il teorema di una famosa matematica tedesca…)


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Quando Heisenberg propose che Protone e Neutrone fossero due stati della stessa particella

Nel 1932 James Chadwick scoprì una nuova particella, era elettricamente neutra e aveva circa la stessa massa del protone. Essendo la prima particella neutra scoperta, venne battezzata “neutrone” per ovvi motivi.

Werner Heisenberg (1901-1976), premio Nobel per la Fisica 1932.

Meno ovvia era invece la natura intrinseca di questa particella, specialmente in un epoca dicotomica come quella, anni in cui protone ed elettrone erano lo yin e lo yang della fisica particellare. Tutto doveva essere composto di pochissimi costituenti elementari: il protone e l’elettrone rappresentavano l’unità di carica positiva e negativa per antonomasia.

Quindi ogni altra particella di qualsiasi carica doveva essere una composizione di protoni ed elettroni. Ah, se solo i fisici di quegli anni avessero potuto immaginare il gigantesco zoo di particelle che sarebbe apparso solo 20 anni dopo!

Sempre nel 1932 il fisico teorico Werner Heisenberg (lo stesso del famoso principio di indeterminazione) fu uno dei primi a lavorare su una interpretazione teorica del neutrone. Il suo obbiettivo era una teoria delle interazioni nucleari (materia su cui si sapeva ancora pochissimo e le idee erano molto confuse). Si cercava di rispondere a domande come: cosa compone i nuclei? Da cosa sono tenuti assieme? Come si possono modificare o trasformare?

Addirittura prima del 1932 si credeva che i nuclei fossero composti da protoni ed elettroni (i secondi avevano lo scopo di neutralizzare parte della carica del nucleo), cosa che non poteva essere più distante dalla realtà.

Fu Heisenberg a introdurre un po’ di ordine: sfruttò subito la scoperta del neutrone per inserirlo all’interno dei nuclei. In questo modo non servivano gli elettroni dentro il nucleo: invece di mettere il doppio dei protoni era sufficiente che ce ne fosse solo la metà che corrisponde alla carica elettrica nucleare, la restante parte della massa che serviva a raggiungere l’accordo con gli esperimenti era garantita dalla presenza di alcuni neutroni.

Si spiega più semplicemente guardando questo esempio:

Lo stesso nucleo descritto prima e dopo la scoperta del neutrone.
Prima del 1932, al fine di spiegare la massa misurata sperimentalmente era necessario introdurre il doppio dei protoni. Ma per compensare la carica elettrica in eccesso si doveva postulare la presenza di elettroni nel nucleo.

In ogni caso Heisenberg aveva anche l’obbiettivo di provare a interpretare la natura del neutrone utilizzando lo “yin e lo yang”. D’altronde questa particella aveva lo stesso spin e circa la stessa massa del protone, saranno mica così diversi?
Immaginò quindi che il neutrone potesse essere composto da un protone e da una specie di “elettrone con spin nullo”. In questo modo carica positiva più carica negativa fa zero, e lo spin (che è 1/2 per il protone) sommato con lo spin zero di quella specie di elettrone ipotetico, faceva correttamente 1/2.

Questa teoria fu abbandonata quasi subito, ma l’elettrone e il suo spin rimasero comunque la principale fonte di ispirazione per il vero guizzo creativo di Heisenberg.

Anzitutto il fisico si soffermò su un aspetto peculiare:

Le masse di protone e neutrone sono quasi uguali: differiscono solo dello 0.14%.

In particolare, Heisenberg notò che se in un esperimento la strumentazione di laboratorio non fosse abbastanza sensibile da distinguere questa differenza in massa, e se fossimo in grado di “spegnere” ogni tipo di interazione elettromagnetica, non saremmo nemmeno in grado di distinguere un protone da un neutrone!

Anzi, Heisenberg fece un passo ancora più lungo: la piccolissima differenza in massa tra protone e neutrone può essere ricondotta all’elettromagnetismo: il protone, essendo carico elettricamente, riceve dei contributi elettromagnetici che abbassano leggermente la sua massa rispetto a quella del neutrone (così si pensava all’epoca).

Come anticipato, Heisenberg prese ispirazione dal problema dello spin di un elettrone.
Già dagli anni ’20 si sapeva che lo spin di un elettrone era una quantità speciale che poteva assumere solo due valori distinti, per convenzione +1/2 e -1/2.

Una rappresentazione grafica dei due possibili valori di spin dell’elettrone.

Lo spin era un numero quantico aggiuntivo che serviva a distinguere i possibili stati occupabili dagli elettroni negli orbitali atomici, e aveva a che fare con il comportamento degli elettroni in un campo magnetico.

In particolare si osservava che sotto l’azione di un campo magnetico gli atomi di un gas sviluppavano dei livelli energetici (sovrapposti a quelli già presenti) che prima non c’erano, segno che gli elettroni avevano interagito, tramite il loro spin, con questo campo magnetico: in base ai due possibili valori dello spin degli elettroni si ottenevano due nuovi livelli energetici molto vicini tra loro (vedi Effetto Zeeman).

In sostanza è come se una certa variabile nascosta (lo spin dell’elettrone) fosse venuta allo scoperto solo durante l’interazione elettromagnetica con il campo esterno.
Un fisico, per spiegare la separazione dei livelli energetici, avrebbe dovuto anzi postulare l’esistenza di questo nuovo numero quantico, e assegnargli precisamente due valori possibili.

Detto ciò, ad Heisenberg bastò tenere a mente la celebre equazione per l’energia a riposo di una particella, dovuta ad Einstein (E=mc^2 ) per fare un collegamento molto interessante: la piccola differenza in massa (\Delta m) tra protone e neutrone si traduce in una certa differenza in energia:

    \[\Delta E=\Delta mc^2\]

A suo dire, questa differenza in energia era dovuta all’interazione elettromagnetica, allo stesso modo in cui la differenza in energia di due livelli atomici nell’effetto Zeeman era dovuta all’interazione con il campo magnetico.

Nel caso dell’effetto Zeeman, il tutto era spiegabile con l’introduzione di un nuovo numero quantico, lo spin.
Prima dell’accensione del campo magnetico, il livello energetico è lo stesso, dopo l’accensione, il livello si separa in due livelli.

Protone e neutrone potevano essere pensati come lo stesso livello energetico, la cui separazione è indotta (secondo Heisenberg) dalle interazioni elettromagnetiche!

L’analogia è evidenziata in questa figura:

Analogia tra effetto Zeeman e la teoria di Heisenberg su protone e neutrone.

Doveva allora esserci un nuovo numero quantico interno in grado di distinguere protone e neutrone durante i normali esperimenti, proprio come lo spin.

I fisici dell’epoca chiamarono isospin questo nuovo numero quantico, proprio per via dell’analogia con lo spin. In questo modo protone e neutrone non erano altro che due stati diversi della stessa particella, la quale fu battezzata nucleone. Per convenzione, al neutrone venne assegnato isospin -1/2 e al protone +1/2.

Heisenberg sfruttò l’isospin per costruire una delle prime teorie sull’interazione nucleare. Il fisico tedesco sapeva bene che la forza nucleare doveva essere ben diversa da quella elettromagnetica fino ad allora conosciuta. Doveva essere una forza attrattiva, certo, se no il nucleo come fa a stare assieme? Però il tipo di attrazione non poteva essere simile a quello elettromagnetico.
Ciò era evidenziato da fatti sperimentali: proprio in quegli anni venivano condotti degli studi sulle energie di legame dei nuclei, e si scoprì che queste non crescevano come sarebbero cresciute se l’interazione nei nuclei fosse stata elettromagnetica.

La differenza tra il comportamento nucleare e quello elettromagnetico.

Inoltre, i dati sperimentali suggerivano che la carica elettrica del protone non influiva quasi per niente sui livelli energetici del nucleo. Quindi secondo Heisenberg i nucleoni contenuti all’interno dei nuclei dovevano interagire in maniera molto speciale, non tramite forze di tipo puramente coulombiano, ma tramite quelle che chiamò forze di scambio.

Queste forze di scambio potevano essere parametrizzate tramite degli operatori di isospin, del tutto simili agli operatori di spin della meccanica quantistica, i quali governavano le interazioni spin-obita e spin-spin tra i vari costituenti dell’atomo.

In questo formalismo lo stato quantistico di protone o neutrone poteva essere indicato con un vettore a due componenti:

Ma in realtà i nomi “protone” e “neutrone” divengono dei segnaposto per parlare di due stati della stessa particella: stato “isospin in alto” e stato “isospin in basso” (nota come ciò si traduce nella posizione del numero 1 nella componente alta e bassa del vettore).

Nella teoria delle forze di scambio nucleare non è possibile distinguere tra protone e neutrone, cioè la teoria, globalmente, “non distingue” tra la carica elettrica del protone e quella del neutrone. Vengono visti come due facce della stessa medaglia, e sono interscambiabili senza che cambi nulla.

In questo senso si parla di simmetria di isospin delle forze nucleari

Per capire meglio come funziona questa teoria occorre fare un ripasso di algebra lineare in due dimensioni.

Un vettore 2D può essere rappresentato sul piano cartesiano (x,y) come una freccia uscente dall’origine:

La rappresentazione cartesiana del vettore (1,1). Le sue componenti sono v1=1 sull’asse x, e v2=1 sull’asse y.

Ad esempio per costruire un vettore di componenti (1,1), cioè v_1=1 sull’asse x, e v_2=1 sull’asse y, parto dall’origine e mi sposto di 1 sull’asse x, poi mi sposto di 1 sull’asse y. Il punto in cui arrivo è la testa del vettore. Collegando la testa con la coda (cioè l’origine) ottengo una linea diagonale che chiamo “vettore”.
Un vettore può essere trasformato da una matrice usando la seguente ricetta di composizione:

Il risultato della trasformazione di un vettore è un nuovo vettore le cui componenti possono essere ottenute dalla ricetta contenuta nella matrice.

Il vettore trasformato ha le sue componenti che nascono mischiando le componenti del vettore di partenza, secondo una particolare ricetta descritta dalla matrice-operatore.
Anche il non fare niente è una trasformazione: prende il nome di matrice identità, la sua azione mi fa ottenere di nuovo il vettore di partenza. Puoi verificare anche tu con la ricetta data sopra che il seguente calcolo lascia invariato il vettore di partenza:

La matrice identità lascia il vettore invariato.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Infatti in questo caso l’operatore è tale che a_1=1, \,\,a_2=0\,\, a_3=0,\,\,a_4=1, e sostituendo nella ricetta di sopra otteniamo proprio che il vettore rimane invariato.

Per passare da uno stato all’altro del nucleone, cioè da protone a neutrone, si utilizzano gli operatori di salita e di discesa chiamati \tau_+ e \tau_{-}, le quali sono matrici 2\times 2 che agiscono sui vettori proprio come abbiamo visto sopra.

Puoi fare il conto anche tu e verificare che:

Trasformazione di un protone in un neutrone
Trasformazione di un neutrone in un protone

In generale lo stato di un nucleone è parametrizzato dalla sovrapposizione degli stati di protone e neutrone:

Lo stato più generico di un nucleone. \alpha e \beta sono parametri costanti.

Nella teoria di Heisenberg l’interazione tra due nucleoni deve tenere conto dei loro possibili stati di isospin. In particolare in un processo generico deve conservarsi l’isospin totale dei due nucleoni. La richiesta di questa conservazione permetteva di fare alcune previsioni su alcuni nuclei leggeri per mezzo di calcoli piuttosto semplici.

Alla fine la simmetria di isospin serviva a questo, era una semplificazione per i calcoli: tra tutte le possibili interazioni tra i nucleoni sono permesse solo quelle che conservano l’isospin totale, mentre vanno scartate tutte le altre.

Una simmetria imperfetta

La teoria dell’isospin di Heisenberg fu un buon colpo di genio, ma si rivelò piuttosto insoddisfacente a lungo andare. La verità è che a livello subnucleare protone e neutrone hanno una massa ben distinta! Ciò non è dovuto solo all’interazione elettromagnetica, ma anche alla composizione in quark di protone e neutrone (inutile dire che all’epoca di Heisenberg non si conoscevano i quark).

Se avessero masse uguali allora la simmetria di isospin sarebbe perfetta, quindi l’isospin sarebbe un numero quantico al pari dello spin degli elettroni. Questa differenza nella massa fa sì che la simmetria sia imperfetta, cioè consente di fare previsioni corrette solo entro un certo grado di approssimazione.

Nonostante ciò, l’idea delle simmetrie interne (come l’isospin) cambiò per sempre il modo di fare fisica delle particelle. Le simmetrie imperfette furono utilizzate per raggruppare alcuni gruppi di particelle che sbucavano fuori dagli esperimenti sui raggi cosmici e dagli acceleratori degli anni ’50 e ’60. In questo contesto le particelle di massa molto simile venivano catalogate come stati di una stessa particella con numeri quantici diversi (se ti incuriosisce: la via dell’ottetto).

Le simmetrie imperfette servirono ad ispirare Gell-Mann e altri fisici nella costruzione di una simmetria perfetta, che è quella della cromodinamica quantistica e che riguarda i quark. Ma di questo parleremo magari in un altro articolo…


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Come Fermi scoprì la statistica degli elettroni assieme a Dirac

Per capire l’entità del contributo di Enrico Fermi in ciò che servì ad ispirare una delle scoperte più importanti dell’umanità (la teoria dei semiconduttori), è necessario fare qualche passo indietro e considerare il contesto storico-scientifico dell’epoca.

Negli anni ’20 del secolo scorso si sapeva molto poco sulle strutture fondamentali della materia. Le teorie dell’atomo erano giovanissime e l’unico metodo di indagine consisteva nell’osservare l’assorbimento luminoso di alcuni gas della tavola periodica.

Ludwig Boltzmann (1844-1906), uno dei padri fondatori della fisica statistica.

Proprio sui gas si sapeva dire un po’ di più, essendo una collezione di atomi che potevano essere trattati (in certe condizioni di densità e temperatura) come un grosso insieme di biglie microscopiche su cui, tramite la fisica statistica di Maxwell, Boltzmann e Gibbs, si potevano fare previsioni termodinamiche verificabili sperimentalmente.

Una particolarità interessante della teoria statistica di Maxwell e Boltzmann era il contenuto minimale di ipotesi sulla natura fisica di queste “biglie microscopiche”. Stiamo parlando di una teoria formulata nella seconda metà del secolo XIX, un periodo in cui non era ancora riconosciuta l’esistenza dell’atomo!

Trattandosi tuttavia di atomi, nemmeno la teoria di Maxwell e Boltzmann uscì indenne dalla rivoluzione della teoria dei quanti, iniziata con Planck nel 1900.

La teoria dei quanti funzionò sia da completamento che da antidoto per la vecchia fisica statistica. Da antidoto perché aiutò ad indagare meglio alcuni problemi matematici della teoria di Maxwell e Boltzmann, i quali conducevano a calcoli errati nella trattazione di particelle tra loro indistinguibili, e davano dei risultati impossibili per alcune quantità come l’entropia dei gas a basse temperature.

Un problema statistico dell’entropia

Queste difficoltà erano dovute al fatto che la fisica statistica si basa essenzialmente sul “contare, per tutte le particelle, tutte le possibili configurazioni microscopiche che conducono alla stessa situazione fisica del gas“, come illustrato in figura:

Lo schema concettuale che sta alla base della teoria statistica dei gas.

Pressione, volume, temperatura (P,V,T), sono tutte quantità macroscopiche misurabili sperimentalmente. In fisica statistica ci immaginiamo di conoscere le posizioni e velocità di tutte le particelle del gas in ciascuna configurazione possibile ammessa dalle condizioni ambientali (cosa non possibile da un punto di vista computazionale, ma che facciamo finta di poter fare comunque).


Siccome non sappiamo in quale configurazione microscopica precisa si trovi il gas in ciascun istante di tempo (non è misurabile sperimentalmente), immaginiamo di avere N copie del nostro gas e di fare delle estrazioni per contare quante volte esce una certa configurazione piuttosto che un’altra. La distribuzione di queste estrazioni definisce alcune quantità macroscopiche (P_i,V_i,T_i) associate alla specifica configurazione microscopica i estratta un numero N_i di volte. Le quantità macroscopiche (P,V,T) che misuriamo sperimentalmente possono quindi essere pensate come la media di tutte le (P_i,V_i,T_i) pesate con la probabilità di estrazione N_i/N.

La misura sperimentale di (P,V,T) ci dà quindi informazioni sulla distribuzione delle configurazioni microscopiche del nostro gas.


Immaginando il gas in equilibrio termico a una certa energia interna, il numero di configurazioni del gas corrispondenti a tale energia possono essere contate, dal punto di vista teorico, sommando tutte le possibili accoppiate di posizione-velocità (x,y,z),(v_x,v_y,v_z) nelle tre dimensioni spaziali, e ciò deve essere fatto per tutte le particelle del gas.

Siccome il numero di possibili accoppiate è virtualmente infinito, i padri fondatori della fisica statistica immaginarono di dividere lo spazio dei possibili valori di posizione e velocità in cellette elementari di dimensione finita che chiamiamo \tau. In questo modo due stati dinamici specificati da (x_1,y_1,z_1),(v_{x1},v_{y1},v_{z1}) e (x_2,y_2,z_2),(v_{x2},v_{y2},v_{z2}) che caschino nella stessa celletta di questo spazio sono considerati essere lo stesso stato dinamico. È come se ammettessimo, in un certo senso, di non sapere distinguere tra (x_1,y_1,z_1),(v_{x1},v_{y1},v_{z1}) e (x_2,y_2,z_2),(v_{x2},v_{y2},v_{z2}) nel caso appartengano alla stessa cella, è un’approssimazione.

La suddivisione in cellette dello spazio di posizioni e velocità per le particelle. Secondo questa suddivisione due set di posizioni e velocità che appartengono alla stessa celletta non sono distinguibili (qui non distinguiamo il rosa dal celeste), mentre sono distinguibili da quella in verde, dato che appartiene a un’altra celletta.

Dal punto di vista statistico, l’entropia del gas è pensabile come una misura di quanti stati dinamici microscopici sono associabili a un certo stato termodinamico macroscopico, una misura della nostra “ignoranza” sull’effettiva configurazione microscopica del gas.

Il problema era che la dimensione \tau della celletta elementare era del tutto arbitraria, e ciò influiva pesantemente sul conteggio delle configurazioni. Essendo il numero delle configurazioni direttamente collegato alla definizione statistica di entropia, una scelta di \tau troppo piccola conduceva a valori infiniti per l’entropia del gas. Questa indeterminazione sulla scelta di \tau impediva inoltre di calcolare, statisticamente, il valore della costante dell’entropia alla temperatura dello zero assoluto.

Il problema della costante dell’entropia stava molto a cuore ai fisici dell’epoca. Nella termodinamica ottocentesca ci si interessava solo alle differenze di entropia, e quindi era di scarso interesse pratico domandarsi quale fosse il valore assoluto dell’entropia a una determinata temperatura come T=0\,\text{K}, e in ogni caso questa costante spariva quando si faceva la differenza \Delta S=S(B)-S(A) tra due stati termodinamici B e A.
Tuttavia con l’arrivo del teorema di Nernst e quindi del terzo principio della termodinamica (il quale postula che l’entropia allo zero assoluto sia esattamente zero) si rivelò essenziale determinare il valore di questa costante.

Un altro problema fastidioso era quello che riguardava il conteggio di particelle indistinguibili: quando si contavano tutte le configurazioni possibili di tutte le particelle del gas si finiva per contare più volte la stessa configurazione per via del fatto che non è possibile distinguere una particella dall’altra. Per via di ciò si arrivava a dei paradossi che riguardavano l’entropia di mescolamento dei gas.
Di questo problema si interessò Gibbs, il quale propose di dividere i conteggi per il fattore combinatorico N! dove N è il numero di particelle e con “!” si intende il fattoriale N!=N(N-1)(N-2)....
Tuttavia anche questa soluzione non risolveva tutti i problemi…

La teoria dei quanti sistemò i problemi dell’entropia. Si dimostrò che la dimensione \tau delle cellette elementari doveva essere pari alla costante di Planck h: la natura discreta della teoria quantistica si sposava bene con l’ipotesi delle cellette elementari della fisica statistica.

Il punto è che gli effetti quantistici delle particelle non sono più trascurabili a basse temperature. In fisica statistica esiste una quantità chiamata lunghezza d’onda termica di De Broglie, la quale ha la seguente espressione per un gas perfetto monoatomico:

La lunghezza termica delle particelle di un gas, dove h è la costante di Planck, m la massa delle particelle, k_B la costante di Boltzmann che converte da dimensioni di energia a dimensioni di temperatura tramite E=k_BT, e T la temperatura del gas.

Questa lunghezza d’onda deriva dalla formulazione ondulatoria di De Broglie per le particelle quantistiche.
Secondo De Broglie, a ogni particella avente quantità di moto p è associabile una lunghezza d’onda \lambda=h/p. Se come p si prende la quantità di moto termica delle particelle del gas si ottiene la \lambda_T riportata sopra.
A temperature normali questa lunghezza d’onda è molto più piccola della distanza media tra gli atomi di un gas. Vediamo però che al diminuire di T, la relazione di inversa proporzionalità \lambda_T\propto 1/\sqrt{T} aiuta a far crescere questa lunghezza d’onda. Per temperature sufficientemente basse la lunghezza d’onda \lambda_T diventa comparabile con le distanze inter-atomiche del gas.

Man mano che si abbassa la temperatura del sistema, aumenta la lunghezza d’onda di De Broglie e dominano le interferenze quantistiche tra le funzioni d’onda delle particelle.
Nel caso in figura sono mostrati dei bosoni.

Quindi, per via delle loro proprietà quantistiche, le particelle iniziano ad interferire tra loro come tante onde, e questo succede quando la loro lunghezza d’onda diventa almeno comparabile con la distanza tra una particella e l’altra, a temperature molto basse.

Siccome parliamo di funzioni d’onda che creano interferenze, l’indistinguibilità delle particelle gioca un ruolo centrale in questo processo quantistico, e ciò sta alla base di tutte le difficoltà teoriche della vecchia fisica statistica, la quale non teneva conto di queste proprietà quantistiche. Fino alla prima metà degli anni ’20, questa sottigliezza quantistica non era ancora stata compresa in profondità.

Statistica quantistica: la strada di Fermi

Enrico Fermi (1901-1954). Premio Nobel per la Fisica nel 1938.

Ancora fresco di laurea, Fermi divenne particolarmente ossessionato dal problema della costante dell’entropia, pubblicando diversi articoli tra il 1924 e il 1926.

Aveva intuito che il problema risiedesse nella natura quantistica delle particelle, in particolare dal punto di vista della loro indistinguibilità, ma mancava ancora qualche pezzo del puzzle.

Il pezzo mancante fu messo a disposizione da Pauli con la formulazione del principio di esclusione: non possiamo avere due elettroni con tutti i numeri quantici uguali tra loro. Gli elettroni sono particelle indistinguibili, quindi Fermi si ispirò al loro comportamento per provare a quantizzare un gas di particelle a temperature sufficientemente basse.

Possiamo immaginarci un Fermi che lavora assiduamente all’alba (il suo momento preferito per studiare e lavorare su nuovi articoli) in qualche fredda mattina di Firenze, nell’inverno del 1925-26, sforzandosi di sfruttare il principio di Pauli per ottenere la costante corretta dell’entropia allo zero assoluto.

La prima pagina dell’articolo di Fermi, presentato all’accademia dei Lincei nel febbraio del 1926.

Nel suo articolo “Sulla quantizzazione del gas perfetto monoatomico” uscito nel febbraio del 1926, Fermi ipotizzò che un gas ideale si comportasse proprio come gli elettroni del principio di Pauli e cambiò completamente il modo di contare le configurazioni possibili in fisica statistica: in ciascuno stato dinamico possono esserci zero o al massimo una sola particella, mai due nello stesso stato.
Immaginò poi che il gas potesse essere caratterizzato da determinati livelli energetici discreti, proprio come si faceva nella quantizzazione dell’atomo di idrogeno. Questa spaziatura tra i livelli energetici era tanto più rilevante per la fisica del problema quanto più era bassa la temperatura del gas, essenzialmente per il motivo enunciato sopra. Ad alte temperature gli effetti quantistici devono essere trascurabili e si ritorna alla termodinamica dell’ottocento.

La conseguenza di questo nuovo modo di contare era che ciascuno stato i era occupato da un numero medio di particelle in funzione dell’energia E_i dello stato, secondo la seguente espressione:

Il numero di nepero e (o Eulero), l’energia E_i dello stato, la temperatura T, la costante di Boltzmann k_B. Il parametro \mu è noto come “potenziale chimico” e allo zero assoluto corrisponde all’energia di Fermi: E_F.

Usando questa informazione, Fermi calcolò l’espressione della costante dell’entropia, la quale coincideva con il valore sperimentale dedotto da Sackur e Tetrode nel 1912. La sua teoria era un successo!

Tuttavia, come confermato anche da alcuni studiosi (Belloni, Perez et al), Fermi non si interessò delle radici quantistiche di questa nuova statistica, cioè non provò a collegare il principio di Pauli con la natura ondulatoria della materia. Inoltre non esisteva, al tempo, un gas capace di comportarsi come gli elettroni dell’articolo di Fermi. La soluzione di Fermi voleva andare nella direzione della statistica quantistica, ma con un approccio molto cauto sulle ipotesi alla base. Fermi utilizzò la sua intuizione per dare una nuova soluzione a dei problemi annosi di fisica statistica (già risolti recentemente da Bose e Einstein con la loro statistica) e dedusse una statistica completamente nuova.

Tuttavia, al contrario di quanto si dice solitamente in giro, Fermi non applicò direttamente questa nuova statistica al problema degli elettroni nei metalli (cosa che fu fatta da altri e che condusse alla teoria dei semiconduttori).

La statistica di Fermi-Dirac

La distribuzione trovata da Fermi è dipendente dalla temperatura. Abbiamo già anticipato che gli effetti quantistici diventano preponderanti a temperature vicine allo zero assoluto. In questo caso il principio di Pauli emerge direttamente dalla forma analitica della distribuzione, riportata in figura:

La formula di Fermi al variare della temperatura.

Man mano che la temperatura del gas di elettroni si avvicina a T=0\,\text{K}, la distribuzione di Fermi si avvicina sempre di più alla “funzione gradino”

La funzione gradino, cioè il limite a basse temperature della formula di Fermi.

Allo zero assoluto, gli elettroni occupano i livelli energetici riempiendoli dal più basso fino a un’energia chiamata “energia di Fermi”, indicata con E_F.
Puoi notare come a T=0 il numero medio di occupazione dello stato a energia E_i sia esattamente 1: non può esserci più di un elettrone per stato, è il principio di esclusione di Pauli in tutta la sua gloria. Nota anche che non ci sono elettroni che occupano stati a energia maggiore di quella di Fermi.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questo comportamento è essenzialmente verificato anche per temperature più alte di T=0, basta solo che sia T\ll T_F dove T_F è detta “temperatura di Fermi”, ed è pari a T_F=E_F/k_B. Nelle situazioni di interesse fisico (come nei metalli), la condizione T\ll T_F è praticamente sempre soddisfatta, essendo T_F di solito dell’ordine di alcune centinaia di migliaia di gradi kelvin.

I gas di elettroni sono fortemente influenzati dal principio di Pauli: è un po’ come se ci fosse una forza “repulsiva” tra gli elettroni, la quale gli impedisce di occupare lo stesso stato energetico. Questa è anche un’interpretazione euristica del fatto che la pressione di un gas di Fermi sia più elevata di un gas classico: è difficile comprimere un gas di elettroni perché non vogliono mai “occupare lo stesso punto spaziale”.

Come mai questa statistica è chiamata “Fermi-Dirac” e non solo “Fermi”?
È noto che Dirac pubblicò la stessa formula alla fine dell’estate del 1926, mentre Fermi l’aveva presentata nella primavera dello stesso anno. Dirac, su sollecito scritto da parte del fisico italiano, ammise di aver letto il lavoro di Fermi, ma sostenne di averlo completamente scordato.

In difesa di Dirac va detto che il suo lavoro (“On the Theory of Quantum Mechanics“) è molto più generale di quello presentato da Fermi, il quale si era invece proposto di risolvere un problema particolare (quello dell’entropia) che c’entrava poco con i postulati della meccanica quantistica.

Dirac giustificò in maniera elegante il principio di esclusione di Pauli notando che la meccanica quantistica era il luogo naturale per trattare i sistemi di particelle indistinguibili, grazie al formalismo delle funzioni d’onda.

La chiave del ragionamento di Dirac si trova proprio nel fatto che le particelle elementari possono essere considerate indistinguibili. La conseguenza quanto-meccanicistica è che se consideriamo due particelle non interagenti tra loro, e che possono occupare gli stati A e B, la funzione d’onda che le descrive collettivamente è data dal prodotto delle due funzioni d’onda

    \[\psi(x_1;x_2)=\psi_A(x_1)\psi_B(x_2)\]

in cui x_1 e x_2 sono le posizioni delle due particelle. Se scambiamo le due particelle, e cioè le portiamo dallo stato A allo stato B e viceversa, otteniamo la funzione d’onda modificata

    \[\psi'(x_1;x_2)=\psi_B(x_1)\psi_A(x_2)\]

Ma se assumiamo che le particelle siano indistinguibili, la densità di probabilità deve restare la stessa (ricordiamo che è data dal modulo al quadrato della funzione d’onda):

    \[|\psi'(x_1;x_2)|^2=|\psi(x_1;x_2)|^2\]

Quindi al massimo possiamo avere che \psi' è diversa da \psi per un fattore \eta

    \[\psi'(x_1;x_2)=\eta \psi(x_1;x_2)\]

in cui \eta è un numero tale che |\eta|^2=1 in modo da soddisfare |\psi'(x_1;x_2)|^2=|\psi(x_1;x_2)|^2 (verifica pure!).

Se ri-scambiamo le due particelle, torniamo punto e a capo, e cioè deve essere \psi''(x_1;x_2)=\psi(x_1;x_2)

    \[\psi''(x_1;x_2)=\eta \psi'(x_1;x_2)=\eta^2\psi(x_1;x_2)=\psi(x_1;x_2)\]

ovvero \eta^2=1, la quale ha soluzione \eta=\pm 1.
Se \eta=-1 stiamo parlando di particelle con funzioni d’onda antisimmetriche (cioè lo scambio delle particelle produce un segno meno moltiplicativo nella funzione d’onda totale). Una conseguenza è che se parliamo dello stesso stato A=B allora lo scambio delle particelle produce la seguente relazione

    \[\psi_A(x_1)\psi_A(x_2)=-\psi_A(x_1)\psi_A(x_2)\]

la quale implica identicamente \psi_A(x_1)\psi_A(x_2)=0, cioè non esiste uno stato quantistico in cui queste particelle hanno gli stessi numeri quantici. Questa è la giustificazione quanto-meccanicistica del principio di Pauli, e condusse Dirac a ricavare la stessa formula di Fermi per la statistica degli elettroni.

La lettera in cui Fermi richiamò l’attenzione di Dirac sul suo articolo del febbraio precedente.


Fermi si limitò all’applicazione del principio di esclusione su un problema specifico, senza provare a darne un’interpretazione quanto-meccanicistica.

In ogni caso, Dirac riconobbe comunque l’importanza del lavoro di Fermi, e propose di chiamare la nuova statistica “Fermi-Dirac”, mettendo il nome di Fermi al primo posto.

Oggi le particelle (come gli elettroni) che obbediscono alla statistica di Fermi-Dirac sono note come “fermioni”, sempre in onore di Fermi. I fermioni sono tutte quelle particelle caratterizzate da uno spin semi-intero. Per un teorema rigorosamente dimostrabile in teoria quantistica dei campi, tutte le particelle a spin semi-intero obbediscono alla statistica di Fermi-Dirac, mentre quelle a spin intero (note come “bosoni“) obbediscono alla statistica di Bose-Einstein (sono le particelle con \eta=1 dopo uno scambio).

Alle basse temperature i bosoni possono occupare tutti lo stesso stato a energia più bassa, mentre i fermioni sono forzati ad occupare stati a energia crescente fino all’energia di Fermi (nella figura sono presenti al massimo due fermioni per via del numero quantico di spin, il quale assume due valori possibili se lo spin è 1/2).

Alle alte temperature (dove gli effetti quantistici sono meno preponderanti) sia fermioni che bosoni tornano ad obbedire alla statistica di Maxwell-Boltzmann e Gibbs.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Il neutrino sterile: la particella “fantasma” che arrovella i fisici da decenni

I neutrini sono a tutti gli effetti le particelle che abbiamo capito meno in tutto il Modello Standard.

In sintesi, le difficoltà sorgono dal fatto che queste particelle interagiscono con una sola delle interazioni fondamentali (senza contare la gravità), e questa è sfortunatamente l‘interazione debole. Alle tipiche energie dei nostri esperimenti questa interazione è fortemente soppressa (ecco perché si chiama “debole”), per cui è molto difficile produrre o far interagire dei neutrini:

In media, un neutrino interagisce una sola volta dopo aver percorso 100 miliardi di volte un diametro terrestre.

Nonostante ciò, i neutrini sono stati scoperti sperimentalmente e vengono studiati con cura dagli anni ’50, questo perché sono state impiegate sorgenti che ne emettono grandi quantità: in questo modo si contrasta la scarsa probabilità di interazione con l’enorme numero di “proiettili”. È la stessa filosofia di comprare un centinaio di “gratta e vinci” per aumentare le chances di pescarne almeno uno vincente.

Cosa non capiamo dei neutrini?

Per poter dire che “capiamo” tutto di una particella dobbiamo essere in grado di affermare quali siano i suoi numeri quantici, e di solito ci si concentra su questi tre:

  • Carica elettrica
  • Spin
  • Massa

Dei neutrini conosciamo con precisione solo i primi due: sono elettricamente neutri (infatti non interagiscono con la forza elettromagnetica) ed hanno spin 1/2, mentre sorprendentemente non sappiamo ancora con precisione il valore della loro massa. Sappiamo solo che non può essere più grande di un numero molto piccolo, per via delle evidenze sperimentali.

Ciò che stupisce è che rispetto alle altre particelle hanno una massa stupidamente minuscola, così piccola che è difficile da misurare: gli esperimenti ci consentono solo di porre dei limiti superiori sempre più piccoli. Per dare un’idea, l’elettrone ha una massa di mezzo milione di elettronvolt, mentre si stima che quella dei neutrini sia inferiore a un solo elettronvolt. Se l’elettrone è considerato la particella carica più leggera del Modello Standard, i neutrini sono davvero dei pesi piuma.

È di fondamentale importanza riuscire a determinare la massa di una particella. Nel Modello Standard la massa è spesso l’unico numero quantico che permette di distinguere tra due particelle che hanno gli altri numeri quantici uguali.

Ad esempio il muone e l’elettrone sono due particelle elementari con la stessa carica elettrica e lo stesso spin, ma il muone è circa 200 volte più pesante dell’elettrone ed è proprio ciò che ci permette di distinguerli nella maggior parte dei casi. Allo stesso modo il tau è la terza “sorella” di muone ed elettrone, in quanto ha stessa carica e stesso spin, ma massa pari a circa 18 volte quella del muone.
Queste tre particelle furono raggruppate in un trio chiamato “leptoni carichi”.

Elettrone, Muone e Tau: le tre particelle “sorelle” del Modello Standard costituiscono la famiglia dei leptoni carichi.

Per spiegare i risultati sperimentali degli anni ’30 e ’50, si associò a ciascun leptone carico (elettrone, muone e tau) un neutrino di tipo corrispondente. Infatti si dimostrò che in ciascun processo di interazione debole di un leptone carico compariva sempre un neutrino, di conseguenza:

  • All’elettrone venne associato un neutrino-elettronico: \nu_e
  • Al muone venne associato un neutrino-muonico: \nu_\mu
  • Al tau venne associato un neutrino-tau: \nu_\tau

Quindi anche i neutrini sono considerati dei leptoni, solo che hanno carica elettrica nulla. Assieme ai leptoni carichi costituiscono i 6 leptoni del Modello Standard.

La cosa importante da capire è che siamo in grado di distinguere un neutrino \nu_e da un neutrino \nu_\mu o da un neutrino \nu_\tau: basta guardare qual è il leptone carico coinvolto nelle interazioni (rare) di questi neutrini!

Il modo in cui siamo in grado di dire quale dei tre neutrini stiamo considerando: basta guardare i leptoni carichi che escono fuori dalle interazioni del neutrino con la materia.

In questo senso si parla di conservazione del sapore leptonico: un neutrino di sapore “muonico” è sempre associato, in un’interazione debole, a un muone. Se c’era un sapore elettronico all’inizio, dovrà esserci un sapore leptonico anche alla fine.

Le oscillazioni di sapore

Alla fine del secolo scorso si scoprì che i neutrini sono in grado di cambiare sapore leptonico durante il loro viaggio tra due punti dello spazio, e fu proprio questo fatto ad evidenziare che i neutrini dovevano avere una massa: senza una massa non è possibile questa oscillazione tra sapori!

L’oscillazione rompe la conservazione del sapore leptonico!

Ad esempio da un processo debole che coinvolge un elettrone (rivelabile) sappiamo che sbucherà fuori un \nu_e, il quale, dopo una certa distanza, si tramuterà in un \nu_\mu, il quale interagirà facendo comparire un muone, che sarà a sua volta rivelabile e ci permetterà di dire che questa oscillazione è effettivamente avvenuta!

Per spiegare questo effetto vengono introdotti gli “stati di massa” dei neutrini, chiamati \nu_1,\nu_2,\nu_3 a cui vengono associate le masse m_1,m_2,m_3. Ciascun stato di massa “contiene” al suo interno i tre sapori dei neutrini \nu_e,\nu_\mu,\nu_\tau in proporzioni che possono essere studiate sperimentalmente.
Graficamente abbiamo quindi tre neutrini ciascuno contenente al suo interno il mixing di sapori:

Gli autostati di massa dei neutrini con al loro interno i mixing dei sapori.
Celeste: \nu_e, Marroncino: \nu_\mu, Grigio: \nu_\tau.

Questo mixing avviene nel senso quanto-meccanico di sovrapposizione di stati: ciascuno stato di massa è una sovrapposizione delle funzioni d’onda dei sapori leptonici e,\mu,\tau.

Ad esempio dalla figura leggiamo che sperimentalmente è stato verificato che lo stato \nu_1 contiene per la maggior parte il sapore elettronico \nu_e (indicato in blu), mentre il sapore tau \nu_\tau è presente solo in minima parte.

Essendo tutto ciò un effetto quanto-meccanico, a ogni oscillazione tra sapori è associata una certa probabilità che sarà tanto più elevata quanto più grande è il mixing tra sapori negli stati di massa. Questa probabilità è verificabile sperimentalmente: basta chiedersi “se nel punto di partenza ho N neutrini di tipo \nu_e, quanti neutrini di tipo \nu_\mu mi ritroverò a una certa distanza dal punto di partenza?”

Ad esempio la probabilità che un neutrino \nu_e si trasformi in un neutrino \nu_\mu è data dalla seguente formula:

Vengono chiamate “oscillazioni” perché la probabilità dipende da un seno al quadrato, il quale rappresenta graficamente un’oscillazione nelle variabili L,E,\Delta m^2.

in cui \theta è un parametro del Modello Standard che è stato misurato sperimentalmente (e definisce il grado di mixing dei due sapori in questo caso). D’altra parte \Delta m^2=m_2^2-m_1^2 riguarda la differenza tra i quadrati delle masse di \nu_2 e \nu_1, mentre L è la distanza a cui hanno viaggiato i neutrini prima di essere rivelati, ed E è la loro energia.
Nota bene che se questi neutrini avessero la stessa massa, e cioè \Delta m^2=0, non si potrebbero avere oscillazioni (la probabilità sarebbe nulla perché il seno di zero fa zero).

Ad esempio è molto più probabile che un \nu_e si trasformi in un \nu_\mu quando l’argomento del seno è vicino al punto in cui il seno ha un massimo, e cioè in prossimità di 90^{\circ} (o in radianti pi/2), e cioè quando

Da questa formula è possibile capire a che valore del rapporto L/E si è più sensibili per rivelare un’oscillazione da \nu_e in \nu_\mu. Si può quindi ottenere una stima di \Delta m^2.

Studiando l’andamento dell’oscillazione con L/E si può quindi ricavare \Delta m^2 proprio da questa formula.

La differenza tra le masse dei neutrini \nu_2 e \nu_1 è minuscola, ma comunque calcolabile dai dati sperimentali. Allo stesso modo è stata calcolata la differenza tra le masse quadre di \nu_3 e \nu_2, e da ciò si può ricavare la differenza tra le masse quadre di \nu_3 e \nu_1.
Conosciamo solo queste \Delta m^2, ma non i valori singoli di m_3,m_2,m_1, che frustrazione, eh?

Misurando il numero di eventi di neutrini di un certo sapore ad alcuni valori del rapporto L/E si possono ricavare i valori sperimentali di \theta e \Delta m^2. Questo è proprio ciò che si fa da qualche decina di anni: la teoria delle oscillazioni è verificata con un alto grado di accuratezza, tranne per qualche anomalia…

Le anomalie delle oscillazioni

Immagina di stare conducendo un esperimento in cui produci dei neutrini \nu_\mu, li fai viaggiare per una certa distanza L e ti aspetti che si trasformino in neutrini \nu_e con una probabilità data dalla formula vista sopra: P_{\nu_e\to\nu_\mu}=\sin^2(2\theta)\sin^2\left(\frac{\Delta m^2 L}{4E}\right), solo che con sorpresa ti ritrovi a rivelare più neutrini \nu_e di quelli che ti aspettavi, un eccesso rispetto alla previsione teorica.

Questo è proprio quello che capitò nell’esperimento LSND degli anni ’90 (immagine di copertina): comparvero più neutrini \nu_e di quelli previsti dal modello delle oscillazioni a tre stati di massa \nu_1,\nu_2,\nu_3.

Questo fenomeno fu spiegato con l’introduzione di un quarto stato di massa \nu_4, avente massa m_4 apparentemente molto più grande di m_1,m_2,m_3.

Questo \nu_4 permetteva l’oscillazione di \nu_\mu in \nu_e a un ritmo più elevato, dato dalla formula modificata:

Stavolta \Delta m^2_{41}=m_4^2-m_1^2, e non più \Delta m^2=m_2^2-m_1^2.

in cui si trovò che, appunto, \Delta m_{41}^2\gg \Delta m_{21}^2: il quarto stato di massa doveva avere una massa molto più elevata degli altri tre stati di neutrini.

Ricorda però che ad ogni stato \nu_1,\nu_2,\nu_3 avevamo associato un certo mixing di sapori \nu_e,\nu_\mu,\nu_\tau, quindi aggiungendo un \nu_4 dobbiamo aggiungere anche un nuovo sapore \nu_s. Questo è necessario per far quadrare i conti della teoria dei mixing.

Il Modello Standard però proibisce (con misure sperimentalmente verificate) un numero di sapori di neutrini superiore a tre! Cioè possono esistere solo i sapori “canonici”: \nu_e,\nu_\mu,\nu_\tau.

Il nuovo sapore \nu_s associato alla comparsa di \nu_4 dovrà allora essere completamente sconnesso dal Modello Standard, e cioè dovrà essere sterile rispetto a tutte le interazioni fondamentali. Questo suo essere sterile proibisce una rivelazione diretta del neutrino, e i suoi effetti compaiono solo come eccessi di oscillazioni, come nell’esperimento LSND.

Il nuovo mixing dei neutrini usando un quarto stato di massa \nu_4 e un nuovo sapore sterile (indicato in rosa). Notare come \nu_4 contenga il nuovo sapore per la maggior parte, mentre una componente sterile è presente in quantità molto piccole negli altri stati \nu_1,\nu_2,\nu_3.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Se già i neutrini di sapore tradizionale erano difficili da rivelare, il neutrino sterile è quindi una vera e propria particella fantasma. Non ne vediamo l’effetto diretto, ma solo quello indiretto sulle oscillazioni tra gli altri sapori “attivi” \nu_e,\nu_\mu,\nu_\tau.
Tuttavia anche questi “eccessi” nelle oscillazioni sono abbastanza misteriosi, ad oggi non è detto che il neutrino sterile esista per forza.

Ci sono parecchie discordanze sulle anomalie rivelate da LSND, dato che gli esperimenti successivi non sono riusciti a confermarle, ma nemmeno a smentirle! Anche al Gran Sasso (esperimento GALLEX) furono misurate delle anomalie nelle oscillazioni, e ad oggi pure queste anomalie restano senza conferma da altri esperimenti, nonostante siano però difficili da smentire.

La scoperta del neutrino sterile segnerebbe il primo passo verso il superamento definitivo del Modello Standard

Questo perché essendo sterile non potrebbe accoppiarsi nemmeno con il campo di Higgs per sviluppare la massa dello stato m_4, dunque servirebbe un nuovo meccanismo che implicherebbe l’utilizzo di teorie oltre il Modello Standard.

Per mettere la parola definitiva sul neutrino sterile sono previsti esperimenti sempre più sensibili, ma al contempo sempre più difficili da costruire, con tecnologie all’avanguardia ancora da inventare.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Come la gravità ci impedisce di misurare distanze più piccole della lunghezza di Planck

Uno dei punti fondamentali per la conquista dell’unificazione tra gravità e meccanica quantistica riguarda la comprensione dello spaziotempo a una scala subatomica di lunghezza.

Lo spaziotempo è essenzialmente un concetto classico: possiamo immaginarcelo come una struttura invisibile che può essere descritta utilizzando i numeri reali (cioè quelli della quotidianità: 2.3, 0.01, \pi, e^{-\pi/2}, -3/4, 2.9999...).

Come immaginiamo la griglia dello spaziotempo curvata dalla massa.

I numeri reali costituiscono un insieme non numerabile, in parole povere non solo abbiamo a disposizione un’infinità di numeri da -\infty a +\infty, ma anche che tra due numeri come 0 e 1 è compresa un’altra infinità di numeri. Inoltre è anche un insieme continuo, cioè dato un certo numero x, è sempre possibile trovare un altro numero y sufficientemente “vicino” al primo in modo che la distanza x-y tra i due si avvicini a zero fino alla cifra decimale che si desidera.
Nei numeri interi, invece, la distanza tra due numeri può solo coincidere con lo zero nel caso in cui i due numeri siano uguali, altrimenti esiste una distanza minima che è quella che riguarda due numeri consecutivi come 4 e 5.

Ecco, classicamente si pensa che lo spaziotempo possa essere descritto con un insieme di numeri reali piuttosto che di numeri naturali. Non è definita una distanza minima se non quella uguale a zero.

Cosa succede quando tiriamo in ballo la meccanica quantistica?

Ispirato dal seguente brillante articolo di Calmet, Graesser e Hsu pubblicato nella Physical Review Letters, ho deciso di volgarizzare un ragionamento che ho trovato molto intrigante, dato che su questi temi si discute sempre pochino e male.

Immaginiamo di avere un certo detector per rivelare la distanza tra due punti x(t) e x(0) nella griglia dello spaziotempo, uno al tempo t=0 e l’altro al tempo t.
Supponiamo per semplicità che il detector, di grandezza L e massa M, misuri questi due punti spostandosi con una velocità v=p/M dove p è la sua quantità di moto. Avremo cioè

Il discorso che sto per fare ora si basa su un’approssimazione euristica al fine di scongiurare l’introduzione di operatori quantistici, dato che aggiungerebbero poco o niente alla sostanza del discorso principale.

Una volta misurate le posizioni x(t) e x(0) con una certa incertezza \Delta x(t) e \Delta x(0), possiamo anche stimare l’incertezza sulla quantità di moto \Delta p usando le formule sulla propagazione delle incertezze:

Considerando ad esempio il punto x(t), varrà il principio di indeterminazione di Heisenberg:

A questo punto sostituiamo dentro il principio di Heisenberg l’espressione di \Delta p=(M/t)[\Delta x(t)+\Delta x(0)] trovata con la propagazione delle incertezze. Trascurando termini quadratici del tipo (\Delta x(t))^2 essendo più piccoli di un ordine di grandezza, si arriva a una relazione interessante:

Le incertezze sulla posizione iniziale e finale sono legate da un principio di indeterminazione, il cui valore aumenta all’aumentare del tempo. Di sicuro questa è una relazione interessante.
Ancora più interessante è chiedersi quale sia l’incertezza sulla distanza tra x(t) e x(0), cioè s=x(t)-x(0). Anche ora, per via della propagazione degli errori, si ha che

    \[\Delta s=\Delta x(t)+\Delta x(0)\]

Se \Delta x(t) diminuisce allora \Delta x(0) aumenta al fine di mantenere vera la \Delta x(0)\Delta x(t)\ge \frac{\hbar t}{2M}, quindi \Delta s è limitato dal valore più grande tra \Delta x(0) e \Delta x(t).

Nel caso in cui \Delta x(t)\approx \Delta x(0) cioè misuriamo i punti x(t) e x(0) con incertezze circa uguali, il principio di indeterminazione fornisce:

Quindi da un punto di vista quantistico possiamo misurare una lunghezza spaziale con una precisione

Dove ricordiamo, t è il tempo che abbiamo lasciato correre tra una misura e l’altra, e M è la massa del nostro detector (che abbiamo fatto interagire con lo spazio attorno a sé lasciandolo muovere liberamente).
Controllando questi due parametri possiamo rendere \Delta s piccolo a piacere. Possiamo costruire un detector molto massivo e fare tante misure consecutive separate da intervalli di tempo t molto piccoli.
Rendendo piccolo il rapporto t/M possiamo rendere \Delta s piccolo a piacere.

Tutto ciò andrebbe bene in un mondo in cui non esiste la gravità. Questo è il messaggio da portare a casa! Se non ci fosse di mezzo la gravità, come puoi vedere, nulla impedirebbe di rendere \Delta s piccolo a piacere (anche se non può mai essere nullo, per via del principio di Heisenberg).

L’intervento della gravità

Ho mentito, non possiamo rendere t piccolo a piacere! Se L è la dimensione del nostro detector, dobbiamo considerare dei tempi t tali che t>L/c cioè maggiori del tempo impiegato dalla luce a percorrere il nostro detector (altrimenti solo una frazione del detector può essere considerato “detector”).

Inoltre non possiamo rendere M grande a piacere: se rendiamo M troppo grande rispetto alle dimensioni L del detector, questi potrebbe collassare in un buco nero, e ciò impedirebbe di leggere qualsiasi informazione sulle misure del nostro esperimento. Il parametro di lunghezza fondamentale di un buco nero è dato dall’orizzonte degli eventi

    \[r_s\sim \frac{GM}{c^2}\]

dove G è la costante di gravitazione di Newton e c la velocità della luce.

Affinché il detector non sia un buco nero da cui non escono informazioni, desideriamo che sia L>r_s. Mettendo tutto assieme avremo quindi

La quantità risultante è identificata come lunghezza di Planck \ell_p, definita come:

La lunghezza di Planck, costante fondamentale della Fisica.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Non c’è nessun parametro che possiamo controllare nella formula della lunghezza di Planck: è composta da costanti fondamentali della Fisica come G, \hbar, c (costante di gravitazione di Newton, costante di Planck e velocità della luce). Quindi \Delta s\ge \ell_p è un limite inferiore che non possiamo sormontare in alcun modo ingegnoso: la gravità impedisce di misurare distanze più piccole della lunghezza di Planck.

Se vuoi sapere da dove spunta fuori la lunghezza di Planck da un punto di vista storico, ho scritto un articolo a riguardo.

Quanto è piccola una lunghezza di Planck nelle nostre unità di misura quotidiane? \ell_p\sim 10^{-33}\,\text{cm}, ovvero 10^{-25} volte il raggio tipico di un atomo. Per enfatizzare, il numero 10^{-25} corrisponde a 24 cifre dopo lo zero, cioè qualcosa del tipo 0.\underbrace{000.....0}_{24}1. Giusto per intenderci.

Il punto fondamentale è che se non ci fosse la gravità, non esisterebbe una lunghezza minima misurabile e potremmo rendere piccola a piacere l’incertezza quantistica della misura!

Ad avere l’ultima parola sulle dimensioni spaziali subatomiche non è quindi la quantistica, ma la gravità!
Questo risultato è molto significativo per la Fisica! Perché?

Quando si effettuano esperimenti di Fisica delle interazioni fondamentali (come le collisioni tra particelle) si esplorano scale di energia sempre più alte (che equivale a dire: si esplorano regioni di spazio sempre più piccole). La presenza di una scala di lunghezza sotto la quale non si può andare implica anche l’esistenza di una scala di energia sopra la quale non si può andare (perché la gravità diventerebbe rilevante e si inizierebbe a parlare di collasso in buco nero, avendo accumulato tanta energia in una regione di dimensioni molto ridotte). Un altro pezzo del puzzle per la lunga scalata che ci porterà verso la gravità quantistica?


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’Università di Pisa, fa ricerca sulle simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Il trucco per stimare la temperatura di Hawking: la gravità quantistica dietro le unità naturali

Stephen Hawking, 1942-2018.

Quello che propongo è un esercizio concettuale che ci porterà a stimare in maniera molto euristica (e non rigorosa) la temperatura di evaporazione dei buchi neri, altrimenti nota come “temperatura di Hawking”, dal suo scopritore Stephen Hawking. Su ispirazione da una lettura del fisico Anthony Zee, ritengo ci sia tanta fisica teorica dietro questo semplice giochino concettuale, quindi ci tengo a condividerlo con gli appassionati.

Alle fine, tutto inizia con Planck.
Max Planck è uno scienziato rinomato non solo per l’ipotesi sulla quantizzazione della radiazione, ma anche per essere stato il primo a proporre le “unità naturali” nella Fisica. Intendo proprio delle unità di misura molto speciali, dette “naturali” per un motivo ben preciso.

Perché mai avremmo bisogno di utilizzare delle “unità naturali", e poi che significa “naturale"? Naturale rispetto a cosa?

Se ci pensiamo un attimo, la storia dell’umanità è cosparsa di convenzioni sulle unità di misura:
cos’è un litro? Un piede? Una spanna? Un centimetro? Un gallone? Un secondo?

Chiaramente ogni unità di misura ha la sua definizione riconosciuta internazionalmente, ma tutte hanno in comune un unico fatto: sono antropocentriche per costruzione (d’altronde non poteva essere altrimenti, no?).
Questo porrebbe non pochi problemi dal punto di vista della comunicazione scientifica interstellare!

Per fare un esempio, a un abitante di un pianeta della galassia di Andromeda non può fregare di meno che per misurare quella che chiamiamo “temperatura” ci riferiamo alla graduazione di alcuni tubi contenenti mercurio, riferendoci alla convenzione proposta in un laboratorio nel 700′.

La fisica moderna ci ha insegnato invece che alcune quantità fondamentali, come tempo, lunghezza e massa, devono necessariamente essere espresse in modo che qualsiasi civiltà della nostra galassia (e oltre) possa concordare sul loro valore. Pensa quanto sarebbe difficile descrivere l’unità di misura del “piede del Re” a un abitante di un altro pianeta! Sfortunatamente tutte le unità di misura quotidiane sono affette da questa arbitrarietà.

Ad esempio utilizziamo un’unità temporale che essenzialmente deriva da quanto velocemente il nostro pianeta compie una rivoluzione attorno al proprio asse, e scandiamo il passaggio dei tempi lunghi riferendoci a quante volte il nostro pianeta compie un giro completo intorno alla sua stella. In una galassia popolata da 100 miliardi di pianeti, la misura del tempo riferita al numero di rivoluzioni di UNO solo tra questi appare tutto tranne che efficiente.

Tutto quello che chiediamo è di poter misurare tempi, lunghezze e masse usando qualcosa su cui ogni essere vivente può concordare (supponendo che la Fisica sia la stessa in tutta la galassia).

È possibile misurare tempo, lunghezza e massa senza riferirsi ad unità di misura inventate dall’uomo?

Tempo, lunghezza e massa. Ci bastano queste tre cose per poter fare previsioni fisiche sul mondo che ci circonda, e fortunatamente le costanti fondamentali della Fisica vengono in nostro soccorso.

L’indizio di Newton: lunghezza e massa sono correlate

Se nella teoria di Newton compariamo l’energia cinetica di un corpo gravitante con la sua energia potenziale gravitazionale

Comparando l’energia cinetica di un corpo di massa ”m” con l’energia potenziale nel campo gravitazionale di una massa “M“.

ed esprimiamo la sua velocità come una frazione di quella della luce, cioè v=\beta c con 0<\beta<1, vediamo che è possibile, tramite le costanti fondamentali c e G (velocità della luce e costante di gravitazione universale) esprimere una lunghezza in funzione di una massa

Semplificando m e risolvendo per r, otteniamo una relazione tra lunghezza e massa che dipende solamente da costanti fondamentali.

Il rapporto G/c^2 è una costante fondamentale della Natura, su cui potenzialmente tutti gli osservatori dell’universo possono concordare (magari nel loro linguaggio o nella loro matematica, ma sarebbe comunque possibile capirsi in qualche modo). Stiamo dicendo implicitamente che basta conoscere la teoria della gravità (costante G) e la velocità della luce (costante c) per poter convertire da lunghezza a massa!

Ok, magari questa relazione non significa nulla se la decontestualizziamo dal problema fisico (eguagliare energia cinetica con energia potenziale serve per risolvere un problema specifico), ma qui stiamo cercando delle relazioni che ci consentano di esprimere delle quantità in funzione di alcune costanti fondamentali.

“Aspetta un attimo, ma anche le costanti fondamentali sono riferite alle unità di misura antropocentriche. La velocità della luce si misura in m/s ad esempio. Non è un discorso circolare?"

Semplicemente diremo che nelle unità fondamentali la velocità della luce ha un valore unitario, e che ogni altra velocità ha un valore che è una frazione di quel valore unitario, cioè v=\beta con 0<\beta<1 e c=1.

”Ma non ha senso, in questo modo come facciamo a distinguere una velocità da una massa? Come faccio a dire che il numero “1" si riferisce a uno spazio percorso nel tempo invece che a un chilogrammo?

Giusta osservazione, ecco perché dovremmo provare ad esprimere tempi, lunghezze e masse in maniera indipendente tra loro, in funzione di poche costanti fondamentali. Siccome abbiamo tre quantità, ci servono tre costanti fondamentali, ma finora ne abbiamo raccolto solo due.

Nella teoria di Newton abbiamo a disposizione solo la costante G, e con Einstein abbiamo guadagnato la costante c. Il prossimo passo fu compiuto da Max Planck quando introdusse \hbar nella definizione di quanto di energia

Se \omega è ad esempio la frequenza di un fotone, la conversione tra frequenza ed energia è garantita dalla costante di Planck \hbar.

Il contributo quantistico

A meno che tu non abbia vissuto dentro una caverna negli ultimi anni, se ti interessa la Fisica avrai sicuramente sentito parlare del principio di Heisenberg, che relaziona una quantità spaziale (\Delta x) con la quantità di moto (\Delta p) (per un approfondimento sul significato matematico del principio, ho scritto un articolo). Il mediatore di questa relazione è la costante di Planck, \hbar

Se proviamo a far incontrare gravità e meccanica quantistica risulta naturale considerare la lunghezza gravitazionale travata in precedenza, e cioè la combinazione GM/c^2. Se al posto della quantità di moto poniamo poi Mv=M\beta c con al solito 0<\beta<1 possiamo ricavare, con un po’ di sorpresa, una massa in funzione di sole costanti fondamentali:

Ignorando il fattore arbitrario \beta e calcolando la radice quadrata, incappiamo in una massa espressa solamente in funzione delle tre costanti fondamentali, la cosiddetta “massa di Planck”:

La massa di Planck.

A questa massa contribuiscono le tre costanti delle tre teorie fondamentali della Natura:

  • G, la costante di gravitazione per la teoria della gravità di Newton.
  • c, la costante della velocità della luce, per la teoria della relatività di Einstein.
  • \hbar, la costante dei quanti di energia, per la teoria quantistica di Planck e Heisenberg.

Tre costanti, tre teorie fondamentali, e in regalo abbiamo una massa espressa in maniera universale.

Se come quantità di moto usiamo questa massa, cioè p=M_p(\beta c), la lunghezza quantistica associata è, sempre per il principio di Heisenberg

Sostituendo il valore trovato per M_p=\sqrt{\hbar c/G} e trascurando la costante \beta irrilevante, troviamo quella che è definita lunghezza di Planck

La lunghezza di Planck

che è anche pensabile come la distanza percorsa dalla luce in un tempo di Planck definito così

Il tempo di Planck

Grazie alle tre teorie fondamentali: gravità, relatività e quantistica, siamo riusciti a trovare tre costanti fondamentali per esprimere le tre quantità più importanti della Fisica in maniera indipendente

Le tre costanti fondamentali da cui discendono massa, lunghezza e tempo.

Cosa ci abbiamo guadagnato? Ora possiamo esprimere qualsiasi altra massa, lunghezza o tempo in unità di queste che abbiamo trovato! Cioè diremo che

Le costanti \apha_m,\alpha_\ell,\alpha_t sono adimensionali, cioè sono dei numeri puri.

in cui \alpha_m, \alpha_\ell,\alpha,t sono ora le letture di “quanta massa, quanta lunghezza o quanto tempo c’è” nelle unità M_p,\ell_p,t_p.

Ovviamente in queste unità la massa di Planck ha \alpha_m=1, il tempo di Planck ha \alpha_t=1 e la lunghezza di Planck ha \alpha_\ell=1 (per definizione). È come dire “quanti chili ci sono in un chilo?” ovviamente uno, è la definizione.

Un ritorno alle unità primordiali

Volendo potremmo esprimere queste nuove unità utilizzando quelle a cui siamo abituati quotidianamente, come il chilogrammo, il secondo e il metro, giusto per avere un’idea delle scale in gioco.

Siccome la parola “quantistica” ci fa venire in mente quantità molto piccole, non ti sorprenderà sapere che tempo di Planck e lunghezza di Planck sono spaventosamente piccole nelle nostre unità

Ma anche questo non dovrebbe scandalizzarci. Chi ci dice che le nostre unità di misura quotidiane siano significative? Quanto piccolo è troppo piccolo, e quanto grande è troppo grande? Dipende dalle unità che si sta usando. Nelle unità naturali fondamentali t_p=1, \ell_p=1, nulla di insolito, non sono piccole.
Nelle unità primordiali a cui siamo abituati invece si ha:

  • t_p\sim 10^{-44}\,\text{s}, ovvero un numero così piccolo che non vale nemmeno la pena specificare quanto.
  • \ell_p\sim 10^{-33}\,\text{cm}, ovvero 10^{-25} volte il raggio tipico di un atomo. Per enfatizzare, il numero 10^{-25} corrisponde a 24 cifre dopo lo zero, cioè qualcosa del tipo 0.\underbrace{000.....0}_{24}1. Giusto per intenderci.

La massa di Planck corrisponde invece a M_p\sim 10^{-5}\,\text{grammi}.
Dal punto di vista “quotidiano” M_p può sembrare molto piccola, ma in realtà corrisponde a 10^{19} volte la massa del protone, un valore spropositatamente elevato per la fisica delle particelle. Nelle nostre unità, M_p appare così grande perché dipende dalla costante G al denominatore, cioè M_p\propto 1/\sqrt{G}, con G che è un numero molto piccolo nella teoria della gravità.

Ma passiamo ora alla questione di interesse: le unità naturali ci permettono di calcolare con estrema velocità una quantità che è il risultato di una primordiale teoria di gravità quantistica: la temperatura di Hawking per l’evaporazione dei buchi neri.

L’evaporazione dei buchi neri

In termini rozzissimi “l’evaporazione” di un buco nero si basa su due aspetti fondamentali:

  • Il “vuoto“, dal punto di vista quantistico, non è davvero un vuoto, ma una “brodaglia quantistica” caratterizzata da processi di creazione-distruzione di coppie particella-antiparticella. Queste particelle sono “virtuali“, nel senso che non sono osservabili fisicamente e rappresentano solo un conveniente costrutto matematico, una conseguenza delle nostre teorie. Il loro utilizzo conduce tuttavia a predizioni accurate sulle particelle osservabili.
  • L’orizzonte degli eventi di un buco nero è definito sul vuoto spaziotemporale attorno al buco nero, e racchiude una regione (il buco nero) dalla quale NULLA, nemmeno la luce, può sfuggire.

Che succede se si viene a creare una coppia virtuale di particella-antiparticella esattamente sull’orizzonte degli eventi? Una delle due particelle non potrà più uscire dalla regione spaziotemporale, mentre l’altra proseguirà in direzione opposta per la conservazione della quantità di moto.

Una coppia virtuale di particella-antiparticella si crea sull’orizzonte del buco nero.

Ci tengo a rimarcare: questa descrizione del processo è molto euristica e non del tutto precisa, ma rende bene l’idea. Non ne ho mai trovate di più semplici di questa.


Il punto importante da capire è che in un certo senso è come se il buco nero avesse emesso della radiazione sotto forma di particella! Un attimo prima non c’era nulla, e un attimo dopo è come se si fosse creata radiazione dal niente, anche se in realtà il partner della particella emessa è stato risucchiato nel buco nero.

La particella che procede verso l’universo circostante è stata promossa da “particella virtuale” a “particella reale”, e questa promozione ha un costo energetico ben preciso, garantito dall’energia gravitazionale del buco nero. Tutto questo processo è noto come “radiazione di Hawking”.

La radiazione di Hawking prevede che i buchi neri perdano energia gravitazionale sotto forma di radiazione di particelle.

In questo senso si dice che i buchi neri “evaporano”, cioè è come se iniziassero a perdere massa.

Stima della temperatura di Hawking

Nelle unità naturali definite prima si pone convenzionalmente \hbar=c=1 per semplificare le equazioni. Come conseguenza di ciò, l’energia ha le stesse dimensioni di una massa:

Energia e massa diventano la stessa cosa in unità naturali.

In questo modo il principio di Heisenberg \Delta x\Delta p\sim\hbar per lunghezza di Planck \ell_p e quantità di moto\Delta p\propto M_p c=M_p con c=1, si scrive con \hbar=1:

Il principio di Heisenberg in unità naturali ci dice che le lunghezze hanno come unità l’inverso di un’energia.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

quindi impariamo che la lunghezza equivale all’inverso di una massa, cioè all’inverso di un’energia per quanto appena detto.

Da un punto di vista microscopico possiamo associare una certa temperatura alla radiazione di Hawking. Questo perché la temperatura è una misura dell’energia cinetica di un sistema. In un certo senso la temperatura è la manifestazione macroscopica di un processo microscopico, rappresentato dal moto caotico delle particelle. Noi vediamo solo “la temperatura” dal punto di vista sperimentale, quindi per via di questa limitazione abbiamo creato una costante ad hoc per convertire l’energia microscopica in scale graduate di colonnine di mercurio con cui misuravamo le temperature qualche secolo fa.

La conversione tra energia microscopica e la sua manifestazione “misurabile”, cioè la temperatura, avviene grazie alla costante di Boltzmann k_b.

Siccome non vogliamo usare unità antropocentriche come le colonnine di mercurio, porremo k_b=1 per semplicità. Quindi l’energia è proprio la temperatura: E=T.

Parlando del buco nero possiamo allora dire che siccome l’energia equivale all’inverso di una lunghezza, e che al contempo l’energia equivale a una temperatura, si ha che

Come lunghezza caratteristica del buco nero possiamo prendere proprio la lunghezza gravitazionale definita all’inizio di questo articolo, cioè GM/c^2, che in unità c=1 supponendo che il buco nero abbia una massa M diventa:

Di conseguenza possiamo fornire una stima (molto rozza, ma efficace) della temperatura di Hawking del buco nero di massa M

La temperatura di Hawking della radiazione.

Nonostante la nostra stima sia estremamente rozza, il risultato è comunque corretto: la temperatura del buco nero è tanto più alta quanto più è piccolo (cioè meno massivo). Inoltre, come la massa del buco nero diminuisce per via dell’evaporazione, la sua temperatura crescerà sempre di più ed evaporerà ancora più velocemente. Questo è quello che ci dice la formula per la temperatura di Hawking.

Ciò ha del paradossale: hai mai visto un corpo che più perde energia, più si riscalda ed emette in fretta? Questo è solo uno dei tanti problemi che derivano dall’infelice connubio tra relatività generale e meccanica quantistica, e questi problemi dovranno essere risolti da una pretendente teoria di gravità quantistica.

Abbiamo mai rivelato una radiazione di Hawking proveniente da un buco nero? Non ancora, specialmente perché per buchi neri di massa comune (abbastanza elevata) la temperatura di Hawking, andando come T_H\sim 1/M, è molto molto piccola, più piccola di quella del punto più freddo dell’universo, vicino allo zero assoluto in gradi Kelvin. La speranza è rivolta verso i buchi neri primordiali in quanto dovrebbero essere in fase di evaporazione finale, un momento in cui la loro massa tende a M\to0, e quindi dovremmo essere in grado di rivelare un incremento anomalo nella temperatura dell’emissione.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Perché secondo Rovelli la Relatività suggerisce di abbandonare il concetto di spaziotempo

Durante il secolo scorso, la Relatività Generale si è presentata con il più grande colpo di scena che la Fisica abbia mai visto:

L’interpretazione ortodossa della relatività generale: esiste uno spaziotempo che viene curvato dalle sorgenti di massa.
Le altre masse non possono fare altro che “seguire la curvatura” e quindi essere attratte.

Il campo gravitazionale non esiste, la gravità è il risultato della curvatura dello spaziotempo.

Chiunque si sia mai interessato di relatività generale si è quindi abituato a visualizzare questa affermazione con la splendida rappresentazione dello spaziotempo “curvato”.

Lo spaziotempo è per noi una “griglia immaginaria” che esiste fin dal Big Bang, una qualche costruzione geometrica su cui si collocano tutti gli eventi della nostra realtà.
Questi eventi possono essere descritti con le coordinate che vogliamo, e queste coordinate vanno a strutturare il palcoscenico matematico a cui diamo il nome “spaziotempo” dal punto di vista dei calcoli. Ma in ogni caso stiamo sempre assumendo che questa griglia invisibile e sottostante esista sempre, e in genere diamo anche a lei il nome di spaziotempo.


Di sicuro è una rappresentazione che ci consente di fare i conti in maniera molto comoda, ma ciò ha un determinato prezzo da pagare.

Questa rappresentazione assume in qualche modo che lo spaziotempo esista indipendentemente dalla materia e da ogni altra sorgente di energia, e questo è proprio ciò che sancisce il divorzio completo con la visione “quantistica” delle interazioni, come illustrato nel seguente schema:

Ciò pone non pochi problemi dal punto di vista della gravità quantistica, la quale si ritrova a dover mediare tra due visioni nettamente diverse! Nonostante ciò, entrambe le teorie funzionano in maniera impeccabile nei loro rispettivi campi di applicazione. In particolare anche la relatività generale ha ricevuto l’ennesima schiacciante conferma di validità secondo i dati recenti sull’osservazione del buco nero al centro della nostra galassia (EHT).

Eppure, nonostante sia data per scontata, questa interpretazione dello spaziotempo in relatività generale è tutt’altro che definitiva.

Di recente mi è capitato di studiare dei paragrafi del testo specialistico “Quantum Gravity” di Carlo Rovelli, incappando in un’osservazione che ritengo di altissimo valore concettuale e che aiuta a risolvere un importante paradosso delle equazioni di Einstein.

In realtà questa argomentazione non è dovuta solo a Rovelli, ma risale fino agli albori della relatività generale. È il cosidetto “hole argument” di Einstein, il quale giunse alle importanti conclusioni illustrate anche da Rovelli.

Un paradosso molto arguto

Immaginati una regione nello spaziotempo senza sorgenti di gravità, cioè senza massa o altre forme di energia come quella elettromagnetica. Magari questa regione di spaziotempo la prendiamo piccola a piacere per non complicarci le idee.

Con il simbolo delle tre ondine increspate, intendiamo uno spaziotempo curvo in quel punto.

Considera ora due punti A e B in questa regione vuota, e supponi di essere in grado di misurare la curvatura dello spaziotempo in entrambi i punti. Per intenderci, definiamo lo spaziotempo con il simbolo g_{\mu\nu}.

Per via di una particolarissima disposizione delle sorgenti esterne alla regione che stiamo considerando, supponi che lo spaziotempo sia curvo nel punto A e piatto nel punto B.

Ora usufruiremo del nome “Relatività Generale”, che non è stato assegnato a caso! Questo nome testimonia il postulato fondamentale su cui è basata tutta la teoria: la Fisica non può dipendere dalle coordinate di chi la osserva. Quando passiamo da un sistema di coordinate ad un altro stiamo eseguendo una trasformazione che chiamiamo \phi. Quando lasciamo agire \phi su una quantità “e“, otteniamo il suo trasformato \bar{e}=\phi\,e indicato con \bar{e}. Le quantità importanti della relatività generale non cambiano sotto la trasformazione \phi.

Se io calcolo una soluzione delle equazioni di Einstein che mi restituisce il valore della curvatura dello spaziotempo, il quale dipende da g_{\mu\nu}(x) in ogni suo punto x, allora un cambiamento di coordinate ottenuto con la trasformazione \phi genererà un’altra soluzione delle stesse equazioni, che ha la stessa validità della soluzione precedente.

Il punto è che \bar{g}_{\mu\nu} risolve le stesse equazioni di Einstein con le stesse sorgenti, non è cambiato nulla rispetto a prima. Cambia solo il linguaggio in cui abbiamo espresso g_{\mu\nu} (cioè le coordinate particolari che utilizziamo).

Supponiamo di trasformare le nostre coordinate in modo da mandare il punto A nel punto B e lasciare invariati tutti gli altri punti al di fuori del buco. Anche la soluzione delle equazioni di Einstein trasformerà come \bar{g}=\phi\,g. In sostanza, abbiamo fatto la seguente cosa:

Una trasformazione che lascia invariato tutto lo spazio tranne i punti all’interno della regione vuota. Dopo la trasformazione lo spaziotempo presenta una curvatura nel punto B , mentre la curvatura è nulla nel punto A.

Nelle nuove coordinate lo spaziotempo nel punto A è quindi piatto, mentre ora è curvo nel punto B.

Ripeto, \bar{g}_{\mu\nu} è una soluzione altrettanto valida, e la trasformazione che abbiamo fatto è consentita dalle leggi della Relatività Generale.

Ma allora lo spaziotempo nel punto A è piatto oppure curvo? Ci troviamo di fronte a un paradosso, come se le equazioni di Einstein fossero completamente inutili perché non sono in grado di descrivere lo spaziotempo univocamente.

Questo aspetto turbò gravemente Einstein in persona, tanto da fargli dubitare più volte che il principio di relatività generale avesse senso fisico.

In realtà, come fa notare Rovelli, la soluzione del paradosso sta nel ripensare la nozione di “punto dello spaziotempo”, o in generale: smetterla di attribuire tanta importanza a una griglia immaginaria come lo spaziotempo.

In realtà stavamo risolvendo un problema sbagliato.

La domanda fondamentale “com’è lo spaziotempo nel punto A? Ha in realtà meno significato di quello che pensavamo. Il problema era mal posto, o meglio, non aveva senso considerarlo un problema.

In Relatività Generale assumiamo l’esistenza di questa griglia invisibile chiamata “spaziotempo”, dandole un significato intrinseco che è maggiore di quello che realmente ha.
Nonostante accettiamo senza problemi il fatto che possiamo usare qualsiasi tipo di coordinate vogliamo per elencare i punti di questa griglia, qualcosa nella nostra intuizione ci porta a credere che la griglia abbia davvero un significato fisico.

Una rappresentazione bidimensionale della griglia spaziotemporale che ci immaginiamo nella nostra testa.

Il concetto di griglia ha però, come molti altri concetti, solo una natura strumentale. Spesso ci permette di capire ciò che stiamo facendo, ma non dovremmo dargli un significato ontologicamente maggiore di quello strumentale, o almeno questo è il suggerimento di Einstein e Rovelli.

Hai visto come il domandarci quale fosse la curvatura dello spaziotempo in uno specifico punto ci ha portato al paradosso che le equazioni di Einstein descrivono due cose diverse con due soluzioni che dicono in realtà la stessa cosa? Stavamo risolvendo un problema sbagliato, questo è l’errore a cui siamo condotti se non seguiamo il suggerimento.

Considera invece questa situazione: supponiamo che nel punto A si incrocino anche le traiettorie spaziotemporali di due particelle (cioè le loro geodetiche):

Le geodetiche delle particelle sono indicate con la linea tratteggiata blu.

Le coordinate con cui descriviamo il punto A adesso racchiudono non solo l’informazione sulla curvatura dello spazio tempo g_{\mu\nu}, ma anche l’informazione “si sono incrociate le geodetiche delle due particelle!“.
Anche le geodetiche dipendono dalle coordinate che utilizziamo, quindi se ora eseguiamo la stessa trasformazione di coordinate di prima, cioè mappiamo un punto nell’altro, dobbiamo spostare anche il punto di incontro delle geodetiche!

Come vedi ora sia la curvatura dello spaziotempo sia il punto di incontro delle geodetiche sono stati trasportati dal punto A al punto B. Supponiamo di voler rispondere, grazie alle equazioni di Einstein, alla seguente domanda:

“Com’è la curvatura dello spaziotempo nel punto in cui si incontrano le geodetiche delle due particelle?”

Questa domanda, a differenza di prima, è tutta un’altra questione: è ben posta ed ha una soluzione univoca data dalla soluzione delle equazioni di Einstein. Come puoi vedere, sia prima che dopo la trasformazione di coordinate esiste una curvatura nel punto di incontro delle due geodetiche. Lo spaziotempo è curvo nel punto in cui le due geodetiche si incontrano. Questa informazione non dipende da quali coordinate stiamo utilizzando. Quindi è questa la vera domanda da porsi in una situazione simile.

La Relatività Generale ci suggerisce che la griglia immaginaria ha molto meno significato fisico di quello che credevamo: ha poco senso fisico chiedersi quale sia il valore della curvatura dello spaziotempo in un suo specifico punto senza introdurre campi di materia o interazioni tra particelle che possano interagire in quel punto.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Uno spaziotempo senza materia e particelle non ha significato fisico, la realtà non è composta da spaziotempo e campi, ma da campi su campi, secondo Rovelli. Possiamo fare affermazioni fisicamente sensate solo nel momento in cui iniziamo a relazionare campi di materia con altri campi di materia (come l’incrocio delle due geodetiche visto nell’esempio).

Questo punto di vista capovolge ancora una volta il significato che attribuiamo alla Relatività Generale: non è che la gravità non esiste ed è solo lo spaziotempo a farci sembrare che ci sia, sono le interazioni con le particelle che danno un significato fisico allo spaziotempo. Lo spaziotempo emerge grazie alle particelle, e non il contrario. Per la gravità quantistica questa interpretazione è nettamente più favorevole in quanto il mediatore smette di essere indipendente dalla materia che interagisce (vedi lo schema fatto all’inizio).

Gli oggetti non sono immersi nello spazio. Gli oggetti costituiscono lo spazio. Come un matrimonio: non è che marito e moglie “percepiscono il matrimonio”, loro sono il matrimonio, lo costituiscono. […] Allo spazio non rimane nulla se togli tutte le cose che lo abitano. Lo spazio è costituito dalle cose.

Carlo Rovelli

Si nasconde forse qui il segreto per iniziare a conciliare gravità e meccanica quantistica?

Secondo me questo paradosso meriterebbe di essere illustrato maggiormente nei libri di testo introduttivi di Relatività Generale, perché nasconde il cuore concettuale della materia. Per questo motivo ho pensato di portare in superficie l’osservazione di Rovelli, uno dei pochi autori moderni che ha scelto di parlarne a un secolo di distanza.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Come la Relatività si intuisce meglio attraverso la geometria

Sono trascorsi quasi 117 anni da quando l’umanità ha capito che la nostra realtà è meglio descritta utilizzando una struttura concettuale che lega indissolubilmente spazio e tempo: lo spaziotempo.
Siamo cioè passati da una concezione tridimensionale della nostra realtà a una concezione quadridimensionale.

Infatti, anche se non sappiamo ancora cosa siano oggettivamente spazio e tempo e quindi ne possiamo avere solo un’interpretazione che ci aiuta comunque a fare previsioni molto precise sulla realtà, sappiamo per certo che non sono due entità distinte: spazio e tempo sono malleabili, e dal punto di vista di osservatori diversi possono anche mischiarsi tra loro.

Ritengo che oggi questo argomento debba essere divulgato con la stessa semplicità e chiarezza con cui nelle scuole divulghiamo tanti altri fatti scientifici. Infatti dopo quasi 117 anni non possiamo più catalogare la Relatività Ristretta come “fisica moderna”, proprio allo stesso modo in cui Einstein nel 1905 non si riferiva alla meccanica lagrangiana del 1790 con il nome di “fisica moderna”.

Il modo migliore per spiegare la nostra comprensione dello spaziotempo è quello di fare un passo indietro e studiare come la pensavamo qualche secolo fa.

I quattro numeri della nostra realtà

Un oggetto tridimensionale della nostra realtà.

La nostra intuizione sensoriale ci suggerisce che viviamo in uno spazio tridimensionale, infatti gli oggetti hanno una lunghezza, larghezza e altezza. Per descrivere un oggetto a un’altra persona senza fargli vedere una sua fotografia possiamo misurarlo e poi dirle quanto è lungo, largo e alto: tre numeri, niente di più e niente di meno, perché tre sono le dimensioni che percepiamo dello spazio attorno a noi.

Allo stesso modo, quando vogliamo descrivere i fenomeni che accadono intorno a noi dobbiamo essere in grado di dire dove si sono verificati e in che istante di tempo. Per capirsi tutti al volo sul “dove”, sono state inventate le mappe e i sistemi di coordinate che scandiscono lo spazio intorno a noi con dei numeri ben precisi, mentre per essere tutti d’accordo sul “quando” è stato inventato l’orologio, che scandisce con altri numeri ben precisi lo scorrere di una misteriosa entità che chiamiamo “tempo”.

Un evento è per definizione l’unione tra le tre informazioni spaziali sul “dove” e la singola informazione temporale sul “quando”. Quando diciamo “alle 15:06 di ieri si è rotto il vaso nella veranda di nonna” stiamo assegnando all’evento “Rottura del vaso” le coordinate geografiche “veranda di nonna” e la coordinata temporale “ora locale 15:06″. In totale sono quattro numeri: tre spaziali e uno temporale.

In totale un evento è descritto da quattro numeri: per seguire i fenomeni che accadono intorno a noi non possiamo usare meno di quattro numeri o rischieremmo di non farci comprendere dagli altri.

Lo spazio e il tempo prima del XX secolo

In passato i fisici si fecero guidare dall’intuizione e immaginarono spazio e tempo come due entità separate. Questo perché nulla nell’esperienza di tutti i giorni ci farebbe intuire il contrario. Per quei fisici, l’immagine mentale del “tempo” è proprio la stessa che intuiamo dalla vita di tutti i giorni:

La freccia del tempo.

Il tempo è una retta infinita che si estende dall’infinito passato fino all’infinito futuro, ma che ha un’unica orientazione: scorre solo verso il futuro.

Per i fisici del passato esisteva un’unica freccia del tempo universale: ogni evento dell’universo accadeva in un preciso istante di tempo su cui potenzialmente tutti possono concordare.

Vediamo la conseguenza del ragionamento di quei fisici. Supponiamo che una persona si metta d’accordo con un astronauta prima della sua partenza e che sincronizzino i propri telefoni in modo da far partire una suoneria ogni 8 ore per il resto della loro vita. In questo modo quando l’astronauta si troverà su Marte e sentirà la suoneria del proprio telefono, saprà che in quel preciso istante di tempo il suo amico sulla Terra avrà sentito la stessa suoneria. I due amici potranno quindi definire un istante chiamato “presente”, cioè una nozione di “adesso”.
Se non vedi nulla di strano in questa conseguenza, è perfettamente comprensibile! Siamo abituati a concepire il tempo in questo modo, cioè come un’entità universale che scorre allo stesso modo per tutti, e i fisici del passato non erano comunque scemi nonostante pensassero ciò!

Il moto di una pallina in una sola dimensione può in principio essere studiato con righello e cronometro.

Spazio e tempo non sarebbero comunque granché utili se non li facessimo “cooperare” per provare a fare delle previsioni sul mondo che ci circonda.
Per studiare il moto di una pallina su un tavolo potremmo ad esempio utilizzare un righello per tracciare la sua posizione, e un cronometro per tenere traccia del tempo che passa. Così facendo, finiamo per collezionare un insieme di eventi come “pallina nel punto 2.5 cm all’istante 1.51 s” o “pallina nel punto 4.7 cm all’istante 2.05 s” che messi in successione tra loro costituiscono la traiettoria della pallina.

Usiamo una sola coordinata spaziale per semplicità: il moto si svolge su una sola dimensione spaziale..

Se sei familiare con il concetto di piano cartesiano, possiamo scegliere di rappresentare gli eventi raccolti su di esso, solo che al posto di “y” mettiamo il tempo “t” trascorso. A differenza di un piano geometrico bidimensionale, abbiamo ora davanti un piano spaziotemporale (in gergo “1+1 dimensionale“, cioè una dimensione spaziale, che è la “x”, e una dimensione temporale):

Un diagramma spazio-tempo per il moto di una pallina.

Se collezionassimo tantissimi eventi per il moto della pallina e collegassimo tutti i puntini blu con una linea continua, troveremmo quella che è nota essere la traiettoria della pallina.
Se la pallina fosse ferma in ogni istante di tempo, la sua traiettoria nello spazio-tempo sarebbe la seguente

Il grafico spazio-tempo di una pallina ferma nel punto x=2.5 cm.

Questo perché la coordinata “x“, per definizione di “fermo”, non deve cambiare nel tempo. Il tempo scorre in verticale, e la posizione rimane fissa sul punto x=2.5 cm.
Un pallina che si muove con velocità costante avrebbe invece il seguente grafico:

A parità di intervallo di tempo passato, la pallina percorre sempre porzioni uguali di spazio: la velocità è allora costante.

Potremmo anche non limitarci al moto dei corpi e usare i diagrammi spaziotempo per raccogliere tutti gli eventi della nostra realtà!

Ad esempio tutti gli eventi dello spazio che avvengono allo stesso istante di tempo si ottengono tracciando la retta parallela all’asse “x”. Questa retta è detta “linea di simultaneità

Tutti gli eventi spaziali che avvengono all’istante “t=2 s” fanno parte della linea di simultaneità in arancione.

Scorrendo con il dito lungo la retta arancione, il tempo non cambia, è sempre fisso a “t=2 s”, mentre lo spazio cambia. Stiamo esplorando tutti i punti dello spazio che esistono nel medesimo istante di tempo.

Allo stesso modo possiamo raccogliere tutti gli eventi che avvengono nello stesso punto dello spazio tracciando la retta parallela all’asse “t”, come fatto nel caso della pallina ferma.

Il punto importante da capire però è che lo spaziotempo esiste indipendentemente dal nostro diagramma cartesiano. Il diagramma con cui scegliamo di catalogare gli eventi si chiama “sistema di riferimento” ed è totalmente arbitrario. Decido io quando far iniziare il conteggio del cronometro e decido io dov’è il punto di partenza in cui mettere lo zero del righello. Nonostante ciò, il moto della pallina avviene comunque in uno spaziotempo “invisibile”, e le coordinate che uso per descriverlo non sono altro che una mia personale interpretazione con cui posso fare delle previsioni.

L’evento nello spaziotempo esiste anche se non c’è nessun sistema di riferimento che lo descrive. Lo spaziotempo esiste indipendentemente dai sistemi di riferimento.

Proprio per questo motivo, la Fisica prevede che le sue leggi si mantengano vere indipendentemente dalle coordinate di chi le sta utilizzando. Non avrebbe proprio senso se la realtà dipendesse dal tipo di righello o cronometro che uso!

Le trasformazioni di Galileo

Galileo Galilei, l’ideatore del principio di relatività.

In particolare, come studiato da Galileo, le conclusioni degli esperimenti di Fisica devono essere identiche a seconda che siano studiate su un treno che si muove a velocità costante o che stia fermo rispetto alla stazione. Muoversi a velocità esattamente costante è comunque una cosa rara, concorderai sicuramente che capita spesso di sentirsi “tirati” in una direzione o in un’altra in un viaggio in macchina, o in treno quando frena o fa una curva. In quei frangenti il moto non è a velocità costante, ma trascurandoli possiamo dire che il resto del viaggio si svolge in maniera che se oscurassi i finestrini e mascherassi il suono del motore, non saresti in grado di dire se si è fermi o in movimento. Questa è l’idea di Galileo: il principio di relatività.

Se mettiamo tre persone di tre nazionalità diverse davanti a una mela su un tavolo, ciascuna delle tre persone dirà nella propria lingua “la mela è sul tavolo”. Il fatto che la mela stia sul tavolo è un dato di fatto che non può dipendere dalla particolare lingua che si utilizza per descriverlo.
Siccome l’obbiettivo degli umani è comunicare tra loro, deve esistere una traduzione da un linguaggio all’altro che mantenga intatto il fatto oggettivo che la mela è sul tavolo.

Allo stesso modo, sistemi di riferimento in moto relativo l’uno con l’altro devono poter concordare sui fenomeni che osservano con le proprie coordinate. Deve quindi esistere una traduzione da un set di coordinate all’altro che mantenga intatto il fatto oggettivo di ciò che si manifesta nello spaziotempo.

Se il moto relativo è a velocità costante, la traduzione linguistica è particolarmente semplice e lascia inalterati tutti i risultati della Fisica: si chiama trasformazione di Galileo.

Dati due osservatori che utilizzano due piani cartesiani diversi con coordinate diverse:

Se “v” è la velocità relativa, possiamo ottenere le coordinate di uno in funzione delle coordinate dell’altro con una trasformazione di Galileo:

Una trasformazione di Galileo.

Ovviamente abbiamo assunto che i due osservatori abbiano sincronizzato i propri orologi in un certo istante di tempo precedente, ecco perché le loro coordinate temporali sono identiche: T=t.

Con questa traduzione possiamo descrivere con le coordinate dell’osservatore 2 tutti gli eventi descritti in precedenza con le coordinate dell’osservatore 1.

Una cosa concettualmente molto utile per ciò che faremo dopo è rappresentare i due sistemi di riferimento nello stesso grafico. Rispetto all’osservatore 1, gli assi dell’osservatore 2 si ottengono impostando le loro equazioni T=0 e X=0. Infatti l’asse T è anche noto come “la retta verticale tale che X=0“. Quindi possiamo ricavare l’asse T nelle coordinate (x,t) sostituendo “0” al posto di “X

Nel diagramma spazio-tempo di prima avremo quindi

Una trasformazione di Galileo da coordinate (x,t) a coordinate (X,T).

La cosa più importante da notare è che rispetto all’osservatore di coordinate (x,t), l’asse T del secondo osservatore è geometricamente inclinato: questa inclinazione rappresenta il fatto che il secondo osservatore si sta muovendo rispetto al primo con una certa velocità.

Ora studiamo un po’ come questi osservatori interpretano lo spaziotempo intorno a loro. Le linee di simultaneità sono sempre rette parallele agli assi x e X per definizione:

I punti dello spazio simultanei tra loro secondo l’osservatore (X,T) sono simultanei anche per l’osservatore (x,t). Per verificare, scorri una retta arancione con il dito e verifica che non ti stai spostando né sulla coordinata t, né sulla coordinata T.

Le trasformazioni di Galileo non toccano la simultaneità: il tempo, nella concezione galileiana e newtoniana della fisica classica, è assoluto.

Ovviamente invece il discorso cambia se consideriamo gli eventi che avvengono in un unico punto nello spazio dell’osservatore in movimento. Magari l’osservatore 2 è in auto e sta segnando sul taccuino la posizione di un suo compagno di viaggio che è fermo rispetto a lui in ogni istante di tempo. Tuttavia dal nostro punto di vista in cui osserviamo l’autostrada da un casello, quel compagno di viaggio non è fermo!


Come abbiamo fatto prima, per ottenere le rette degli eventi che avvengono nello stesso punto dello spazio tracciamo le parallele all’asse T, quindi si avrà:

Le rette degli eventi che per l’osservatore (X,T) avvengono tutti in uno specifico punto del suo sistema di riferimento.

Come puoi notare, le rette non sono verticali anche per l’osservatore fermo (x,t), proprio perché dal suo punto di vista tutti quegli eventi che sono fissi nel sistema di riferimento (X,T) si muovono alla stessa velocità di questo. Infatti le rette hanno la stessa inclinazione dell’asse T, che rappresenta, come detto, il moto dell’osservatore 2.

Il tuo occhio potrebbe ora notare un fatto interessante: dal grafico sembra che l’intervallo temporale ∆T tra i due eventi (indicato in rosso), sia maggiore dell’intervallo temporale ∆t, quando invece sappiamo che nelle trasformazioni di Galileo deve essere rigorosamente:

L’intervallo di tempo tra due eventi è un numero su cui tutti gli osservatori connessi da una trasformazione di Galileo devono sempre concordare.

Questo è un dettaglio acutissimo e che potenzialmente potrebbe generare molta confusione. Non se ne parla spesso.

La verità è che quell’asse “T” ruotato non ha la stessa scala di lettura dell’asse originale, proprio per via della rotazione! Una volta tenuto conto di questo fattore di scala, troviamo che anche se visivamente le lunghezze indicate in rosso sembrano diverse, a conti fatti risultano uguali, come ci aspettiamo.

Una dimensione spaziale in più

Ora che abbiamo macinato un po’ di percorso, aggiungiamo una dimensione spaziale in più per divertimento. Assieme alla “x” consideriamo anche la “y” per ottenere il classico, beneamato piano euclideo.
Lo spazio-tempo ha ora dimensione 2+1 (due spaziali e una temporale), e può essere visualizzato nel modo seguente:

La rappresentazione di uno spazio bidimensionale nel tempo, descritta come una sovrapposizione di copie.

Concentriamoci però solo sul piano spaziale senza considerare il tempo, o se preferisci, congeliamo un singolo istante di tempo. Il piano euclideo è proprio quello che ci ha svezzato e ci ha introdotto alla geometria piana, è quel posto magico in cui l’ipotenusa di un triangolo rettangolo è data dal teorema di Pitagora:

Tutti concordano sul teorema di Pitagora, è un fatto matematico che è indipendente dal proprio stato di moto! Se le trasformazioni di Galileo fanno quel che promettono di fare, non dovrebbero mai e poi mai alterare la lunghezza dell’ipotenusa di un triangolo rettangolo! Ci aspettiamo che sia:

Le trasformazioni di Galileo lasciano invariata la geometria euclidea dello spazio.

Effettivamente è così, le trasformazioni di Galileo restituiscono il risultato corretto, lasciando intatto il teorema di Pitagora (non avrebbe proprio senso se dovesse dipendere dallo stato di moto!). Nel caso più semplice in cui il moto relativo è lungo l’asse x dell’osservatore 1 si ha:

Nota che il conto restituisce il risultato che ci aspettiamo solo se poniamo uguale a zero l’intervallo temporale “∆t” tra i due eventi spaziali che specificano i cateti del triangolo rettangolo! Questo passo è fondamentale, le lunghezze spaziali, nello spaziotempo, si calcolano per definizione a tempo fissato. Non avrebbe proprio senso dire “questo oggetto è lungo 3 cm tra gli istanti di tempo 1 e 10 secondi”: un osservatore è in grado di misurare una lunghezza spaziale nel proprio sistema di riferimento solo una volta che individua simultaneamente gli estremi dell’oggetto che vuole misurare.

Ora che abbiamo completato il riscaldamento con la relatività di Galileo, è il momento di passare al succo del discorso, ovvero il motivo per cui sei qui!

Ripensare il principio di relatività

Alla fine del XIX secolo ci si accorse che una serie di argomenti teorici e sperimentali rendevano incompatibili le leggi dell’elettromagnetismo con il principio di relatività, o meglio, con il principio di relatività mediato dalle trasformazioni di Galileo. Siccome l’elettromagnetismo era fondato su radici sperimentali solidissime, e si presumeva che il principio di relatività fosse un qualcosa di irrinunciabile per la Fisica, si spalancarono due possibilità:

  • 1) La teoria dell’elettromagnetismo è falsa e bisogna trovarne una migliore, che sia compatibile con Galileo. Il principio di relatività è irrinunciabile.
  • 2) La teoria dell’elettromagnetismo è vera. Il principio di relatività può essere abbandonato.

Fu quel giovanotto di Einstein a trovare il mix perfetto tra queste due soluzioni molto drastiche, la cosiddetta terza via:

  • 3): La teoria dell’elettromagnetismo è vera. Il principio di relatività è irrinunciabile. Le trasformazioni di Galileo però non sono le trasformazioni corrette per applicare il principio di relatività.

Einstein notò che le trasformazioni di coordinate che lasciavano invariate le leggi dell’elettromagnetismo non erano quelle di Galileo, ma le trasformazioni di Lorentz:

“c” è la velocità della luce: 300.000 km/s. È evidenziato il fattore gamma.

Queste bestiole non sono altro che le trasformazioni di Galileo con un po’ di accorgimenti in più: ad esempio compare a moltiplicare il “fattore gamma: γ” che contiene il rapporto tra la velocità relativa dei due osservatori e la velocità della luce al quadrato. La velocità della luce compare per due motivi, uno storico e uno concettuale:

  • 1): Queste trasformazioni furono trovate tra quelle possibili che lasciavano invariate le leggi elettromagnetiche tra osservatori in moto a velocità costante. Siccome la luce è un’onda elettromagnetica che si propaga nel vuoto con velocità “c”, questa compare direttamente nelle trasformazioni come fattore costante per far sì che l’equazione dell’onda rimanga appunto invariata, come vuole il principio di relatività.
  • 2): Studiando le conseguenze di queste trasformazioni si scoprì che facevano una predizione insolita: la velocità della luce è un vero e proprio limite di velocità: nessuno può raggiungerla e nessuno può superarla. È una conseguenza matematica di queste trasformazioni. (Si nota già dal fatto che il fattore gammaγ” esplode se poniamo la velocità relativa “v” uguale a “c”. Non si può dividere per zero!).
    Come tutti i limiti di velocità, deve essere uguale per ogni “automobilista”: la velocità della luce è una costante che ha lo stesso valore numerico per tutti gli osservatori che si muovono di moto relativo a velocità costante. Questo è anche un fatto rigorosamente verificato sperimentalmente.

Senza soffermarci troppo sulla matematica di queste trasformazioni, osserviamo che la prima differenza importante con quelle di Galileo è il fatto che la coordinata temporale dell’osservatore in moto relativo è ottenuta mischiando coordinate temporali e spaziali dell’osservatore iniziale!

A differenza di Galileo, non è semplicemente “T=t”, ma compare prepotentemente anche lo spazio con la coordinata “x”!


Questo fatto è assolutamente inedito, e dà i natali a una interpretazione completamente rivoluzionaria del concetto di spaziotempo!

Il tempo non è più assoluto e uguale per tutti, ma è una cosa personale per ogni osservatore dell’universo, così come sono personali le proprie coordinate spaziali. L’importante poi è riuscire a tradurre da una lingua all’altra per mettersi tutti d’accordo, ma a questo ci pensano proprio le trasformazioni di Lorentz.

Il problema dell’elettromagnetismo ci ha aiutato a capire che sono in realtà le trasformazioni di Lorentz quelle corrette da introdurre quando si parla di principio di relatività. Le trasformazioni di Lorentz si riducono a quelle di Galileo nel limite in cui la velocità relativa “v” è molto inferiore alla velocità della luce “c” (cosa che ci riguarda in particolar modo, dato che nulla nel nostro mondo viaggia a velocità prossime a 300.000 km/s, eccezion fatta per la luce e alcune particelle subatomiche).

Lo spaziotempo di Minkowski

Ricordi la questione del teorema di Pitagora discussa poco fa? Le trasformazioni di Galileo vanno molto d’accordo con la geometria euclidea dello spazio. Anche le trasformazioni di Lorentz ci vanno d’accordo, ma concentrarsi solo sulla parte spaziale è riduttivo. Si trovò che esiste una nuova quantità spaziotemporale che è lasciata invariata dalle trasformazioni di Lorentz! Tenendoci sempre in dimensioni 2+1, questa quantità è la seguente:

L’intervallo spaziotemporale lasciato invariato

Cioè se prendiamo due eventi separati da una distanza spaziale e da una distanza temporale, la quantità costruita in questo modo assume lo stesso valore per tutti gli osservatori che si muovono con velocità costante:

Questo fatto ci fa capire quanto fosse poco casuale che tempo e spazio si mischiassero nelle trasformazioni di Lorentz. Tempo e spazio si mischiano per un motivo ben preciso: fanno parte di un costrutto più grande dello spazio, lo spaziotempo! In questo spaziotempo la velocità della luce gioca un ruolo così importante da comparire addirittura nella “versione estesa del teorema di Pitagora spaziotemporale”.

L’insegnamento che ne possiamo trarre è il seguente: se lo moltiplichiamo per la velocità della luce, il tempo diventa a tutti gli effetti una nuova dimensione spaziale.

Viviamo quindi in una realtà a quattro dimensioni: tre dimensioni spaziali e una dimensione temporale. A differenza di come la pensavano qualche secolo fa, la dimensione temporale è in grado di mischiarsi con le informazioni spaziali tramite le trasformazioni di Lorentz.

Il teorema di Pitagora spaziotemporale è però particolarmente speciale, perché non possiamo ignorare che il termine temporale presenta un segno negativo!

Tempo e spazio non sono trattati allo stesso modo, c’è un segno meno di differenza!

Cambia proprio il concetto di geometria: la geometria dello spaziotempo non è più euclidea! Hai mai visto un teorema di Pitagora con una differenza al posto di una somma?
È la somma dei quadrati a rendere euclidea la geometria spaziale del teorema di Pitagora.

D’altra parte la geometria dello spaziotempo si dice essere “pseudo-euclidea“. Questo nome potrà essere figo da pronunciare, ma non dice nulla di troppo rilevante per i nostri scopi.

Una cosa ben più rilevante da esplorare invece è il diagramma spaziotempo (detto “di Minkoswki“).
Ricordi i diagrammi che abbiamo studiato nel caso di spazio-tempo classici? Quello spazio-tempo era particolarmente noioso in quanto tempo e spazio non erano in alcun modo connessi reciprocamente da trasformazioni di coordinate rilevanti per la Fisica. Ora si son mischiate un po’ le carte, quindi vediamo cosa bolle in pentola.

Consideriamo di nuovo due osservatori in moto relativo l’uno rispetto all’altro con velocità costante, ed esattamente come prima rappresentiamo i loro sistemi di riferimento in un unico grafico spaziotempo.

Per fare ciò dobbiamo trovare le equazioni degli assi T e X del secondo osservatore in funzione delle coordinate del primo! Con un procedimento identico a prima troviamo le seguenti rette:

Il risultato del mixing tra coordinate spaziali e temporali cambia completamente le regole del gioco: nel caso di Galileo avevamo che solo l’asse temporale dell’osservatore appariva ruotato nello spazio-tempo dell’osservatore fermo. Ora abbiamo una rotazione di entrambi gli assi!

Un diagramma di Minkowski.
Nota che gli assi temporali sono moltiplicati per la velocità della luce.
Come suggeritoci dal “teorema di Pitagora dello spaziotempo”, la dimensione temporale deve comparire moltiplicata per la velocità della luce.

Questo fatto ha delle implicazioni senza precedenti, perché se ora andiamo a chiederci, come fatto prima, quali siano le rette di simultaneità per l’osservatore in movimento, dovremo tracciare nuovamente la parallela all’asse X:

Eventi che giacciono sulle rette di simultaneità, come si vede, sono separati da un intervallo temporale ∆t non nullo per l’altro osservatore.

Il fatto che le rette di simultaneità non siano parallele all’asse “x” del primo osservatore implica che:

Eventi simultanei per un osservatore in moto possono non essere simultanei per un altro osservatore

La simultaneità di due eventi è relativa a chi osserva gli eventi! Se io osservo due eventi A e B accadere allo stesso istante di tempo sul mio orologio, un osservatore che si muove rispetto a me potrebbe veder succedere A prima o dopo B.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questo fatto dipende dalla velocità della luce: la velocità della luce è una costante per tutti gli osservatori, e siccome le informazioni sugli eventi possono arrivarci al massimo alla velocità della luce (noi “vediamo” il mondo intorno a noi proprio grazie alla luce) l’unico modo in cui il moto relativo dell’osservatore riesce a non influenzare questi due fatti è proprio mettendo mano alla coordinata temporale.
Concettualmente, è come se la coordinata temporale si fosse “sacrificata” per preservare la velocità della luce.

Ricordi quegli astronauti che sincronizzavano i loro telefoni, convinti di poter definire un unico istante comune di “simultaneità” anche se distanti? Nel contesto dello spaziotempo di Minkowski ha poco senso: non esiste una retta di simultaneità degli eventi comune a tutti gli osservatori!

Se pensi che ciò sia la cosa più strabiliante di tutta questa faccenda, ti consiglio di continuare a leggere la prossima!

Dilatazione temporale

Consideriamo un evento che avviene in una singola posizione spaziale per l’osservatore in moto, e che la durata da lui registrata sia ∆T. Indicando con dei pallini il momento iniziale e il momento finale dell’evento, questi giace sulla retta degli eventi che avvengono in quella posizione, che ricordiamo, si ottiene tracciando la parallela all’asse T.

La durata ∆T dell’evento è indicata dalla striscia rossa sull’asse T. Come si vede graficamente, la durata dell’evento è indicata in rosso anche dal punto di vista dell’osservatore fermo. Secondo le trasformazioni di Galileo avremmo dovuto avere “∆T=∆t“: cioè la durata temporale dell’evento deve essere una cosa su cui è possibile concordare indipendentemente dal proprio stato di moto.

La trasformazione di Lorentz per la coordinata temporale ha tutta l’aria di promettere un po’ meno. Anzi, promette discordia tra gli osservatori a seconda del loro stato di moto.

Quanto è durato lo stesso evento secondo l’osservatore fermo? Per scoprirlo facciamo ricorso al teorema di Pitagora pseudo-euclideo, ovvero l’unica quantità su cui i due osservatori possono concordare di certo.
Consideriamo un’unica dimensione spaziale e ipotizziamo che il moto relativo si svolga sull’asse “x” del primo osservatore.
Per l’osservatore in moto l’evento avviene in un unico punto dello spazio, cioè la sua posizione non cambia, quindi si ha ∆X=0.:

Qui stiamo indicando con ∆t e ∆x la durata e la variazione in posizione dell’evento dal punto di vista dell’osservatore fermo, il quale evidentemente vedrà l’evento muoversi alla stessa velocità dell’osservatore in moto. Non ci resta che eguagliare le due espressioni per l’invarianza di Lorentz citata prima:

Abbiamo l’obbiettivo di isolare ∆t per capire quanto dura l’evento dal punto di vista dell’osservatore fermo. A tale scopo raccogliamo

Siccome l’evento in questione si sposta alla stessa velocità dell’osservatore in moto, chiamiamo proprio “v” il rapporto tra spazio percorso e l’intervallo di durata, dove “v” è proprio la velocità relativa dell’osservatore in moto. A questo punto ricaviamo ∆t dividendo tutto per quella quantità e calcolando la radice quadrata di entrambi i membri

E questa è una delle formule più famose nella storia della Fisica: la dilatazione temporale. La durata di un evento dal punto di vista di un osservatore che vede l’evento muoversi rispetto a lui è sempre maggiore della durata calcolata nel sistema di riferimento solidale a dove l’evento è avvenuto. Perché maggiore? Proprio perché ∆T, qualunque esso sia, è diviso per una quantità che è sempre minore di 1, quindi questa divisione produce un numero più grande di ∆T.

È questa forse la conseguenza più difficile da accettare sullo spaziotempo della nostra realtà, nonostante sia stata verificata sperimentalmente innumerevoli volte nell’ultimo secolo. La durata temporale degli eventi dipende dallo stato di moto dell’osservatore. Lo spaziotempo di Minkowski non è solo un’utile rappresentazione di quello che succede quando usiamo le trasformazioni di Lorentz, ma anche un’ottima intuizione su quale sia la vera natura della nostra realtà.

Ok forse questo è stato più un capitolo di un libro piuttosto che un articolo del blog, ma volevo essere davvero sicuro che ogni pezzo del puzzle del ragionamento cascasse al posto giusto. In futuro parlerò ancora di spaziotempo, quindi userò questo articolo come utile referenza per chi ne avesse bisogno.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei Neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Demistificando il Principio di Heisenberg

Il principio di indeterminazione di Heisenberg è considerato l’essenza della meccanica quantistica. Per questo motivo è uno degli argomenti più chiacchierati a livello divulgativo. Persino l’enunciato è celebre:

È impossibile misurare con precisione arbitraria la quantità di moto e al contempo la posizione di una particella

Enunciato del principio di Heisenberg

Anche la versione matematica dell’enunciato è piuttosto celebre: se indichiamo con “∆x” e “∆p” le incertezze sulla posizione e sulla quantità di moto, vale la disuguaglianza

Se rendiamo piccolo “∆p“, cioè se riduciamo l’incertezza sulla quantità di moto, per far valere ancora la disuguaglianza dobbiamo aumentare “∆x“.
ℏ è la costante di Planck divisa per 2π.

Negli anni ho notato alcune imprecisioni concettuali nelle analisi di questo principio, per cui ho deciso di rifletterci un po’ e dare il mio contributo. Ho trovato che il modo migliore per demistificarlo è il seguente:

Il principio di indeterminazione può essere compreso matematicamente una volta accettati i postulati della meccanica quantistica, tramite l’analisi di Fourier.

Lo scopo di questo articolo è quello di aiutarti ad apprezzare come la matematica della meccanica quantistica ci faccia comprendere meglio il principio di indeterminazione.

Non preoccuparti, non è una matematica di alto livello, useremo al massimo le funzioni trigonometriche (seni e coseni), e magari qualche integrale. È davvero tutto ciò che serve per apprezzare il discorso.

Teoria ed esperimento

Quando si costruisce una teoria fisica si cercano delle strutture concettuali che siano in grado di produrre dei risultati misurabili e in grado di giustificare i dati sperimentali. La meccanica quantistica è l’unica teoria in grado di spiegare accuratamente i risultati sperimentali dei fenomeni atomici, e ogni struttura concettuale della teoria ci aiuta a comprendere anche i risultati stessi, grazie alla matematica.

Ogni teoria presuppone dei postulati fondamentali (essenzialmente delle proposizioni che vengono assunte vere, senza necessità di dimostrazione). Ciò che ci servirà oggi è il postulato di De Broglie della meccanica quantistica. Infatti, una volta accettato questo postulato, la matematica parlerà da sola e ci aiuterà a capire il principio di Heisenberg.

“Scusa, ma non è un ragionamento circolare? Se devo accettare acriticamente un postulato, allora è possibile dimostrare tutto e il contrario di tutto. Io mi aspettavo che mi illustrassi il motivo metafisico per il quale non posso misurare contemporaneamente impulso e posizione di una particella!"

Il punto è che la Scienza funziona proprio così, dobbiamo accettare dei postulati se vogliamo fare delle previsioni verificabili. Se le previsioni sono verificate, allora la teoria può essere utilizzata anche come guida matematica alla comprensione dei risultati stessi. Funziona così da sempre. Senza la matematica saremmo scientificamente analfabeti.

Lo schema gerarchico per teoria ed esperimenti.

Uno dei postulati fondamentali della meccanica quantistica è quello di De Broglie: “le particelle sono descritte da funzioni d’onda ψ(x,t) dipendenti da tempo e spazio“, il cui modulo al quadrato rappresenta la densità di probabilità di trovare la particella in un certo punto dello spazio.

La teoria delle onde

La parola fondamentale su cui devi concentrarti è “funzione d’onda“. L’utilizzo di questa parola ha delle conseguenze molto pesanti, perché le onde hanno un comportamento speciale.
Nei prossimi paragrafi ti aspetta una carrellata di nozioni matematiche, ma ti assicuro che sono tutte essenziali per apprezzare meglio il principio di Heisenberg. Dagli una chance, ripaga bene!

Le onde sono perturbazioni nello spazio e nel tempo che possono essere più o meno regolari nella loro forma. Le “onde semplici” sono caratterizzate da una certa ampiezza e una frequenza di oscillazione costanti nel tempo, e ci piace chiamarle onde sinusoidali. Non tutte le onde sono semplici! Le sinusoidi sono matematicamente semplici da descrivere (probabilmente hai già incontrato seni e coseni da qualche parte), ma il mondo reale ha ben poco a che fare con le onde semplici. Purtroppo, la maggior parte dei segnali oscillanti nel tempo sono molto complessi:

Un’onda sinusoidale è caratterizzata dal fatto che la sua ampiezza e la sua frequenza non cambiano nel tempo, restano inalterate, preservando la forma ondulatoria.

Quindi non abbiamo speranza di descrivere matematicamente delle funzioni d’onda molto complesse? Fortunatamente entra in gioco uno dei risultati che a me piace definire come una delle pietre miliari nella storia della Scienza:

Qualsiasi segnale nel tempo può essere costruito sovrapponendo delle onde sinusoidali

È un po’ come se le onde sinusoidali fossero gli atomi elementari della teoria dei segnali: così come i corpi complessi sono composti da più atomi, i segnali complessi sono composti da onde sinusoidali.

In una notazione abbastanza simbolica e approssimativa, l’idea è la seguente: per ottenere il segnale desiderato basta sommare tante onde sinusoidali, pesate ciascuna con un certo coefficiente detto “di Fourier” (il quale dipenderà dal particolare segnale):

Cosa significa “sovrapporre onde sinusoidali”?

Qui entra in gioco la cara vecchia trigonometria. Un “atomo di segnale”, cioè un’onda sinusoidale, ha la seguente struttura:

Un’oscillazione dipendente dal tempo, y(t), è caratterizzata da una certa ampiezza “A” e da una certa frequenza “f“.

La magia si manifesta quando sommiamo due onde sinusoidali di ampiezze e frequenze diverse. Consideriamo ad esempio la somma delle seguenti onde:

Due sinusoidi, la prima di frequenza f=1 Hz, e la seconda di frequenza f=3/2 Hz. La seconda ha anche un’ampiezza doppia della prima.

Il risultato è il seguente: l’onda risultante dalla somma non è più un’onda semplice!

La somma di due onde semplici non è più un’onda semplice.

La spiegazione è puramente geometrica, ed è riassunta nelle formule di prostaferesi che si imparano a scuola. Infatti in generale:

L’applicazione delle formule di composizione di seni e coseni ci fa capire cosa succede quando sommiamo delle sinusoidi.

Lo so, non è molto carina da vedere, infatti non preoccuparti di leggerla tutta, è solo una giustificazione del perché la somma di due sinusoidi non è sempre una sinusoide: quei prodotti di seni modificano l’ampiezza dell’onda risultante nel tempo!

Alla fine questo è un concetto che caratterizza la vita di tutti giorni: anche una nota di un violino è una sovrapposizione di armoniche (onde sinusoidali di diverse frequenze), delle quali sentiamo maggiormente la dominante.

L’analisi di Fourier

Quel segnale complicato che abbiamo ottenuto sopra potrebbe sembrare irrilevante per il nostro discorso: sapendo quali sono gli atomi di partenza, è piuttosto facile costruire il segnale più complicato.
Il divertimento inizia quando decidiamo di invertire il problema di prima:

Dato un segnale complicato, è possibile capire la sua composizione in onde sinusoidali?

Questa è la domanda a cui vuole rispondere l’analisi di Fourier.

L’analisi di Fourier ci dice che esiste un altro modo di osservare un segnale. Quello che abbiamo illustrato prima è l’analisi temporale: cioè osserviamo il profilo dell’onda in funzione del tempo.

Ma l’analisi nel tempo è solo uno dei due modi. Possiamo anche studiare il segnale risultante andando a cercare le frequenze principali che lo costituiscono: stiamo facendo una radiografia del segnale per capire di quali atomi elementari è composto!

La descrizione temporale e la descrizione in frequenza sono due modi diversi di osservare lo stesso segnale, e il passaggio da una descrizione all’altra è garantito da un’operazione chiamata trasformata di Fourier.
Come illustrato nella figura, la trasformata di Fourier prende in pasto una funzione nel tempo e restituisce una nuova funzione, stavolta nella frequenza:

L’espressione matematica è la seguente:

L’integrale contiene l’unità immaginaria “i” nell’esponenziale.

Se non hai mai visto un integrale non lasciarti intimorire: questi simboli sono solo un modo intimidatorio per esprimere che stiamo sommando infiniti prodotti tra sinusoidi e il segnale in input “h(t)”. Le sinusoidi sono nascoste nell’esponenziale tramite la relazione di Eulero

La relazione di Eulero che lega l’esponenziale complesso con le funzioni trigonometriche.

Se questa relazione ti crea disagio fai finta che non ci sia. L’ho tirata fuori solo per dimostrarti che sono coinvolti, come promesso, dei seni e dei coseni. Queste sinusoidi vanno a moltiplicare il segnale in input “h(t)” in ogni istante di tempo, e la somma infinita produce una distribuzione del segnale nella frequenza “f“.
Ovviamente se partiamo dalla distribuzione in frequenza, esiste anche un’anti-trasformata di Fourier che ci riporta alla funzione nel tempo. Il cerchio si chiude.

Un esempio

Per dimostrarti che la trasformata di Fourier fa quanto promesso, consideriamo la somma delle sinusoidi che ti ho proposto prima.

Il segnale risultante, come abbiamo visto graficamente, non è una sinusoide semplice:

In blu e rosso le sinusoidi costituenti, in verde il segnale risultante.

Tiriamo fuori il problema inverso:
Supponiamo ora che qualcuno ci dia solo il segnale risultante come input e ci chieda di capire di quali “atomi sinusoidali” è composto. Questo è un lavoro per la trasformata di Fourier!

Il risultato è il seguente grafico nelle frequenze:

Cosa sono questi due picchi intimidatori? È il risultato di quell’integrale altrettanto intimidatorio. Osserva dove sono collocati i picchi: il primo picco è a “f=1” e il secondo picco a “f=3/2“. Quali erano le frequenze delle due sinusoidi iniziali? Esattamente “f1=1 Hz” e “f2=3/2 Hz”.

Questi due “picchi” ci stanno dicendo:
“Ehi, con la trasformata ho individuato due grosse frequenze costituenti, cioè il segnale che mi hai dato in pasto era costituito da due sinusoidi elementari di frequenze “f1=1 Hz” e “f2=3/2 Hz”.

Ovviamente noi sapevamo già che il segnale era composto da queste due sinusoidi, quindi il risultato non ci sorprende. Semmai ci rassicura su una cosa: la trasformata di Fourier funziona, ed è un ottimo modo per analizzare le componenti delle onde che usiamo nella Fisica.

Il cuore del principio di indeterminazione: gli spazi duali

Veniamo ora alla questione centrale. Voglio che noti una particolarità interessante della trasformata di Fourier. Supponiamo di dilatare la variabile temporale del segnale in input, cioè

Se b>1, è una dilatazione del tempo, se b<1 è una contrazione.

Questa è un’operazione matematica che ho scelto di fare: voglio modificare temporalmente il segnale in ingresso tramite una certa costante “b”. Che succede al segnale in frequenza? Per saperlo dobbiamo fare la trasformata di Fourier e fare un cambio di variabile:

Che è successo? Tra il passaggio (1) e il passaggio (2) ho cambiato variabile per ricondurmi alla forma standard della trasformata di Fourier. Questo passaggio ha generato il termine 1/b moltiplicativo, e mi ha portato a definire una nuova frequenza “f’=f/b” nel passaggio (3). Nel passaggio (3) abbiamo tra le mani la definizione di trasformata di Fourier del segnale con il tempo dilatato. Rispetto alla funzione in frequenza di prima, ora si ha:

Il risultato della dilatazione temporale sulla controparte in frequenza.

Quel “f/b” è davvero il succo del discorso, perché stiamo dividendo la variabile frequenza per un numero “b“. Se b>1, cioè se dilatiamo il tempo, otteniamo un restringimento delle frequenze. Viceversa, se b<1 cioè se contraiamo il tempo, otteniamo una dilatazione delle frequenze.
Il dominio temporale e il dominio delle frequenze si chiamano in gergo “spazi duali” , proprio perché hanno questo comportamento. Tempo e frequenza sono “variabili duali”.
A livello intuitivo potevamo aspettarcelo anche senza fare macello, basta ricordarsi che per definizione

cioè la frequenza è l’inverso del periodo di oscillazione, per cui se dilatiamo una delle due, l’altra si restringe.

Se restringiamo la durata del segnale, aumentiamo il suo contenuto in frequenza. Viceversa se estendiamo la durata del segnale, diminuiamo il suo contenuto in frequenza.

Possiamo spiegare questo comportamento intuitivamente:

  • Per creare un segnale corto nel tempo sono necessarie tantissime onde elementari per cancellare l’ampiezza di oscillazione al di fuori dell’intervallo di durata del segnale. Maggiore è il numero di onde elementari di varie frequenze che costituiscono il segnale, maggiore sarà il contenuto in frequenza del grafico della trasformata.

Per fare un esempio concreto, consideriamo il segnale in figura, che è quanto di meno sinusoidale si possa chiedere: un gradino di segnale tra i tempi t=-T e t=+T e zero altrove

La sua trasformata di Fourier nel dominio delle frequenze è illustrata sotto.
Ho assemblato diversi casi di durata del segnale da T=0.1 s a T=5 s per evidenziare l’effetto della dilatazione della durata temporale sul dominio delle frequenze. Per un segnale molto corto vengono coinvolte tantissime frequenze (quindi il grafico della trasformata è praticamente quasi piatto, vedi il caso T = 0.1 s).

La trasformata di Fourier di un segnale di durata 2T. Al crescere della durata del segnale, la controparte in frequenza si comprime.

L’analisi di Fourier sugli spazi duali apre le porte a una miriade di teoremi che portano a dimostrare le cosiddette “relazioni di incertezza“. In particolare ogni coppia di variabili duali è caratterizzata da una relazione di incertezza. Nel caso di tempo e frequenza abbiamo:

Questa è esattamente la forma matematica assunta dal principio di Heisenberg! Il prossimo passo sarà quindi tradurre quanto abbiamo appena detto nel regime di posizione “x” e quantità di moto “p“.

Posizione e impulso: altre variabili duali

Una volta accettato il postulato che le particelle sono descritte da una funzione d’onda spaziale, non è difficile accettare che la quantità di moto di una particella abbia qualcosa a che fare con la frequenza. Ce lo disse De Broglie! Ad esempio anche la luce (che è un’onda elettromagnetica) trasporta una quantità di moto, e per De Broglie questa quantità è data da:

“c” è la velocità della luce. La quantità di moto dell’onda è proporzionale alla frequenza dell’onda.

In generale a una particella non è assegnata una quantità di moto precisa, ma una distribuzione di quantità di moto, che vanno a comporre un certo “pacchetto d’onda”. Anche questa è una conseguenza del postulato fondamentale: la posizione della particella non è assegnata in ogni momento, ma è distribuita tramite la funzione d’onda della posizione. I picchi della funzione d’onda corrispondono ai punti dello spazio in cui è più probabile rivelare la particella:

Una generica funzione d’onda quantistica. I “picchi” sono punti in cui è più probabile trovare la particella. I punti in cui Ψ(x)=0 sono punti in cui la probabilità di trovare la particella è nulla.

Per rafforzare l’analogia con quanto discusso all’inizio ti basta realizzare che, come ogni onda, anche la funzione d’onda Ψ(x) è costituita da numerosi “atomi elementari” sinusoidali.

Siccome ora parliamo di particelle massive cambierà solo il linguaggio: ciò che prima era frequenza ora diventa quantità di moto, e ciò che prima era il tempo ora diventa lo spazio:

Il passaggio dalle onde sinusoidali nel tempo alle sinusoidi della meccanica quantistica.

È proprio ora che tutto inizia a fare “clic”. Basta tenere a mente questi due passaggi fondamentali:

  • 1) I picchi della funzione d’onda corrispondono ai punti dello spazio in cui è più probabile rivelare la particella.
  • 2) Per ottenere un picco della funzione d’onda è necessario sommare tante sinusoidi di “frequenze” diverse (cioè tante quantità di moto “p” diverse), come illustrato nell’animazione seguente:
Aggiungiamo tante sinusoidi di quantità di moto diverse per ottenere una funzione d’onda sempre più “piccata” in un certo punto dello spazio.

Questa animazione sta esattamente alla base del principio di indeterminazione: per ottenere la massima probabilità di trovare la particella in un punto (quindi rivelarla con precisione) è necessario che la sua quantità di moto diventi una sovrapposizione di numerosissime quantità di moto (che quindi si misurerà meno precisamente). È poco intuitivo? Le onde funzionano proprio così, non sono nate per soddisfare la nostra intuizione!

Analogamente a quanto discusso per i segnali nel tempo, la funzione d’onda della posizione può essere analizzata sia nel dominio dello spazio (dandoci informazioni sulla probabilità di trovare la particella nello spazio), sia nel dominio delle quantità di moto (dandoci informazioni su quale sia la probabilità di trovare la particella in un certo stato dinamico).

Il messaggio da portare a casa è questo:

La quantità di moto gioca lo stesso ruolo della frequenza, e la posizione gioca lo stesso ruolo del tempo: sono anche loro variabili duali.

La trasformata di Fourier della funzione d’onda Ψ(x) è una funzione dell’impulso ed è data da:

A parte l’integrale intimidatorio, la relazione che devi tenere a mente è la seguente:

Il principio di indeterminazione di Heisenberg è racchiuso nella definizione di trasformata di Fourier: se estendiamo la funzione d’onda nello spazio, stiamo restringendo la funzione d’onda nella quantità di moto: per descrivere una particella la cui funzione d’onda ha un’estensione infinita è sufficiente una sola quantità di moto, mentre per descrivere una particella la cui funzione d’onda ha un’estensione limitata, sono necessarie più sinusoidi diverse per cancellare i contributi nella regione in cui la funzione d’onda non esiste.
Se dilatiamo la variabile spaziale, l’effetto sulla trasformata nello spazio degli impulsi è:

Come ti accorgerai facendo avanti e indietro su questa pagina, il discorso è esattamente analogo al caso della frequenza-tempo. Anche qui i teoremi sull’analisi di Fourier determineranno quindi la famosa relazione:

Il principio di indeterminazione di Heisenberg
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Intuizione fisica

Il fatto che le variabili posizione e quantità di moto siano duali e rispettino un principio di indeterminazione è un limite invalicabile della natura. Non dipende dal fatto che la nostra strumentazione non è adeguatamente precisa.

Di certo è vero il fatto che se vogliamo seguire la traiettoria di una particella quantistica è necessario perturbare il suo moto (se voglio tracciare un elettrone devo ad esempio illuminarlo, ma nel fare ciò trasferisco quantità di moto sotto forma di radiazione luminosa, perturbando la misura), ma il motivo del principio di indeterminazione rimane insito nella natura degli oggetti quantistici, e il postulato sulla funzione d’onda di De Broglie ci aiuta a capirlo matematicamente.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Cosa possiamo imparare dal diario degli appunti di Feynman

Richard P. Feynman (1918-1988)

Fin da quando ho iniziato il mio percorso nella Fisica sono stato affascinato tanto dalla materia quanto dalle personalità che l’hanno costruita. Anzi, ripensandoci devo ammettere che traevo ispirazione dalle azioni quotidiane, dalle abitudini o dai modi di ragionare dei grandi fisici del passato. Non che volessi “emularli” , semplicemente li ammiravo così tanto da voler portare dei pezzi di loro dentro di me, per sentirli più vicini, per guidarmi nelle decisioni e nella motivazione.

Una parte che trovo estremamente interessante della storia di ogni fisico è il suo metodo di studio, e non di quando era già grande e formato, ma di quando era giusto agli inizi.

Un filo conduttore che ho notato è il seguente: per capire a fondo una materia, devi farla tua. Per fare ciò servono due step fondamentali:

  • Bisogna essere autodidatti per una buona percentuale del tempo. Il professore ha il ruolo di mostrare la via più proficua e fornire gli schemi per aiutarti a non perderti, il resto devi coltivarlo da solo usando dei libri adeguati allo scopo.
  • Dopo aver letto il libro devi estrapolare le tue visioni e i tuoi schemi per poi riorganizzarli come preferisci in forma scritta, su diari o quadernini personali.
Il diario di Feynman: “The Calculus”, in italiano “Il calcolo infinitesimale”.

Uno dei più grandi che seguiva questo metodo era Richard Feynman, celebre fisico teorico americano (Nobel 1965). Ne sono venuto a conoscenza perché sono incappato di recente in un articolo di Physics Today in cui è stato riesumato da un archivio il “diario degli appunti” di quando Feynman decise di imparare il calcolo infinitesimale da autodidatta quando era ancora al liceo.

Il giovane Feynman decise che il curriculum di matematica liceale (che arrivava a stento alla trigonometria) non era abbastanza per chi volesse iniziare ad interessarsi di Fisica. Per sua fortuna il matematico Edgar Thompson decise di scrivere una serie di libri con l’intento di rendere più accessibili alcune tecniche matematiche che all’epoca erano ancora trattate in maniera piuttosto “aulica”. Feynman trovò particolarmente utile il libro di Thompson “Il calcolo infinitesimale reso facile” del 1923, su cui decise di basare tutta la sua preparazione (introduttiva) alla matematica universitaria.

Trovo giusto rimarcare un attimo l’importanza dell’opera di personaggi come Thompson: se Feynman non avesse potuto sviluppare da solo certe attitudini grazie a libri così accessibili, avrebbe magari avuto più dubbi nel suo percorso, e chissà magari non avremmo mai sentito parlare dei “diagrammi di Feynman”.

Cosa possiamo imparare?

Ci sono poche immagini condivise in rete sul diario di Feynman. Tuttavia da quel poco che abbiamo possiamo comunque trarre alcuni spunti interessanti, oltre ad evidenziare alcuni tratti fondamentali che per Feynman diventeranno caratteristici del suo metodo di lavoro.

L’importanza della schematicitià

La cosa che mi ha sorpreso di più di questo diario è anzitutto la presenza di un indice.

L’indice del diario di Feynman. I capitoli sono organizzati in una maniera molto simile a quella del libro di Thompson.

Uno degli ingredienti fondamentali per imparare una materia nuova e complessa è infatti quello di riuscire a organizzare le informazioni in maniera che siano rapidamente accessibili. L’indice è probabilmente il modo migliore per visualizzare graficamente tutti gli aspetti di una materia, e non parlo dell’indice di un libro, ma dell’indice dei propri appunti. Nel mio caso, se i tuoi appunti non hanno un indice è più facile provare un senso di confusione generale quando scorri le pagine. Questo piccolo dettaglio può trasformare una “confusa raccolta” in un serio “arsenale di conoscenze”.
Feynman conservò tutta la vita questa propensione per la schematicità. James Gleick riporta un aneddoto di quando Feynman era ancora studente a Princeton:

[…] Aprì un quaderno degli appunti. Il titolo era “DIARIO DELLE COSE CHE NON SO”. […] Lavorava per settimane per disassemblare ogni branca della Fisica, semplificandone le parti e mettendo tutto assieme, cercando nel mentre inconsistenze e punti spigolosi. Provava a trovare il cuore essenziale di ogni argomento.

James Gleick

Qui non siamo solo davanti a un esercizio “di umiltà” che consiste nel cercare di perfezionare le proprie lacune, ma a una ricerca sistematica, ottimizzata.

Quando Feynman aveva finito il lavoro, si ritrovava con un diario degli appunti di cui andava particolarmente orgoglioso.

James Gleick

La schematicità di questo lavoro permetteva a Feynman di accedere rapidamente a tutti gli argomenti che lui riteneva più importanti, nella grafia e nello stile di presentazione che a lui era più congeniale: il suo.

Da questa lezione possiamo imparare l’importanza della rielaborazione e della schematicità: non solo bisogna far proprio un argomento, ma bisogna organizzare le proprie note in modo che siano accessibili con il minor sforzo possibile, solo così si può andare avanti con una mente abbastanza lucida, pronta ad imparare cose ancora più difficili.

Prendersi un po’ più sul serio

Il secondo aspetto su cui voglio soffermarmi riguarda queste due pagine di appunti:

L’argomento riguarda l’analisi matematica ordinaria: l’angolo iperbolico e le funzioni iperboliche, ma non è questa la cosa interessante, bensì è l’utilizzo di intermezzi stilistici del tipo: “come abbiamo visto”, “se dividiamo…” tutti rivolti al plurale, proprio come farebbe un professore che sta spiegando un argomento in un’aula. Feynman si prendeva sul serio. Questo prendersi sul serio lo portava a redigere gli appunti con uno stile che poteva essere letto da tutti, aumentandone la facilità di lettura e senza sacrificare la rigorosa riorganizzazione delle informazioni.
Ricordiamo: Feynman era appena un adolescente mentre scriveva questo diario, non stiamo parlando di uno studente universitario che si suppone abbia già consolidato certi metodi di studio. Qui sta la precoce genialità di Feynman.

Il diario degli appunti di Enrico Fermi.

Se si vogliono scrivere degli appunti che ci potrebbero essere utili in futuro, bisogna farlo prendendosi sul serio, scrivendo come se dovessimo esporre in un’aula con persone che su quell’argomento non sanno nulla.
Se non si fa ciò, si rischia di ritrovarsi con degli appunti illeggibili presi distrattamente qualche anno prima, con il risultato di aver sprecato ore di studio senza poter riacquisire in maniera rapida le conoscenze dimenticate.

Anche uno dei più grandi fisici del novecento, Enrico Fermi, usò la tecnica del diario degli appunti fin da quando era al liceo. Proprio come Feynman, Fermi era ossessivo nel redigere i propri appunti, dedicandovi una meticolosa attenzione, fin dalla stesura dell’indice:

L’indice di un quaderno di Fermi.

Come testimoniarono i suoi colleghi e amici, Fermi riutilizzava spesso i propri quadernini anche in età adulta, proprio perché gli consentivano l’accesso immediato a numerose branche del sapere, diventando quasi “un’estensione” del proprio cervello.
Di nuovo, la loro efficacia stava probabilmente nel fatto di essere stati scritti in uno stile a lui più congeniale, usando schemi con cui aveva maggiore confidenza. Qualcuno disse che Fermi aveva fatto sua tutta la Fisica, tanto da definirlo “l’ultimo uomo che sapeva tutto“.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).