Supersimmetria: la meravigliosa teoria che non “vuole” esistere

C’è un motivo ben preciso per cui la Fisica è ritenuta essere la “Regina delle scienze“: è una scienza che in quanto tale è fondata sull’esperimento, ma che si legittima soprattutto per via della sua (forse irragionevolmente perfetta) corrispondenza con il mondo delle strutture matematiche.

Nella storia recente, i più grandi avanzamenti nella comprensione della Fisica sono arrivati da veri e propri salti concettuali, necessari per:

  • spiegare i dati sperimentali;
  • riconciliare visioni diverse dello stesso fenomeno;
  • risolvere delle inconsistenze tra teorie adiacenti (come esempi molto semplici, vedasi Relatività Speciale con Elettromagnetismo di Maxwell, oppure Relatività Ristretta con la Gravitazione di Newton).

Per essere accettati dalla comunità scientifica, tali avanzamenti hanno però dovuto superare delle rigorosissime prove:

  • essere matematicamente consistenti;
  • essere in grado di spiegare tutto ciò che già si conosce, in maniera più esauriente rispetto alla teoria precedente;
  • essere in grado di fornire delle predizioni testabili da esperimenti futuri.

Di nuovo un esempio molto semplice: la Relatività Generale fu in grado di: 1) rendere la Gravitazione classica coerente con la neonata Relatività Ristretta; 2) fornire una spiegazione matematicamente molto elegante e auto-consistente di fenomeni già conosciuti; 3) risolvere il secolare problema della precessione del perielio di Mercurio, la cui entità era impossibile da accordare con i dati sperimentali usando solo la Gravità di Newton; 4) fornire delle predizioni sulla deflessione della luce in un campo gravitazionale, poi verificate da Eddington con il famoso esperimento dell’eclissi di Sole.

In modo molto analogo a quanto successo in passato, la teoria attuale di cui dispone l’umanità per spiegare il mondo subnucleare delle particelle elementari è il Modello Standard (che da ora chiameremo MS). Il MS rappresenta la teoria concettualmente più avanzata mai creata da Homo Sapiens, ha superato (e continua a superare ogni anno) una gigantesca mole di test sperimentali. Inoltre, la sua eleganza matematica fa da cornice a un vero e proprio capolavoro.

Eppure, già dagli anni ’70 era abbastanza chiaro che il MS non poteva essere la teoria definitiva delle particelle subnucleari. Doveva esserci qualcosa di più. Perché? Tutta una serie di motivi tecnici, dal punto di vista della consistenza matematica. Elenco qui solo alcuni dei problemi del Modello Standard:

  • il MS non ha una particella candidata per essere costituente della materia oscura, che rappresenta uno dei più grossi enigmi sperimentali del XXI secolo;
  • il MS è ad oggi strutturalmente incompatibile con la Relatività Generale (ne parlo in questo post);
  • il MS è per forza di cose una teoria incompleta, dato che ignora ciò che succede a energie più elevate (equivalentemente, è come dire che ignora ciò che succede a distanze vicine alla minuscola lunghezza di Planck). Guarda caso, la scala di Planck è proprio dove iniziano ad essere preponderanti gli effetti gravitazionali a livello quantistico. Questa ignoranza si manifesta nel fatto che nei calcoli compaiono delle divergenze (veri e propri infiniti matematici), da “cancellare” opportunamente in un processo chiamato rinormalizzazione (prima o poi ne parlerò in un futuro post).
  • Il MS non è in grado di spiegare in maniera naturale ed elegante cosa stabilizzi la massa dell’Higgs a dispetto dei contributi che derivano dalla Fisica (ad oggi ignota) che si presenta ad energie più elevate. Questo problema è noto come problema della gerarchia (o naturalezza).

Sono state proposte varie teorie più complete del Modello Standard, valide quindi a energie maggiori, le quali prese singolarmente risolvono solo alcuni dei problemi elencati.

Cosa fa di una teoria scientifica la scelta prediletta? Il fatto che la teoria sia capace di spiegare non uno o due, ma tutti i problemi della teoria precedente in un colpo solo, e che sia anche in grado di fornire delle predizioni. Se poi tale teoria presenta una certa eleganza matematica e auto-consistenza, ancora meglio, tutti più felici!

È così che negli anni ’80 entra in scena una “meravigliosa” teoria in grado di dare una soluzione a tutti i problemi elencati , una possibile erede al trono della teoria migliore mai concettualizzata: la Supersimmetria (che da ora chiameremo SUSY).

Il problema della gerarchia, reso semplice

Un problema molto serio del MS è quello della stabilità della massa dell’Higgs, dal momento che viene minata la auto-consistenza della costruzione su cui posa la teoria.

Ricordiamo, per completezza, che rozzamente parlando il ruolo del campo di Higgs è quello di “dare massa” alle altre particelle elementari tramite il meccanismo di Higgs (spiegato in un precedente post).

Ironia della sorte, la massa di cui il campo di Higgs deve preoccuparsi è invece proprio la sua, acquistata sempre tramite il meccanismo di Higgs. Il problema della gerarchia che affligge la sua massa ha origine (come tutte le disavventure della Fisica moderna) proprio dalla natura quantistica delle particelle.

Cosa è, nella pratica, il problema della gerarchia?
Per capirlo, prendiamo un caso semplificato.

Consideriamo un elettrone nel vuoto. Indichiamo con m_{f} la sua massa Fisica, cioè misurabile. Se rozzamente pensiamo l’elettrone come una sferetta di carica Q=e, e di raggio r_e, l’energia coulombiana in esso immagazzinata è, dall’elettromagnetismo classico:

    \[\Delta E_\text{Coulomb}=\frac{1}{4\pi \epsilon_0}\frac{e^2}{r_e}\]

Dalla celebre formula di Einstein, l’energia a riposo dell’elettrone E=m_fc^2 (e quindi quella che chiamavamo “massa Fisica” m_f) ha due contributi: sia il contributo elettromagnetico dovuto alla sua carica elettrica, sia il contributo dalla sua massa originale m_0:

    \[m_fc^2= m_0c^2+\Delta E_\text{Coulomb}\]

L’energia a riposo fisica m_fc^2 è conosciuta con precisione dagli esperimenti e vale 0.511 MeV (dove MeV corrisponde a un milione di elettronvolt). Il problema è che la quantità riconducibile a una “nozione di raggio classico” dell’elettrone è dell’ordine di r_e\sim 10^{-17} centimetri. Se uno calcola \Delta E_\text{Coulomb} inserendo questi numeri ottiene:

    \[\Delta E_\text{Coulomb}=10000.000\,\,\text{MeV}\]

Dunque, l’unico modo che abbiamo per ottenere m_fc^2=0.511 MeV è che avvenga una delicatissima cancellazione tra m_0c^2 (il cui segno non è noto a priori, dato che è una quantità non fisica) e \Delta E_\text{Coulomb}. Ad esempio:

    \[0.511 \,\,\text{MeV}=-9999.489 \,\,\text{MeV}+10000.000\,\,\text{MeV}\]

e questo aspetto viene chiamato “fine-tuning” in inglese, traducibile con “regolazione accurata”. Uno deve necessarimente supporre che m_0c^2 cancelli, fino alla terza cifra decimale, il contributo dominante di \Delta E_\text{Coulomb}. Dal punto di vista della teoria è un aspetto indigesto: cosa porta m_0c^2 ad essere così numericamente vicino a \Delta E_\text{Coulomb}, e con il segno scelto in tal modo?

Infatti abbiamo sbagliato assunzione: abbiamo presupposto di conoscere la Fisica fino a una scala piccola quanto r_e\sim 10^{-17} centimetri. Tuttavia, ben prima di quella scala intervengono fenomeni di natura quantistica: il vuoto non è davvero vuoto, ma è un proliferare di coppie virtuali di particella-antiparticella, ovvero elettroni e^- con carica negativa e positroni e^+ con carica positiva, creati assieme a fotoni virtuali \gamma (mediatori dell’interazione elettromagnetica). Questi processi virtuali di natura quantistica violano la conservazione dell’energia di una quantità \delta E per un tempo \delta t in modo da rispettare il principio di Heisenberg:

    \[\delta t \delta E\sim \hbar\]

dove \hbar=h/2\pi e h è la celebre costante di Planck. Qual è la conseguenza di questi effetti quantistici? È molto complicato da descrivere a parole, dato che si tratta di calcoli puramente matematici. Un modo per interpretare ciò che succede è quello di immaginare che mediamente l’elettrone originale attiri verso di sé i positroni virtuali (elettroni di carica opposta), ed allontani gli elettroni virtuali (di carica uguale). L’effetto è che la carica elettrica dell’elettrone originale è ora distribuita in un volume di spazio che è maggiore di quello supposto all’inizio, limitato al raggio r_e.

Quindi, in realtà, il contributo elettromagnetico dell’elettrone alla sua stessa massa è molto più piccolo di quello che si poteva immaginare senza tenere in conto gli effetti quantistici, la correzione reale è:

    \[m_fc^2=m_0c^2\left(1+\frac{3\alpha}{4\pi}\log\left(\frac{1}{m_0 r_e}\right)+...\right)\]

dove +... indica dei fattori numerici che non ci interessano, e \alpha è la costante di struttura fine (pari a circa 1/137). Dunque non c’è un problema di “fine-tuning” per l’elettrone, il vero contributo dall’elettromagnetismo non va come 1/r_e, ma molto più lentamente come -\log r_e (i logaritmi sono funzioni a crescita lentissima, come avrai sentito in giro). Dunque qualsiasi sia la “nuova Fisica” a scale di lunghezza r_e piccolissime, il contributo alla “massa Fisica” dell’elettrone da parte di questa “nuova Fisica” sarà sempre molto soppresso. La massa dell’elettrone è quindi protetta.

Vediamo infatti che tutte le correzioni alla massa dell’elettrone sono proporzionali alla sua massa originale m_0: ciò significa che se l’elettrone non avesse avuto massa fin dall’inizio (m_0=0), non sarebbe stato sensibile a nessuna correzione.

Ciò non è un caso: nel limite m_0=0 la teoria che descrive l’elettrone gode di una simmetria particolare, chiamata simmetria chirale. La simmetria chirale impone dei vincoli molto severi sui contributi di correzione alla massa dell’elettrone. Questi vincoli persistono anche se, come sappiamo dall’esperimento, m_0\neq0, per cui si può dire che la simmetria chirale protegge la massa dell’elettrone dagli effetti di nuova Fisica.

Notare che per risolvere il problema del fine-tuning del campo elettronico è stato necessario raddoppiare il numero di possibili particelle nell’Universo, introducendo l’antimateria (qui un post in cui parlo dell’origine relativistico del concetto di antimateria).

Il campo di Higgs è afflitto da un problema molto simile: riceve contributi quantistici da scale di energia che fanno parte di una Fisica che ancora non conosciamo. Tuttavia, a differenza dell’elettrone che è un campo a spin 1/2 (cioè un fermione, in onore di Enrico Fermi), l’Higgs ha spin 0 (in gergo, un bosone di spin 0, cioè una particella scalare).

Bosoni e fermioni, nel MS, si comportano in maniera molto diversa. In particolare, l’Higgs (che è l’unico campo scalare del MS) non gode di nessuna simmetria in grado di proteggerlo dai contributi di Fisica delle alte energie. L’Higgs potrebbe accoppiarsi con gli altri fermioni e bosoni con dinamiche ad energie molto più alte di quelle ad oggi accessibili con gli attuali acceleratori. Ciò significa che la sua massa verrebbe quantisticamente corretta fino a contributi energetici pari alla scala di Planck M_\text{Planck}c^2\approx 10^{18} GeV (un GeV sono un miliardo di elettronvolt). Se m_H^f è la sua massa fisica e m_H^0 la sua massa non fisica, si ha:

    \[m_H^fc^2\sim m_H^0 c^2+M_\text{Planck}c^2\]

Ancora prima di scoprire il bosone di Higgs nel 2012, sapevamo già che la sua massa sarebbe dovuta essere intorno alla scala in cui si rompe la simmetria elettrodebole, cioè sui 10^2 GeV. Ora vediamo che affinché m_H^fc^2 sia dell’ordine di 10^2 GeV, dobbiamo avere che m_H^0c^2 cancella delicatamente la maggior parte di M_\text{Planck}c^2, ma non esattamente! Stiamo parlando di un fine-tuning sulla quindicesima cifra decimale.

Per quale accidenti di motivo m_H^0c^2 ha un valore praticamente ad-hoc in grado di cancellare il contributo quantistico delle alte energie? Uno può dormire sonni tranquilli anche con questa idea in mente, ma non i fisici teorici.

Come per l’elettrone, una possibile spiegazione è quella di ammettere di aver presupposto di conoscere la Fisica delle alte energie. Nell’elettromagnetismo classico non era previsto il concetto di anti-materia, concetto che ha risolto parecchi problemi fondamentali.

Anche in questo caso potrebbe succedere qualcosa di molto simile. Si dà il caso che i contributi quantistici di fermioni e bosoni hanno segno opposto, per via delle loro proprietà fisiche differenti.

Alle alte energie è possibile che i contributi quantistici degli accoppiamenti dell’Higgs coi fermioni possa cancellarsi esattamente con i contributi degli accoppiamenti dell’Higgs con dei bosoni. Questa cancellazione avviene però solo nel caso in cui tali bosoni hanno massa e numeri quantici uguali a quelli dei fermioni.

Ecco fatto: raddoppiamo il numero di particelle esistenti e il problema è risolto. Ogni fermione ha il suo partner bosonico di uguale massa e numeri quantici, e viceversa. La supersimmetria è esattamente una simmetria tra fermioni e bosoni. Un elettrone di massa 0.511 MeV ha un suo superpartner chiamato s-elettrone, di spin 0, carica elettrica negativa e massa 0.511 MeV. Anche il campo di Higgs ha un suo superpartner fermionico di spin 1/2, avente la massa dell’Higgs. E così via.

La soluzione SUSY

Questa immagine ha l'attributo alt vuoto; il nome del file è scaric-4.png
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

La SUSY non risolve solo il problema della stabilità quantistica della massa dell’Higgs. Come ogni buona teoria scientifica, fornisce un certo numero di soluzioni ad altri problemi concettuali o fenomenologici.

1) Con solo alcune ipotesi aggiuntive, la SUSY ha una particella candidata naturale per la materia oscura: una particella elettricamente neutra a cui è proibito decadere in altre particelle, dunque assolutamente stabile e poco interagente. Questa particella può essere proprio un superpartner di una particella già esistente.

2) La SUSY prevede che le costanti di interazione delle tre forze fondamentali del MS (forza forte, debole, ed elettromagnetica) vengano unificate a una scala di energia di 10^{16} GeV.

3) La SUSY è un concetto che sorge con estrema naturalezza logica nelle teorie che aspirano ad unificare gravità e meccanica quantistica, come la teoria delle stringhe.

Come coronamento, la struttura matematica della SUSY è molto elegante e fornisce nuovi punti di vista anche sulle teorie precedenti. In un certo numero di casi, la matematica della SUSY semplifica alcuni calcoli e velocizza l’intepretazione concettuale di quello che si sta indagando. Non capita di rado che la SUSY venga utilizzata anche in teorie che della SUSY potrebbero fare a meno, solo per avere “in prestito” il suo apparato matematico.

Il desolante deserto

Sappiamo bene che l’anti-materia esiste. L’ abbiamo scoperta quasi un secolo fa. Ad oggi, tuttavia, non possiamo dire che la SUSY esista. Non basta risolvere tutti quei problemi per essere una teoria scientifica. Nessuno ha mai visto una particella scalare avente la massa dell’elettrone. L’elettrone è un fermione e si comporta inequivocabilmente come un fermione. Nessuno ha mai visto una particella super-simmetrica. Nonostante quasi 30 anni di ricerche, la SUSY non è mai stata rilevata.

Che male c’è? È evidente che la SUSY debba essere una simmetria rotta alle basse energie: le particelle supersimmetriche, dopo la rottura della SUSY, hanno assunto una massa molto più elevata dei loro partner che studiamo quotidianamente. Il s-elettrone avrà una massa migliaia e migliaia di volte più grande di quella dell’elettrone. L’importante è che alle alte energie la simmetria venga ripristinata: bosoni e fermioni con uguale massa e numeri quantici.

Tuttavia la SUSY ha finora fallito tutti i test sperimentali anche nell’ipotesi di essere una simmetria rotta: ci si aspettava di vederne qualche traccia già al Large Hadron Collider (LHC) del CERN. Se i superpartner pesanti sono davvero così pesanti, avremmo dovuto vedere almeno il più leggero già ad LHC.

Questo rappresenta potenzialmente un desolante deserto per la Fisica delle particelle. La SUSY funziona concettualmente, ma alla fine apre più problemi di quanti ne risolve. Non ha alcun riscontro sperimentale.

Per quanto possa essere ritenuta meravigliosa, e per quanto soddisfi tutti i criteri di un’ottima teoria scientifica, la SUSY rappresenta forse il primo vero clamoroso passo falso di una meravigliosa tradizione di inquisizione scientifica, che è la Fisica teorica delle particelle.

Naturalmente, basterebbe anche un solo segnale positivo da Ginevra per ribaltare completamente il risultato. Se non oggi, tra 10 anni. Se non tra 10, tra qualche secolo. La Natura non ha fretta, e tu?


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica e la magistrale in Fisica Teorica all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

La freccia del Tempo, spiegata con la statistica elementare

Si sente spesso dire che la Fisica non cambia se si inverte la freccia del tempo. Ne ho anche parlato di recente in un articolo sulla gravità.

La nostra esperienza quotidiana però è ben diversa: un cubetto di ghiaccio si scioglie se esposto a una temperatura più alta, e anche abbassando di nuovo la temperatura l’acqua si solidificherà, ma non riassumerà mai la forma iniziale. Fatti analoghi a questo, da millenni, ci hanno convinto che esista una direzione ben definita del tempo, un passato realizzato e un futuro da realizzarsi. La morte ne è solo l’esempio emotivamente più eclatante.

Come conciliare le due cose?

Come possiamo dire che le leggi della fisica sono in gran parte soddisfatte sia dalle equazioni con il tempo normale, sia dalle equazioni con il tempo invertito (t\to -t), ma poi rimangiarci tutto e dire che in realtà il mondo funziona in una sola direzione e mai in quella opposta?

Il problema è il calcolo

Immagina una scatola che contiene N particelle che interagiscono tra loro in maniera molto complicata. In linea di principio, tramite la Fisica saremmo in grado di calcolare posizioni e velocità di tutte le particelle a ogni istante di tempo (ricorda: 3 coordinate spaziali per ciascuna dato che viviamo in un mondo tridimensionale, e 3 coordinate per la velocità per lo stesso motivo).

Ad esempio siamo interessati a questo problema: tracciando una linea immaginaria che divide in due parti la scatola, vorremmo capire quante particelle staranno a destra e a sinistra di questa linea in un certo intervallo di tempo \tau in cui ci mettiamo ad osservare la scatola.

In totale quindi abbiamo da calcolare 6\times N coordinate di cui vogliamo sapere l’andamento nel tempo per poter predire dove si troverà ciascuna particella. Ognuna di queste coordinate potrebbe essere dipendente da qualsiasi altra per via delle interazioni tra le particelle, e il problema diventa immediatamente molto complesso dal punto di vista del calcolo numerico.

Come rimedio possiamo fare delle assunzioni ragionevoli. Si tratta di buonsenso. Si preferisce ottenere la massima resa con il minimo sforzo (essendo il mondo dannatamente complesso di per sé).

Anzitutto semplifichiamo il problema, per capirci meglio. Trattiamo solo 2 particelle interagenti (distinguibili tra loro).

Due particelle interagenti in una scatola. Le particelle sono distinguibili tra loro (di colore diverso).

La domanda che ci facciamo è: se osserviamo la scatola per un tempo \tau, quanto spesso vedremo le particelle a sinistra o a destra della linea immaginaria?

Facciamo un’altra assunzione ragionevole: supponiamo che queste 2 particelle interagiscano poco, così da non turbarsi troppo a vicenda. Concentriamoci sul numero di particelle n in un lato della scatola.

In un determinato lato ci potranno essere al massimo due particelle, e al minimo nessuna (n_\text{max}=2, n_\text{min}=0). Può anche esserci una sola particella per lato, e dato che sono distinguibili questo può avvenire in due modi: la blu a sinistra, la arancione a destra, o viceversa.

In totale abbiamo quattro configurazioni possibili, mostrate in figura.

Dal punto di vista del numero, entrambe le configurazioni “arancione a destra e blu a sinistra, e viceversa” conducono alla stessa risposta: una sola particella in un determinato lato, n=1. In Fisica questa proprietà è nota come degenerazione degli stati: lo stato a n=1 particelle per lato ha degenerazione pari a 2, la indichiamo col simbolo C(n)=2.

Siccome assumiamo che interagiscano poco, e che la scatola sia perfettamente simmetrica tra destra e sinistra, ciascuna avrà una uguale probabilità di trovarsi in uno dei due lati, ovvero p=1/2 (o il 50\%).

Il fatto che si influenzano pochino ci permette di dire che la probabilità per ciascuna configurazione mostrata in figura sarà il prodotto delle singole probabilità, cioè (1/2)\times (1/2)=1/4.

Tuttavia la configurazione a una particella per lato compare due volte (degenerazione), quindi la probabilità per questa particolare configurazione è data da 2\times (1/2)\times (1/2)=1/2.


Ci sono più modi equivalenti di ottenere lo stesso stato macroscopico (n=1), quindi è più probabile degli stati a n=0 e n=2.

La degenerazione controlla quanto è grande la probabilità di un certo stato macroscopico.

Per fissare le idee, in generale per esprimere la probabilità P_2 di avere n particelle in uno dei due lati è:

    \[P_2(n)=C_2(n)\times \frac{1}{2}\times\frac{1}{2}\]

in cui, come abbiamo detto, C_2(n=2)=C_2(n=0)=1 e C_2(n=1)=2.

Facciamo ora un bel salto: passiamo da 2 particelle a N particelle. La probabilità di avere n_1 particelle in un lato, e n_2=N-n_1 nell’altro, è una generalizzazione della formula precedente:

    \[P_N(n_1)=C_N(n_1)\times \left(\frac{1}{2}\right)^{n_1}\times\left(\frac{1}{2}\right)^{N-n_1}\]

dove adesso la degenerazione è data da:

    \[C_N(n_1)=\frac{N!}{n_1!(N-n_1)!}\]

Nota che quei punti esclamativi non sono estetici, è un’operazione chiamata “fattoriale” (2! = 2\times 1, 3! = 3\times 2 \times 1 e così via. Una particolarità buffa è che per definizione 0! =1).

Ora chiediamoci: qual è la configurazione n_1 che ha la più alta probabilità di verificarsi? Il buonsenso ti avrà suggerito bene: n_1=N/2 particelle a destra ed n_2=N-n_1=N/2 particelle a sinistra. Se tutto è all’equilibrio, lo stato in cui metà delle particelle occupano ciascun lato è ovviamente quello che osserveremo di più nel lasso di tempo \tau in cui stiamo monitorando la scatola.

Il punto però è il seguente: la quotidianità, la vita e l’universo stesso, sono sistemi che in generale sono fuori dall’equilibrio. Ciascun processo della nostra esistenza consiste in una transizione da uno stato fuori equilibrio a uno stato con maggiore equilibrio, in un processo che va all’infinito.

Qual è la probabilità che tutte le N particelle stiano in un solo dei due lati della scatola? Sicuramente sarà più piccola, ma perché? Semplicemente ci sono meno modi di realizzarla rispetto alle altre, in particolare c’è un solo modo! Ricorda infatti che è la degenerazione che fa aumentare la probabilità.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare

Quanto sarà piccola questa probabilità? Qual è la probabilità per la configurazione a n_1=N? Poniamo n_1=N nella formula data sopra:

    \[P_N(n_1=N)=\underbrace{\frac{N!}{N!}}_1\times \left(\frac{1}{2}\right)^N\left(\frac{1}{2}\right)^0=\]

    \[=\frac{1}{2^N}\]

Se N è un numero molto grande, questa probabilità è insignificanteQuesta è la chiave di tutto il discorso. Anche solo per N=100 la probabilità è minuscola P_{100}(100)\approx 10^{-30}, figuriamoci per un numero di Avogadro! (N\sim 10^{24}).

Immaginiamo quindi che il sistema sia inizialmente fuori dall’equilibrio, cioè che la scatola sia divisa in due parti da una paratia che teniamo abbassata. Una volta alzata la paratia, le particelle saranno libere di distribuirsi alla ricerca di un nuovo equilibrio, distribuendosi in parti eguali a sinistra e a destra.

Spontaneamente, le particelle passano da sinistra verso destra. Passato (figura sopra), e futuro (figura sotto) sono ben distinti. Nella tua vita non vedrai mai accadere il contrario.

Occhio però: non sono le leggi fondamentali della Fisica a proibirlo, queste funzionano perfettamente anche al contrario nel tempo. Lo stato con tutte le particelle a sinistra appartiene anche lui all’insieme degli stati “esplorabili” dal sistema.

Per questo motivo la configurazione in cui tutte le particelle stanno a sinistra può ricapitare, ovviamente. Tuttavia la probabilità che ciò accada è pari a 1/2^N come abbiamo visto, cioè estremamente piccola.

In questo senso c’è una distinzione netta tra uno stato iniziale e uno stato finale, una direzione del tempo ben distinta: le particelle non si distribuiranno praticamente mai più nella configurazione iniziale (che corrisponderebbe a un’inversione di quell’illusione che chiamiamo freccia del tempo).

Quel “praticamente” non vuol dire “impossibile”, vuole solo dire una “probabilità così piccola da essere considerabile come impossibile”.

In ciò sta la distinzione tra reversibilità delle leggi del moto e la vita reale: nel grande numero di componenti del sistema che costituisce l’universo, in questo fatto del “contare le configurazioni”, che da noi è stato chiamato per millenni, ingenuamente, “freccia del tempo”.

Bibliografia

Coniglio, A. “Reversibilità e freccia del tempo” Giornale di Fisica Vol. LXI, N.2
Lebowitz, J.L., Physica A, 194 (1993)


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’Università di Pisa, fa ricerca sulle simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Nel mondo di oggi, un “Einstein” verrebbe pubblicato?

Propongo una personalissima riflessione che, in quanto tale, va presa con le pinze ed è aperta alla discussione. La riflessione riguarda il sistema odierno dell’editoria scientifica.

L’articolo originale del 1905.

Nel 1905 (118 anni fa) veniva pubblicato “Sull’elettrodinamica dei corpi in movimento“, articolo con cui Einstein ha iniziato una vera e propria rivoluzione non solo nella fisica, ma anche nella cultura generale.

La rivista da cui venne pubblicato era una delle più prestigiose nel panorama tedesco ed europeo: la “Annalen der Physik“, e tra gli editori c’era nientemeno che il celebre Max Planck.

Fu proprio Planck uno dei primi garanti della qualità del lavoro di Einstein sulla relatività. Nello stesso anno Planck aveva accettato di pubblicare un altro lavoro di Einstein, quello sull’effetto fotoelettrico, nonostante per lui l’idea dei “quanti di luce” fosse un po’ indigesta [1]. Invece l’articolo sulla relatività fu presentato nel giugno 1905 e pubblicato il settembre successivo, e già in novembre Planck espresse pubblicamente il suo apprezzamento [2].

Oggi questa scala temporale di eventi sarebbe altamente improbabile, dobbiamo infatti ricordare che Einstein all’epoca lavorava in un ufficio brevetti e faceva il fisico solo “part-time”, ovvero non aveva nessun prestigio accademico che gli garantisse pubblicazione immediata. Solo la grande qualità del suo lavoro e la lungimiranza degli editori potevano fare la differenza.

Perché questo discorso sia così importante lo si capisce bene dal fatto che uno degli aspetti fondamentali del metodo scientifico è proprio la riproducibilità dei risultati, la quale passa per un’attenta revisione del lavoro di un ricercatore da parte di un altro collega dello stesso campo. Questa revisione è nota come “revisione tra pari”, in inglese “peer review“.

Possiamo “fidarci” della Scienza e dei suoi costrutti proprio grazie a questo processo di revisione: non importa chi tu sia, se hai detto una evidente castroneria io devo rigettare il tuo risultato. Spesso questo sistema funziona molto bene, e viene garantita una buona scrematura dei lavori in modo tale che rimangano solo le idee migliori.

A volte funziona un po’ meno bene: la revisione può risultare un po’ troppo soggettiva, può dipendere dalla luna storta di chi la fa, o semplicemente può capitare che la rivista tratti temi con una filosofia diversa da quelli perseguiti nell’articolo.

Per fare un esempio, l’articolo-capolavoro di Enrico Fermi “Tentativo di una teoria sull’emissione dei raggi beta” fu rifiutato da Nature nel 1934 perché secondo i gusti dell’editore conteneva troppe speculazioni.

All’epoca però non era inusuale che tanti articoli passassero con una revisione minima, se non assente. Che poi sopravvivessero o meno il test del tempo lo avrebbero detto gli altri colleghi negli anni, nei dibattiti alle conferenze ad esempio. In ogni modo, la revisione tra pari era comunque presente ed importantissima. Avveniva però spesso grazie all’influenza di una illustre personalità (l’editore) che si incaricava di decidere se fosse interessante pubblicare o meno. Una “de facto” peer review, senza troppa scrupolosità.

La rivista in un certo senso rappresentava anche quello che potrebbe essere definito “archivio delle proposte”, ruolo che oggi è ricoperto da siti come Arxiv, PubMed etc., i quali sono dei database in cui vengono caricate le versioni “bozze” (chiamati preprint) degli articoli da proporre alle riviste. Oggi, per via dell’enorme volume di articoli proposti dalle accademie [3] il processo di peer review diventa più che mai fondamentale per garantire la corretta scrematura.

Funziona così: l’editore della rivista incarica uno (o più) revisori di studiare l’articolo, affidando a loro la decisione (in sua vece) se pubblicare o meno il lavoro.

Se il livello è, come nei campi della Fisica, altissimo di per sé, la scrematura diventa ancora più spietata. La rivista non può pubblicare tutti i lavori (indipendentemente dalla qualità dei lavori), dovrà quindi inevitabilmente rigettare anche qualche ottimo articolo. Il motivo? Possono essercene diversi, alcuni ragionevoli, altri un po’ meno:

  • l’articolo non è conforme agli interessi della rivista;
  • l’articolo ha un contenuto simile a uno già pubblicato, con piccole variazioni non degne di pubblicazione;
  • l’articolo non è conforme alle credenze di chi fa la revisione (l’ho sentito dire!);
  • l’articolo va in una direzione sconosciuta a cui nessuno è interessato (i fondi vanno in altre direzioni);
  • l’articolo è troppo speculativo, troppo filosofico, o in generale contiene troppe supposizioni personali.

La lista potrebbe andare avanti, figure inserite male, tabelle non chiare, chi più ne ha ne metta: quanti più motivi possibili pur di non pubblicare il 100% degli articoli che arrivano in revisione. Non importa chi tu sia, il tuo articolo può comunque essere rigettato a volte per motivi che sfuggono il tuo controllo.

Questa circostanza è una naturale conseguenza dell’incredibile volume di articoli prodotti ogni mese, non è una cosa né giusta né sbagliata, va accettata in virtù del metodo scientifico. Di sicuro la scrematura riesce spesso ad eliminare gli articoli davvero terribili.

Tuttavia viene da riflettere: la scrematura sopracitata rischierebbe forse di eliminare anche gli articoli più rivoluzionari?

Questa opinione è condivisa da Lorraine Daston in una sua intervista [4].

Analizziamo l’articolo di Einstein “Sull’elettrodinamica dei corpi in movimento“:

Quello evidenziato in giallo è un eccezionale esempio di chiarezza espositiva ed attenzione pedagogica nei confronti del lettore. Secondo la Daston un revisore per una rivista prestigiosa di oggi smetterebbe di leggere già da qui. Lo stile di Einstein era notoriamente un po’ verboso, speculativo, filosofico. A posteriori è la ciliegina sulla torta di un capolavoro scientifico, ma oggi potrebbe essere potenzialmente oggetto di “taglia quella parte o non te lo pubblicheranno mai”.

Inoltre salta subito all’occhio un altro fatto: l’articolo di Einstein non ha bibliografia. Albert non cita nessuno. Un peccato veniale che oggi potrebbe portare all’esclusione dell’articolo (o, più ragionevolmente, a un marcato sollecito di aggiungerla).

In nessun modo questa riflessione vuole intaccare la illuminante produzione scientifica di Einstein, ma credo che possa stimolare una discussione sui potenziali lati negativi della professionalizzazione della scienza. L’edificazione di questi sistemi editoriali è una risposta all’ingente numero di preprint (a sua volta dovuto alla ignobile politica del “publish or perish“), dunque la domanda è: dobbiamo in qualche modo ripensare tutta questa infrastruttura?

Bibliografia

[1] Seelig Carl, Albert Einstein: A documentary biography, Translated to English by Mervyn Savil
[2] Hoffmann Banesh and Dukas, Helen, Albert Einstein Creator & Rebel, 1973, New York: A Plume Book, pp. 83-84.
[3] Bornmann, L., Haunschild, R. & Mutz, R. Growth rates of modern science. Humanit Soc Sci Commun 8, 224 (2021). 
[4] Loncar Samuel, Does Science Need History? A conversation with Lorraine Daston, Meanings of Science Project MRB Interviews 2022.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’Università di Pisa, fa ricerca sulle simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Un suo teorema cambiò per sempre la Fisica Teorica

Nascere in Baviera nel momento di maggior splendore del Secondo Reich comportava grossi vantaggi, ad esempio le opportunità accademiche: l’Impero Tedesco era il leader mondiale nelle scienze matematiche e fisiche.

Ciò era dovuto ai sostanziosi investimenti nella struttura scolastica e nelle università, il cui effetto collaterale fu quello di dare strumenti e voce a tante personalità geniali che altrimenti sarebbero rimaste inascoltate.

Immaginiamo ora di nascere in quelle circostanze, ma al contempo essere privati di tutte queste opportunità per via del proprio sesso.

Emmy Noether: 1882-1935

Il destino della giovane Emmy Noether sarebbe dovuto essere segnato già dalla sua nascita: il ceto borghese a cui apparteneva si aspettava precisamente che diventasse una maestra di inglese e francese.

Infatti alle ragazze non era concesso di puntare all’istruzione universitaria, dovevano fermarsi qualche passo prima.

Il padre di Noether era professore di matematica all’Università di Erlangen, mentre due dei suoi tre fratelli erano scienziati. La famiglia poteva quindi dare il necessario supporto a una carriera accademica, ed Emmy non aveva alcuna intenzione di essere lasciata indietro: voleva studiare matematica.

Per completare la sua formazione pre-universitaria decise di andare ad ascoltare le lezioni all’università di Erlangen, e per fare ciò doveva chiedere il permesso a ciascun professore individualmente.

Fu così che, con tutta la caparbietà del mondo, riuscì ad ottenere il diploma di ginnasio che le permise di frequentare l’università di Gottinga (senza iscrizione, dato che alle donne non era permesso).

Anche stavolta poteva solo ascoltare le lezioni, ma senza la possibilità di partecipare. Possiamo solo immaginare la spiacevole sensazione del sentirsi completamente trasparenti, inascoltati, ogni giorno della propria esistenza. I più fortunati tra noi vivono solo occasionalmente situazioni di questo tipo, ma per Noether dovevano far parte della sua identità.

Finalmente nel 1904 l’università di Erlangen permise l’iscrizione alle donne, e Noether ottenne il dottorato in matematica nel 1907. Le venne quindi concesso di fare ricerca all’istituto matematico di Erlangen, senza retribuzione.
Da allora Noether collaborò con le menti più proficue dell’epoca: Fischer, Minkowski, Klein, Hilbert (lavorò persino alla relatività generale di Einstein), ma a differenza loro Noether non vedeva un centesimo.

Non solo, doveva tenere le sue lezioni sotto il nome di Hilbert, in qualità di sua assistente, per far sì che fossero autorizzate e frequentate.

In questo astio sociale che andava a ledere la dignità personale di Noether, sarebbe stato molto comprensibile decidere di cambiare carriera.

L’articolo originale (in tedesco) di Emmy Noether, 1918.

Il fatto che lei non lo fece non dovrebbe far sentire in colpa chi invece avrebbe mollato: ognuno gioca la sua partita con le carte dategli dal destino. Noether dimostrò senza dubbio una tenacia fuori dal comune, forte della stima espressa da eminenti colleghi come Hilbert ed Einstein.

Sta di fatto che al momento giusto riuscì a far valere la sua genialità: nel 1918 dimostra un teorema che avrebbe cambiato per sempre il modo di fare Fisica Teorica.

Il teorema di Noether

L’enunciato del teorema testimonia la magnifica creatività ed eleganza di Noether, dato che può essere riassunto in sole 8 parole:

Per ogni simmetria c’è una legge di conservazione

Per comprenderne il significato facciamo un passo indietro.

La fisica studia il comportamento dei sistemi sotto particolari tipi di trasformazione.

Se a un fisico presenti un qualsiasi oggetto, la prima cosa che gli interessa è controllare come reagisce l’oggetto sotto una trasformazione.

Un esempio di oggetti che possiamo descrivere con una proprietà di forma geometrica.
A sinistra un oggetto simmetrico sotto una riflessione attorno al suo asse verticale, a destra un oggetto asimmetrico sotto la stessa trasformazione.

Questo atteggiamento è tipico della Scienza: si prende un oggetto e se ne verifica il comportamento sotto alcune trasformazioni, perché nei secoli si è capito che questo è il miglior modo per studiare il mondo che ci circonda.


Un esempio tipico di trasformazione è la rotazione spaziale: si tratta di ruotare gli oggetti attorno a qualsiasi asse passante per essi. Una volta effettuata la trasformazione ci si può chiedere quali proprietà dell’oggetto si vogliono indagare.


Ad esempio puoi prendere in mano il tuo telefono ed elencarne alcune proprietà:


La prima proprietà può essere quella ontologica: il telefono è un telefono perché è costruito in modo da funzionare come un telefono.

La seconda proprietà può essere funzionale: la facciata del telefono ha funzione di touchscreen, mentre il retro non ha questa funzione.

Una terza proprietà può essere la forma geometrica: un telefono è rettangolare.

Eseguiamo una trasformazione: ruotiamo il telefono di 180 gradi rispetto al suo asse verticale, cioè giriamolo in modo che ora il retro sia rivolto verso di noi.

Una volta ruotato il telefono possiamo chiederci: come sono cambiate le proprietà che avevamo elencato?

  • La prima proprietà non può variare: un telefono rimane tale indipendentemente da che angolo lo guardi.
  • La seconda proprietà varia, perché ora non puoi usare il touchscreen sul retro.
  • La terza proprietà non varia: un telefono rimane di forma rettangolare anche se ruotato.

Possiamo quindi classificare il telefono come un oggetto le cui proprietà variano in questo modo sotto una rotazione spaziale di 180 gradi attorno al suo asse verticale.
I fisici teorici lavorano così.

Se una certa proprietà rimane uguale a se stessa sotto una trasformazione, diremo che quella proprietà è una simmetria sotto quella trasformazione.

La simmetria è una “immunità” a una certa trasformazione.

La forma geometrica di una sfera è simmetrica sotto qualsiasi rotazione.

Facciamo un altro esempio. Consideriamo la sfera in figura, caratterizzata da un simbolo a forma di stella sulla sua superficie. Questa sfera può essere caratterizzata da due proprietà: la sua forma geometrica e la posizione della stellina. Potremmo classificare questo oggetto chiamandolo anche “sfera con una stellina in alto a sinistra”.

È intuitivo che sotto qualsiasi rotazione la sfera rimanga una sfera ai nostri occhi, ma la proprietà “stellina in alto a sinistra” cambia in base al tipo di rotazione. Ad esempio se riflettiamo la sfera attorno al suo diametro orizzontale, ora la proprietà cambierà in “sfera con stellina in basso a sinistra”.

La lezione da portare a casa è che non tutte le proprietà con cui possiamo descrivere un oggetto rimangono invariate sotto una trasformazione, e non c’è nulla di male in ciò.

Una simmetria va sempre riferita al tipo di trasformazione effettuato.


Possiamo dire che una sfera è simmetrica sotto rotazione, ma non possiamo dire che “sfera con stellina in alto a sinistra” rimane simmetrica sotto qualsiasi rotazione, ma magari solo per rotazioni di 360 gradi.

La conservazione nel teorema di Noether

Una classe speciale di trasformazioni in fisica sono le traslazioni. Possiamo considerare un certo sistema e segnare la sua posizione tramite degli assi cartesiani. In questo modo possiamo elencare alcune proprietà: ad esempio la massa dell’oggetto e la sua interazione con l’ambiente circostante, il suo moto ecc.

Per essere concreti consideriamo una particella in uno spazio completamente vuoto e identico in ogni suo punto.

Una particella in uno spazio completamente vuoto e identico in ogni suo punto.

Siccome lo spazio è vuoto ed identico in ogni suo punto, se spostiamo la particella in un altro punto le sue proprietà di moto non possono variare, altrimenti significherebbe che una qualche posizione spaziale è più speciale di altre, in contraddizione con l’ipotesi di spazio identico.


Non solo la proprietà di “particella” rimane invariata sotto la traslazione spaziale, ma anche le sue proprietà di moto.

La simmetria delle proprietà di moto viene chiamata quindi “conservazione” di una certa quantità, che in questo caso è la quantità di moto: una particella, come ci diceva Galileo, prosegue indisturbata nel suo moto rettilineo in assenza di forze, o rimane ferma se era già ferma.

Se invece ci fosse una forza, generata da una sorgente localizzata nello spazio, allora perderemmo l’equivalenza dei punti spaziali: non può esserci conservazione della quantità di moto, perché la quantità di moto varia in base alla forza applicata.

Non tutte le proprietà rimangono simmetriche sotto una certa trasformazione.

Supponiamo però che ora la sorgente di forza abbia una simmetria circolare, cioè che la forza sia la stessa lungo una circonferenza immaginaria centrata attorno alla sorgente.


In tal modo abbiamo ottenuto una simmetria sotto rotazioni attorno all’asse della sorgente. Per via di questa simmetria la traiettoria della massa è influenzata allo stesso modo indipendentemente da che angolo formi rispetto alla posizione della sorgente, ciò consente la conservazione di un’altra proprietà di moto: il momento angolare.

Abbiamo perso la conservazione della quantità di moto, ma abbiamo guadagnato la conservazione del momento angolare, che nasce da un’altra simmetria del sistema sorgente-particella.

Il pattern è chiaro: una certa simmetria spaziale di un sistema fisico genera la conservazione di una certa proprietà del suo moto, e questo è il contenuto del teorema di Noether: le leggi di conservazione nascono dalle simmetrie.


Come ci ha insegnato Einstein con la Relatività Generale, se consideriamo le traslazioni spaziali dobbiamo quindi considerare anche le traslazioni temporali e studiare le trasformazioni dei sistemi fisici sotto tali traslazioni.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Il principio di conservazione dell’energia nasce proprio dalla simmetria sotto traslazioni temporali: se le interazioni di un sistema non variano nel tempo, deve conservarsi il suo contenuto energetico.

Energia e quantità di moto sono quindi due proprietà di un sistema che rimangono invariate sotto una traslazione temporale per la prima, e spaziale per la seconda.

Ciò aprì le porte alla fisica delle simmetrie, che ha permesso la classificazione di tanti tipi di interazione, con le relative particelle mediatrici. Infatti molti oggetti della fisica vengono classificati semplicemente in base a come trasformano: il modo che abbiamo di distinguere un processo di interazione da un altro è proprio osservarne il comportamento sotto trasformazioni. Nel tempo sono state studiate varie simmetrie:

  • La simmetria di inversione spaziale.
  • La simmetria di inversione temporale.
  • La simmetria sotto cambi di coordinate.
  • La simmetria sotto cambi di sistemi di riferimento inerziali.
  • ….

e da ciascuna (o da gruppi) di queste simmetrie è nata una teoria capace di spiegare i risultati sperimentali. Ad esempio la richiesta di simmetria di alcune quantità fisiche sotto un cambio di coordinate tra due sistemi in moto uniforme ha condotto alla relatività di Einstein. Oggi le nuove teorie della fisica delle particelle vengono costruite sui princìpi di simmetria.

Da tutto ciò si intuisce l’impatto colossale del teorema di Noether sulla Fisica Teorica: la matematica tedesca ha cambiato il nostro modo di pensare, rendendolo sorprendentemente elegante.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Decodificando le equazioni di campo di Einstein per i non-esperti

Scoperte verso la fine del 1915, le equazioni di campo di Einstein della Relatività Generale rappresentano uno dei risultati intellettuali più importanti della nostra civiltà.

Le equazioni di campo di Einstein per la Gravità (1915).

Queste equazioni descrivono la Gravità in maniera completamente differente dalla legge di gravitazione newtoniana.

La Gravità di Newton è quel fenomeno a cui attribuiamo il moto, nello spazio e nel tempo, degli oggetti che si trovano nei pressi di altri oggetti massivi.

Per Einstein, la Gravità non è un fenomeno di per sé. Lo spazio e il tempo diventano quantità dinamiche, modificabili dalla materia che li riempie. A sua volta, la materia non può fare altro che muoversi nello spazio e nel tempo, con un moto dettato precisamente dalla geometria dello spazio e del tempo.

Parliamoci chiaro: lo spazio-tempo non è un fluido che interagisce con la materia, non è un qualcosa di tangibile, è ancora più pazzesco di così.

Lo spazio-tempo è una collezione di eventi a cui ogni corpo è fondamentalmente legato, perché è con gli eventi che capiamo la realtà. È il nostro modo di comprendere il mondo: “quell’oggetto stava lì, a quell’ora del giorno”.
Dal punto di vista matematico interpretiamo la collezione di eventi come una iper-superficie geometrica in quattro dimensioni (3 spaziali e 1 temporale). È questa la grande intuizione di Einstein.

Le equazioni di Einstein dicono come questa iper-superficie reagisce alla presenza di massa ed energia. Il concetto è semplice, ma le equazioni sono abbastanza complicate.

È quindi mia intenzione decodificarle per dimostrare come funzionano anche ai non-esperti del settore.

Chi è già esperto può invece comodamente leggersi la bibbia della gravitazione di Kip Thorne, J.A. Wheeler e C. Misner.

Per iniziare la decodificazione, concentriamoci sul cosa e sul come: cosa stiamo cercando di risolvere con queste equazioni? E come lo stiamo cercando?

Decodificazione: cosa stiamo cercando?

Siccome è difficile disegnare le iper-superfici a 4 dimensioni, concentriamoci su 3 dimensioni per fissare le idee. Considera questa figura:

Matematicamente, come fai a descrivere questo spazio? Immagina che questo fosse, in origine, un lenzuolo. Un lenzuolo disteso in uno spazio tridimensionale. Il lenzuolo, di per sé, ha due dimensioni (lunghezza e larghezza, se trascuri lo spessore), ma vive in uno spazio tridimensionale in cui possiamo giudicare se il lenzuolo è curvo verso l’alto o verso il basso, proprio come nella figura.

Prendi un pennarello e disegna due punti A e B su questo lenzuolo, come nella figura seguente:

Prendi un sistema di assi cartesiani x e y, come si fa a scuola: qual è la distanza più preve tra A e B? Naturalmente è data dal teorema di Pitagora

    \[l^2=\Delta x^2+\Delta y^2\]

dove \Delta x=x_B-x_A e \Delta y=y_B-y_A. Questa è chiamata geometria piatta di uno spazio, è tutto liscio, nessun rigonfiamento, nessuna depressione. Nelle coordinate x e y vale sempre:

    \[ds^2=dx^2+dy^2\]

Questa quantità si chiama metrica (dx significa \Delta x=x_B-x_A per x_B molto vicino ad x_A, cioè distanze molto piccole). I coefficienti davanti agli elementi dx^2 e dy^2 (che sono pari a 1 come vedi) si chiamano coefficienti della metrica, che è indicata come un oggetto a quattro componenti: g_{ij}. Siccome non ci sono termini misti del tipo dx\times dy diremo che questi hanno coefficiente zero davanti a loro. La metrica è un modo molto comodo di riassumere i contenuti geometrici di uno spazio.

Coefficienti per la metrica del lenzuolo.

In questo caso abbiamo g_{xx}=1, g_{yy}=1, g_{xy}=g_{yx}=0.

Se adesso pieghi il lenzuolo (ti è concesso stiracchiarlo sfruttandone l’elasticità), vedrai i punti precedentemente disegnati cambiare la loro posizione relativa. In uno spazio curvo la metrica ha un’espressione ben diversa da questa che abbiamo appena scritto.

Potremmo essere interessati a capire come varia questa metrica da punto a punto: quanto rapidamente si inclina verso l’alto? Quanto si inabissa? Potremmo chiederci: quanto varia g_{ij} in vista di un leggero spostamento nella direzione x? Il cambiamento della metrica lo indichiamo con \Delta g_{ij}.

Il simbolo \partial significa un cambiamento \Delta molto piccolo, nella direzione di x, tenendo la coordinata y inalterata. Un modo ancora più conciso di scrivere \partial g/\partial x è con il simbolo \partial_x g.

Un piccolo check: se la metrica è piatta posso spostarmi nella direzione x o y quanto voglio, ma lei non cambierà, non si innalza e non si inabissa, quindi \partial_x g=0 e \partial_y g=0.

Questo è il punto più importante che serve per capire le equazioni di Einstein.

Esiste una quantità chiamata “curvatura dello spaziotempo” la quale è una combinazione non lineare di termini come \partial_x g, \partial_y g, \partial_z g per le tre dimensioni spaziali, e \partial_t g per la dimensione temporale indicata col simbolo t. Le informazioni sulla curvatura sono racchiuse in simboli che indichiamo con R_{\mu\nu} e R:

Ora il simbolo \partial^2 g sta a significare “come varia la variazione della metrica”? Allo stesso modo in cui l’accelerazione ci dice come varia la variazione della posizione (cioè come varia la velocità).

Einstein voleva un’equazione che esprimesse la seguente frase: “questa distribuzione di massa ed energia fa sì che la metrica varii da punto a punto (tramite (\partial g)^2,\partial^2 g...) in questo modo qui. Sai trovare la metrica g che risponde di tale variazione come descritto qui?”.

Le equazioni di Einstein descrivono come varia la metrica: se conosci come varia, sai anche trovare la metrica stessa, e se conosci la metrica, conosci il moto di tutti i corpi che sono contenuti nello spaziotempo.

Decodificazione: i due membri

Concentriamoci ora sulla distinzione visiva. Un’equazione serve per trovare qualcosa in funzione di qualcos’altro. Pensa a x^2=4, significa: sai trovare quel numero x tale che il suo quadrato faccia 4?

La situazione è molto simile: sai trovare quegli oggetti geometrici dello spazio-tempo R_{\mu\nu}, R, g_{\mu\nu} tali che combinati in questo modo si ha uguaglianza con il contenuto di materia ed energia?

La materia-energia è contenuta nell’oggetto T_{\mu\nu}, mentre 8\pi è una semplice costante matematica. D’altra parte c e G sono la velocità della luce e la costante di gravitazione universale di Newton, rispettivamente.

La risposta a questa domanda permette di conoscere la curvatura dello spaziotempo in ogni suo punto.

Perché sono chiamate “equazioni” di Einstein, se di equazione se ne vede effettivamente solo una?

In realtà è un modo furbo e sintetico di rappresentarle. L’oggetto g_{\mu\nu}, come visto nell’esempio del lenzuolo, ha in realtà tante componenti. In due dimensioni spaziali (x e y) era un oggetto a quattro componenti. Qui abbiamo 10 componenti effettive (sarebbero 16, ma alcune sono uguali ad altre, quindi il numero si riduce per simmetria), ad esempio g_{tt}, g_{xt}, g_{yt}, g_{zt}, g_{xx},g_{yy},g_{zz},... etc.

Dobbiamo quindi leggere l’equazione di Einstein come ben 10 uguaglianze indipendenti tra loro!

È perfettamente analogo a quel che si fa con i vettori della fisica di Newton: l’equazione \vec{F}=m\vec{a} nelle tre dimensioni spaziali sono tre equazioni distinte:

Volendole descrivere con un formalismo più vicino a quello delle equazioni di Einstein, possiamo indicarle con la seguente notazione: F_i=m\,a_i dove i è un indice che scorre sui tre assi cartesiani i=\{x,y,z\}.
Ricordando poi che l’accelerazione è la variazione della velocità nel tempo a=dv/dt, che a sua volta è la variazione della posizione nel tempo v=ds/dt, potremo indicare con a_i=\partial_t^2 s_i se s_i è la posizione nell’asse x, y o z.

Le equazioni di Einstein hanno un significato concettuale simile. Nel caso di Newton ci interessa trovare lo spostamento s_i in funzione del tempo, nota la distribuzione di forze F_i e la massa del corpo. L’equazione chiave per trovare ciò ci dice “sapendo che lo spostamento varia in questo modo, data la forza, trova lo spostamento ad ogni istante di tempo“.

Nel caso di Einstein le equazioni dicono “sapendo che la metrica varia in questo modo, data la sorgente, trova la metrica in ogni punto dello spazio“. E sono esprimibili in una maniera abbastanza analoga:

In realtà l’informazione contenuta è molto più ricca. Conoscendo T_{\mu\nu} (la materia e l’energia presenti nello spaziotempo) possiamo trovare la forma dello spaziotempo (contenuta in g_{\mu\nu}). Tuttavia la conoscenza di questa forma ci dice pure come si muoveranno massa ed energia.

La materia dice allo spaziotempo come curvarsi, e lo spaziotempo dice alla materia come muoversi

J.A. Wheeler

Un esempio molto semplice di sorgente massa-energia si ha nel caso di fluido perfetto in equilibrio termodinamico. Un fluido perfetto è caratterizzato dalla sua densità volumica \rho e dalla sua pressione P. Il tensore T_{\mu\nu} ha la seguente forma:

Inserendo T_{\mu\nu} nelle equazioni di Einstein è possibile risalire alla struttura dello spaziotempo g_{\mu\nu}, in riposta alla presenza di questo fluido!

Come mai le equazioni hanno questa forma?

Le equazioni di campo di Einstein hanno una forma poco familiare rispetto alle quantità che si maneggiano di solito in fisica classica. Per realizzare matematicamente quello che Einstein voleva esprimere, e cioè che la fisica non deve dipendere dalle coordinate di chi la sta studiando, era fondamentale che le equazioni per lo spaziotempo fossero tensoriali.

La metrica g_{\mu\nu} è un tensore. La sorgente di massa-energia T_{\mu\nu} è un tensore.

Un tensore è un oggetto matematico che permette di scrivere equazioni che non dipendono dalle coordinate utilizzate, grazie alla sua proprietà di trasformazione sotto cambiamenti di coordinate.

Questa richiesta complica terribilmente le equazioni della teoria, ma le rende infinitamente eleganti, perché assumono carattere di universalità: sono valide per tutti.

Non importa che coordinate utilizzi per studiare la Gravità: sarà sempre una manifestazione della curvatura dello spaziotempo, studiabile nelle coordinate che più ti tornano comode.

Le equazioni di Einstein sono ENORMEMENTE complicate da risolvere, anche nei casi più semplici. Si tratta di equazioni differenziali alle derivate parziali e non lineari, la cui soluzione analitica si conosce solo per un ristrettissimo numero di situazioni altamente semplificate e simmetriche (per tutto il resto, ci sono i computer).

Ad esempio, concentrandoci sullo spaziotempo vuoto attorno a una distribuzione di massa M a simmetria sferica, il lato destro delle equazioni di Einstein è nullo dato che T_{\mu\nu}=0

La metrica g_{\mu\nu} che risolve questa equazione (oltre alla soluzione banale di metrica piatta) è data da:

in cui r è la distanza dalla sorgente di massa M, \theta è una coordinata angolare, ed r_s è definito come raggio di Schwarzschild r_s=2GM/c^2. Il primo termine in alto a sinistra è g_{00}, la componente puramente temporale (chiamato anche g_{tt}), mentre sulla diagonale abbiamo g_{11},g_{22} e g_{33}, altrimenti indicati con g_{xx}, g_{yy}, g_{zz}.

Per valori della distanza r vicini al raggio di Schwarzschild r_s, uno dei termini della metrica (g_{11}) diventa molto grande perché stiamo dividendo per un numero molto vicino a zero. La curvatura dello spaziotempo aumenta sempre di più man mano che la nostra distanza dalla sorgente diminuisce.

Rappresentazione bidimensionale della metrica di Schwarzschild.

Questa metrica g_{\mu\nu} è un esempio di soluzione delle equazioni di Einstein: descrive lo spaziotempo attorno a una massa M. Ad esempio lo spaziotempo attorno al Sole ha una struttura di questo tipo. Anche lo spaziotempo attorno alla Terra ha questa struttura. Anche lo spaziotempo attorno a un buco nero.

Dove si nasconde Newton?

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

La Gravità di Einstein è una versione ultra-sofisticata della Gravità di Newton, in cui i concetti di spazio e tempo si uniscono e diventano dinamici. Nel mondo di Einstein, il tempo è relativo, la velocità della luce è un limite universale, e non esiste l’azione istantanea delle forze, ma tutto deve essere mediato dai campi.

Come faceva Einstein a sapere di aver ragione? Beh, la sua teoria doveva anche essere in grado di riprodurre due secoli di successi della gravitazione di Newton. Scrivendo l’accelerazione come \vec{a}=d^2\vec{x}/dt^2 la legge di Newton per la gravitazione di un corpo attorno a una massa M è

L’accelerazione non dipende dalla massa del corpo che cade. Come sai, tutti i corpi accelerano allo stesso ritmo, a parità di distanza dalla sorgente. Questa è una caratteristica unica della Gravità, e ad Einstein venne in mente che proprio per questo motivo la Gravità non è una forza, ma il risultato del moto in uno spaziotempo curvo: tutti i corpi dell’universo si muovono su traiettorie di caduta libera nello spaziotempo, chiamate geodetiche.

Una volta nota la metrica dello spaziotempo, sai come si muoveranno gli oggetti nello spaziotempo.

Nel contesto einsteiniano una geodetica x(\tau) è una traiettoria nello spaziotempo che soddisfa la seguente equazione:

La lettera \mu è un indice che scorre tra i valori \{0,1,2,3\}.

Espressione che mette un po’ d’ansia se vista per la prima volta, lo ammetto. Sappi solo che serve a trovare una traiettoria nello spaziotempo. Lo spaziotempo è contenuto dentro il simbolo \Gamma_{\nu\rho}^\mu: la metrica g_{\mu\nu} (e la sua variazione) è proprio contenuta dentro \Gamma. Per questo motivo Wheeler diceva che lo spaziotempo dice alla massa come muoversi.

La Gravità di Newton si recupera richiedendo che:

  • le velocità coinvolte devono essere molto più piccole di quella della luce v\ll c;
  • la curvatura dello spaziotempo non sia troppo elevata. Ad esempio ci mettiamo a distanza r\gg r_s, lontani dal raggio di Schwarzschild.

Così facendo, l’espressione per l’equazione delle geodetiche si approssima così (non è formalmente precisissima, ma mi serve per far rendere l’idea)

Chi è g_{00}? Guardiamo la metrica g_{\mu\nu} trovata sopra:

Dunque per trovare l’accelerazione basterà fare la derivata di g_{00} rispetto ad r. Se non sai cosa è una derivata, ti basti sapere che il calcolo produce (d/dr)(1/r)=-1/r^2, e che la derivata di una costante fa zero.

La velocità della luce c^2 si semplifica in quanto tutta l’equazione delle geodetiche era in realtà moltiplicata da 1/c^2 (anche se te l’ho nascosto per semplicità). Sostituendo, il risultato è quindi:

e cioè proprio l’espressione newtoniana.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Il Graal della Fisica: perché l’Unificazione tra Gravità e Quantistica è Tecnicamente Ardua?

Tra le quattro interazioni fondamentali, l’unica a non ammettere (ad oggi) una convincente e comprovata trattazione quantistica è la Gravità.

Che la situazione sia questa non è di certo cosa nuova. D’altra parte le tre interazioni fondamentali quantistiche (forza forte, forza debole ed elettromagnetismo) trovano una naturale collocazione nel mondo microscopico, dove la quantistica fa da padrona, appunto.

Anzi, dal punto di vista della fisica teorica, queste tre interazioni (si dimostra) sorgono in maniera naturale nella teoria quantistica una volta incorporati i princìpi della Relatività Speciale tramite alcune simmetrie aggiuntive (chiamate simmetrie di gauge).

La Gravità, invece, trova una naturale collocazione nel mondo macroscopico, con Newton (prima) ed Einstein (oggi).

Però ho letto che molti gruppi di ricerca stanno lavorando a diverse teorie di Gravità quantistica. Qual è lo stato odierno della ricerca?

Semplicemente: non abbiamo una teoria quantistica della Gravità che sia in grado di passare dal microscopico (mondo quantistico) al macroscopico (pianeti, cosmologia etc.) in maniera univoca e naturale.

Microscopico e macroscopico: quanto ci piacerebbe che la Gravità fosse un po’ più simile all’elettromagnetismo. L’elettromagnetismo ammette sia una descrizione quantistica (elettrodinamica quantistica, o QED) che una descrizione classica (le leggi di Maxwell che studiamo al liceo). Dal punto di vista quantistico, delle particelle chiamate fotoni fanno da intermediarie tra le cariche elettriche. A partire da questa descrizione quantistica è facile ricavare la descrizione classica ottocentesca di Maxwell, in cui dei fotoni ce ne freghiamo altamente.

La Gravità, però, è così tanto diversa…

Diversa in che senso? Mi pare di aver letto che elettromagnetismo e Gravità siano anzi molto simili, in fisica classica entrambe dipendono dalla distanza con la legge 1/r^2 ad esempio…

Oltre al fatto che in Gravità possiamo avere solo attrazione e mai repulsione, c’è anche quest’altro fatto: una particella elettricamente neutra non “sente” il campo elettrico che la circonda.


La Gravità invece? Niente è in grado di “spegnere” la Gravità. Anche un corpo senza massa “sente” il campo gravitazionale attorno a lui, ad esempio la luce viene deflessa dal campo gravitazionale. Questo è spiegato, in Relatività Generale, dal fatto che la Gravità non è altro che la manifestazione della curvatura dello spaziotempo. Tutti gli oggetti seguono le traiettorie naturali dettate dalla curvatura dello spaziotempo, non possono fare altrimenti. La curvatura dello spaziotempo è a sua volta dettata da quanta massa ci sta dentro.

Che la Gravità fosse essenzialmente diversa dall’elettromagnetismo si capiva già dalla teoria di Newton. Ricordi F=ma? Se cerchi l’accelerazione di un corpo sottoposto al campo gravitazionale, trovi che l’accelerazione non dipende dalla massa del corpo, ma solo dalla massa di chi il campo gravitazionale lo ha generato. La famosa forza di Coulomb per il campo elettrico, invece, prevede che l’accelerazione di un corpo dipenda sia dalla sua carica elettrica, sia dalla sua massa. Parliamo quindi di due cose completamente diverse.

Qui k è la costante elettrica di Coulomb, mentre G è la costante di gravitazione universale di Newton. Nell’elettromagnetismo, l’accelerazione di un corpo dipende dalla sua massa, mentre nella Gravità no. Nella Gravità, la massa si semplifica.

D’accordo, sono forze molto diverse. Per questo motivo Einstein intuì che la Gravità doveva essere legata alla struttura stessa dello spaziotempo.

Ciò che non capisco ora è perché questo fatto renda così difficile quantizzare la gravità.

Uno dei primi problemi è puramente tecnico: nel Modello Standard (il quale ingloba le tre interazioni quantistiche citate prima), i fenomeni tra le particelle sono descritti sul palcoscenico dello spaziotempo della Relatività Speciale: uno spaziotempo piatto che agisce passivamente, il cui unico scopo è quello di permetterci di annotare le coordinate spaziali e temporali delle particelle nei processi quantistici.

Ho capito! Quindi il problema è che non sappiamo fare i calcoli in uno spazio curvo, è lo spazio curvo della Relatività Generale il problema?

No, in realtà sappiamo fare i calcoli del Modello Standard anche in uno spazio curvo. Curvo o piatto non fa differenza, ci si adatta. No, la difficoltà è un’altra: questo spazio, curvo o piatto che sia, deve essere fisso, indipendente dalla materia, deve essere uno spettatore, non un attore.

Le teorie quantistiche del Modello Standard sono scritte nel seguente modo: i campi quantistici delle particelle sono “costruiti” come funzioni dello spaziotempo. Le interazioni avvengono nello spazio e nel tempo, ma la presenza stessa delle particelle non determina che forma debba avere lo spaziotempo. Il Modello Standard non prevede la risoluzione di un’equazione che descrive la dinamica dello spaziotempo.

L’equazione che descrive la dinamica dello spaziotempo è invece la più importante della Relatività Generale ed è nota come equazione di campo di Einstein:

R_{\mu\nu}, R e g_{\mu\nu} sono quantità con cui descriviamo la geometria dello spaziotempo. Invece T_{\mu\nu} descrive il contenuto di materia-energia presente. L’equazione dice che tale contenuto determina la geometria stessa dello spaziotempo.

In realtà va usato il plurale, queste sono 10 equazioni (gli indici \mu,\nu=\{0,1,2,3\} esplicitano le componenti), equazioni differenziali altamente non lineari, alle derivate parziali (qualsiasi cosa voglia dire per te, se non hai dimestichezza, sappi che è un modo tecnico per dire “è tutto altamente incasinato”).

Cosa vogliamo trovare con queste equazioni? L’espressione per g_{\mu\nu}, chiamata “metrica“, cioè la forma geometrica dello spaziotempo.

Anche quando non c’è sorgente (cioè T_{\mu\nu}=0) non esiste una soluzione generica per le equazioni di Einstein. Certamente lo spazio piatto è una soluzione possibile, ma non LA soluzione più generica. In genere vanno assunte ulteriori simmetrie geometriche per trovare la soluzione anche nel caso più semplice (come la simmetria sferica attorno a un punto).

In sostanza, è questo uno dei principali motivi per cui è difficile raccordare il formalismo quantistico con quello della Relatività Generale, è proprio la dinamicità dello spaziotempo!

Prima di andare avanti ho una domanda:

e se fosse proprio così? Nel senso, non potremmo lasciare la Gravità per conto suo se la Natura ci suggerisce di fare così? Tre forze sono quantistiche e una forza è non-quantistica, per dire. Che ci sarebbe di male?

Intendi che dovremmo rinunciare a una descrizione quantistica della gravità? In questo senso è la Relatività Generale stessa (la attuale teoria classica della Gravità) che “si scava la fossa da sola”.

Perché si “scava la fossa” da sola?

Due parole: buchi neri. Sono previsti dalla Relatività Generale, ma la matematica smette di avere senso nella singolarità di un buco nero. La singolarità è il punto in cui la curvatura dello spaziotempo diventa infinita. Si suppone che a quel punto, vicino alla singolarità, entri in gioco una teoria più sofisticata della Gravità, che abbia a che fare con il microscopico: la gravità quantistica. Questa teoria potrebbe potenzialmente descrivere anche i primissimi istanti di vita dell’Universo.

D’accordo, quindi è sensato (e necessario) ricercare la gravità quantistica.

Ho sentito parlare in giro del gravitone, l’ipotetica particella quantistica mediatrice della Gravità (un po’ come il fotone nella QED)….Non è già questa una teoria quantistica?

Il gravitone è quanto di più “Modello Standard” tu possa fare con la Relatività Generale. Nelle teorie del Modello Standard ci piace lavorare nello spaziotempo piatto e immobile della Relatività Speciale, chiamiamolo \eta_{\mu\nu}.

Un’idea (primitiva) in Gravità quantistica è di considerare delle perturbazioni piccole di questo spazio piatto, chiamiamole h_{\mu\nu}(x). Lo spaziotempo può quindi essere espresso come la seguente somma: spazio piatto più una piccola perturbazione:

Nella cosiddetta “trattazione perturbativa” di una teoria quantistica di gravità, il gravitone è un quanto di eccitazione di questo campo h_{\mu\nu}(x), e così come il campo elettromagnetico prevede l’esistenza delle onde elettromagnetiche come dettato dalle leggi di Maxwell, il campo di perturbazione gravitazionale h_{\mu\nu} prevede l’esistenza di onde gravitazionali come dettato dalle equazioni di Einstein scritte sopra (in sostanza si sostituisce g_{\mu\nu}=\eta_{\mu\nu}+h_{\mu\nu}(x) al loro interno in assenza di sorgente, cioè T_{\mu\nu}=0).

Il problema è che questa trattazione perturbativa casca completamente quando si considerano alte energie, nulla ha più senso: sorgono degli infiniti che non è possibile rimuovere. Nelle altre tre interazioni fondamentali erano rimovibili, nel caso della Gravità ciò non è possibile, proprio per via della sua struttura altamente non-lineare.

Per questo motivo l’approccio perturbativo è stato presto abbandonato e si sono ricercate delle teorie più fondamentali, teorie quantistiche in cui lo spaziotempo è effettivamente dinamico, e non una mera “perturbazione” dello spaziotempo piatto sottostante e immutabile.

Sì, ne ho sentito parlare. Due in particolare sono molto famose: Teoria delle Stringhe e Gravità quantistica a Loop.

Sono alcuni degli approcci possibili, ma non gli unici, anche se oggi quei nomi hanno un significato un po’ diverso da quello che avevano 30 anni fa. Senza andare nei dettagli, queste teorie cercano di quantizzare la gravità in modi diversi: la gravità quantistica a loop ha un approccio geometrico e ha come unico scopo la quantizzazione della gravità. La teoria delle stringhe ha un obbiettivo molto più vasto, cioè l’unificazione e la descrizione di tutte le interazioni fondamentali, assieme a tutte le particelle ad oggi scoperte (e non).

  • Gravità quantistica a loop: ci interessa la struttura quantistica dello spaziotempo, che viene visto come una rete fatta di nodi e connessioni tra quanti discreti di spazio e tempo.
  • Teoria delle (super)stringhe: ci interessa la dinamica di ipotetiche piccolissime stringhe. La loro forma, la loro propagazione nello spaziotempo e i loro modi di vibrazione descrivono tutte le particelle, fino al gravitone.

Mi pare però di capire che nessuna delle due risulti essere la teoria definitiva della Gravità quantistica?

Purtroppo è così. In particolare è difficile inventare strumenti matematici in grado di risolvere le questioni tecniche citate prima, che siano compatibili sia con il mondo quantistico che con il mondo relativistico, in modo che dalla teoria fondamentale possa discendere anche un limite classico. Insomma, ci piacerebbe che le equazioni di Einstein uscissero in maniera naturale dai calcoli della teoria quantistica, nel limite di basse energie (o, equivalentemente, di grandi distanze).

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Non è chiedere troppo, d’altronde anche le equazioni di Einstein si riducono alle equazioni della gravità newtoniana (sì, anche la famosa dipendenza 1/r^2 della forza di gravità) se assumiamo un limite non relativistico (basse velocità rispetto a quella della luce, e spaziotempo quasi-piatto).

Che una teoria più sofisticata contenga al suo interno la teoria più “grezza” come limite, è un aspetto cruciale della fisica teorica. La Relatività Generale continua a superare ogni test sperimentale di giorno in giorno, per cui è importante che ogni teoria quantistica della gravità sappia riprodurre anche i suoi risultati. Il punto poi è scegliere LA teoria quantistica definitiva, tra le versioni più promettenti.


In questo senso, una delle difficoltà principali rimane quella della testabilità di queste teorie. Solo tramite test sperimentali siamo in grado di fare scienza.

Perché è difficile testare la teorie esistenti di gravità quantistica?

La Gravità è sfortunatamente l’interazione fondamentale più debole. Ad esempio l’attrazione gravitazionale tra due protoni risulta essere 10^{36} volte più debole della loro repulsione elettrica.

Per questo motivo, è estremamente complicato ricercare effetti gravitazionali nel mondo quantistico delle particelle. Infatti c’è pure chi ha fatto dimostrazioni euristiche sulla non osservabilità del gravitone! [F. Dyson (2013)].

Senza la guida sperimentale è impossibile trovare una teoria convincente?

Non è impossibile. Grazie agli sviluppi tecnologici degli ultimi decenni nel campo dei calcolatori, siamo stati in grado di esplorare nuovi approcci (chiamati approcci “non perturbativi”), i quali riguardano simulazioni numeriche di alcuni calcoli che a mano sarebbero proibitivi.

Questi che ho illustrato sono alcuni dei motivi per cui questo matrimonio è così difficile. Sicuramente ci saranno altri motivi più sottili, ma non essendo questo il mio campo (mi occupo di fisica delle particelle) preferisco non andare oltre. Una cosa rimane certa: con questo matrimonio ci giochiamo la chiave per la comprensione della realtà.

[Bibliografia]
R.Loll, G. Fabiano, D. Frattulillo, F. Wagner (2022).


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica e la magistrale in Fisica Teorica all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

L’inversione del Tempo nella Gravità

Svuota la mente da tutte le complicazioni del mondo, elimina l’aria e altri attriti, e prova ad immaginare solo una palla sospesa sopra a un pavimento perfetto (cioè senza irregolarità nella sua superficie).

Lascia cadere la palla e registra quel che succede con una videocamera: la palla cade e rimbalza, ritornando su.

Ipotizza pure che la palla rimbalzi elasticamente in modo che la sua energia cinetica non sia dispersa in deformazione a causa dell’urto col pavimento.

La palla rimbalzerà fino a tornare all’altezza da cui è stata lanciata, per il principio di conservazione dell’energia totale. La sequenza in figura è da leggere come 1, 2 e 3.

Ok, wow. Che c’entra questo con l’inversione del tempo nella Gravità?

Abbiamo fatto un video di quanto accaduto, e la registrazione è suddivisibile in tre sequenze, indicate in figura dai numeri 1, 2 e 3. Che cosa vediamo ora se facciamo scorrere il filmato al contrario, cioè 3, 2, 1? Vediamo esattamente la stessa cosa: la palla inizia a scendere prima lentamente, poi sempre più velocemente fino a quando non rimbalza sul pavimento e arriva al fotogramma 1, in maniera del tutto identica alla sequenza 1, 2, 3!

Lo scenario 321 corrisponde all’inversione della freccia del tempo. L’inversione temporale consiste matematicamente nel cambiamento del segno davanti alla coordinata del tempo, indicata con “t”:

Impariamo quindi che la Gravità è simmetrica sotto inversione temporale! Significa che l’interazione gravitazionale rimane attrattiva indipendentemente dalla direzione del tempo.

Aspetta, ma se rimuovo il pavimento la palla cade verso il centro della Terra e rimane lì, non ritorna su!

Il filmato visto al contrario ha un aspetto ben diverso in quel caso: la palla arriva da giù e poi ritorna su (per starci), come se la Gravità fosse una forza repulsiva invece che attrattiva!

Ottima osservazione. Nel caso che hai citato, se guardassimo il filmato al contrario, sembrerebbe infatti che la Gravità stia “rigettando” la palla. In realtà bisogna studiare la situazione del filmato fotogramma per fotogramma come se fossimo degli investigatori.

  • Tempo normale: la palla parte dall’alto con velocità nulla, e viene man mano accelerata verso il basso per via dell’attrazione gravitazionale con la Terra. Come conseguenza la sua velocità (diretta verso il basso) ha un valore che aumenta sempre di più man mano che scende. C’è insomma qualche attrazione verso il basso che sta dicendo alla palla “vieni verso di me!”
  • Tempo invertito: la palla parte dal basso con grande velocità, ma stavolta direzionata verso l’alto. Man mano che la sua quota aumenta e si avvicina al punto da cui l’abbiamo lasciata cadere nel filmato originale, la sua velocità diminuisce sempre di più: c’è anche qui un’attrazione verso il basso che sta dicendo alla palla “fermati, torna da me, vieni verso di me!”

In entrambi i casi è la Gravità che dice alla palla di accelerare verso il basso, la direzione dell’accelerazione è sempre verso il centro della Terra. In questo senso intendiamo dire che la Gravità è simmetrica per inversione temporale.

Non so se debba sorprendermi o confondermi. E in ogni caso, mi pare una definizione costruita ad-hoc!

Almeno c’è un motivo fisico dietro?

Il motivo è molto semplice e sta dentro un dettaglio matematico. Chiamiamo dS lo spostamento in un piccolo segmento di traiettoria della palla, percorso in un tempo dt. Qui la lettera d ha un ruolo speciale che significa “piccola variazione di”:

  • dS significa “piccolo spostamento nello spazio S
  • dt significa “piccolo intervallo di tempo”

La velocità di un corpo è, a parole, quanto spazio abbiamo percorso in un certo tempo che abbiamo cronometrato. Normalmente si misura in metri al secondo, chilometri all’ora, etc. La preposizione articolata “al” sta a significare che spazio e tempo vanno divisi (matematicamente) tra loro. Infatti la velocità è definita come il rapporto tra dS e dt

Ok il fatto che la velocità cambi segno quando invertiamo il tempo dovrebbe vedersi da questa formula, giusto?

Esattamente, facciamo la trasformazione t \to (-t) nella formula e vedrai che il segno si propaga dal denominatore a tutta la frazione: segno invertito!

Questo ce lo aspettavamo: nel filmato la palla si muove effettivamente al contrario rispetto a prima, ma il suo valore assoluto non cambia (in particolare, il valore assoluto nel tempo rimane uguale punto per punto della traiettoria).

L’accelerazione invece (che nel nostro caso è dettata dall’interazione gravitazionale) è definita come la variazione della velocità nel tempo:

  • dv significa “piccola variazione nella velocità”

definita quindi come:

Abbiamo semplicemente sostituito al posto di v la sua espressione v=dS/dt data sopra.

Vuoi dirmi che da qui dovrebbe essere evidente che l’accelerazione conserva sempre lo stesso segno anche se invertiamo la coordinata del tempo?

Esattamente! Lo vedi applicando t \to (-t) nella formula:

meno per meno fa più, e il segno sparisce! All’accelerazione non frega nulla della freccia del tempo. Nel caso dell’accelerazione gravitazionale questo è proprio ciò che osserviamo.

Sì, molto bene. Però ho capito dove sta la furbizia: il mondo non funziona così!

Nel primo esempio la palla perde sempre anche solo una minuscola quantità di energia cinetica nel rimbalzo: si chiama dissipazione. Anche l’aria fa da attrito! Dunque, rivedendo il filmato al contrario, sarò capace di distinguere una direzione del tempo dall’altra.

La palla non tornerà mai esattamente alla stessa altezza da dove l’ho lasciata cadere.

Giustissima osservazione, di nuovo. Il punto è che quegli effetti non sono dovuti alla Gravità, ma alle interazioni della palla col mondo circostante. In un mondo senza attrito, la simmetria del tempo della Gravità è solo molto più evidente, tutto qua.

In fondo, ciò che ci permette di distinguere tra passato e futuro è proprio la dissipazione di energia in calore, collegato con l’aumento dell’entropia dell’universo.

D’accordo, ma perché secondo te tutto questo discorso è interessante?

Questa simmetria della Gravità sotto inversione temporale viene rotta esplicitamente nell’orizzonte di un buco nero, anche senza scomodare i concetti di entropia. Avrai forse sentito (clicca qui per un video pedagogico sull’argomento) che una volta superato il cosiddetto “orizzonte degli eventi” nulla può tornare indietro, neanche la luce può uscire.

Illustrazione bidimensionale dello spaziotempo attorno a un buco nero.

Se invertiamo la freccia del tempo sull’orizzonte, la Gravità si comporta in maniera diversa dato che non potremo mai vedere un oggetto tornare indietro superando l’orizzonte.

Possiamo vedere un oggetto che oltrepassa l’orizzonte venendo da fuori, ma non possiamo mai vederlo oltrepassarlo venendo dall’interno?

In realtà non lo vediamo nemmeno nel primo caso, dato che la luce ci mette sempre più tempo per raggiungerci man mano che l’oggetto si avvicina all’orizzonte. L’oggetto ci apparirà come “immobile” sull’orizzonte, ipotizzando che lo osserviamo a una certa distanza dal buco nero.

Ok stai tirando in ballo la Relatività Generale di Einstein senza dirlo pubblicamente. Se non masticassi l’argomento ti perderei qui, chiaro?

D’accordo allora concentriamoci sul messaggio da portare a casa: alcuni gruppi di ricerca stanno ipotizzando che la famosa “singolarità” di un buco nero preveda la possibilità di un “ribaltamento” della direzione del tempo.

L’interno dello spaziotempo di un buco nero potrebbe transitare quantisticamente in una configurazione in cui il tempo è invertito.

Tale transizione consiste nella trasformazione di un buco nero in un buco bianco.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Da un buco nero nulla può uscire, in un buco bianco nulla può entrare. Un buco bianco è il futuro di un buco nero, il suo interno vede il tempo scorrere al contrario, e ora il suo orizzonte prevede la fuoriuscita di materia invece che il suo assorbimento [tutto ciò è discusso divulgativamente da C.Rovelli in “Buchi Bianchi” (Adelphi, 2023)].

La chiave di tutto ciò è che all’esterno un buco nero e un buco bianco sono del tutto simili: lo spaziotempo attorno è identico, la Gravità rimane attrattiva nonostante la direzione del tempo in un buco bianco sia ribaltata. Il motivo è proprio quello che abbiamo discusso prima: l’accelerazione è insensibile alla freccia del tempo.

Questo, di fatto, legittima l’ipotesi dei buchi bianchi: all’esterno, la loro esistenza non contraddice le leggi della Relatività Generale, l’Universo funziona ugualmente anche includendo i buchi bianchi. Il ribaltamento del tempo è compatibile con quanto sappiamo dell’Universo.

Invece, all’interno degli orizzonti, l’inversione del tempo gioca un ruolo fondamentale dato che consiste nel diverso comportamento di queste due entità.
Due entità (buco nero e buco bianco) che all’esterno sono indistinguibili, ma che all’interno si comportano in maniera opposta (uno fa l’inverso dell’altro).

Ho come l’impressione che tutto ciò sia solo un’introduzione molto semplificata. Dove sta l’entropia in questo gioco? La distinzione tra passato e futuro?

E inoltre, non avevi illustrato che un buco nero è in grado di emettere energia e rimpicciolirsi tramite la radiazione di Hawking? Come fa a evolversi in un buco bianco tenendo conto di ciò?

Hai detto bene, questo è solo un assaggio con cui spero di avere acceso la tua curiosità. Come per ogni argomento di ricerca, le questioni tecniche sono tante e intricatissime. Cercherò di dissenzionarle una ad una in futuro, anche perché voglio vederci meglio pure io. Sono poi curioso di sapere come si evolverà il campo nei prossimi dieci anni, e di come questa ipotesi dei buchi bianchi andrà a stimolare discussioni sulla natura della freccia del Tempo.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la specializzazione in Fisica Teorica (2023) all’Università di Pisa, studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard, interessandosi anche di Relatività Generale.

È autore del libro “L’apprendista teorico” (2021).

“E questa…chi l’ha ordinata?” La particella che contribuì a verificare la Relatività

A cavallo degli anni ’30 del secolo scorso, la fisica delle particelle si trovava in una fase di rapida evoluzione:

Insomma, questa timeline poteva far pensare che stessimo avanzando a passo spedito verso una comprensione delle interazioni nucleari (oggi note come interazioni forti). Perciò è facile comprendere l’esclamazione iconica del fisico Isidor Rabi quando si concluse che la nuova particella scoperta da Carl Anderson e Seth Neddermeyer nel 1936 (che oggi sappiamo essere il muone) non partecipava alle interazioni nucleari forti, cioè non era il pione teorizzato da Yukawa, ma era anzi un “cugino più ciccione” dell’elettrone:

E questa…chi l’ha ordinata?

I.I. Rabi (premio Nobel 1944)

Chi ha ordinato un cugino più ciccione dell’elettrone? In gergo da fisici significa: questa particella non ci aiuta ad avanzare le nostre comprensioni del nucleo dato che non sente l’interazione forte, quindi a che pro la sua esistenza? Che cosa ce ne facciamo di un elettrone più massiccio? E inoltre, perché è tipo 200 volte più massiccio dell’elettrone, ma ha uguale carica elettrica e spin?

La massa del muone è circa 200 volte quella dell’elettrone, ma hanno stesso spin e carica elettrica.

È vero, è vero, la scienza non si occupa dei “perché”, ma cerca di sfruttare ogni scoperta al fine di migliorare la condizione sociale e culturale dell’umanità.

In questo senso, la scoperta del muone ha avuto una grande importanza non solo per la fisica delle particelle, ma anche per una delle prime verifiche della celebre dilatazione temporale prevista dalla Relatività Ristretta. In questa verifica c’è un pezzo di Italia: il fisico veneziano Bruno Rossi.

L’ innovazione di Bruno Rossi 

Nell’anno della scoperta del muone, Bruno Rossi insegnava fisica sperimentale a Padova, ed era già un nome affermato nel campo della fisica dei raggi cosmici. Questi ultimi venivano osservati da un paio di decenni e consistevano in particelle cariche ionizzanti che si formavano nell’atmosfera, a causa (come si scoprì) dell’impatto tra gli atomi atmosferici e particelle altamente energetiche (principalmente protoni) provenienti dalle profondità del cosmo. Fu proprio da queste collisioni che venne scoperto il muone. 

Un giovane Bruno Rossi (sinistra) con Enrico Fermi, al primo congresso internazionale di fisica nucleare di Roma. 

Rossi era riservato, mite e profondamente artistico (era un grande ammiratore di Dante Alighieri), ed era descritto dai suoi colleghi come una personalità “complessa, un po’ da poeta e un po’ da scienziato”. Gli fu sottratto il posto da insegnante nel 1938 per via delle leggi razziali italiane, e fu quindi costretto ad emigrare. Dopo un soggiorno a Manchester, si trasferì definitivamente negli Stati Uniti su invito dell’università di Chicago per la partecipazione a un simposio proprio sul muone, la nuova particella. 

Rossi aveva grande manualità nella costruzione di circuiti in grado di rivelare il passaggio di queste particelle, tant’è che alcune sue invenzioni sono poi diventate lo standard nel campo della fisica dei rivelatori. Dopo il simposio di Chicago, si occupò di dimostrare che il muone è una particella instabile, e riuscì a inferire che il suo tempo medio di decadimento doveva essere di circa 2 microsecondi. Questa fu la prima dimostrazione sperimentale del decadimento di una particella sub-nucleare. 

È molto probabile che, mentre stai leggendo, alcuni muoni derivanti dai raggi cosmici ti stiano attraversando dall’alto verso il basso.

La dilatazione dei tempi

Il punto fondamentale è che questo tempo medio di decadimento del muone è riferito rispetto al sistema di riposo della particella.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Il ragionamento è questo: le particelle non amano stare ferme, questi muoni sono prodotti in collisioni nell’alta atmosfera, dopodiché si dirigono a grande velocità verso il suolo terrestre. Se ci mettiamo in un sistema di riferimento solidale a un muone (cioè ci muoviamo nella sua stessa direzione e con la sua stessa velocità in modo che, rispetto a noi, risulti fermo), e cronometriamo dal momento in cui è prodotto al momento in cui decade, il tempo che passerà ammonta a circa 2 microsecondi, come è possibile calcolare con la teoria di Fermi dell’interazione debole.

La velocità dei muoni è una frazione apprezzabile della velocità della luce, per cui diventa apprezzabile la natura interconnessa tra spazio e tempo prevista dalla relatività speciale di Einstein. Prendiamo due eventi temporali che accadono nello stesso punto dello spazio, la distanza temporale la chiamiamo \Delta \tau. Gli stessi eventi temporali, visti ora da qualcuno che si muove a velocità v rispetto a prima, sono invece distanziati temporalmente di una quantità \Delta t relazionata a \Delta \tau secondo la celebre formula:

dove c è la velocità della luce. Vediamo che per v\to c il denominatore approccia zero, e dunque \Delta t cresce molto: si ha una dilatazione dei tempi dal punto di vista dell’osservatore che vede i due eventi verificarsi in punti diversi dello spazio (per via del suo moto relativo). Questo è il contenuto teorico della relatività ristretta: a basse velocità v\to 0 rispetto alla velocità della luce, si ha approssimativamente che \Delta t\approx \Delta \tau, cioè il tempo ha la stessa durata per tutti, come siamo abituati nella nostra quotidianità.

Sinistra: grazie alla dilatazione dei tempi, siamo in grado di rivelare i muoni. Destra: se non ci fosse la dilatazione dei tempi, i muoni decadrebbero dopo 600 metri.

L’ esperimento di Rossi e Hall

Nel caso dei muoni, gli eventi “creazione” e “decadimento” del muone avvengono nello stesso punto dello spazio dal punto di vista del muone (secondo il muone, siamo noi a muoverci mentre lui è fermo nel suo sistema di riferimento). Se non esistesse la relatività speciale e il tempo di decadimento del muone fosse quello a riposo, li vedremmo decadere dopo aver percorso solo circa 600-700 metri.

    \[L\approx \underbrace{(0.9\cdot c)}_\text{velocità}\times (2.2*10^{-6})\text{ s}\approx 600\,\text{m}\]

Dato che i muoni vengono prodotti dalle collisioni dei raggi cosmici con l’atmosfera a circa 15 km di altezza rispetto al livello del mare, ciò significherebbe che non saremmo in grado di rivelarli neanche nelle cime montuose più alte del pianeta: decadrebbero ben prima!

Grazie ai suoi apparecchi sperimentali, nel 1940 Rossi riuscì a verificare la seguente relazione tra distanza percorsa L dei muoni e la loro energia E:

m_\mu è la massa del muone, \Delta \tau è il suo tempo di decadimento a riposo, pari a circa 2 microsecondi.

la quale discende direttamente dalle formule della relatività ristretta. Bastava quindi verificare che il rapporto tra distanza percorsa ed energia dei muoni doveva essere una costante pari a \Delta \tau/(m_\mu c). Rossi e Hall eseguirono l’esperimento sia a Echo Lake (3240 metri) che a Denver (1616 metri) in Colorado, e la verifica ebbe successo!

I muoni riuscivano a raggiungere altitudini così basse grazie alla dilatazione temporale: rispetto a noi, il loro tempo di decadimento è più lungo, dunque percorrono una distanza maggiore prima di decadere.

Quindi, 35 anni dopo la sua formulazione, nel 1940 la Relatività Ristretta superò uno dei primissimi test di validità, e tale test riguardava proprio uno degli aspetti più controversi: la dilatazione temporale. Ciò non sarebbe stato possibile senza l’ausilio dei raggi cosmici (che mettono a disposizione una quantità generosa di particelle con cui far “giocare” i fisici) e l’expertise di Rossi e gli altri fisici delle astroparticelle dell’epoca.

La precisione con cui Rossi e i suoi collaboratori riuscirono ad estrarre i parametri dei muoni è lodevole, nonostante fossero esperimenti condotti agli albori dell’elettronica dei rivelatori. Oggi un rivelatore di muoni può essere costruito anche a casa, ad un costo non troppo distante dai 100€, come illustrato qui: http://cosmicwatch.lns.mit.edu/detector#cosmicwatch.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la specializzazione in Fisica Teorica (2023) all’Università di Pisa, studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard, interessandosi anche di Relatività Generale.

È autore del libro “L’apprendista teorico” (2021).

Quark: uno sguardo sulla Cromo-Dinamica Quantistica

Si sa: più si cerca di semplificare la fisica, più è probabile incappare in incomprensioni e confusione. È quello che nello slang degli economisti si chiama “trade off” : il nostro trade off è che acquisiamo intuizione, ma sacrifichiamo la precisione.
Nella fisica delle particelle la teoria dei Quark (QCD) è la teoria più complessa mai concepita, ma anche una delle più testate sperimentalmente. Divulgare questa teoria è sempre una grande sfida perché è una bestia difficile da addomesticare e si rischia sempre di risultare imprecisi o completamente in errore.

Le interazioni tra i tre quark all’interno di un neutrone.
[Qashqaiilove, Wikimedia Commons]
La realtà è che c'è ben poco di intuitivo nella QCD. Tuttavia ci sono delle circostanze in cui possiamo connettere alcuni concetti con dei fatti di cui abbiamo già familiarità e intuizione nella meccanica classica. 

I Quark sono (per quanto ne sappiamo oggi) i costituenti più fondamentali della materia, conferendo una struttura ben precisa agli elementi del nucleo come protoni e neutroni (i quali sono composti ciascuno da tre quark).
Nonostante ciò è molto difficile intuire che protoni e neutroni siano composti da Quark! Infatti se ne osservano gli effetti solo a distanze sub-nucleari (o equivalentemente, ad energie sufficientemente elevate). Questa conversione tra energia e distanza è molto utile per capirsi nei discorsi che si fanno in questo campo di ricerca: dipende dal principio di indeterminazione moltiplicato per la velocità della luce:

    \[\Delta R \underbrace{\Delta p c}_{\Delta E}\sim \hbar c\]

il quale fornisce un ottimo modo per convertire da distanze \Delta R ad energia E=pc per particelle molto energetiche. La costante fondamentale \hbar c ha un valore preciso, ed è il fattore di conversione tra distanza ed energia. Invertendo la formula

    \[\Delta R\sim \frac{\hbar c}{\Delta E}\]

ne deduciamo che grandi energie corrispondono a piccole distanze, e viceversa. Tieni a mente questa informazione perchè sarà cruciale nel discorso che andremo a fare.

Tra le quattro forze fondamentali (clicca qui per un breve riassunto), i Quark interagiscono tramite l’interazione forte. Il nome non lascia spazio all’immaginazione: a parità di distanza tra due particelle ad esempio la distanza subnucleare, l’interazione forte è 100 volte più intensa di quella elettromagnetica (che a sua volta è molto più intensa della forza debole e della debolissima forza gravitazionale) il che la rende la forza più intensa in Natura.

Così come i fotoni sono i mediatori dell’interazione elettromagnetica, i gluoni (anch’essi senza massa), sono i mediatori dell’interazione forte. Tuttavia i gluoni sono delle bestioline piuttosto difficili rispetto ai fotoni.

Cominciamo dalle similitudini: avendo massa nulla, anche i gluoni si muovono alla velocità della luce.
Così come i fotoni interagiscono solo tra corpi carichi elettricamente, i gluoni interagiscono solo con particelle dotate di una speciale carica: la carica di colore. Al contrario della carica elettrica, la carica di colore è molto meno intuitiva e quantificabile, e rappresenta le “coordinate” di uno spazio astratto che caratterizza lo stato quantistico di un quark.

Se vuoi, questa carica di colore è un’estensione multidimensionale dei due stati di spin (in questo articolo viene discusso il primo esempio di isospin nucleare nella teoria di Heisenberg). Anche se non è detto che questa cosa ti sia d’aiuto, dato che neanche lo spin è intuitivo! (Vedi questo articolo per approfondire).

I fotoni interagiscono molto poco con gli altri fotoni: se fatti scontrare tra loro hanno una grande probabilità di “passarsi attraverso”. Solo a determinate scale di energia più elevate l’interazione fotone-fotone diventa non più trascurabile. Questo fatto favorisce la validità del principio di sovrapposizione delle onde elettromagnetiche, tanto caro all’ingegneria.

I gluoni, d’altra parte, interagiscono con gli altri gluoni anche a scale di energia più basse, accoppiandosi nei modi più disparati possibili. La teoria dell’interazione forte quindi non rispetta il principio di sovrapposizione: c’è ben poco di lineare e semplice nei campi gluonici.

Analogie e differenze tra interazione elettromagnetica e interazione forte.
Entrambi i mediatori hanno massa nulla e si muovono quindi alla velocità della luce.

Le stranezze della forza forte non finiscono qui. Come specificato nell’immagine precedente, l’interazione elettromagnetica ha un range infinito: due cariche elettriche non smettono mai di sentire l’una la presenza dell’altra, indipendentemente dalla distanza che le separa! È l’intensità quella che varia e diminuisce con l’aumentare della separazione.
Succede lo stesso con la gravità (in tal caso la carica elettrica viene sostituita dalla massa). Il potenziale gravitazionale di una massa m posta a distanza r da una sorgente gravitazionale fissa e di massa M è proporzionale a:

    \[V_{\text{gravità}}\propto -\frac{mM}{r}\]

Il grafico della funzione ha il seguente aspetto:

Analogamente, il potenziale elettrostatico di Coulomb percepito da una carica elettrica q nel campo di una carica Q è

    \[V_{\text{e.m.}}\propto -\frac{qQ}{r}\]

Queste funzioni di r ci dicono la stessa cosa: l’interazione diminuisce all’aumentare della distanza. Dal punto di vista della fisica teorica è equivalente a dire che le interazioni diventano via via più deboli al diminuire della scala di energia, e per energie alte (cioè piccole distanze) diventano sempre più intense. Con “scala di energia” intendiamo il contenuto energetico che dobbiamo fornire al nostro esperimento per far scontrare le particelle nel nostro acceleratore.

Tutto ciò è abbastanza intuitivo: se si gioca con i poli dei geomag ci si rende presto conto che è molto difficile resistere all’attrazione di due poli opposti una volta che li si avvicina abbastanza, mentre è molto difficile avvicinare due poli uguali (in particolare più li si avvicina e più diventa difficile). Il magnetismo, naturalmente, fa parte dell’interazione elettromagnetica e si comporta proprio come ci aspettiamo.

L’interazione forte percepita dai quark è molto più controintuitiva: più i Quark sono vicini tra loro e più “si ignorano”, cioè comunicano molto meno, ovvero l’interazione è meno intensa (tutto il contrario delle interazioni a cui siamo abituati!). A questo fatto è stato dato il nome di libertà asintotica: alle alte energie i Quark si comportano come se fossero liberi. D’altra parte se allontaniamo i Quark (quindi abbassiamo la scala di energia) questi interagiscono molto di più tra loro: è la schiavitù infrarossa.

Sulla libertà asintotica Parisi è stato vicinissmo a vincere il Nobel già quando aveva 25 anni. Gli mancava solo intuire che il numero quantico giusto per descrivere l’interazione era la “carica di colore”.

Le peculiarità dei Quark

Ad oggi conosciamo 6 Quark fondamentali (cioè che non derivano da stati legati con altri Quark) a cui sono stati assegnati dei nomi precisi e di cui si conosce la massa, dal più leggero al più pesante.

I Quark up e down costituiscono la struttura interna di protoni e neutroni (nucleoni), tuttavia le loro masse contribuiscono solo a una piccola parte della massa dei nucleoni. La maggior parte della massa deriva invece dalle intricatissime interazioni e scambi energetici tra i Quark stessi, i quali comunicano incessantemente tramite gluoni.

Un’illustrazione molto schematica di quello che succede all’interno di un protone. Gli oggetti “a forma di molla” rappresentano le interazioni di scambio di gluoni.

Detto in maniera molto semplificata e fiabesca, è come se la carica di colore dei Quark accendesse la scintilla che fa scoccare un “incendio energetico” nel campo gluonico che li circonda. Questo incendio “brucia incessantemente” con un’energia E che dà luogo alla maggior parte della massa del protone tramite la celebre E=mc^2.

È sfruttando questo inferno energetico che siamo stati in grado di creare i Quark più pesanti del up e down, facendo scontrare protoni ad altissime energie che hanno rilasciato come prodotto i Quark più pesanti come il top (l’ultimo ad essere stato scoperto, nel 1995 al Fermilab di Chicago).

Dal punto di vista teorico, le complicate interazioni tra i Quark sono una conseguenza della natura relativistica delle teorie quantistiche di campo. Uno può aspettarsi che la descrizione di queste forze diventi leggermente più semplice se usciamo dal regime relativistico (cioè se consideriamo particelle abbastanza pesanti che si muovono a velocità molto più basse di quella della luce).

A noi piace tanto semplificare, quindi questo è quello che faremo! Consideriamo alcuni Quark più ciccioni, ad esempio il bottom e il charm: un sistema molto semplice da studiare in QCD è lo stato legato di quarkonio, il quale è uno stato legato tra Quark e antiQuark. Stiamo quindi parlando, nel nostro caso, dei seguenti sistemi:

  • Charmonium: stato legato di Charm e anti-Charm
  • Bottomonium: stato legato di Bottom e anti-Bottom
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Per completezza ricordiamo che un anti-Quark è la anti-particella del Quark corrispondente: ha uguale massa e numeri quantici tutti invertiti, cioè carica elettrica, carica di colore, spin etc. invertiti.

Siccome questi due Quark sono abbastanza massivi, si muvono a velocità più basse rispetto a tutti gli altri, quindi è possibile una trattazione non-relativistica in cui possiamo ignorare i discorsi di Einstein. Stiamo parlando di un’approssimazione.

Questi stati legati sono stati osservati sperimentalmente, dunque i discorsi matematici che seguono, seppur non rigorosissimi dal punto di vista teorico, sono empiricamente verificati.

Il potenziale di Quarkonio

Se r è la distanza che separa Quark e anti-Quark, l’energia potenziale di interazione è data dall’espressione (in cui a e b sono delle costanti di cui non devi preoccuparti)

    \[V_\text{quarkonio}= -\frac{a}{r}+br\]

ed ha il seguente grafico:

A piccole distanze l’interazione si comporta in modo del tutto simile a quella gravitazionale ed elettromagnetica: va giù come 1/r. Non farti però ingannare! A distanze piccolissime (cioè energie elevatissime) questo potenziale non è più una buona approssimazione di quello che sta succedendo, perché entrano in gioco gli effetti relativistici della forza forte, e la conseguenza è la libertà asintotica: invece di continuare ad aumentare infinitamente, ad altissime energie l’interazione forte inizia a indebolirsi sempre più, fino a che i Quark si ignorano del tutto.

[Nota bene: quando diciamo “piccole” o “grandi” distanze ci stiamo riferendo a qualcosa di grande o piccolo rispetto alle dimensioni subnucleari!]

D’altra parte, a grandi distanze il potenziale aumenta invece che diminuire (contrariamente a quanto succede nell’interazione gravitazionale ed elettromagnetica). Il fattore che domina questa peculiarità è parametrizzato dal termine b\,r dove b è una costante e r è la distanza. Questo termine ingloba tutto ciò che ci è difficile conoscere del regime di “schiavitù infrarossa”, regime che può essere studiato solo tramite ingegnose simulazioni al computer (campo di studi noto come QCD su reticolo).

Per capire di che tipo di forza si tratta dal punto di vista della meccanica classica, consideriamo un potentiale molto simile: quello di una molla! Se allunghiamo o accorciamo una molla di una distanza r, il potenziale ha la seguente forma:

    \[V_{\text{molla}}=\frac{1}{2}kr^2\]

dove k è la costante elastica. Confrontiamo ora la forma dei due potenziali nel regime di schiavitù infrarossa (cioè a distanze molto grandi in modo che il termine 1/r risulti trascurabile):

Un tipico eleastico.

Stiamo cioè confrontando una retta con una parabola: entro una certa distanza l’interazione di Quarkonio è più intensa di quella che si avrebbe se fosse puramente elastica, mentre superata una certa soglia, l’interazione elastica diventa più elevata. Quindi lo stato legato di Quarkonio a basse energie ha un’intensità che somiglia un po’ a qualcosa che richiama l’interazione elastica tra due corpi. Tuttavia, a differenza della molla, dal punto di vista classico la forza F=ma non dipende dalla distanza, mentre nella molla vi dipende come F=-kx.

D’accordo, magari la molla non è un’approssimazione ottimale, ma è comunque un buon punto di partenza. In realtà è possibile dimostrare che l’andamento della forza di Quarkonio è molto più simile a quella caratteristica degli elastici! Se prendi un elastico per capelli e lo allunghi di una distanza L, l’energia potentiale di richiamo che stai accumulando risulta proporzionale alla distanza L, esattamente come l’energia potenziale del Quarkonio a grandi distanze!


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la specializzazione in Fisica Teorica (2023) all’Università di Pisa, studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard, interessandosi anche di Relatività Generale.

È autore del libro “L’apprendista teorico” (2021).

Pontecorvo, il fisico italiano a cui negarono il Nobel

Bruno Pontecorvo (Marina di Pisa 1913- Dubna 1993).

La storia della scienza è cosparsa di scandali riguardanti la negazione di premi importanti a scienziati meritevoli per le più disparate ragioni.

Nel caso di Bruno Pontecorvo (a cui fu negato il Nobel per la Fisica del 1988) le ragioni erano prettamente politiche. In questo articolo dimostriamo perché questo debba ancora oggi risuonare come un vero e proprio scandalo scientifico.

Il “cucciolo” di via Panisperna

Nato a Marina di Pisa nel 1913, Bruno era una persona timida e la sua natura si distingueva da quella degli altri componenti dei gruppi di ricerca poiché, oltre a mostrare grandi doti come fisico sperimentale e teorico, era evidente in lui il profilo di abile fenomenologo, ossia una grande capacità di approfondire applicazioni e ipotesi di lavoro [1].

“A questa opinione soprattutto, io credo, devo la mia timidezza, un complesso di inferiorità che ha pesato su di me per quasi tutta la vita” 

Bruno Pontecorvo

Pontecorvo si riferiva alla seguente opinione che secondo lui i suoi genitori avevano sui loro figli: “il fratello Guido era considerato il più intelligente, Paolo il più serio, Giuliana la più colta e lui, Bruno, il più buono ma il più limitato, come dimostravano i suoi occhi, buoni ma non intelligenti.

Si può dire che Pontecorvo usufruì dell’istruzione universitaria più eccellente che ci fosse: fu ammesso al corso di Fisica sotto la guida di Enrico Fermi e Franco Rasetti nel 1931, all’età di 18 anni, entrando di diritto nel celebre gruppo dei ragazzi di via Panisperna (fu soprannominato “il cucciolo” per la sua giovane età).

Collaborò quindi alla ricerca sul bombardamento dei nuclei usando neutroni come proiettili, e nel 1934 si accorse assieme ad Edoardo Amaldi che la radioattività indotta da bombardamento di neutroni era circa cento volte più intensa se i neutroni attraversavano prima un filtro di paraffina (Fermi spiegò che questo era per via dell’idrogeno contenuto nel materiale, il cui effetto rallentava i neutroni, aumentando la loro efficacia nel bombardamento). Questa scoperta segnò uno step epocale per la ricerca sull’energia nucleare e valse il Nobel del 1938 ad Enrico Fermi, che ne spiegò il funzionamento.

Dopo il periodo romano, la sua vita fu molto movimentata e ricca di eventi di interesse storico (ricordiamo che Pontecorvo era ebreo).

  • Nel 1936 grazie a una raccomandazione di Fermi, collaborò a Parigi con Frédéric e Irène Joliot-Curie (rispettivamente genero e figlia di Pierre e Marie Curie e vincitori nel 1935 del premio Nobel per la scoperta della radioattività artificiale). Fu nell’effervescente ambiente parigino che iniziò a interessarsi di politica. In particolare si iscrisse al PCI nel 1939.
  • Dopo l’invasione della Francia da parte dei tedeschi, Pontecorvo scappò da Parigi in bicicletta e con un rocambolesco viaggio fatto di varie tappe in treno, raggiunse Lisbona. Da qui si imbarcò per gli Stati Uniti.
  • Nei primi anni ’40 lavorò per una compagnia petrolifera in Oklahoma, dove viveva con la famiglia. Qui applicò per la prima volta la tecnica dei neutroni lenti scoperta dai ragazzi di via Panisperna e inventò la tecnica del “carotaggio neutronico dei pozzi di petrolio“.
  • Nel 1943 si trasferì in Canada per lavorare in un laboratorio che si occupava di raggi cosmici. Fu qui che iniziò il suo studio dei neutrini alle alte energie.
  • Dopo aver lavorato in inghilterra, scappò in Russia con la famiglia nell’estate del 1950 senza avvertire nessuno. Per superare la cortina di ferro i Pontecorvo si divisero: moglie e figli su un’automobile, Bruno nascosto nel bagagliaio di un’altra. 
    Nell’URSS continuò le sue importanti ricerche di fisica delle particelle in un laboratorio di Dubna.

Cosa si capiva, all’epoca, dei neutrini

Per poter dire che “capiamo” tutto di una particella dobbiamo essere in grado di affermare quali siano i suoi numeri quantici, e di solito ci si concentra su questi tre:

  • Carica elettrica
  • Spin
  • Massa

Dei neutrini conosciamo con precisione solo i primi due: sono elettricamente neutri (infatti non interagiscono con la forza elettromagnetica) ed hanno spin 1/2, mentre sorprendentemente non sappiamo ancora con precisione il valore della loro massa. Sappiamo solo che non può essere più grande di un numero molto piccolo, per via delle evidenze sperimentali. All’epoca di Pontecorvo si supponeva che non avessero massa.

Dallo studio dei raggi cosmici (ed in particolare del decadimento del muone) Pontecorvo iniziò a intuire una similitudine tra quanto osservato e una teoria del suo vecchio Maestro: la teoria del decadimento \beta di Enrico Fermi (clicca qui se vuoi saperne di più). In una lettera a Giancarlo Wick del 1947 scrisse:

Deep River, 8 maggio 1947

Caro Giancarlo (…) se ne deduce una similarità tra processi beta e processi di assorbimento ed emissione di muoni, che, assumendo non si tratti di una coincidenza, sembra di carattere fondamentale.

Bruno Pontecorvo

La scoperta di questa analogia fu uno degli step fondamentali che condusse all’introduzione di una nuova forza della natura: la teoria di Fermi passò dall’essere una semplice teoria fenomenologica ad una interazione fondamentale che si andava a sommare alle due già esistenti all’epoca: gravità ed elettromagnetismo.

La questione del neutrino rimaneva invece un vero mistero, specialmente la questione se avesse una massa o meno.
È di fondamentale importanza riuscire a determinare la massa di una particella. Nel Modello Standard la massa è spesso l’unico numero quantico che permette di distinguere tra due particelle che hanno gli altri numeri quantici uguali.

Ad esempio il muone e l’elettrone sono due particelle elementari con la stessa carica elettrica e lo stesso spin, ma il muone è circa 200 volte più pesante dell’elettrone ed è proprio ciò che ci permette di distinguerli nella maggior parte dei casi. Allo stesso modo il tau è la terza “sorella” di muone ed elettrone (fu scoperta nel 1975), in quanto ha stessa carica e stesso spin, ma massa pari a circa 18 volte quella del muone.
Queste tre particelle furono raggruppate in un trio chiamato “leptoni carichi”.

Elettrone, Muone e Tau: le tre particelle “sorelle” del Modello Standard costituiscono la famiglia dei leptoni carichi.

Per spiegare i risultati sperimentali degli anni ’30 e ’50, si associò a ciascun leptone carico (elettrone, muone e tau) un neutrino di tipo corrispondente. Infatti si dimostrò che in ciascun processo di interazione debole di un leptone carico compariva sempre un neutrino, di conseguenza:

  • All’elettrone venne associato un neutrino-elettronico: \nu_e
  • Al muone venne associato un neutrino-muonico: \nu_\mu
  • Al tau venne associato un neutrino-tau: \nu_\tau

Quindi anche i neutrini sono considerati dei leptoni, solo che hanno carica elettrica nulla. Assieme ai leptoni carichi costituiscono i 6 leptoni del Modello Standard.

Fu proprio Bruno Pontecorvo a suggerire questo raggruppamento in famiglie di “sapore”: sapore elettronico, sapore muonico e sapore tauonico. Ipotizzò questa teoria già nel 1947, ma la pubblicò con una dimostrazione rigorosa solo nel 1957.

La distinzione tra leptoni carichi e leptoni neutrini. Nell’immagine i leptoni dello stesso colore appartengono allo stesso “sapore”.

La cosa importante da capire è che siamo in grado di distinguere un neutrino \nu_e da un neutrino \nu_\mu o da un neutrino \nu_\tau: basta guardare qual è il leptone carico coinvolto nelle interazioni (rare) di questi neutrini!

Il modo in cui siamo in grado di dire quale dei tre neutrini stiamo considerando: basta guardare i leptoni carichi che escono fuori dalle interazioni del neutrino con la materia.

In questo senso si parla di conservazione del sapore leptonico: un neutrino di sapore “muonico” è sempre associato, in un’interazione debole, a un muone. Se c’era un sapore elettronico all’inizio, dovrà esserci un sapore elettronico anche alla fine.

Purtroppo, l’acceleratore di particelle di Dubna non era abbastanza potente per verificare le teorie di Pontecorvo sul sapore leptonico. Soltanto pochi anni dopo, agli inizi degli anni Sessanta, gli americani Leon Ledermann, Melvin Schwartz e Jack Steinberger confermarono sperimentalmente le ipotesi del fisico italiano.


Questa scoperta valse ai tre fisici il premio Nobel per la Fisica nel 1988 per “il metodo del fascio di neutrini e la dimostrazione della struttura doppia dei leptoni attraverso la scoperta del neutrino muone”, suscitando lo scalpore di una parte della comunità scientifica internazionale per l’esclusione del fisico teorico italiano che per primo effettuò la previsione parecchi anni prima.

Le oscillazioni di sapore

Pontecorvo continuò il suo studio pionieristico dei neutrini e, in collaborazione con il fisico teorico Vladimir Gribov, nel 1969 presenta in dettaglio il formalismo matematico della teoria delle oscillazioni, che fu proposto come soluzione al problema dei neutrini solari sorto negli esperimenti del 1968.
Pontecorvo sosteneva che i neutrini dovessero avere una massa, seppur piccola, e che questo fosse la spiegazione per il problema dei neutrini solari.

La spiegazione di Pontecorvo si rivelò corretta: alla fine del secolo scorso si scoprì che i neutrini sono in grado di cambiare sapore leptonico durante il loro viaggio tra due punti dello spazio, e fu proprio questo fatto ad evidenziare che i neutrini dovevano avere una massa: senza una massa non è possibile questa oscillazione tra sapori!

Ciò che stupisce è che rispetto alle altre particelle i neutrini hanno una massa così piccola che è difficile da misurare.
Gli esperimenti ci consentono solo di porre dei limiti superiori sempre più piccoli. Per dare un’idea, l’elettrone ha una massa di mezzo milione di elettronvolt, mentre si stima che quella dei neutrini sia inferiore a un solo elettronvolt. Se l’elettrone è considerato la particella carica più leggera del Modello Standard, i neutrini sono davvero dei pesi piuma.

L’oscillazione rompe la conservazione del sapore leptonico!

Ad esempio da un processo debole che coinvolge un elettrone (rivelabile) sappiamo che sbucherà fuori un \nu_e, il quale, dopo una certa distanza, si tramuterà in un \nu_\mu, il quale interagirà facendo comparire un muone, che sarà a sua volta rivelabile e ci permetterà di dire che questa oscillazione è effettivamente avvenuta!

Per spiegare questo effetto vengono introdotti gli “stati di massa” dei neutrini, chiamati \nu_1,\nu_2,\nu_3 a cui vengono associate le masse m_1,m_2,m_3. Ciascun stato di massa “contiene” al suo interno i tre sapori dei neutrini \nu_e,\nu_\mu,\nu_\tau in proporzioni che possono essere studiate sperimentalmente.
Graficamente abbiamo quindi tre neutrini ciascuno contenente al suo interno il mixing di sapori:

Gli autostati di massa dei neutrini con al loro interno i mixing dei sapori.
Celeste: \nu_e, Marroncino: \nu_\mu, Grigio: \nu_\tau.

Questo mixing avviene nel senso quanto-meccanico di sovrapposizione di stati: ciascuno stato di massa è una sovrapposizione delle funzioni d’onda dei sapori leptonici e,\mu,\tau.

Ad esempio dalla figura leggiamo che sperimentalmente è stato verificato che lo stato \nu_1 contiene per la maggior parte il sapore elettronico \nu_e (indicato in blu), mentre il sapore tau \nu_\tau è presente solo in minima parte.

Essendo tutto ciò un effetto quanto-meccanico, a ogni oscillazione tra sapori è associata una certa probabilità che sarà tanto più elevata quanto più grande è il mixing tra sapori negli stati di massa. Questa probabilità è verificabile sperimentalmente: basta chiedersi “se nel punto di partenza ho N neutrini di tipo \nu_e, quanti neutrini di tipo \nu_\mu mi ritroverò a una certa distanza dal punto di partenza?”

Ad esempio la probabilità che un neutrino \nu_e si trasformi in un neutrino \nu_\mu è data dalla seguente formula:

Vengono chiamate “oscillazioni” perché la probabilità dipende da un seno al quadrato, il quale rappresenta graficamente un’oscillazione nelle variabili L,E,\Delta m^2.

in cui \theta è un parametro del Modello Standard che è stato misurato sperimentalmente (e definisce il grado di mixing dei due sapori in questo caso). D’altra parte \Delta m^2=m_2^2-m_1^2 riguarda la differenza tra i quadrati delle masse di \nu_2 e \nu_1, mentre L è la distanza a cui hanno viaggiato i neutrini prima di essere rivelati, ed E è la loro energia.
Nota bene che se questi neutrini avessero la stessa massa, e cioè \Delta m^2=0, non si potrebbero avere oscillazioni (la probabilità sarebbe nulla perché il seno di zero fa zero).

Ad esempio è molto più probabile che un \nu_e si trasformi in un \nu_\mu quando l’argomento del seno è vicino al punto in cui il seno ha un massimo, e cioè in prossimità di 90^{\circ} (o in radianti pi/2), e cioè quando

Da questa formula è possibile capire a che valore del rapporto L/E si è più sensibili per rivelare un’oscillazione da \nu_e in \nu_\mu. Si può quindi ottenere una stima di \Delta m^2.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Studiando l’andamento dell’oscillazione con L/E si può quindi ricavare \Delta m^2 proprio da questa formula.

La differenza tra le masse dei neutrini \nu_2 e \nu_1 è minuscola, ma comunque calcolabile dai dati sperimentali. Allo stesso modo è stata calcolata la differenza tra le masse quadre di \nu_3 e \nu_2, e da ciò si può ricavare la differenza tra le masse quadre di \nu_3 e \nu_1.
Conosciamo solo queste \Delta m^2, ma non i valori singoli di m_3,m_2,m_1, che frustrazione, eh?

Misurando il numero di eventi di neutrini di un certo sapore ad alcuni valori del rapporto L/E si possono ricavare i valori sperimentali di \theta e \Delta m^2. Questo è proprio ciò che si fa da qualche decina di anni: la teoria delle oscillazioni è verificata con un alto grado di accuratezza.

I Nobel dei neutrini

La Fisica dei neutrini inaugurata da Pontecorvo ha portato a ben quattro premi Nobel, ma nessuno è stato vinto da lui. Tre di questi furono però assegnati solo dopo la morte di Pontecorvo (1993), il più recente risale al 2015. L’unico che sarebbe doveroso reclamare per la memoria del fisico teorico italiano sarebbe quello del 1988, inspiegabilmente assegnato ad altri se non per questioni politiche.

Pontecorvo rimane uno dei fisici con il numero di previsioni azzeccate più alto e allo stesso tempo un numero di riconoscimenti piuttosto irrisorio (vinse comunque il premio Lenin nel 1963).

Ciò che fa restare stupiti è la precocità delle sue idee: il campo dei neutrini è particolarmente infelice perché essendo questi così poco interagenti, la loro rivelazione può aversi solo grazie a esperimenti particolarmente costosi e avanzati, spesso traslati di almeno 30-40 anni nel futuro rispetto alla loro teorizzazione. Pontecorvo elaborò negli anni ’60 quasi tutta la fisica dei neutrini che utilizziamo ancora oggi e che ha trovato conferma solo negli ultimi 30 anni.

Se mai inventassero un Nobel postumo, uno dei primi a riceverlo dovrebbe essere Pontecorvo.
[1] Fonte principale: “Il fisico del neutrino”- Jacopo De Tullio.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica e la magistrale in Fisica Teorica all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

L’intrigante “carattere discriminatorio” del bosone di Higgs

Immagina di reincarnarti in una particella elementare in un istante tra i 10^{-36} e i 10^{-12} secondi dopo il Big Bang.

L’universo ha un aspetto molto diverso da quello odierno, c’è tantissima confusione, un viavai di interazioni, come un vociare assordante.
La sensazione che provi è molto singolare, sei capace di individuare solo il momento in cui “appari” e il momento in cui “scompari”, ma nemmeno riesci a distinguere l’uno o dall’altro. Il problema è che ti muovi alla velocità della luce dato che, come tutte le altre particelle dell’universo, non hai massa. Per questo la tua percezione del tempo è assolutamente insensata, in accordo con le leggi della Relatività Ristretta.

In qualche modo sembra che il momento in cui appari e scompari dall’esistenza sia sempre accompagnato dalla presenza di una particella praticamente identica a te, o almeno questo è ciò che ti ricordi.

Ora i tempi sono cambiati (cambia tutto piuttosto in fretta quando passi da 10^{-36} a 10^{-12} secondi dopo il Big Bang). Ti accorgi che gli eventi iniziano ad avere una forma, tra un inizio e una fine c’è anche un presente.


Sei stata “rallentata” da qualcosa, e inizi a sentire il peso dello scorrere del tempo: non ti muovi più esattamente alla velocità della luce. Tra tutto quel vociare non riesci a prendere coscienza di cosa sia successo, pare che nessuno si sia accorto troppo del cambiamento, eppure inizi a riconoscere che le altre particelle non si comportano tutte come te, alcune sembrano interagire con le altre in un modo molto diverso dal tuo.

Ti viene in mente che questo possa essere connesso con l’esistenza di almeno due interazioni fondamentali diverse.

Inizi a raccogliere qualche indizio: ogni volta che scompari dall’esistenza è sempre coinvolta almeno un’altra particella. Dopo qualche tempo sei capace di individuare che esistono altre due particelle (che chiami signor “Mu” e signor “Tau”) che fanno le stesse cose che fai tu, e anche qualche particella identica a te e che per qualche motivo fa sempre il contrario di quello che fai tu.

Il signor Ni rappresenta il neutrino elettronico.

Non appena il vociare primordiale inizia a calmarsi, inizi a distinguere uno strano ronzio nelle tue orecchie “particellari”. Somiglia giusto a un timido bisbiglio, ed inizi a capire di star rallentando sempre di più la tua corsa frenetica tra un’esistenza e un’altra, forse per via di qualcosa che genera anche questo strano bisbigliare?

Decidi di chiedere informazioni a una delle particelle simili a te. C’è una particella in particolare che abbastanza spesso decide di scambiare qualche parola con te, solo che hai difficoltà a capirla perché è leggermente più frenetica. L’hai soprannominata affettuosamente “Ni”. Di solito “Ni” sembra non avere molto tempo da perdere dietro a domande sciocche come la tua, quindi decidi di chiedere al tuo vicino, il signor Mu.

L’elettrone sente molto più debolmente le interazioni con l’Higgs, al contrario delle sue cugine \mu e \tau.

Il signor Mu sembra leggermente meno frenetico, e si comporta esattamente come te: avete delle personalità così identiche che quasi vi disgustate reciprocamente, quindi di solito circolate un po’ lontano l’uno dall’altra. Tuttavia hai bisogno di informazioni, e ti prometti di parlargli non appena vi scontrerete di nuovo.

Il signor Mu ammette di essere sorpreso che tu ci abbia messo così tanto ad accorgerti del ronzio, lui lo percepisce 200 volte più forte di te.
Sa anche darti qualche informazione in più, perché di recente ha parlato con il signor Tau, il quale percepisce lo stesso ronzio quasi 20 volte più forte di lui.

Per il signor Tau non si tratta di un ronzio, ma di alcune interessantissime comunicazioni da parte del signor “H” , le quali lo invogliano a rallentare la sua corsa frenetica tra un punto e l’altro della sua esistenza, pur di ascoltare con maggiore attenzione ciò che il signor H ha da dirgli.
Non fai in tempo a fare altre domande che il signor Mu svanisce improvvisamente, lasciando il posto ad altre particelle, tra le quali riconosci il tuo amico Ni accompagnato dalla tua copia sputata.

Rimani un po’ perplesso/a dalla spiegazione del signor Mu. Pensavi fosse abbastanza scontato che te, Mu e Tau foste particelle molto simili. Perché mai il signor H si ostina a non volerti parlare a voce più alta? Perché senti a malapena un ronzio in confronto alle interessanti disquisizioni percepite da Mu e Tau?


Perché Mu e Tau svaniscono all’improvviso dopo così poco tempo, e tu sembri restare sempre la stessa, noiosa particella?

Il tempo passa e l’universo diventa più silenzioso. Ti ritrovi sempre più vicina ad altre particelle identiche a te, e inizi a condurre un’esistenza sempre più monotona, assuefatta dalle delicate parole di un interessante signore che qualcuno chiama “Nucleo”, il quale ti invita a stargli vicino.

François Englert e Peter Higgs, premi Nobel per la Fisica 2013, tra gli inventori del meccanismo che dà la massa alle particelle del Modello Standard tramite il campo di Higgs.

Impari che anche le altre particelle identiche a te non riescono a sentire nulla più di un ronzio da parte del signor H, e quindi capisci di appartenere a un’intera famiglia di particelle che sono un po’ “discriminate“.

Questo è uno degli aspetti più intriganti del Modello Standard: il modello non spiega perché il campo di Higgs interagisce più intensamente con alcune particelle e molto, molto più debolmente con altre.

In principio l’elettrone (la particella in cui ti sei reincarnato/a), il muone il tau sono creati praticamente uguali, sono tre cugini con uguale carica elettrica, spin e altri numeri quantici di interazione. Sono distinte giusto da un “cognome” di famiglia, appunto: “e”, “\mu” e “\tau“.

Elettrone, Muone e Tau: le tre particelle “cugine” del Modello Standard costituiscono la famiglia dei leptoni carichi.

Dopo la rottura di simmetria elettrodebole (per la quale rimando al mio articolo), elettrone muone e tau acquistano una massa per via dell’interazione con il campo di Higgs.
Come funziona? L’interazione si scrive in un modo molto simile a questo (le “interazioni” del Modello Standard sono la scorciatoia per dire che due campi appaiono moltiplicati tra loro nelle equazioni del modello, o moltiplicati per un mediatore comune ad entrambi):

Maggiore è la y (chiamata costante di Yukawa), maggiore è la massa acquistata dalla particella per via del campo di Higgs.
Le masse delle particelle elementari del Modello Standard. L’altezza dei parallelepipedi rappresenta la loro massa.

Il tau interagisce molto con l’Higgs, quindi la sua massa è molto più elevata di quella di muone ed elettrone. L’elettrone è quello che prende meno massa. Quanta meno? Tanta. Circa 0.3 millesimi di quella del tau, e 5 millesimi di quella del muone.

La storia non finisce qui: la particella elementare più massiva (il quark top) ha una massa che è quasi 100 volte quella del tau. Perché tutto questo “classismo” da parte del campo di Higgs? Perché sembra comunicare di più con alcune particelle e molto meno con altre?

La faccenda diventa quasi tragicomica nel caso dei neutrini (il famoso amico “Ni” della tua esperienza post-Big Bang). Si stima che la massa di un neutrino sia a sua volta quasi dieci miliardesimi di quella dell’elettrone. Questo aspetto ha suscitato uno scalpore tale da suggerire che il meccanismo di generazione della massa dei neutrini sia leggermente diverso da quello delle particelle “standard”. In particolare, il neutrino acquista massa grazie a processi sempre mediati dall’Higgs, ma che ricevono contributi da particelle non ancora osservate, che dovevano esistere da qualche parte nei primi istanti dopo il Big Bang.

Come possiamo accettare una tale differenza di trattamento? Come è possibile non restare intrigati dal carattere discriminatorio del campo di Higgs? Perché anche tra particelle praticamente del tutto simili come elettrone, muone e tau alle alte energie, c’è tutta questa discriminazione?

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questa è una parte dei compiti della fisica teorica di questo secolo. Non penserai mica che dopo la scoperta del bosone di Higgs nel 2012 siano finiti i suoi misteri? Assolutamente no, anzi si sono moltiplicati. Il bosone di Higgs (simbolo del trionfo intellettuale della fisica teorica del secolo scorso, e del trionfo sperimentale e tecnologico del secolo corrente) è un punto di partenza, non un punto di arrivo.

Il problema della gerarchia delle masse dei leptoni carichi e dei quark rimane ad oggi un mistero per il quale sono state presentate diverse soluzioni teoriche che dovranno superare i test sperimentali del prossimo secolo.
Chi vivrà, vedrà.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica e la magistrale in Fisica Teorica all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

“Smarriti nella matematica”? Gli ultimi tristi anni di Albert Einstein

Gli ultimi anni della vita di Einstein furono decisamente poco memorabili (scientificamente parlando). Il più grande fisico del XX secolo fu un po’ vittima dei suoi enormi successi giovanili, i quali lo condussero verso un isolamento intellettuale sempre più marcato.

Einstein sognava di unificare gravità ed elettromagnetismo in un unica, elegante “teoria del tutto”. Ovviamente nella sua epoca non si conoscevano ancora le forze nucleari debole e forte.

Uno dei motivi di questo isolamento era che Einstein rigettava la formulazione convenzionale della meccanica quantistica, che secondo lui era una teoria incompleta, esteticamente “sgraziata” e complicata.
Purtroppo il 99% della ricerca in fisica fondamentale dagli anni 20′ in poi si basava invece proprio sulla meccanica quantistica, quindi Einstein aveva ben pochi alleati su questo fronte.

Un altro motivo era dovuto a una sua ossessione: aveva il sogno di unificare due forze fondamentali, gravità ed elettromagnetismo. Queste due forze erano descritte da quelle che allora erano due teorie classiche di campo molto mature (classiche nel senso che non erano “quantizzate”. La quantizzazione dell’elettromagnetismo fu accuratamente ignorata da Einstein…)

Questa sua ossessione si fondava sul credere che la Natura avesse in serbo una teoria “elegante”, scritta con una matematica “bellissima” che lui era intenzionato a scoprire.


Effettivamente le teorie classiche di gravità ed elettromagnetismo erano due teorie, per certi versi, abbastanza simili (almeno nei temi).

Infatti la Relatività Generale di Einstein e l’Elettrodinamica classica possono essere entrambe costruite richiedendo che le loro equazioni rimangano invariate dopo che si eseguono certi tipi di trasformazioni sui loro campi fondamentali.

La ridondanza elettromagnetica

Il potenziale elettromagnetico quadri-dimensionale con cui viene formulata l’elettrodinamica (che chiamiamo A_\mu) presenta al suo interno un eccesso di informazioni. Che significa? Significa che per formulare l’elettromagnetismo è sufficiente un numero inferiore di parametri teorici rispetto a quelli forniti dalla formulazione 4-dimensionale della teoria (che con successo concilia l’elettromagnetismo di Maxwell con la relatività speciale).

Da un certo potenziale elettromagnetico sono ottenibili, tramite una specifica trasformazione, una serie di altri potenziali elettromagnetici che tuttavia lasciano invariate le leggi di Maxwell scritte con il potenziale originale. Le conclusioni fisiche sono le stesse.

Questo eccesso di informazioni si traduce nella seguente affermazione: il potenziale quadri-dimensionale può essere “traslato” nello spazio-tempo di una certa quantità, e la conseguenza è che l’elettromagnetismo rimane invariato.

Le equazioni non cambiano, la Fisica è la stessa.


Il motivo di ciò fu spiegato dalla teoria quantistica dei campi: quello che succede è che il fotone (la particella mediatrice dell’interazione elettromagnetica) ha massa nulla, e questo fa tutta la differenza del mondo in relatività speciale, perché può quindi muoversi alla velocità della luce (non è un grande sorpresa per te che la luce si muova alla velocità della luce).

I parametri che partecipano alla Fisica dell’elettromagnetismo si chiamano “stati di polarizzazione” (avrai sentito parlare degli occhiali polarizzati, ecco quel “polarizzato” si riferisce alla volontà di sfruttare le polarizzazioni della luce a proprio piacimento). La polarizzazione è per convenzione la direzione di oscillazione della campo elettrico di un’onda elettromagnetica (chiamata comunemente “luce”).

Dal punto di vista teorico, gli stati di polarizzazione possono essere studiati mettendoci nel sistema di riferimento in cui la particella mediatrice è ferma. Questi stati di polarizzazione hanno a che fare con la seguente domanda: che succede se ruoto il campo della particella nel suo sistema di riposo?
Il modo in cui il campo risponde alle rotazioni ci dà un’indicazione sui suoi stati di polarizzazione.

La quantità di moto di un oggetto fermo è nulla (per definizione di oggetto fermo), quindi se ruotiamo i nostri assi cartesiani la quantità di moto rimane la stessa (cioè nulla). Che furbata, eh? Beh questa libertà di ruotare le tre dimensioni si traduce in tre possibili stati di polarizzazione della particella.

Una rotazione attorno ad un asse è specificata da due componenti su un piano. In figura stiamo ruotando attorno all’asse z. Immagina che l’asse z sia la direzione di propagazione del fotone.

Il problema con il fotone è che avendo massa nulla si muove alla velocità della luce e quindi per via della relatività speciale non c’è modo di mettersi in un sistema di riferimento in cui il fotone è fermo: per ogni osservatore la velocità della luce è la stessa! Non riusciremo mai ad andare abbastanza veloci da vedere un fotone fermo! Il valore della velocità della luce non dipende in alcun modo dalla velocità di chi la misura.

Il meglio che possiamo fare è puntare il nostro asse cartesiano nella direzione di propagazione del fotone e studiare le rotazioni dei suoi stati attorno a questo asse. Le rotazioni attorno a un asse avvengono in un piano, il quale, essendo bidimensionale, è rappresentato da due parametri invece che tre. Quindi il fotone è specificato da solo due possibili stati di polarizzazione: solo due stati su tre partecipano alla Fisica dell’elettromagnetismo.

Che ce ne facciamo del terzo parametro che non utilizziamo? Ecco cosa intendevo con “eccesso di informazioni”. In soldoni, quella libertà viene tradotta dicendo che se aggiungiamo (o sottraiamo) al potenziale elettromagnetico una certa quantità arbitraria (la derivata di una funzione che chiamiamo \Lambda), le leggi della Fisica non cambiano. A scopo illustrativo questa è la trasformazione di cui parlo:

Il potenziale viene trasformato sottraendolo alla derivata di una funzione \Lambda. In gergo si parla di “trasformazioni di gauge”.

Dalla richiesta che la fisica non cambi se al potenziale elettromagnetico A_\mu aggiungiamo quella funzione arbitraria \partial_\mu \Lambda, discende la struttura matematica (con tanto di conseguenze fisiche) dell’elettromagnetismo.

Questo concetto è molto elegante: dalla richiesta che ci sia una certa ridondanza nella descrizione dei campi della teoria, discendono le equazioni che descrivono la realtà fisica.

So che risulta astratto da capire, ma tra tutte le forme possibili che possono assumere le leggi della fisica, richiedere che rimangano invariate dopo una trasformazione dei “blocchetti” di cui sono composte vincola parecchio il numero di forme possibili in cui possono presentarsi, assieme alle conseguenze fisiche che predicono. È in questo senso che diciamo “da questa richiesta derivano le leggi della Fisica” .

Questa eleganza stregò (e continua a stregare) i fisici teorici dell’epoca. Einstein fu tra i più colpiti.
Lo colpì soprattutto il fatto che la sua teoria della Relatività Generale (la migliore teoria che abbiamo ancora oggi sulla gravità classica) si basava su un principio molto simile.

Le leggi della gravità di Einstein discendono dalla richiesta che le leggi stesse rimangano invariate se si esegue una trasformazione di coordinate. In sostanza, la Fisica non deve dipendere da che tipo di “unità di misura” stai usando, o non deve dipendere dal fatto che il tuo laboratorio risulti ruotato in una certa direzione rispetto al centro della galassia (per esempio).

A grandi distanze dalla sorgente del campo gravitazionale, che chiamiamo h_{\mu\nu}, la trasformazione di coordinate del campo (la quale viene indicata con il simbolo \partial_\mu \epsilon_\nu) ha la seguente forma:

Magari non sarai familiare con la notazione degli indici spazio-temporali \mu,\nu , ma il punto della faccenda è notare la somiglianza (chiudendo un occhio) con la trasformazione del potenziale elettromagnetico:

Elettrodinamica (sopra) e gravità (sotto) a confronto. Entrambe queste trasformazioni hanno la proprietà di lasciare invariate le leggi della Fisica.

Secondo Einstein, questa somiglianza era una chiara indicazione che doveva esistere una teoria più fondamentale in grado di racchiudere gravità ed elettromagnetismo in un unico, elegantissimo linguaggio matematico.

Risulta interessante il fatto che non fu lui ad arrivare per primo ad un possibile tentativo di unificazione. La teoria di Kaluza-Klein nacque praticamente subito dopo la Relatività Generale, ed Einstein ne rimase estasiato.

Il primo tentativo di unificazione

La Kaluza-Klein si basava sul postulato che allo spaziotempo (già 4-dimensionale) dovesse essere aggiunta un’ulteriore dimensione, portando il totale a cinque. Questa dimensione sarebbe tuttavia troppo piccola per potere avere riscontri sperimentali, e la sua utlilità consiste unicamente nel fatto che in questo modo è possibile unificare gravità ed elettromagnetismo in un’unica elegante equazione di partenza.

La quinta dimensione nella teoria di Kaluza-Klein.

Tutti noi per disegnare un punto su un foglio ruotiamo leggermente la punta della penna per tracciare dei piccoli cerchi concentrici attorno a un punto fisso. Secondo la teoria Kaluza-Klein la quinta dimensione si nasconde nel bordo di ogni cerchio che circonda ciascun punto dello spaziotempo. Questi cerchi hanno un raggio R piccolissimo, molto più piccolo di qualsiasi scala subnucleare, questo è il motivo per cui non si osservano effetti fisici di tutto ciò.

Sfortunatamente la teoria della quinta dimensione ha serie difficoltà teorico-fenomenologiche: ad esempio ignora completamente l’esistenza delle altre interazioni fondamentali come la forza debole, della quale oggi sappiamo che a una certa scala di energia si unisce alla forza elettromagnetica per formare l’interazione elettrodebole.
Chiaramente Kaluza e Klein, avendo formulato la teoria nei primi anni ’20 , conoscevano solo la gravità e l’elettromagnetismo, per cui a detta loro (e anche di Einstein) la teoria era molto promettente.

Furono proprio le scoperte delle altre due forze fondamentali (quelle nucleari debole e forte) a far cadere nel dimenticatoio la Kaluza-Klein per qualche decennio. La teoria quantistica dei campi produceva risultati a un ritmo elevatissimo, spazzando via come un’onda tutte le teorie classiche di campo.

Einstein, che si assicurava di non utilizzare le teorie quantistiche di campo nei suoi lavori, lavorò alla Kaluza-Klein fino agli inizi degli anni ’40. Il suo obbiettivo era di ottenere, dalle soluzioni delle equazioni di campo della teoria a cinque dimensioni, dei campi che descrivevano delle particelle cariche in grado di interagire elettromagneticamente e gravitazionalmente.


Il suo obbiettivo era anche quello di derivare in qualche modo anche la meccanica quantistica a partire dalla sua teoria classica (non quantizzata). Tutto questo era sempre in linea con il suo intuito che la teoria quantistica non fosse completa, e che dovesse derivare da qualcosa di classico e molto più profondo.

Una volta introdotta l’ipotesi ondulatoria di De Broglie, il fisico Klein (uno degli ideatori della Kaluza-Klein) era stato in grado di spiegare anche la discretizzazione della carica elettrica delle particelle, proprio grazie alla quinta dimensione. Einstein evitò con cura di utilizzare l’ipotesi di De Broglie, e non menzionò mai il risultato di Klein. Insomma, se non si era capito, Einstein non apprezzava la teoria quantistica.

In ogni caso, Einstein concluse che la teoria di Kaluza-Klein non era in grado di spiegare un fatto empirico importantissimo: la gravità è estremamente più debole dell’elettromagnetismo. Questo spinse Einstein ad abbandonare per sempre la teoria dopo il 1941.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Continuò quindi a lavorare, assieme a pochissimi altri, a teorie matematiche molto astratte e con pochi risvolti empirici. L’obbiettivo era sempre quello di unificare elettromagnetismo e gravità.

Non che fosse in torto nel perseguire questa sua ricerca, dato che l’obbiettivo delle teorie di grande unificazione che studiamo oggi è proprio quello di conciliare gravità e teorie quantistiche di campo (quindi non solo gravità ed elettromagnetismo, ma gravità e le altre tre interazioni fondamentali. Per una breve esposizione delle quattro interazioni, rimando al mio articolo).

Tuttavia fu proprio il suo ostentato rifiuto delle teorie quantistiche di campo a isolarlo sempre di più dal panorama scientifico internazionale. Anche se avesse fatto in tempo ad assistere alla sua nascita, Einstein non avrebbe mai approvato il nostro Modello Standard: in tale modello lavoriamo con teorie quantistiche basate solo sulla relatività speciale, ignorando completamente la gravità e lasciandola da parte in un settore chiamato “Relatività Generale”.
Invece secondo lui la gravità doveva avere un ruolo di primaria importanza negli sforzi dei fisici teorici:

Cosa sarebbe la Fisica senza la gravitazione?

Albert Einstein

Lavorò alla grande unificazione fino all’ultimo dei suoi giorni, facendo fede sulla sua convinzione (appartenente a un pensiero illuminista oggi superato) che una singola mente umana è in grado di scoprire ogni mistero dell’universo.

Sono comunque sicuro che a lui piacesse parecchio ciò che faceva, e non poteva esserci una fine più lieta per il più grande fisico del secolo scorso: morire “smarrito nella matematica”.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la specializzazione in Fisica Teorica (2023) all’Università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Sì ma, alla fine, cosa sono ‘sti numeri quantici?

Giusto per ricordare che i gatti sono riusciti a conquistarsi pure la meccanica quantistica, nell’immaginario popolare.

Ciò che frullava nella mia testa quando ho sentito la parola “numeri quantici” per la prima volta, durante una lezione di chimica in terza liceo, era qualcosa tipo:

“Tutto interessante e sembra anche molto logico. Giusto una cosa però: ma alla fine cosa sono 'sti numeri quantici? Proprio terra-terra, in meno parole possibili!"

Dopo aver studiato meccanica quantistica alla triennale credevo di essere praticamente pronto per dare una risposta terra-terra, a una persona non addetta ai lavori come il me stesso della terza liceo, ma poi mi sono accorto che non è tutto così “rapido”.

Non c’è NIENTE di intuitivo nel concetto di “numero quantico”.


Quando mi è stata posta la stessa domanda qualche tempo fa, nel bel mezzo dei miei studi alla magistrale, ho sputato fuori questa risposta un po’ frettolosa:

“Sono dei numeri che usiamo per catalogare delle soluzioni particolarmente semplici per risolvere problemi molto complessi. Sono utili anche perché nei processi "si conservano“, un po' come l'energia di un sistema, e semplificano quindi un po' di calcoli e previsioni."

Non è che fossi tanto convinto di questa risposta, e ancora meno lo era la persona di fronte a me. Mi sono accorto che probabilmente non sapevo dare una risposta più rapida senza coinvolgere dei semestri di algebra lineare, spazi di funzioni e fenomenologia delle interazioni fondamentali.
Se a te questa risposta soddisfa: nessun problema, è comprensibile. Rende comunque l’idea da un punto di vista pragmatico.

Se invece senti ci sia un gap nella divulgazione di questi concetti e provi curiosità, allora questo articolo vuole provare a rimediare.
Per raggiungere più persone possibili sarò molto conciso con ragionamenti “a grandi linee”, con varie licenze tecniche necessarie per un’esposizione di taglio divulgativo. Inoltre, per ragioni logistiche (e per non affaticare il lettore), l’articolo è suddiviso in due parti, questa è la prima parte!


Una tazza di caffè e possiamo iniziare!

Gli operatori della meccanica quantistica

Alla fine tutto l’ambaradan nasce dal fatto che la meccanica quantistica, a differenza della fisica classica, si basa su degli oggetti chiamati operatori. Come suggerisce il nome, questi oggetti operano sugli stati della teoria: prendono in input uno stato e ne restituiscono un altro come output, generalmente diverso dal primo:

Tutte le quantità che in meccanica classica erano dei semplici numeri reali (posizione, quantità di moto, energia, e così via) diventano, in meccanica quantistica, degli operatori: operatore posizione, operatore quantità di moto , operatore dell’energia (altrimenti detto “hamiltoniano”) etc.


Perché sono così necessari gli operatori? (qualsiasi cosa significhi per te in questo momento la parola “operatore”).
In breve, serviva un formalismo matematico capace di spiegare un fatto sperimentale: lo stato di un sistema poteva essere completamente determinato dalla posizione di una particella, ma al contempo la misura della quantità di moto della stessa particella non restituiva un valore ben preciso. È il principio di indeterminazione di Heisenberg.
Un modo per esprimere questo fatto dal punto di vista matematico era quello di trasformare posizione e quantità di moto in degli operatori lineari e scrivere che:

\hbar è la costante di Planck divisa per 2\pi.

Questa relazione racchiude, in un formalismo compatto (e criptico per i non addetti) la chiave per il principio di Heisenberg su posizione e quantità di moto. La compattezza del formalismo e la facilità del calcolo sono due condizioni che spinsero i fisici ad adottare l’approccio operatoriale nella meccanica quantistica, ed è il motivo per cui la matematica di questa teoria è ritenuta essere “più complicata” di quella della fisica classica.

L’operatore più importante

Ciò che nella fisica classica rappresentava un modo alternativo di risolvere i problemi, nella meccanica quantistica diventa l’unico modo matematicamente conveniente di descrivere l’evoluzione di un sistema. Si tratta dell’energia, la quale nel formalismo quantistico diventa l’operatore hamiltoniano.

Nella fisica classica l’energia di un sistema era un semplice numero indicato con la lettera “E”. In meccanica quantistica diventa un operatore chiamato “Hamiltoniano“.


L’energia di un sistema è definita come la somma tra energia cinetica (p^2/2m) ed energia potenziale V. Coloro che prima erano semplici numeri ora diventano due operatori che, come dice il nome, “operano” sugli stati di una particella, comandandone l’evoluzione dinamica.

Ecco come si procede di solito: immagina una particella immersa in un certo spazio e sensibile a certe interazioni fisiche (elettromagnetiche ad esempio, come un elettrone in un campo magnetico, o in prossimità del nucleo di un atomo).

La seguente frase “questa particella si muoverà in questo spazio con una certa velocità e occuperà maggiormente alcune posizioni invece di altre, sulla base delle interazioni che percepisce” viene tradotta quantisticamente nella seguente:

Lo stato di una particella evolve da un valore iniziale a un valore finale grazie all’azione dell’operatore Hamiltoniano, il quale rappresenta le interazioni e il contenuto cinetico che caratterizzano il moto della particella.

Come forse avrai sentito da qualche parte, lo stato di una particella è indicato da una funzione a più valori, nel tempo e nello spazio: \Psi(\vec{x},t). Il fatto che questo stato venga trasformato nel tempo per via delle interazioni è riassunto dalla seguente scrittura molto compatta:

L’esponenziale di un operatore è lo sviluppo in potenze dell’operatore stesso, secondo la regola degli sviluppi di Taylor. Non preoccuparti di questo dettaglio matematico, l’ho messo solo per completezza.

L’operatore hamiltoniano agisce sullo stato iniziale della particella, e per ogni tempo t successivo restituisce un certo stato finale.

Questa è la ricetta prescritta dalla celebre equazione di Schrödinger, la quale governa la dinamica degli stati quantistici di un sistema. Quella che ti ho mostrato è proprio la soluzione dell’equazione: Schrödinger scrisse che, una volta noto l’operatore hamiltoniano, la dinamica del sistema è nota..

Più facile a dirsi che a farsi: è difficile trovare il corretto operatore che riesca a riprodurre gli stati in cui evolvono i sistemi quantistici negli esperimenti. Trovare l’hamiltoniano giusto equivale a trovare la teoria giusta per descrivere il sistema, ed è esattamente il mestiere del fisico.

Se un fisico ha fatto bene il suo mestiere, otterrà una predizione sull’evoluzione temporale dello stato del sistema, e potrà fare previsioni probabilistiche su quale sarà lo stato in cui verrà misurata la particella a un dato istante di tempo dell’esperimento.

Gli autostati di un operatore

A differenza di uno stato normale, l’autostato di un operatore mantiene la sua direzione dopo la trasformazione, e al massimo si allunga o si accorcia.

Possiamo architettare un esperimento con lo scopo di misurare una certa proprietà della particella quantistica di cui abbiamo parlato prima. L’atto della “misurazione” consiste inevitabilmente in una “riorganizzazione” delle informazioni quantistiche dello stato della particella e anche dello stato del rivelatore che stiamo utilizzando per misurare quella proprietà.

Per via di uno dei postulati della meccanica quantistica (i quali fanno sì che la teoria riproduca quanto si osserva negli esperimenti) a ogni osservabile (sono chiamate così le uniche quantità misurabili negli esperimenti) è associato un operatore, e gli stati possibili in cui la particella può essere rivelata nell’esperimento vanno ricercati in alcuni stati molto speciali che hanno la particolarità di rimanere “quasi inalterati” sotto l’azione dell’operatore.

Per spiegarlo in termini semplici, immagina che lo stato sia una freccia nello spazio: l’operatore in generale può far compiere alla freccia una certa rotazione (il che corrisponde al trasformare lo stato in un altro stato diverso dal primo). Tuttavia alcune frecce speciali vengono trasformate dall’operatore in modo che al massimo si allungano o si accorciano, ma senza ruotare:: la direzione rimane la stessa. Questi stati speciali sono chiamati autostati.

In generale ogni operatore ha il suo set di autostati “personale”.

In sostanza gli autostati di un operatore ci semplificano la vita perché trasformano in maniera molto semplice: significa meno calcoli da fare!

Un esempio preso in prestito dalla geometria: in alcuni casi gli operatori della meccanica quantistica e le matrici sono praticamente la stessa cosa (se non sai come funziona una matrice, vai a questo articolo). Una matrice come quella di rotazione attorno all’asse z sul piano x-y ha il compito di ruotare un vettore di un certo angolo. Siccome la rotazione si svolge attorno all’asse z, la componente z del vettore rimane inalterata. Il vettore di componenti (0,0,1) viene quindi mandato in se stesso, cioè è un autovettore di questa particolare matrice di rotazione.

Il vettore (0,0,1) viene trasformato in se stesso dalla rotazione attorno all’asse z.

La scrittura che ci semplifica tanto la vita, e che ricerchiamo continuamente in meccanica quantistica, è

La costante \lambda è chiamata, in gergo, “autovalore” dell’autostato. A ogni autostato viene associato il suo “autovalore”, il suo numerino personale da utilizzare come etichetta. Possono esserci anche più autostati aventi lo stesso autovalore, ma non vedrai due autovalori diversi associati allo stesso autostato.

Questa scrittura è un vero sospiro di sollievo: l’esistenza di stati che rimangono praticamente invariati sotto l’azione degli operatori rappresenta una semplificazione incredibile per i calcoli della teoria. Invece di chiederci come trasforma qualsiasi stato dell’universo sotto l’operatore (una pretesa diabolicamente assurda), ci interessiamo solo a quegli stati che invece “cambiano molto poco”.

Il motivo di ciò va ricercato in uno dei postulati fondamentali della meccanica quantistica, già accennato sopra:

Le quantità che misuriamo sperimentalmente corrispondono agli autostati della particolare osservabile a cui siamo interessati. Lo so che suona strano e inutilmente astratto, ma è grazie a questo postulato che vengono riprodotti i risultati sperimentali.

La cattiva notizia: non tutti gli stati della teoria sono autostati dell’operatore che ci interessa.


La buona notizia: gli autostati dell’operatore che ci interessa possono essere usati come blocchetti elementari per costruire gli stati più generici della particella.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.


Questo è il principio di sovrapposizione degli stati: ogni stato può essere costruito sovrapponendo tra loro tanti altri stati.

In generale conviene, anzi è proprio mandatorio, utilizzare come blocchetti elementari gli autostati dell’operatore che ci interessa. Ti conviene pensare agli autostati proprio come a dei “Lego” con cui costruire uno stato più generico possibile (la struttura fatta coi Lego è lo stato generico).

Questi autostati andranno a comporre lo stato della particella, ciascuno con un proprio peso statistico, come specificato dalle regole della meccanica quantistica (la quantistica è praticamente una teoria della probabilità, camuffata)

La tipica struttura di uno stato generico, sviluppato come somma di autostati di un certo operatore di nostro interesse. I numeri a_i sono i pesi statistici, cioè il loro modulo al quadrato, ad esempio |a_2|^2, rappresenta la probabilità che la particella, inizialmente nello stato generico “\ket{\Psi}“, venga misurata in un ‘autostato \ket{p_2}.

Il risultato della misurazione (misurazione dell’osservabile, associata a sua volta a un certo operatore della teoria) è il famigerato, e ancora dinamicamente poco compreso, “collasso della funzione d’onda”, il quale seleziona uno degli autostati dell’operatore associato all’osservabile coinvolta:

La particella viene rivelata in UNO solo degli autostati possibili dell’operatore associato all’osservabile.
Prima aveva una probabilità ben precisa di trovarsi in ciascuno degli autostati possibili, mentre DOPO la misura la probabilità di ritrovarla nello stesso autostato sarà il 100%.

ed è proprio questo a cui ci si riferisce quando si parla di “collasso della \Psi“.

Il numero che si misura nell’esperimento coincide con la costante \lambda, cioè l’autovalore dell’autostato in cui è stata rivelata la particella.

Un esempio rapido di quanto detto: un’osservabile di una particella può essere il suo spin (che sperimentalmente si misura grazie all’effetto di un campo magnetico sulla traiettoria della particella). A questo effetto osservabile è associato un operatore di spin.
Se ad esempio sperimentalmente si osserva che alcune particelle possono avere solo due tipi di deflessioni in un campo magnetico allora all’operatore di spin della teoria verranno associati due autostati.

Un tipico esperimento in cui è possibile misurare lo spin di una particella: Stern-Gerlach.

Prima di misurare la deflessione tramite l’accensione del campo magnetico, dal punto di vista della nostra interpretazione la particella si trova in una sovrapposizione di autostati di spin, e con la misurazione (l’accensione del campo magnetico) viene “selezionato un autostato” con una certa probabilità calcolabile quantisticamente.

Tutto questo discorso è importante per capire il seguito, e cioè capire perché ci interessiamo a specifici numeri quantici associati ad operatori accuratamente selezionati della teoria.

I numeri quantici non sono altro che gli autovalori di specifici operatori della teoria, accuratamente selezionati affinché soddisfino delle proprietà che ci permettono di semplificare il modo in cui possiamo fare previsioni verificabili con l’esperimento.

In ogni caso, non basta essere un autovalore di un’osservabile per essere un buon numero quantico!

Un buon numero quantico ci semplifica la vita negli esperimenti, e nella parte II di questa serie vedremo perché!
(Per chi si incuriosice: ha a che fare con il teorema di una famosa matematica tedesca…)


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo la laurea in Fisica e la magistrale in Fisica Teorica all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Quando Heisenberg propose che Protone e Neutrone fossero due stati della stessa particella

Nel 1932 James Chadwick scoprì una nuova particella, era elettricamente neutra e aveva circa la stessa massa del protone. Essendo la prima particella neutra scoperta, venne battezzata “neutrone” per ovvi motivi.

Werner Heisenberg (1901-1976), premio Nobel per la Fisica 1932.

Meno ovvia era invece la natura intrinseca di questa particella, specialmente in un epoca dicotomica come quella, anni in cui protone ed elettrone erano lo yin e lo yang della fisica particellare. Tutto doveva essere composto di pochissimi costituenti elementari: il protone e l’elettrone rappresentavano l’unità di carica positiva e negativa per antonomasia.

Quindi ogni altra particella di qualsiasi carica doveva essere una composizione di protoni ed elettroni. Ah, se solo i fisici di quegli anni avessero potuto immaginare il gigantesco zoo di particelle che sarebbe apparso solo 20 anni dopo!

Sempre nel 1932 il fisico teorico Werner Heisenberg (lo stesso del famoso principio di indeterminazione) fu uno dei primi a lavorare su una interpretazione teorica del neutrone. Il suo obbiettivo era una teoria delle interazioni nucleari (materia su cui si sapeva ancora pochissimo e le idee erano molto confuse). Si cercava di rispondere a domande come: cosa compone i nuclei? Da cosa sono tenuti assieme? Come si possono modificare o trasformare?

Addirittura prima del 1932 si credeva che i nuclei fossero composti da protoni ed elettroni (i secondi avevano lo scopo di neutralizzare parte della carica del nucleo), cosa che non poteva essere più distante dalla realtà.

Fu Heisenberg a introdurre un po’ di ordine: sfruttò subito la scoperta del neutrone per inserirlo all’interno dei nuclei. In questo modo non servivano gli elettroni dentro il nucleo: invece di mettere il doppio dei protoni era sufficiente che ce ne fosse solo la metà che corrisponde alla carica elettrica nucleare, la restante parte della massa che serviva a raggiungere l’accordo con gli esperimenti era garantita dalla presenza di alcuni neutroni.

Si spiega più semplicemente guardando questo esempio:

Lo stesso nucleo descritto prima e dopo la scoperta del neutrone.
Prima del 1932, al fine di spiegare la massa misurata sperimentalmente era necessario introdurre il doppio dei protoni. Ma per compensare la carica elettrica in eccesso si doveva postulare la presenza di elettroni nel nucleo.

In ogni caso Heisenberg aveva anche l’obbiettivo di provare a interpretare la natura del neutrone utilizzando lo “yin e lo yang”. D’altronde questa particella aveva lo stesso spin e circa la stessa massa del protone, saranno mica così diversi?
Immaginò quindi che il neutrone potesse essere composto da un protone e da una specie di “elettrone con spin nullo”. In questo modo carica positiva più carica negativa fa zero, e lo spin (che è 1/2 per il protone) sommato con lo spin zero di quella specie di elettrone ipotetico, faceva correttamente 1/2.

Questa teoria fu abbandonata quasi subito, ma l’elettrone e il suo spin rimasero comunque la principale fonte di ispirazione per il vero guizzo creativo di Heisenberg.

Anzitutto il fisico si soffermò su un aspetto peculiare:

Le masse di protone e neutrone sono quasi uguali: differiscono solo dello 0.14%.

In particolare, Heisenberg notò che se in un esperimento la strumentazione di laboratorio non fosse abbastanza sensibile da distinguere questa differenza in massa, e se fossimo in grado di “spegnere” ogni tipo di interazione elettromagnetica, non saremmo nemmeno in grado di distinguere un protone da un neutrone!

Anzi, Heisenberg fece un passo ancora più lungo: la piccolissima differenza in massa tra protone e neutrone può essere ricondotta all’elettromagnetismo: il protone, essendo carico elettricamente, riceve dei contributi elettromagnetici che abbassano leggermente la sua massa rispetto a quella del neutrone (così si pensava all’epoca).

Come anticipato, Heisenberg prese ispirazione dal problema dello spin di un elettrone.
Già dagli anni ’20 si sapeva che lo spin di un elettrone era una quantità speciale che poteva assumere solo due valori distinti, per convenzione +1/2 e -1/2.

Una rappresentazione grafica dei due possibili valori di spin dell’elettrone.

Lo spin era un numero quantico aggiuntivo che serviva a distinguere i possibili stati occupabili dagli elettroni negli orbitali atomici, e aveva a che fare con il comportamento degli elettroni in un campo magnetico.

In particolare si osservava che sotto l’azione di un campo magnetico gli atomi di un gas sviluppavano dei livelli energetici (sovrapposti a quelli già presenti) che prima non c’erano, segno che gli elettroni avevano interagito, tramite il loro spin, con questo campo magnetico: in base ai due possibili valori dello spin degli elettroni si ottenevano due nuovi livelli energetici molto vicini tra loro (vedi Effetto Zeeman).

In sostanza è come se una certa variabile nascosta (lo spin dell’elettrone) fosse venuta allo scoperto solo durante l’interazione elettromagnetica con il campo esterno.
Un fisico, per spiegare la separazione dei livelli energetici, avrebbe dovuto anzi postulare l’esistenza di questo nuovo numero quantico, e assegnargli precisamente due valori possibili.

Detto ciò, ad Heisenberg bastò tenere a mente la celebre equazione per l’energia a riposo di una particella, dovuta ad Einstein (E=mc^2 ) per fare un collegamento molto interessante: la piccola differenza in massa (\Delta m) tra protone e neutrone si traduce in una certa differenza in energia:

    \[\Delta E=\Delta mc^2\]

A suo dire, questa differenza in energia era dovuta all’interazione elettromagnetica, allo stesso modo in cui la differenza in energia di due livelli atomici nell’effetto Zeeman era dovuta all’interazione con il campo magnetico.

Nel caso dell’effetto Zeeman, il tutto era spiegabile con l’introduzione di un nuovo numero quantico, lo spin.
Prima dell’accensione del campo magnetico, il livello energetico è lo stesso, dopo l’accensione, il livello si separa in due livelli.

Protone e neutrone potevano essere pensati come lo stesso livello energetico, la cui separazione è indotta (secondo Heisenberg) dalle interazioni elettromagnetiche!

L’analogia è evidenziata in questa figura:

Analogia tra effetto Zeeman e la teoria di Heisenberg su protone e neutrone.

Doveva allora esserci un nuovo numero quantico interno in grado di distinguere protone e neutrone durante i normali esperimenti, proprio come lo spin.

I fisici dell’epoca chiamarono isospin questo nuovo numero quantico, proprio per via dell’analogia con lo spin. In questo modo protone e neutrone non erano altro che due stati diversi della stessa particella, la quale fu battezzata nucleone. Per convenzione, al neutrone venne assegnato isospin -1/2 e al protone +1/2.

Heisenberg sfruttò l’isospin per costruire una delle prime teorie sull’interazione nucleare. Il fisico tedesco sapeva bene che la forza nucleare doveva essere ben diversa da quella elettromagnetica fino ad allora conosciuta. Doveva essere una forza attrattiva, certo, se no il nucleo come fa a stare assieme? Però il tipo di attrazione non poteva essere simile a quello elettromagnetico.
Ciò era evidenziato da fatti sperimentali: proprio in quegli anni venivano condotti degli studi sulle energie di legame dei nuclei, e si scoprì che queste non crescevano come sarebbero cresciute se l’interazione nei nuclei fosse stata elettromagnetica.

La differenza tra il comportamento nucleare e quello elettromagnetico.

Inoltre, i dati sperimentali suggerivano che la carica elettrica del protone non influiva quasi per niente sui livelli energetici del nucleo. Quindi secondo Heisenberg i nucleoni contenuti all’interno dei nuclei dovevano interagire in maniera molto speciale, non tramite forze di tipo puramente coulombiano, ma tramite quelle che chiamò forze di scambio.

Queste forze di scambio potevano essere parametrizzate tramite degli operatori di isospin, del tutto simili agli operatori di spin della meccanica quantistica, i quali governavano le interazioni spin-obita e spin-spin tra i vari costituenti dell’atomo.

In questo formalismo lo stato quantistico di protone o neutrone poteva essere indicato con un vettore a due componenti:

Ma in realtà i nomi “protone” e “neutrone” divengono dei segnaposto per parlare di due stati della stessa particella: stato “isospin in alto” e stato “isospin in basso” (nota come ciò si traduce nella posizione del numero 1 nella componente alta e bassa del vettore).

Nella teoria delle forze di scambio nucleare non è possibile distinguere tra protone e neutrone, cioè la teoria, globalmente, “non distingue” tra la carica elettrica del protone e quella del neutrone. Vengono visti come due facce della stessa medaglia, e sono interscambiabili senza che cambi nulla.

In questo senso si parla di simmetria di isospin delle forze nucleari

Per capire meglio come funziona questa teoria occorre fare un ripasso di algebra lineare in due dimensioni.

Un vettore 2D può essere rappresentato sul piano cartesiano (x,y) come una freccia uscente dall’origine:

La rappresentazione cartesiana del vettore (1,1). Le sue componenti sono v1=1 sull’asse x, e v2=1 sull’asse y.

Ad esempio per costruire un vettore di componenti (1,1), cioè v_1=1 sull’asse x, e v_2=1 sull’asse y, parto dall’origine e mi sposto di 1 sull’asse x, poi mi sposto di 1 sull’asse y. Il punto in cui arrivo è la testa del vettore. Collegando la testa con la coda (cioè l’origine) ottengo una linea diagonale che chiamo “vettore”.
Un vettore può essere trasformato da una matrice usando la seguente ricetta di composizione:

Il risultato della trasformazione di un vettore è un nuovo vettore le cui componenti possono essere ottenute dalla ricetta contenuta nella matrice.

Il vettore trasformato ha le sue componenti che nascono mischiando le componenti del vettore di partenza, secondo una particolare ricetta descritta dalla matrice-operatore.
Anche il non fare niente è una trasformazione: prende il nome di matrice identità, la sua azione mi fa ottenere di nuovo il vettore di partenza. Puoi verificare anche tu con la ricetta data sopra che il seguente calcolo lascia invariato il vettore di partenza:

La matrice identità lascia il vettore invariato.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Infatti in questo caso l’operatore è tale che a_1=1, \,\,a_2=0\,\, a_3=0,\,\,a_4=1, e sostituendo nella ricetta di sopra otteniamo proprio che il vettore rimane invariato.

Per passare da uno stato all’altro del nucleone, cioè da protone a neutrone, si utilizzano gli operatori di salita e di discesa chiamati \tau_+ e \tau_{-}, le quali sono matrici 2\times 2 che agiscono sui vettori proprio come abbiamo visto sopra.

Puoi fare il conto anche tu e verificare che:

Trasformazione di un protone in un neutrone
Trasformazione di un neutrone in un protone

In generale lo stato di un nucleone è parametrizzato dalla sovrapposizione degli stati di protone e neutrone:

Lo stato più generico di un nucleone. \alpha e \beta sono parametri costanti.

Nella teoria di Heisenberg l’interazione tra due nucleoni deve tenere conto dei loro possibili stati di isospin. In particolare in un processo generico deve conservarsi l’isospin totale dei due nucleoni. La richiesta di questa conservazione permetteva di fare alcune previsioni su alcuni nuclei leggeri per mezzo di calcoli piuttosto semplici.

Alla fine la simmetria di isospin serviva a questo, era una semplificazione per i calcoli: tra tutte le possibili interazioni tra i nucleoni sono permesse solo quelle che conservano l’isospin totale, mentre vanno scartate tutte le altre.

Una simmetria imperfetta

La teoria dell’isospin di Heisenberg fu un buon colpo di genio, ma si rivelò piuttosto insoddisfacente a lungo andare. La verità è che a livello subnucleare protone e neutrone hanno una massa ben distinta! Ciò non è dovuto solo all’interazione elettromagnetica, ma anche alla composizione in quark di protone e neutrone (inutile dire che all’epoca di Heisenberg non si conoscevano i quark).

Se avessero masse uguali allora la simmetria di isospin sarebbe perfetta, quindi l’isospin sarebbe un numero quantico al pari dello spin degli elettroni. Questa differenza nella massa fa sì che la simmetria sia imperfetta, cioè consente di fare previsioni corrette solo entro un certo grado di approssimazione.

Nonostante ciò, l’idea delle simmetrie interne (come l’isospin) cambiò per sempre il modo di fare fisica delle particelle. Le simmetrie imperfette furono utilizzate per raggruppare alcuni gruppi di particelle che sbucavano fuori dagli esperimenti sui raggi cosmici e dagli acceleratori degli anni ’50 e ’60. In questo contesto le particelle di massa molto simile venivano catalogate come stati di una stessa particella con numeri quantici diversi (se ti incuriosisce: la via dell’ottetto).

Le simmetrie imperfette servirono ad ispirare Gell-Mann e altri fisici nella costruzione di una simmetria perfetta, che è quella della cromodinamica quantistica e che riguarda i quark. Ma di questo parleremo magari in un altro articolo…


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica e la magistrale in Fisica Teorica all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Come Fermi scoprì la statistica degli elettroni assieme a Dirac

Per capire l’entità del contributo di Enrico Fermi in ciò che servì ad ispirare una delle scoperte più importanti dell’umanità (la teoria dei semiconduttori), è necessario fare qualche passo indietro e considerare il contesto storico-scientifico dell’epoca.

Negli anni ’20 del secolo scorso si sapeva molto poco sulle strutture fondamentali della materia. Le teorie dell’atomo erano giovanissime e l’unico metodo di indagine consisteva nell’osservare l’assorbimento luminoso di alcuni gas della tavola periodica.

Ludwig Boltzmann (1844-1906), uno dei padri fondatori della fisica statistica.

Proprio sui gas si sapeva dire un po’ di più, essendo una collezione di atomi che potevano essere trattati (in certe condizioni di densità e temperatura) come un grosso insieme di biglie microscopiche su cui, tramite la fisica statistica di Maxwell, Boltzmann e Gibbs, si potevano fare previsioni termodinamiche verificabili sperimentalmente.

Una particolarità interessante della teoria statistica di Maxwell e Boltzmann era il contenuto minimale di ipotesi sulla natura fisica di queste “biglie microscopiche”. Stiamo parlando di una teoria formulata nella seconda metà del secolo XIX, un periodo in cui non era ancora riconosciuta l’esistenza dell’atomo!

Trattandosi tuttavia di atomi, nemmeno la teoria di Maxwell e Boltzmann uscì indenne dalla rivoluzione della teoria dei quanti, iniziata con Planck nel 1900.

La teoria dei quanti funzionò sia da completamento che da antidoto per la vecchia fisica statistica. Da antidoto perché aiutò ad indagare meglio alcuni problemi matematici della teoria di Maxwell e Boltzmann, i quali conducevano a calcoli errati nella trattazione di particelle tra loro indistinguibili, e davano dei risultati impossibili per alcune quantità come l’entropia dei gas a basse temperature.

Un problema statistico dell’entropia

Queste difficoltà erano dovute al fatto che la fisica statistica si basa essenzialmente sul “contare, per tutte le particelle, tutte le possibili configurazioni microscopiche che conducono alla stessa situazione fisica del gas“, come illustrato in figura:

Lo schema concettuale che sta alla base della teoria statistica dei gas.

Pressione, volume, temperatura (P,V,T), sono tutte quantità macroscopiche misurabili sperimentalmente. In fisica statistica ci immaginiamo di conoscere le posizioni e velocità di tutte le particelle del gas in ciascuna configurazione possibile ammessa dalle condizioni ambientali (cosa non possibile da un punto di vista computazionale, ma che facciamo finta di poter fare comunque).


Siccome non sappiamo in quale configurazione microscopica precisa si trovi il gas in ciascun istante di tempo (non è misurabile sperimentalmente), immaginiamo di avere N copie del nostro gas e di fare delle estrazioni per contare quante volte esce una certa configurazione piuttosto che un’altra. La distribuzione di queste estrazioni definisce alcune quantità macroscopiche (P_i,V_i,T_i) associate alla specifica configurazione microscopica i estratta un numero N_i di volte. Le quantità macroscopiche (P,V,T) che misuriamo sperimentalmente possono quindi essere pensate come la media di tutte le (P_i,V_i,T_i) pesate con la probabilità di estrazione N_i/N.

La misura sperimentale di (P,V,T) ci dà quindi informazioni sulla distribuzione delle configurazioni microscopiche del nostro gas.


Immaginando il gas in equilibrio termico a una certa energia interna, il numero di configurazioni del gas corrispondenti a tale energia possono essere contate, dal punto di vista teorico, sommando tutte le possibili accoppiate di posizione-velocità (x,y,z),(v_x,v_y,v_z) nelle tre dimensioni spaziali, e ciò deve essere fatto per tutte le particelle del gas.

Siccome il numero di possibili accoppiate è virtualmente infinito, i padri fondatori della fisica statistica immaginarono di dividere lo spazio dei possibili valori di posizione e velocità in cellette elementari di dimensione finita che chiamiamo \tau. In questo modo due stati dinamici specificati da (x_1,y_1,z_1),(v_{x1},v_{y1},v_{z1}) e (x_2,y_2,z_2),(v_{x2},v_{y2},v_{z2}) che caschino nella stessa celletta di questo spazio sono considerati essere lo stesso stato dinamico. È come se ammettessimo, in un certo senso, di non sapere distinguere tra (x_1,y_1,z_1),(v_{x1},v_{y1},v_{z1}) e (x_2,y_2,z_2),(v_{x2},v_{y2},v_{z2}) nel caso appartengano alla stessa cella, è un’approssimazione.

La suddivisione in cellette dello spazio di posizioni e velocità per le particelle. Secondo questa suddivisione due set di posizioni e velocità che appartengono alla stessa celletta non sono distinguibili (qui non distinguiamo il rosa dal celeste), mentre sono distinguibili da quella in verde, dato che appartiene a un’altra celletta.

Dal punto di vista statistico, l’entropia del gas è pensabile come una misura di quanti stati dinamici microscopici sono associabili a un certo stato termodinamico macroscopico, una misura della nostra “ignoranza” sull’effettiva configurazione microscopica del gas.

Il problema era che la dimensione \tau della celletta elementare era del tutto arbitraria, e ciò influiva pesantemente sul conteggio delle configurazioni. Essendo il numero delle configurazioni direttamente collegato alla definizione statistica di entropia, una scelta di \tau troppo piccola conduceva a valori infiniti per l’entropia del gas. Questa indeterminazione sulla scelta di \tau impediva inoltre di calcolare, statisticamente, il valore della costante dell’entropia alla temperatura dello zero assoluto.

Il problema della costante dell’entropia stava molto a cuore ai fisici dell’epoca. Nella termodinamica ottocentesca ci si interessava solo alle differenze di entropia, e quindi era di scarso interesse pratico domandarsi quale fosse il valore assoluto dell’entropia a una determinata temperatura come T=0\,\text{K}, e in ogni caso questa costante spariva quando si faceva la differenza \Delta S=S(B)-S(A) tra due stati termodinamici B e A.
Tuttavia con l’arrivo del teorema di Nernst e quindi del terzo principio della termodinamica (il quale postula che l’entropia allo zero assoluto sia esattamente zero) si rivelò essenziale determinare il valore di questa costante.

Un altro problema fastidioso era quello che riguardava il conteggio di particelle indistinguibili: quando si contavano tutte le configurazioni possibili di tutte le particelle del gas si finiva per contare più volte la stessa configurazione per via del fatto che non è possibile distinguere una particella dall’altra. Per via di ciò si arrivava a dei paradossi che riguardavano l’entropia di mescolamento dei gas.
Di questo problema si interessò Gibbs, il quale propose di dividere i conteggi per il fattore combinatorico N! dove N è il numero di particelle e con “!” si intende il fattoriale N!=N(N-1)(N-2)....
Tuttavia anche questa soluzione non risolveva tutti i problemi…

La teoria dei quanti sistemò i problemi dell’entropia. Si dimostrò che la dimensione \tau delle cellette elementari doveva essere pari alla costante di Planck h: la natura discreta della teoria quantistica si sposava bene con l’ipotesi delle cellette elementari della fisica statistica.

Il punto è che gli effetti quantistici delle particelle non sono più trascurabili a basse temperature. In fisica statistica esiste una quantità chiamata lunghezza d’onda termica di De Broglie, la quale ha la seguente espressione per un gas perfetto monoatomico:

La lunghezza termica delle particelle di un gas, dove h è la costante di Planck, m la massa delle particelle, k_B la costante di Boltzmann che converte da dimensioni di energia a dimensioni di temperatura tramite E=k_BT, e T la temperatura del gas.

Questa lunghezza d’onda deriva dalla formulazione ondulatoria di De Broglie per le particelle quantistiche.
Secondo De Broglie, a ogni particella avente quantità di moto p è associabile una lunghezza d’onda \lambda=h/p. Se come p si prende la quantità di moto termica delle particelle del gas si ottiene la \lambda_T riportata sopra.
A temperature normali questa lunghezza d’onda è molto più piccola della distanza media tra gli atomi di un gas. Vediamo però che al diminuire di T, la relazione di inversa proporzionalità \lambda_T\propto 1/\sqrt{T} aiuta a far crescere questa lunghezza d’onda. Per temperature sufficientemente basse la lunghezza d’onda \lambda_T diventa comparabile con le distanze inter-atomiche del gas.

Man mano che si abbassa la temperatura del sistema, aumenta la lunghezza d’onda di De Broglie e dominano le interferenze quantistiche tra le funzioni d’onda delle particelle.
Nel caso in figura sono mostrati dei bosoni.

Quindi, per via delle loro proprietà quantistiche, le particelle iniziano ad interferire tra loro come tante onde, e questo succede quando la loro lunghezza d’onda diventa almeno comparabile con la distanza tra una particella e l’altra, a temperature molto basse.

Siccome parliamo di funzioni d’onda che creano interferenze, l’indistinguibilità delle particelle gioca un ruolo centrale in questo processo quantistico, e ciò sta alla base di tutte le difficoltà teoriche della vecchia fisica statistica, la quale non teneva conto di queste proprietà quantistiche. Fino alla prima metà degli anni ’20, questa sottigliezza quantistica non era ancora stata compresa in profondità.

Statistica quantistica: la strada di Fermi

Enrico Fermi (1901-1954). Premio Nobel per la Fisica nel 1938.

Ancora fresco di laurea, Fermi divenne particolarmente ossessionato dal problema della costante dell’entropia, pubblicando diversi articoli tra il 1924 e il 1926.

Aveva intuito che il problema risiedesse nella natura quantistica delle particelle, in particolare dal punto di vista della loro indistinguibilità, ma mancava ancora qualche pezzo del puzzle.

Il pezzo mancante fu messo a disposizione da Pauli con la formulazione del principio di esclusione: non possiamo avere due elettroni con tutti i numeri quantici uguali tra loro. Gli elettroni sono particelle indistinguibili, quindi Fermi si ispirò al loro comportamento per provare a quantizzare un gas di particelle a temperature sufficientemente basse.

Possiamo immaginarci un Fermi che lavora assiduamente all’alba (il suo momento preferito per studiare e lavorare su nuovi articoli) in qualche fredda mattina di Firenze, nell’inverno del 1925-26, sforzandosi di sfruttare il principio di Pauli per ottenere la costante corretta dell’entropia allo zero assoluto.

La prima pagina dell’articolo di Fermi, presentato all’accademia dei Lincei nel febbraio del 1926.

Nel suo articolo “Sulla quantizzazione del gas perfetto monoatomico” uscito nel febbraio del 1926, Fermi ipotizzò che un gas ideale si comportasse proprio come gli elettroni del principio di Pauli e cambiò completamente il modo di contare le configurazioni possibili in fisica statistica: in ciascuno stato dinamico possono esserci zero o al massimo una sola particella, mai due nello stesso stato.
Immaginò poi che il gas potesse essere caratterizzato da determinati livelli energetici discreti, proprio come si faceva nella quantizzazione dell’atomo di idrogeno. Questa spaziatura tra i livelli energetici era tanto più rilevante per la fisica del problema quanto più era bassa la temperatura del gas, essenzialmente per il motivo enunciato sopra. Ad alte temperature gli effetti quantistici devono essere trascurabili e si ritorna alla termodinamica dell’ottocento.

La conseguenza di questo nuovo modo di contare era che ciascuno stato i era occupato da un numero medio di particelle in funzione dell’energia E_i dello stato, secondo la seguente espressione:

Il numero di nepero e (o Eulero), l’energia E_i dello stato, la temperatura T, la costante di Boltzmann k_B. Il parametro \mu è noto come “potenziale chimico” e allo zero assoluto corrisponde all’energia di Fermi: E_F.

Usando questa informazione, Fermi calcolò l’espressione della costante dell’entropia, la quale coincideva con il valore sperimentale dedotto da Sackur e Tetrode nel 1912. La sua teoria era un successo!

Tuttavia, come confermato anche da alcuni studiosi (Belloni, Perez et al), Fermi non si interessò delle radici quantistiche di questa nuova statistica, cioè non provò a collegare il principio di Pauli con la natura ondulatoria della materia. Inoltre non esisteva, al tempo, un gas capace di comportarsi come gli elettroni dell’articolo di Fermi. La soluzione di Fermi voleva andare nella direzione della statistica quantistica, ma con un approccio molto cauto sulle ipotesi alla base. Fermi utilizzò la sua intuizione per dare una nuova soluzione a dei problemi annosi di fisica statistica (già risolti recentemente da Bose e Einstein con la loro statistica) e dedusse una statistica completamente nuova.

Tuttavia, al contrario di quanto si dice solitamente in giro, Fermi non applicò direttamente questa nuova statistica al problema degli elettroni nei metalli (cosa che fu fatta da altri e che condusse alla teoria dei semiconduttori).

La statistica di Fermi-Dirac

La distribuzione trovata da Fermi è dipendente dalla temperatura. Abbiamo già anticipato che gli effetti quantistici diventano preponderanti a temperature vicine allo zero assoluto. In questo caso il principio di Pauli emerge direttamente dalla forma analitica della distribuzione, riportata in figura:

La formula di Fermi al variare della temperatura.

Man mano che la temperatura del gas di elettroni si avvicina a T=0\,\text{K}, la distribuzione di Fermi si avvicina sempre di più alla “funzione gradino”

La funzione gradino, cioè il limite a basse temperature della formula di Fermi.

Allo zero assoluto, gli elettroni occupano i livelli energetici riempiendoli dal più basso fino a un’energia chiamata “energia di Fermi”, indicata con E_F.
Puoi notare come a T=0 il numero medio di occupazione dello stato a energia E_i sia esattamente 1: non può esserci più di un elettrone per stato, è il principio di esclusione di Pauli in tutta la sua gloria. Nota anche che non ci sono elettroni che occupano stati a energia maggiore di quella di Fermi.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questo comportamento è essenzialmente verificato anche per temperature più alte di T=0, basta solo che sia T\ll T_F dove T_F è detta “temperatura di Fermi”, ed è pari a T_F=E_F/k_B. Nelle situazioni di interesse fisico (come nei metalli), la condizione T\ll T_F è praticamente sempre soddisfatta, essendo T_F di solito dell’ordine di alcune centinaia di migliaia di gradi kelvin.

I gas di elettroni sono fortemente influenzati dal principio di Pauli: è un po’ come se ci fosse una forza “repulsiva” tra gli elettroni, la quale gli impedisce di occupare lo stesso stato energetico. Questa è anche un’interpretazione euristica del fatto che la pressione di un gas di Fermi sia più elevata di un gas classico: è difficile comprimere un gas di elettroni perché non vogliono mai “occupare lo stesso punto spaziale”.

Come mai questa statistica è chiamata “Fermi-Dirac” e non solo “Fermi”?
È noto che Dirac pubblicò la stessa formula alla fine dell’estate del 1926, mentre Fermi l’aveva presentata nella primavera dello stesso anno. Dirac, su sollecito scritto da parte del fisico italiano, ammise di aver letto il lavoro di Fermi, ma sostenne di averlo completamente scordato.

In difesa di Dirac va detto che il suo lavoro (“On the Theory of Quantum Mechanics“) è molto più generale di quello presentato da Fermi, il quale si era invece proposto di risolvere un problema particolare (quello dell’entropia) che c’entrava poco con i postulati della meccanica quantistica.

Dirac giustificò in maniera elegante il principio di esclusione di Pauli notando che la meccanica quantistica era il luogo naturale per trattare i sistemi di particelle indistinguibili, grazie al formalismo delle funzioni d’onda.

La chiave del ragionamento di Dirac si trova proprio nel fatto che le particelle elementari possono essere considerate indistinguibili. La conseguenza quanto-meccanicistica è che se consideriamo due particelle non interagenti tra loro, e che possono occupare gli stati A e B, la funzione d’onda che le descrive collettivamente è data dal prodotto delle due funzioni d’onda

    \[\psi(x_1;x_2)=\psi_A(x_1)\psi_B(x_2)\]

in cui x_1 e x_2 sono le posizioni delle due particelle. Se scambiamo le due particelle, e cioè le portiamo dallo stato A allo stato B e viceversa, otteniamo la funzione d’onda modificata

    \[\psi'(x_1;x_2)=\psi_B(x_1)\psi_A(x_2)\]

Ma se assumiamo che le particelle siano indistinguibili, la densità di probabilità deve restare la stessa (ricordiamo che è data dal modulo al quadrato della funzione d’onda):

    \[|\psi'(x_1;x_2)|^2=|\psi(x_1;x_2)|^2\]

Quindi al massimo possiamo avere che \psi' è diversa da \psi per un fattore \eta

    \[\psi'(x_1;x_2)=\eta \psi(x_1;x_2)\]

in cui \eta è un numero tale che |\eta|^2=1 in modo da soddisfare |\psi'(x_1;x_2)|^2=|\psi(x_1;x_2)|^2 (verifica pure!).

Se ri-scambiamo le due particelle, torniamo punto e a capo, e cioè deve essere \psi''(x_1;x_2)=\psi(x_1;x_2)

    \[\psi''(x_1;x_2)=\eta \psi'(x_1;x_2)=\eta^2\psi(x_1;x_2)=\psi(x_1;x_2)\]

ovvero \eta^2=1, la quale ha soluzione \eta=\pm 1.
Se \eta=-1 stiamo parlando di particelle con funzioni d’onda antisimmetriche (cioè lo scambio delle particelle produce un segno meno moltiplicativo nella funzione d’onda totale). Una conseguenza è che se parliamo dello stesso stato A=B allora lo scambio delle particelle produce la seguente relazione

    \[\psi_A(x_1)\psi_A(x_2)=-\psi_A(x_1)\psi_A(x_2)\]

la quale implica identicamente \psi_A(x_1)\psi_A(x_2)=0, cioè non esiste uno stato quantistico in cui queste particelle hanno gli stessi numeri quantici. Questa è la giustificazione quanto-meccanicistica del principio di Pauli, e condusse Dirac a ricavare la stessa formula di Fermi per la statistica degli elettroni.

La lettera in cui Fermi richiamò l’attenzione di Dirac sul suo articolo del febbraio precedente.


Fermi si limitò all’applicazione del principio di esclusione su un problema specifico, senza provare a darne un’interpretazione quanto-meccanicistica.

In ogni caso, Dirac riconobbe comunque l’importanza del lavoro di Fermi, e propose di chiamare la nuova statistica “Fermi-Dirac”, mettendo il nome di Fermi al primo posto.

Oggi le particelle (come gli elettroni) che obbediscono alla statistica di Fermi-Dirac sono note come “fermioni”, sempre in onore di Fermi. I fermioni sono tutte quelle particelle caratterizzate da uno spin semi-intero. Per un teorema rigorosamente dimostrabile in teoria quantistica dei campi, tutte le particelle a spin semi-intero obbediscono alla statistica di Fermi-Dirac, mentre quelle a spin intero (note come “bosoni“) obbediscono alla statistica di Bose-Einstein (sono le particelle con \eta=1 dopo uno scambio).

Alle basse temperature i bosoni possono occupare tutti lo stesso stato a energia più bassa, mentre i fermioni sono forzati ad occupare stati a energia crescente fino all’energia di Fermi (nella figura sono presenti al massimo due fermioni per via del numero quantico di spin, il quale assume due valori possibili se lo spin è 1/2).

Alle alte temperature (dove gli effetti quantistici sono meno preponderanti) sia fermioni che bosoni tornano ad obbedire alla statistica di Maxwell-Boltzmann e Gibbs.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica e la magistrale in Fisica Teorica all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Il neutrino sterile: la particella “fantasma” che arrovella i fisici da decenni

I neutrini sono le particelle che abbiamo capito meno in tutto il Modello Standard.

In sintesi, le difficoltà sorgono dal fatto che queste particelle interagiscono con una sola delle interazioni fondamentali (senza contare la gravità), e questa è sfortunatamente l‘interazione debole. Alle tipiche energie dei nostri esperimenti questa interazione è fortemente soppressa (ecco perché si chiama “debole”), per cui è molto difficile produrre o far interagire dei neutrini:

In media, un neutrino interagisce una sola volta dopo aver percorso 100 miliardi di volte un diametro terrestre.

Nonostante ciò, i neutrini sono stati scoperti sperimentalmente e vengono studiati con cura dagli anni ’50, questo perché sono state impiegate sorgenti che ne emettono grandi quantità: in questo modo si contrasta la scarsa probabilità di interazione con l’enorme numero di “proiettili”. È la stessa filosofia di comprare un centinaio di “gratta e vinci” per aumentare le chances di pescarne almeno uno vincente.

Cosa non capiamo dei neutrini?

Per poter dire che “capiamo” tutto di una particella dobbiamo essere in grado di affermare quali siano i suoi numeri quantici, e di solito ci si concentra su questi tre:

  • Carica elettrica
  • Spin
  • Massa

Dei neutrini conosciamo con precisione solo i primi due: sono elettricamente neutri (infatti non interagiscono con la forza elettromagnetica) ed hanno spin 1/2, mentre sorprendentemente non sappiamo ancora con precisione il valore della loro massa. Sappiamo solo che non può essere più grande di un numero molto piccolo, per via delle evidenze sperimentali.

Ciò che stupisce è che rispetto alle altre particelle hanno una massa spaventosamente minuscola, così piccola che è difficile da misurare: gli esperimenti ci consentono solo di porre dei limiti superiori sempre più piccoli. Per dare un’idea, l’elettrone ha una massa di mezzo milione di elettronvolt, mentre si stima che quella dei neutrini sia inferiore a un solo elettronvolt. Se l’elettrone è considerato la particella carica più leggera del Modello Standard, i neutrini sono davvero dei pesi piuma.

È di fondamentale importanza riuscire a determinare la massa di una particella. Nel Modello Standard la massa è spesso l’unico numero quantico che permette di distinguere tra due particelle che hanno gli altri numeri quantici uguali.

Ad esempio il muone e l’elettrone sono due particelle elementari con la stessa carica elettrica e lo stesso spin, ma il muone è circa 200 volte più pesante dell’elettrone ed è proprio ciò che ci permette di distinguerli nella maggior parte dei casi. Allo stesso modo il tau è la terza “sorella” di muone ed elettrone, in quanto ha stessa carica e stesso spin, ma massa pari a circa 18 volte quella del muone.
Queste tre particelle furono raggruppate in un trio chiamato “leptoni carichi”.

Elettrone, Muone e Tau: le tre particelle “sorelle” del Modello Standard costituiscono la famiglia dei leptoni carichi.

Per spiegare i risultati sperimentali degli anni ’30 e ’50, si associò a ciascun leptone carico (elettrone, muone e tau) un neutrino di tipo corrispondente. Infatti si dimostrò che in ciascun processo di interazione debole di un leptone carico compariva sempre un neutrino, di conseguenza:

  • All’elettrone venne associato un neutrino-elettronico: \nu_e
  • Al muone venne associato un neutrino-muonico: \nu_\mu
  • Al tau venne associato un neutrino-tau: \nu_\tau

Quindi anche i neutrini sono considerati dei leptoni, solo che hanno carica elettrica nulla. Assieme ai leptoni carichi costituiscono i 6 leptoni del Modello Standard.

La cosa importante da capire è che siamo in grado di distinguere un neutrino \nu_e da un neutrino \nu_\mu o da un neutrino \nu_\tau: basta guardare qual è il leptone carico coinvolto nelle interazioni (rare) di questi neutrini!

Il modo in cui siamo in grado di dire quale dei tre neutrini stiamo considerando: basta guardare i leptoni carichi che escono fuori dalle interazioni del neutrino con la materia.

In questo senso si parla di conservazione del sapore leptonico: un neutrino di sapore “muonico” è sempre associato, in un’interazione debole, a un muone. Se c’era un sapore elettronico all’inizio, dovrà esserci un sapore leptonico anche alla fine.

Le oscillazioni di sapore

Alla fine del secolo scorso si scoprì che i neutrini sono in grado di cambiare sapore leptonico durante il loro viaggio tra due punti dello spazio, e fu proprio questo fatto ad evidenziare che i neutrini dovevano avere una massa: senza una massa non è possibile questa oscillazione tra sapori!

L’oscillazione rompe la conservazione del sapore leptonico!

Ad esempio da un processo debole che coinvolge un elettrone (rivelabile) sappiamo che sbucherà fuori un \nu_e, il quale, dopo una certa distanza, si tramuterà in un \nu_\mu, il quale interagirà facendo comparire un muone, che sarà a sua volta rivelabile e ci permetterà di dire che questa oscillazione è effettivamente avvenuta!

Per spiegare questo effetto vengono introdotti gli “stati di massa” dei neutrini, chiamati \nu_1,\nu_2,\nu_3 a cui vengono associate le masse m_1,m_2,m_3. Ciascun stato di massa “contiene” al suo interno i tre sapori dei neutrini \nu_e,\nu_\mu,\nu_\tau in proporzioni che possono essere studiate sperimentalmente.
Graficamente abbiamo quindi tre neutrini ciascuno contenente al suo interno il mixing di sapori:

Gli autostati di massa dei neutrini con al loro interno i mixing dei sapori.
Celeste: \nu_e, Marroncino: \nu_\mu, Grigio: \nu_\tau.

Questo mixing avviene nel senso quanto-meccanico di sovrapposizione di stati: ciascuno stato di massa è una sovrapposizione delle funzioni d’onda dei sapori leptonici e,\mu,\tau.

Ad esempio dalla figura leggiamo che sperimentalmente è stato verificato che lo stato \nu_1 contiene per la maggior parte il sapore elettronico \nu_e (indicato in blu), mentre il sapore tau \nu_\tau è presente solo in minima parte.

Essendo tutto ciò un effetto quanto-meccanico, a ogni oscillazione tra sapori è associata una certa probabilità che sarà tanto più elevata quanto più grande è il mixing tra sapori negli stati di massa. Questa probabilità è verificabile sperimentalmente: basta chiedersi “se nel punto di partenza ho N neutrini di tipo \nu_e, quanti neutrini di tipo \nu_\mu mi ritroverò a una certa distanza dal punto di partenza?”

Ad esempio la probabilità che un neutrino \nu_e si trasformi in un neutrino \nu_\mu è data dalla seguente formula:

Vengono chiamate “oscillazioni” perché la probabilità dipende da un seno al quadrato, il quale rappresenta graficamente un’oscillazione nelle variabili L,E,\Delta m^2.

in cui \theta è un parametro del Modello Standard che è stato misurato sperimentalmente (e definisce il grado di mixing dei due sapori in questo caso). D’altra parte \Delta m^2=m_2^2-m_1^2 riguarda la differenza tra i quadrati delle masse di \nu_2 e \nu_1, mentre L è la distanza a cui hanno viaggiato i neutrini prima di essere rivelati, ed E è la loro energia.
Nota bene che se questi neutrini avessero la stessa massa, e cioè \Delta m^2=0, non si potrebbero avere oscillazioni (la probabilità sarebbe nulla perché il seno di zero fa zero).

Ad esempio è molto più probabile che un \nu_e si trasformi in un \nu_\mu quando l’argomento del seno è vicino al punto in cui il seno ha un massimo, e cioè in prossimità di 90^{\circ} (o in radianti pi/2), e cioè quando

Da questa formula è possibile capire a che valore del rapporto L/E si è più sensibili per rivelare un’oscillazione da \nu_e in \nu_\mu. Si può quindi ottenere una stima di \Delta m^2.

Studiando l’andamento dell’oscillazione con L/E si può quindi ricavare \Delta m^2 proprio da questa formula.

La differenza tra le masse dei neutrini \nu_2 e \nu_1 è minuscola, ma comunque calcolabile dai dati sperimentali. Allo stesso modo è stata calcolata la differenza tra le masse quadre di \nu_3 e \nu_2, e da ciò si può ricavare la differenza tra le masse quadre di \nu_3 e \nu_1.
Conosciamo solo queste \Delta m^2, ma non i valori singoli di m_3,m_2,m_1, che frustrazione, eh?

Misurando il numero di eventi di neutrini di un certo sapore ad alcuni valori del rapporto L/E si possono ricavare i valori sperimentali di \theta e \Delta m^2. Questo è proprio ciò che si fa da qualche decina di anni: la teoria delle oscillazioni è verificata con un alto grado di accuratezza, tranne per qualche anomalia…

Le anomalie delle oscillazioni

Immagina di stare conducendo un esperimento in cui produci dei neutrini \nu_\mu, li fai viaggiare per una certa distanza L e ti aspetti che si trasformino in neutrini \nu_e con una probabilità data dalla formula vista sopra: P_{\nu_e\to\nu_\mu}=\sin^2(2\theta)\sin^2\left(\frac{\Delta m^2 L}{4E}\right), solo che con sorpresa ti ritrovi a rivelare più neutrini \nu_e di quelli che ti aspettavi, un eccesso rispetto alla previsione teorica.

Questo è proprio quello che capitò nell’esperimento LSND degli anni ’90 (immagine di copertina): comparvero più neutrini \nu_e di quelli previsti dal modello delle oscillazioni a tre stati di massa \nu_1,\nu_2,\nu_3.

Questo fenomeno fu spiegato con l’introduzione di un quarto stato di massa \nu_4, avente massa m_4 apparentemente molto più grande di m_1,m_2,m_3.

Questo \nu_4 permetteva l’oscillazione di \nu_\mu in \nu_e a un ritmo più elevato, dato dalla formula modificata:

Stavolta \Delta m^2_{41}=m_4^2-m_1^2, e non più \Delta m^2=m_2^2-m_1^2.

in cui si trovò che, appunto, \Delta m_{41}^2\gg \Delta m_{21}^2: il quarto stato di massa doveva avere una massa molto più elevata degli altri tre stati di neutrini.

Ricorda però che ad ogni stato \nu_1,\nu_2,\nu_3 avevamo associato un certo mixing di sapori \nu_e,\nu_\mu,\nu_\tau, quindi aggiungendo un \nu_4 dobbiamo aggiungere anche un nuovo sapore \nu_s. Questo è necessario per far quadrare i conti della teoria dei mixing.

Il Modello Standard però proibisce (con misure sperimentalmente verificate) un numero di sapori di neutrini superiore a tre! Cioè possono esistere solo i sapori “canonici”: \nu_e,\nu_\mu,\nu_\tau.

Il nuovo sapore \nu_s associato alla comparsa di \nu_4 dovrà allora essere completamente sconnesso dal Modello Standard, e cioè dovrà essere sterile rispetto a tutte le interazioni fondamentali. Questo suo essere sterile proibisce una rivelazione diretta del neutrino, e i suoi effetti compaiono solo come eccessi di oscillazioni, come nell’esperimento LSND.

Il nuovo mixing dei neutrini usando un quarto stato di massa \nu_4 e un nuovo sapore sterile (indicato in rosa). Notare come \nu_4 contenga il nuovo sapore per la maggior parte, mentre una componente sterile è presente in quantità molto piccole negli altri stati \nu_1,\nu_2,\nu_3.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Se già i neutrini di sapore tradizionale erano difficili da rivelare, il neutrino sterile è quindi una vera e propria particella fantasma. Non ne vediamo l’effetto diretto, ma solo quello indiretto sulle oscillazioni tra gli altri sapori “attivi” \nu_e,\nu_\mu,\nu_\tau.
Tuttavia anche questi “eccessi” nelle oscillazioni sono abbastanza misteriosi, ad oggi non è detto che il neutrino sterile esista per forza.

Ci sono parecchie discordanze sulle anomalie rivelate da LSND, dato che gli esperimenti successivi non sono riusciti a confermarle, ma nemmeno a smentirle! Anche al Gran Sasso (esperimento GALLEX) furono misurate delle anomalie nelle oscillazioni, e ad oggi pure queste anomalie restano senza conferma da altri esperimenti, nonostante siano però difficili da smentire.

La scoperta del neutrino sterile segnerebbe il primo passo verso il superamento definitivo del Modello Standard

Questo perché essendo sterile non potrebbe accoppiarsi nemmeno con il campo di Higgs per sviluppare la massa dello stato m_4, dunque servirebbe un nuovo meccanismo che implicherebbe l’utilizzo di teorie oltre il Modello Standard.

Per mettere la parola definitiva sul neutrino sterile sono previsti esperimenti sempre più sensibili, ma al contempo sempre più difficili da costruire, con tecnologie all’avanguardia ancora da inventare.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica e la magistrale in Fisica Teorica all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Come la gravità ci impedisce di misurare distanze più piccole della lunghezza di Planck

Uno dei punti fondamentali per la conquista dell’unificazione tra gravità e meccanica quantistica riguarda la comprensione dello spaziotempo a una scala subatomica di lunghezza.

Lo spaziotempo è essenzialmente un concetto classico: possiamo immaginarcelo come una struttura invisibile che può essere descritta utilizzando i numeri reali (cioè quelli della quotidianità: 2.3, 0.01, \pi, e^{-\pi/2}, -3/4, 2.9999...).

Come immaginiamo la griglia dello spaziotempo curvata dalla massa.

I numeri reali costituiscono un insieme non numerabile, in parole povere non solo abbiamo a disposizione un’infinità di numeri da -\infty a +\infty, ma anche che tra due numeri come 0 e 1 è compresa un’altra infinità di numeri. Inoltre è anche un insieme continuo, cioè dato un certo numero x, è sempre possibile trovare un altro numero y sufficientemente “vicino” al primo in modo che la distanza x-y tra i due si avvicini a zero fino alla cifra decimale che si desidera.
Nei numeri interi, invece, la distanza tra due numeri può solo coincidere con lo zero nel caso in cui i due numeri siano uguali, altrimenti esiste una distanza minima che è quella che riguarda due numeri consecutivi come 4 e 5.

Ecco, classicamente si pensa che lo spaziotempo possa essere descritto con un insieme di numeri reali piuttosto che di numeri naturali. Non è definita una distanza minima se non quella uguale a zero.

Cosa succede quando tiriamo in ballo la meccanica quantistica?

Ispirato dal seguente brillante articolo di Calmet, Graesser e Hsu pubblicato nella Physical Review Letters, ho deciso di volgarizzare un ragionamento che ho trovato molto intrigante, dato che su questi temi si discute sempre pochino e male.

Immaginiamo di avere un certo detector per rivelare la distanza tra due punti x(t) e x(0) nella griglia dello spaziotempo, uno al tempo t=0 e l’altro al tempo t.
Supponiamo per semplicità che il detector, di grandezza L e massa M, misuri questi due punti spostandosi con una velocità v=p/M dove p è la sua quantità di moto. Avremo cioè

Il discorso che sto per fare ora si basa su un’approssimazione euristica al fine di scongiurare l’introduzione di operatori quantistici, dato che aggiungerebbero poco o niente alla sostanza del discorso principale.

Una volta misurate le posizioni x(t) e x(0) con una certa incertezza \Delta x(t) e \Delta x(0), possiamo anche stimare l’incertezza sulla quantità di moto \Delta p usando le formule sulla propagazione delle incertezze:

Considerando ad esempio il punto x(t), varrà il principio di indeterminazione di Heisenberg:

A questo punto sostituiamo dentro il principio di Heisenberg l’espressione di \Delta p=(M/t)[\Delta x(t)+\Delta x(0)] trovata con la propagazione delle incertezze. Trascurando termini quadratici del tipo (\Delta x(t))^2 essendo più piccoli di un ordine di grandezza, si arriva a una relazione interessante:

Le incertezze sulla posizione iniziale e finale sono legate da un principio di indeterminazione, il cui valore aumenta all’aumentare del tempo. Di sicuro questa è una relazione interessante.
Ancora più interessante è chiedersi quale sia l’incertezza sulla distanza tra x(t) e x(0), cioè s=x(t)-x(0). Anche ora, per via della propagazione degli errori, si ha che

    \[\Delta s=\Delta x(t)+\Delta x(0)\]

Se \Delta x(t) diminuisce allora \Delta x(0) aumenta al fine di mantenere vera la \Delta x(0)\Delta x(t)\ge \frac{\hbar t}{2M}, quindi \Delta s è limitato dal valore più grande tra \Delta x(0) e \Delta x(t).

Nel caso in cui \Delta x(t)\approx \Delta x(0) cioè misuriamo i punti x(t) e x(0) con incertezze circa uguali, il principio di indeterminazione fornisce:

Quindi da un punto di vista quantistico possiamo misurare una lunghezza spaziale con una precisione

Dove ricordiamo, t è il tempo che abbiamo lasciato correre tra una misura e l’altra, e M è la massa del nostro detector (che abbiamo fatto interagire con lo spazio attorno a sé lasciandolo muovere liberamente).
Controllando questi due parametri possiamo rendere \Delta s piccolo a piacere. Possiamo costruire un detector molto massivo e fare tante misure consecutive separate da intervalli di tempo t molto piccoli.
Rendendo piccolo il rapporto t/M possiamo rendere \Delta s piccolo a piacere.

Tutto ciò andrebbe bene in un mondo in cui non esiste la gravità. Questo è il messaggio da portare a casa! Se non ci fosse di mezzo la gravità, come puoi vedere, nulla impedirebbe di rendere \Delta s piccolo a piacere (anche se non può mai essere nullo, per via del principio di Heisenberg).

L’intervento della gravità

Ho mentito, non possiamo rendere t piccolo a piacere! Se L è la dimensione del nostro detector, dobbiamo considerare dei tempi t tali che t>L/c cioè maggiori del tempo impiegato dalla luce a percorrere il nostro detector (altrimenti solo una frazione del detector può essere considerato “detector”).

Inoltre non possiamo rendere M grande a piacere: se rendiamo M troppo grande rispetto alle dimensioni L del detector, questi potrebbe collassare in un buco nero, e ciò impedirebbe di leggere qualsiasi informazione sulle misure del nostro esperimento. Il parametro di lunghezza fondamentale di un buco nero è dato dall’orizzonte degli eventi

    \[r_s\sim \frac{GM}{c^2}\]

dove G è la costante di gravitazione di Newton e c la velocità della luce.

Affinché il detector non sia un buco nero da cui non escono informazioni, desideriamo che sia L>r_s. Mettendo tutto assieme avremo quindi

La quantità risultante è identificata come lunghezza di Planck \ell_p, definita come:

La lunghezza di Planck, costante fondamentale della Fisica.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Non c’è nessun parametro che possiamo controllare nella formula della lunghezza di Planck: è composta da costanti fondamentali della Fisica come G, \hbar, c (costante di gravitazione di Newton, costante di Planck e velocità della luce). Quindi \Delta s\ge \ell_p è un limite inferiore che non possiamo sormontare in alcun modo ingegnoso: la gravità impedisce di misurare distanze più piccole della lunghezza di Planck.

Se vuoi sapere da dove spunta fuori la lunghezza di Planck da un punto di vista storico, ho scritto un articolo a riguardo.

Quanto è piccola una lunghezza di Planck nelle nostre unità di misura quotidiane? \ell_p\sim 10^{-33}\,\text{cm}, ovvero 10^{-25} volte il raggio tipico di un atomo. Per enfatizzare, il numero 10^{-25} corrisponde a 24 cifre dopo lo zero, cioè qualcosa del tipo 0.\underbrace{000.....0}_{24}1. Giusto per intenderci.

Il punto fondamentale è che se non ci fosse la gravità, non esisterebbe una lunghezza minima misurabile e potremmo rendere piccola a piacere l’incertezza quantistica della misura!

Ad avere l’ultima parola sulle dimensioni spaziali subatomiche non è quindi la quantistica, ma la gravità!
Questo risultato è molto significativo per la Fisica! Perché?

Quando si effettuano esperimenti di Fisica delle interazioni fondamentali (come le collisioni tra particelle) si esplorano scale di energia sempre più alte (che equivale a dire: si esplorano regioni di spazio sempre più piccole). La presenza di una scala di lunghezza sotto la quale non si può andare implica anche l’esistenza di una scala di energia sopra la quale non si può andare (perché la gravità diventerebbe rilevante e si inizierebbe a parlare di collasso in buco nero, avendo accumulato tanta energia in una regione di dimensioni molto ridotte). Un altro pezzo del puzzle per la lunga scalata che ci porterà verso la gravità quantistica?


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’Università di Pisa, fa ricerca sulle simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Il trucco per stimare la temperatura di Hawking: la gravità quantistica dietro le unità naturali

Stephen Hawking, 1942-2018.

Quello che propongo è un esercizio concettuale che ci porterà a stimare in maniera molto euristica (e non rigorosa) la temperatura di evaporazione dei buchi neri, altrimenti nota come “temperatura di Hawking”, dal suo scopritore Stephen Hawking. Su ispirazione da una lettura del fisico Anthony Zee, ritengo ci sia tanta fisica teorica dietro questo semplice giochino concettuale, quindi ci tengo a condividerlo con gli appassionati.

Alle fine, tutto inizia con Planck.
Max Planck è uno scienziato rinomato non solo per l’ipotesi sulla quantizzazione della radiazione, ma anche per essere stato il primo a proporre le “unità naturali” nella Fisica. Intendo proprio delle unità di misura molto speciali, dette “naturali” per un motivo ben preciso.

Perché mai avremmo bisogno di utilizzare delle “unità naturali", e poi che significa “naturale"? Naturale rispetto a cosa?

Se ci pensiamo un attimo, la storia dell’umanità è cosparsa di convenzioni sulle unità di misura:
cos’è un litro? Un piede? Una spanna? Un centimetro? Un gallone? Un secondo?

Chiaramente ogni unità di misura ha la sua definizione riconosciuta internazionalmente, ma tutte hanno in comune un unico fatto: sono antropocentriche per costruzione (d’altronde non poteva essere altrimenti, no?).
Questo porrebbe non pochi problemi dal punto di vista della comunicazione scientifica interstellare!

Per fare un esempio, a un abitante di un pianeta della galassia di Andromeda non può fregare di meno che per misurare quella che chiamiamo “temperatura” ci riferiamo alla graduazione di alcuni tubi contenenti mercurio, riferendoci alla convenzione proposta in un laboratorio nel 700′.

La fisica moderna ci ha insegnato invece che alcune quantità fondamentali, come tempo, lunghezza e massa, devono necessariamente essere espresse in modo che qualsiasi civiltà della nostra galassia (e oltre) possa concordare sul loro valore. Pensa quanto sarebbe difficile descrivere l’unità di misura del “piede del Re” a un abitante di un altro pianeta! Sfortunatamente tutte le unità di misura quotidiane sono affette da questa arbitrarietà.

Ad esempio utilizziamo un’unità temporale che essenzialmente deriva da quanto velocemente il nostro pianeta compie una rivoluzione attorno al proprio asse, e scandiamo il passaggio dei tempi lunghi riferendoci a quante volte il nostro pianeta compie un giro completo intorno alla sua stella. In una galassia popolata da 100 miliardi di pianeti, la misura del tempo riferita al numero di rivoluzioni di UNO solo tra questi appare tutto tranne che efficiente.

Tutto quello che chiediamo è di poter misurare tempi, lunghezze e masse usando qualcosa su cui ogni essere vivente può concordare (supponendo che la Fisica sia la stessa in tutta la galassia).

È possibile misurare tempo, lunghezza e massa senza riferirsi ad unità di misura inventate dall’uomo?

Tempo, lunghezza e massa. Ci bastano queste tre cose per poter fare previsioni fisiche sul mondo che ci circonda, e fortunatamente le costanti fondamentali della Fisica vengono in nostro soccorso.

L’indizio di Newton: lunghezza e massa sono correlate

Se nella teoria di Newton compariamo l’energia cinetica di un corpo gravitante con la sua energia potenziale gravitazionale

Comparando l’energia cinetica di un corpo di massa ”m” con l’energia potenziale nel campo gravitazionale di una massa “M“.

ed esprimiamo la sua velocità come una frazione di quella della luce, cioè v=\beta c con 0<\beta<1, vediamo che è possibile, tramite le costanti fondamentali c e G (velocità della luce e costante di gravitazione universale) esprimere una lunghezza in funzione di una massa

Semplificando m e risolvendo per r, otteniamo una relazione tra lunghezza e massa che dipende solamente da costanti fondamentali.

Il rapporto G/c^2 è una costante fondamentale della Natura, su cui potenzialmente tutti gli osservatori dell’universo possono concordare (magari nel loro linguaggio o nella loro matematica, ma sarebbe comunque possibile capirsi in qualche modo). Stiamo dicendo implicitamente che basta conoscere la teoria della gravità (costante G) e la velocità della luce (costante c) per poter convertire da lunghezza a massa!

Ok, magari questa relazione non significa nulla se la decontestualizziamo dal problema fisico (eguagliare energia cinetica con energia potenziale serve per risolvere un problema specifico), ma qui stiamo cercando delle relazioni che ci consentano di esprimere delle quantità in funzione di alcune costanti fondamentali.

“Aspetta un attimo, ma anche le costanti fondamentali sono riferite alle unità di misura antropocentriche. La velocità della luce si misura in m/s ad esempio. Non è un discorso circolare?"

Semplicemente diremo che nelle unità fondamentali la velocità della luce ha un valore unitario, e che ogni altra velocità ha un valore che è una frazione di quel valore unitario, cioè v=\beta con 0<\beta<1 e c=1.

”Ma non ha senso, in questo modo come facciamo a distinguere una velocità da una massa? Come faccio a dire che il numero “1" si riferisce a uno spazio percorso nel tempo invece che a un chilogrammo?

Giusta osservazione, ecco perché dovremmo provare ad esprimere tempi, lunghezze e masse in maniera indipendente tra loro, in funzione di poche costanti fondamentali. Siccome abbiamo tre quantità, ci servono tre costanti fondamentali, ma finora ne abbiamo raccolto solo due.

Nella teoria di Newton abbiamo a disposizione solo la costante G, e con Einstein abbiamo guadagnato la costante c. Il prossimo passo fu compiuto da Max Planck quando introdusse \hbar nella definizione di quanto di energia

Se \omega è ad esempio la frequenza di un fotone, la conversione tra frequenza ed energia è garantita dalla costante di Planck \hbar.

Il contributo quantistico

A meno che tu non abbia vissuto dentro una caverna negli ultimi anni, se ti interessa la Fisica avrai sicuramente sentito parlare del principio di Heisenberg, che relaziona una quantità spaziale (\Delta x) con la quantità di moto (\Delta p) (per un approfondimento sul significato matematico del principio, ho scritto un articolo). Il mediatore di questa relazione è la costante di Planck, \hbar

Se proviamo a far incontrare gravità e meccanica quantistica risulta naturale considerare la lunghezza gravitazionale travata in precedenza, e cioè la combinazione GM/c^2. Se al posto della quantità di moto poniamo poi Mv=M\beta c con al solito 0<\beta<1 possiamo ricavare, con un po’ di sorpresa, una massa in funzione di sole costanti fondamentali:

Ignorando il fattore arbitrario \beta e calcolando la radice quadrata, incappiamo in una massa espressa solamente in funzione delle tre costanti fondamentali, la cosiddetta “massa di Planck”:

La massa di Planck.

A questa massa contribuiscono le tre costanti delle tre teorie fondamentali della Natura:

  • G, la costante di gravitazione per la teoria della gravità di Newton.
  • c, la costante della velocità della luce, per la teoria della relatività di Einstein.
  • \hbar, la costante dei quanti di energia, per la teoria quantistica di Planck e Heisenberg.

Tre costanti, tre teorie fondamentali, e in regalo abbiamo una massa espressa in maniera universale.

Se come quantità di moto usiamo questa massa, cioè p=M_p(\beta c), la lunghezza quantistica associata è, sempre per il principio di Heisenberg

Sostituendo il valore trovato per M_p=\sqrt{\hbar c/G} e trascurando la costante \beta irrilevante, troviamo quella che è definita lunghezza di Planck

La lunghezza di Planck

che è anche pensabile come la distanza percorsa dalla luce in un tempo di Planck definito così

Il tempo di Planck

Grazie alle tre teorie fondamentali: gravità, relatività e quantistica, siamo riusciti a trovare tre costanti fondamentali per esprimere le tre quantità più importanti della Fisica in maniera indipendente

Le tre costanti fondamentali da cui discendono massa, lunghezza e tempo.

Cosa ci abbiamo guadagnato? Ora possiamo esprimere qualsiasi altra massa, lunghezza o tempo in unità di queste che abbiamo trovato! Cioè diremo che

Le costanti \apha_m,\alpha_\ell,\alpha_t sono adimensionali, cioè sono dei numeri puri.

in cui \alpha_m, \alpha_\ell,\alpha,t sono ora le letture di “quanta massa, quanta lunghezza o quanto tempo c’è” nelle unità M_p,\ell_p,t_p.

Ovviamente in queste unità la massa di Planck ha \alpha_m=1, il tempo di Planck ha \alpha_t=1 e la lunghezza di Planck ha \alpha_\ell=1 (per definizione). È come dire “quanti chili ci sono in un chilo?” ovviamente uno, è la definizione.

Un ritorno alle unità primordiali

Volendo potremmo esprimere queste nuove unità utilizzando quelle a cui siamo abituati quotidianamente, come il chilogrammo, il secondo e il metro, giusto per avere un’idea delle scale in gioco.

Siccome la parola “quantistica” ci fa venire in mente quantità molto piccole, non ti sorprenderà sapere che tempo di Planck e lunghezza di Planck sono spaventosamente piccole nelle nostre unità

Ma anche questo non dovrebbe scandalizzarci. Chi ci dice che le nostre unità di misura quotidiane siano significative? Quanto piccolo è troppo piccolo, e quanto grande è troppo grande? Dipende dalle unità che si sta usando. Nelle unità naturali fondamentali t_p=1, \ell_p=1, nulla di insolito, non sono piccole.
Nelle unità primordiali a cui siamo abituati invece si ha:

  • t_p\sim 10^{-44}\,\text{s}, ovvero un numero così piccolo che non vale nemmeno la pena specificare quanto.
  • \ell_p\sim 10^{-33}\,\text{cm}, ovvero 10^{-25} volte il raggio tipico di un atomo. Per enfatizzare, il numero 10^{-25} corrisponde a 24 cifre dopo lo zero, cioè qualcosa del tipo 0.\underbrace{000.....0}_{24}1. Giusto per intenderci.

La massa di Planck corrisponde invece a M_p\sim 10^{-5}\,\text{grammi}.
Dal punto di vista “quotidiano” M_p può sembrare molto piccola, ma in realtà corrisponde a 10^{19} volte la massa del protone, un valore spropositatamente elevato per la fisica delle particelle. Nelle nostre unità, M_p appare così grande perché dipende dalla costante G al denominatore, cioè M_p\propto 1/\sqrt{G}, con G che è un numero molto piccolo nella teoria della gravità.

Ma passiamo ora alla questione di interesse: le unità naturali ci permettono di calcolare con estrema velocità una quantità che è il risultato di una primordiale teoria di gravità quantistica: la temperatura di Hawking per l’evaporazione dei buchi neri.

L’evaporazione dei buchi neri

In termini rozzissimi “l’evaporazione” di un buco nero si basa su due aspetti fondamentali:

  • Il “vuoto“, dal punto di vista quantistico, non è davvero un vuoto, ma una “brodaglia quantistica” caratterizzata da processi di creazione-distruzione di coppie particella-antiparticella. Queste particelle sono “virtuali“, nel senso che non sono osservabili fisicamente e rappresentano solo un conveniente costrutto matematico, una conseguenza delle nostre teorie. Il loro utilizzo conduce tuttavia a predizioni accurate sulle particelle osservabili.
  • L’orizzonte degli eventi di un buco nero è definito sul vuoto spaziotemporale attorno al buco nero, e racchiude una regione (il buco nero) dalla quale NULLA, nemmeno la luce, può sfuggire.

Che succede se si viene a creare una coppia virtuale di particella-antiparticella esattamente sull’orizzonte degli eventi? Una delle due particelle non potrà più uscire dalla regione spaziotemporale, mentre l’altra proseguirà in direzione opposta per la conservazione della quantità di moto.

Una coppia virtuale di particella-antiparticella si crea sull’orizzonte del buco nero.

Ci tengo a rimarcare: questa descrizione del processo è molto euristica e non del tutto precisa, ma rende bene l’idea. Non ne ho mai trovate di più semplici di questa.


Il punto importante da capire è che in un certo senso è come se il buco nero avesse emesso della radiazione sotto forma di particella! Un attimo prima non c’era nulla, e un attimo dopo è come se si fosse creata radiazione dal niente, anche se in realtà il partner della particella emessa è stato risucchiato nel buco nero.

La particella che procede verso l’universo circostante è stata promossa da “particella virtuale” a “particella reale”, e questa promozione ha un costo energetico ben preciso, garantito dall’energia gravitazionale del buco nero. Tutto questo processo è noto come “radiazione di Hawking”.

La radiazione di Hawking prevede che i buchi neri perdano energia gravitazionale sotto forma di radiazione di particelle.

In questo senso si dice che i buchi neri “evaporano”, cioè è come se iniziassero a perdere massa.

Stima della temperatura di Hawking

Nelle unità naturali definite prima si pone convenzionalmente \hbar=c=1 per semplificare le equazioni. Come conseguenza di ciò, l’energia ha le stesse dimensioni di una massa:

Energia e massa diventano la stessa cosa in unità naturali.

In questo modo il principio di Heisenberg \Delta x\Delta p\sim\hbar per lunghezza di Planck \ell_p e quantità di moto\Delta p\propto M_p c=M_p con c=1, si scrive con \hbar=1:

Il principio di Heisenberg in unità naturali ci dice che le lunghezze hanno come unità l’inverso di un’energia.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

quindi impariamo che la lunghezza equivale all’inverso di una massa, cioè all’inverso di un’energia per quanto appena detto.

Da un punto di vista microscopico possiamo associare una certa temperatura alla radiazione di Hawking. Questo perché la temperatura è una misura dell’energia cinetica di un sistema. In un certo senso la temperatura è la manifestazione macroscopica di un processo microscopico, rappresentato dal moto caotico delle particelle. Noi vediamo solo “la temperatura” dal punto di vista sperimentale, quindi per via di questa limitazione abbiamo creato una costante ad hoc per convertire l’energia microscopica in scale graduate di colonnine di mercurio con cui misuravamo le temperature qualche secolo fa.

La conversione tra energia microscopica e la sua manifestazione “misurabile”, cioè la temperatura, avviene grazie alla costante di Boltzmann k_b.

Siccome non vogliamo usare unità antropocentriche come le colonnine di mercurio, porremo k_b=1 per semplicità. Quindi l’energia è proprio la temperatura: E=T.

Parlando del buco nero possiamo allora dire che siccome l’energia equivale all’inverso di una lunghezza, e che al contempo l’energia equivale a una temperatura, si ha che

Come lunghezza caratteristica del buco nero possiamo prendere proprio la lunghezza gravitazionale definita all’inizio di questo articolo, cioè GM/c^2, che in unità c=1 supponendo che il buco nero abbia una massa M diventa:

Di conseguenza possiamo fornire una stima (molto rozza, ma efficace) della temperatura di Hawking del buco nero di massa M

La temperatura di Hawking della radiazione.

Nonostante la nostra stima sia estremamente rozza, il risultato è comunque corretto: la temperatura del buco nero è tanto più alta quanto più è piccolo (cioè meno massivo). Inoltre, come la massa del buco nero diminuisce per via dell’evaporazione, la sua temperatura crescerà sempre di più ed evaporerà ancora più velocemente. Questo è quello che ci dice la formula per la temperatura di Hawking.

Ciò ha del paradossale: hai mai visto un corpo che più perde energia, più si riscalda ed emette in fretta? Questo è solo uno dei tanti problemi che derivano dall’infelice connubio tra relatività generale e meccanica quantistica, e questi problemi dovranno essere risolti da una pretendente teoria di gravità quantistica.

Abbiamo mai rivelato una radiazione di Hawking proveniente da un buco nero? Non ancora, specialmente perché per buchi neri di massa comune (abbastanza elevata) la temperatura di Hawking, andando come T_H\sim 1/M, è molto molto piccola, più piccola di quella del punto più freddo dell’universo, vicino allo zero assoluto in gradi Kelvin. La speranza è rivolta verso i buchi neri primordiali in quanto dovrebbero essere in fase di evaporazione finale, un momento in cui la loro massa tende a M\to0, e quindi dovremmo essere in grado di rivelare un incremento anomalo nella temperatura dell’emissione.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Perché secondo Rovelli la Relatività suggerisce di abbandonare il concetto di spaziotempo

Durante il secolo scorso, la Relatività Generale si è presentata con il più grande colpo di scena che la Fisica abbia mai visto:

L’interpretazione ortodossa della relatività generale: esiste uno spaziotempo che viene curvato dalle sorgenti di massa.
Le altre masse non possono fare altro che “seguire la curvatura” e quindi essere attratte.

Il campo gravitazionale non esiste, la gravità è il risultato della curvatura dello spaziotempo.

Chiunque si sia mai interessato di relatività generale si è quindi abituato a visualizzare questa affermazione con la splendida rappresentazione dello spaziotempo “curvato”.

Lo spaziotempo è per noi una “griglia immaginaria” che esiste fin dal Big Bang, una qualche costruzione geometrica su cui si collocano tutti gli eventi della nostra realtà.
Questi eventi possono essere descritti con le coordinate che vogliamo, e queste coordinate vanno a strutturare il palcoscenico matematico a cui diamo il nome “spaziotempo” dal punto di vista dei calcoli. Ma in ogni caso stiamo sempre assumendo che questa griglia invisibile e sottostante esista sempre, e in genere diamo anche a lei il nome di spaziotempo.


Di sicuro è una rappresentazione che ci consente di fare i conti in maniera molto comoda, ma ciò ha un determinato prezzo da pagare.

Questa rappresentazione assume in qualche modo che lo spaziotempo esista indipendentemente dalla materia e da ogni altra sorgente di energia, e questo è proprio ciò che sancisce il divorzio completo con la visione “quantistica” delle interazioni, come illustrato nel seguente schema:

Ciò pone non pochi problemi dal punto di vista della gravità quantistica, la quale si ritrova a dover mediare tra due visioni nettamente diverse! Nonostante ciò, entrambe le teorie funzionano in maniera impeccabile nei loro rispettivi campi di applicazione. In particolare anche la relatività generale ha ricevuto l’ennesima schiacciante conferma di validità secondo i dati recenti sull’osservazione del buco nero al centro della nostra galassia (EHT).

Eppure, nonostante sia data per scontata, questa interpretazione dello spaziotempo in relatività generale è tutt’altro che definitiva.

Di recente mi è capitato di studiare dei paragrafi del testo specialistico “Quantum Gravity” di Carlo Rovelli, incappando in un’osservazione che ritengo di altissimo valore concettuale e che aiuta a risolvere un importante paradosso delle equazioni di Einstein.

In realtà questa argomentazione non è dovuta solo a Rovelli, ma risale fino agli albori della relatività generale. È il cosidetto “hole argument” di Einstein, il quale giunse alle importanti conclusioni illustrate anche da Rovelli.

Un paradosso molto arguto

Immaginati una regione nello spaziotempo senza sorgenti di gravità, cioè senza massa o altre forme di energia come quella elettromagnetica. Magari questa regione di spaziotempo la prendiamo piccola a piacere per non complicarci le idee.

Con il simbolo delle tre ondine increspate, intendiamo uno spaziotempo curvo in quel punto.

Considera ora due punti A e B in questa regione vuota, e supponi di essere in grado di misurare la curvatura dello spaziotempo in entrambi i punti. Per intenderci, definiamo lo spaziotempo con il simbolo g_{\mu\nu}.

Per via di una particolarissima disposizione delle sorgenti esterne alla regione che stiamo considerando, supponi che lo spaziotempo sia curvo nel punto A e piatto nel punto B.

Ora usufruiremo del nome “Relatività Generale”, che non è stato assegnato a caso! Questo nome testimonia il postulato fondamentale su cui è basata tutta la teoria: la Fisica non può dipendere dalle coordinate di chi la osserva. Quando passiamo da un sistema di coordinate ad un altro stiamo eseguendo una trasformazione che chiamiamo \phi. Quando lasciamo agire \phi su una quantità “e“, otteniamo il suo trasformato \bar{e}=\phi\,e indicato con \bar{e}. Le quantità importanti della relatività generale non cambiano sotto la trasformazione \phi.

Se io calcolo una soluzione delle equazioni di Einstein che mi restituisce il valore della curvatura dello spaziotempo, il quale dipende da g_{\mu\nu}(x) in ogni suo punto x, allora un cambiamento di coordinate ottenuto con la trasformazione \phi genererà un’altra soluzione delle stesse equazioni, che ha la stessa validità della soluzione precedente.

Il punto è che \bar{g}_{\mu\nu} risolve le stesse equazioni di Einstein con le stesse sorgenti, non è cambiato nulla rispetto a prima. Cambia solo il linguaggio in cui abbiamo espresso g_{\mu\nu} (cioè le coordinate particolari che utilizziamo).

Supponiamo di trasformare le nostre coordinate in modo da mandare il punto A nel punto B e lasciare invariati tutti gli altri punti al di fuori del buco. Anche la soluzione delle equazioni di Einstein trasformerà come \bar{g}=\phi\,g. In sostanza, abbiamo fatto la seguente cosa:

Una trasformazione che lascia invariato tutto lo spazio tranne i punti all’interno della regione vuota. Dopo la trasformazione lo spaziotempo presenta una curvatura nel punto B , mentre la curvatura è nulla nel punto A.

Nelle nuove coordinate lo spaziotempo nel punto A è quindi piatto, mentre ora è curvo nel punto B.

Ripeto, \bar{g}_{\mu\nu} è una soluzione altrettanto valida, e la trasformazione che abbiamo fatto è consentita dalle leggi della Relatività Generale.

Ma allora lo spaziotempo nel punto A è piatto oppure curvo? Ci troviamo di fronte a un paradosso, come se le equazioni di Einstein fossero completamente inutili perché non sono in grado di descrivere lo spaziotempo univocamente.

Questo aspetto turbò gravemente Einstein in persona, tanto da fargli dubitare più volte che il principio di relatività generale avesse senso fisico.

In realtà, come fa notare Rovelli, la soluzione del paradosso sta nel ripensare la nozione di “punto dello spaziotempo”, o in generale: smetterla di attribuire tanta importanza a una griglia immaginaria come lo spaziotempo.

In realtà stavamo risolvendo un problema sbagliato.

La domanda fondamentale “com’è lo spaziotempo nel punto A? Ha in realtà meno significato di quello che pensavamo. Il problema era mal posto, o meglio, non aveva senso considerarlo un problema.

In Relatività Generale assumiamo l’esistenza di questa griglia invisibile chiamata “spaziotempo”, dandole un significato intrinseco che è maggiore di quello che realmente ha.
Nonostante accettiamo senza problemi il fatto che possiamo usare qualsiasi tipo di coordinate vogliamo per elencare i punti di questa griglia, qualcosa nella nostra intuizione ci porta a credere che la griglia abbia davvero un significato fisico.

Una rappresentazione bidimensionale della griglia spaziotemporale che ci immaginiamo nella nostra testa.

Il concetto di griglia ha però, come molti altri concetti, solo una natura strumentale. Spesso ci permette di capire ciò che stiamo facendo, ma non dovremmo dargli un significato ontologicamente maggiore di quello strumentale, o almeno questo è il suggerimento di Einstein e Rovelli.

Hai visto come il domandarci quale fosse la curvatura dello spaziotempo in uno specifico punto ci ha portato al paradosso che le equazioni di Einstein descrivono due cose diverse con due soluzioni che dicono in realtà la stessa cosa? Stavamo risolvendo un problema sbagliato, questo è l’errore a cui siamo condotti se non seguiamo il suggerimento.

Considera invece questa situazione: supponiamo che nel punto A si incrocino anche le traiettorie spaziotemporali di due particelle (cioè le loro geodetiche):

Le geodetiche delle particelle sono indicate con la linea tratteggiata blu.

Le coordinate con cui descriviamo il punto A adesso racchiudono non solo l’informazione sulla curvatura dello spazio tempo g_{\mu\nu}, ma anche l’informazione “si sono incrociate le geodetiche delle due particelle!“.
Anche le geodetiche dipendono dalle coordinate che utilizziamo, quindi se ora eseguiamo la stessa trasformazione di coordinate di prima, cioè mappiamo un punto nell’altro, dobbiamo spostare anche il punto di incontro delle geodetiche!

Come vedi ora sia la curvatura dello spaziotempo sia il punto di incontro delle geodetiche sono stati trasportati dal punto A al punto B. Supponiamo di voler rispondere, grazie alle equazioni di Einstein, alla seguente domanda:

“Com’è la curvatura dello spaziotempo nel punto in cui si incontrano le geodetiche delle due particelle?”

Questa domanda, a differenza di prima, è tutta un’altra questione: è ben posta ed ha una soluzione univoca data dalla soluzione delle equazioni di Einstein. Come puoi vedere, sia prima che dopo la trasformazione di coordinate esiste una curvatura nel punto di incontro delle due geodetiche. Lo spaziotempo è curvo nel punto in cui le due geodetiche si incontrano. Questa informazione non dipende da quali coordinate stiamo utilizzando. Quindi è questa la vera domanda da porsi in una situazione simile.

La Relatività Generale ci suggerisce che la griglia immaginaria ha molto meno significato fisico di quello che credevamo: ha poco senso fisico chiedersi quale sia il valore della curvatura dello spaziotempo in un suo specifico punto senza introdurre campi di materia o interazioni tra particelle che possano interagire in quel punto.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Uno spaziotempo senza materia e particelle non ha significato fisico, la realtà non è composta da spaziotempo e campi, ma da campi su campi, secondo Rovelli. Possiamo fare affermazioni fisicamente sensate solo nel momento in cui iniziamo a relazionare campi di materia con altri campi di materia (come l’incrocio delle due geodetiche visto nell’esempio).

Questo punto di vista capovolge ancora una volta il significato che attribuiamo alla Relatività Generale: non è che la gravità non esiste ed è solo lo spaziotempo a farci sembrare che ci sia, sono le interazioni con le particelle che danno un significato fisico allo spaziotempo. Lo spaziotempo emerge grazie alle particelle, e non il contrario. Per la gravità quantistica questa interpretazione è nettamente più favorevole in quanto il mediatore smette di essere indipendente dalla materia che interagisce (vedi lo schema fatto all’inizio).

Gli oggetti non sono immersi nello spazio. Gli oggetti costituiscono lo spazio. Come un matrimonio: non è che marito e moglie “percepiscono il matrimonio”, loro sono il matrimonio, lo costituiscono. […] Allo spazio non rimane nulla se togli tutte le cose che lo abitano. Lo spazio è costituito dalle cose.

Carlo Rovelli

Si nasconde forse qui il segreto per iniziare a conciliare gravità e meccanica quantistica?

Secondo me questo paradosso meriterebbe di essere illustrato maggiormente nei libri di testo introduttivi di Relatività Generale, perché nasconde il cuore concettuale della materia. Per questo motivo ho pensato di portare in superficie l’osservazione di Rovelli, uno dei pochi autori moderni che ha scelto di parlarne a un secolo di distanza.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Come la Relatività si intuisce meglio attraverso la geometria

Sono trascorsi quasi 117 anni da quando l’umanità ha capito che la nostra realtà è meglio descritta utilizzando una struttura concettuale che lega indissolubilmente spazio e tempo: lo spaziotempo.
Siamo cioè passati da una concezione tridimensionale della nostra realtà a una concezione quadridimensionale.

Infatti, anche se non sappiamo ancora cosa siano oggettivamente spazio e tempo e quindi ne possiamo avere solo un’interpretazione che ci aiuta comunque a fare previsioni molto precise sulla realtà, sappiamo per certo che non sono due entità distinte: spazio e tempo sono malleabili, e dal punto di vista di osservatori diversi possono anche mischiarsi tra loro.

Ritengo che oggi questo argomento debba essere divulgato con la stessa semplicità e chiarezza con cui nelle scuole divulghiamo tanti altri fatti scientifici. Infatti dopo quasi 117 anni non possiamo più catalogare la Relatività Ristretta come “fisica moderna”, proprio allo stesso modo in cui Einstein nel 1905 non si riferiva alla meccanica lagrangiana del 1790 con il nome di “fisica moderna”.

Il modo migliore per spiegare la nostra comprensione dello spaziotempo è quello di fare un passo indietro e studiare come la pensavamo qualche secolo fa.

I quattro numeri della nostra realtà

Un oggetto tridimensionale della nostra realtà.

La nostra intuizione sensoriale ci suggerisce che viviamo in uno spazio tridimensionale, infatti gli oggetti hanno una lunghezza, larghezza e altezza. Per descrivere un oggetto a un’altra persona senza fargli vedere una sua fotografia possiamo misurarlo e poi dirle quanto è lungo, largo e alto: tre numeri, niente di più e niente di meno, perché tre sono le dimensioni che percepiamo dello spazio attorno a noi.

Allo stesso modo, quando vogliamo descrivere i fenomeni che accadono intorno a noi dobbiamo essere in grado di dire dove si sono verificati e in che istante di tempo. Per capirsi tutti al volo sul “dove”, sono state inventate le mappe e i sistemi di coordinate che scandiscono lo spazio intorno a noi con dei numeri ben precisi, mentre per essere tutti d’accordo sul “quando” è stato inventato l’orologio, che scandisce con altri numeri ben precisi lo scorrere di una misteriosa entità che chiamiamo “tempo”.

Un evento è per definizione l’unione tra le tre informazioni spaziali sul “dove” e la singola informazione temporale sul “quando”. Quando diciamo “alle 15:06 di ieri si è rotto il vaso nella veranda di nonna” stiamo assegnando all’evento “Rottura del vaso” le coordinate geografiche “veranda di nonna” e la coordinata temporale “ora locale 15:06″. In totale sono quattro numeri: tre spaziali e uno temporale.

In totale un evento è descritto da quattro numeri: per seguire i fenomeni che accadono intorno a noi non possiamo usare meno di quattro numeri o rischieremmo di non farci comprendere dagli altri.

Lo spazio e il tempo prima del XX secolo

In passato i fisici si fecero guidare dall’intuizione e immaginarono spazio e tempo come due entità separate. Questo perché nulla nell’esperienza di tutti i giorni ci farebbe intuire il contrario. Per quei fisici, l’immagine mentale del “tempo” è proprio la stessa che intuiamo dalla vita di tutti i giorni:

La freccia del tempo.

Il tempo è una retta infinita che si estende dall’infinito passato fino all’infinito futuro, ma che ha un’unica orientazione: scorre solo verso il futuro.

Per i fisici del passato esisteva un’unica freccia del tempo universale: ogni evento dell’universo accadeva in un preciso istante di tempo su cui potenzialmente tutti possono concordare.

Vediamo la conseguenza del ragionamento di quei fisici. Supponiamo che una persona si metta d’accordo con un astronauta prima della sua partenza e che sincronizzino i propri telefoni in modo da far partire una suoneria ogni 8 ore per il resto della loro vita. In questo modo quando l’astronauta si troverà su Marte e sentirà la suoneria del proprio telefono, saprà che in quel preciso istante di tempo il suo amico sulla Terra avrà sentito la stessa suoneria. I due amici potranno quindi definire un istante chiamato “presente”, cioè una nozione di “adesso”.
Se non vedi nulla di strano in questa conseguenza, è perfettamente comprensibile! Siamo abituati a concepire il tempo in questo modo, cioè come un’entità universale che scorre allo stesso modo per tutti, e i fisici del passato non erano comunque scemi nonostante pensassero ciò!

Il moto di una pallina in una sola dimensione può in principio essere studiato con righello e cronometro.

Spazio e tempo non sarebbero comunque granché utili se non li facessimo “cooperare” per provare a fare delle previsioni sul mondo che ci circonda.
Per studiare il moto di una pallina su un tavolo potremmo ad esempio utilizzare un righello per tracciare la sua posizione, e un cronometro per tenere traccia del tempo che passa. Così facendo, finiamo per collezionare un insieme di eventi come “pallina nel punto 2.5 cm all’istante 1.51 s” o “pallina nel punto 4.7 cm all’istante 2.05 s” che messi in successione tra loro costituiscono la traiettoria della pallina.

Usiamo una sola coordinata spaziale per semplicità: il moto si svolge su una sola dimensione spaziale..

Se sei familiare con il concetto di piano cartesiano, possiamo scegliere di rappresentare gli eventi raccolti su di esso, solo che al posto di “y” mettiamo il tempo “t” trascorso. A differenza di un piano geometrico bidimensionale, abbiamo ora davanti un piano spaziotemporale (in gergo “1+1 dimensionale“, cioè una dimensione spaziale, che è la “x”, e una dimensione temporale):

Un diagramma spazio-tempo per il moto di una pallina.

Se collezionassimo tantissimi eventi per il moto della pallina e collegassimo tutti i puntini blu con una linea continua, troveremmo quella che è nota essere la traiettoria della pallina.
Se la pallina fosse ferma in ogni istante di tempo, la sua traiettoria nello spazio-tempo sarebbe la seguente

Il grafico spazio-tempo di una pallina ferma nel punto x=2.5 cm.

Questo perché la coordinata “x“, per definizione di “fermo”, non deve cambiare nel tempo. Il tempo scorre in verticale, e la posizione rimane fissa sul punto x=2.5 cm.
Un pallina che si muove con velocità costante avrebbe invece il seguente grafico:

A parità di intervallo di tempo passato, la pallina percorre sempre porzioni uguali di spazio: la velocità è allora costante.

Potremmo anche non limitarci al moto dei corpi e usare i diagrammi spaziotempo per raccogliere tutti gli eventi della nostra realtà!

Ad esempio tutti gli eventi dello spazio che avvengono allo stesso istante di tempo si ottengono tracciando la retta parallela all’asse “x”. Questa retta è detta “linea di simultaneità

Tutti gli eventi spaziali che avvengono all’istante “t=2 s” fanno parte della linea di simultaneità in arancione.

Scorrendo con il dito lungo la retta arancione, il tempo non cambia, è sempre fisso a “t=2 s”, mentre lo spazio cambia. Stiamo esplorando tutti i punti dello spazio che esistono nel medesimo istante di tempo.

Allo stesso modo possiamo raccogliere tutti gli eventi che avvengono nello stesso punto dello spazio tracciando la retta parallela all’asse “t”, come fatto nel caso della pallina ferma.

Il punto importante da capire però è che lo spaziotempo esiste indipendentemente dal nostro diagramma cartesiano. Il diagramma con cui scegliamo di catalogare gli eventi si chiama “sistema di riferimento” ed è totalmente arbitrario. Decido io quando far iniziare il conteggio del cronometro e decido io dov’è il punto di partenza in cui mettere lo zero del righello. Nonostante ciò, il moto della pallina avviene comunque in uno spaziotempo “invisibile”, e le coordinate che uso per descriverlo non sono altro che una mia personale interpretazione con cui posso fare delle previsioni.

L’evento nello spaziotempo esiste anche se non c’è nessun sistema di riferimento che lo descrive. Lo spaziotempo esiste indipendentemente dai sistemi di riferimento.

Proprio per questo motivo, la Fisica prevede che le sue leggi si mantengano vere indipendentemente dalle coordinate di chi le sta utilizzando. Non avrebbe proprio senso se la realtà dipendesse dal tipo di righello o cronometro che uso!

Le trasformazioni di Galileo

Galileo Galilei, l’ideatore del principio di relatività.

In particolare, come studiato da Galileo, le conclusioni degli esperimenti di Fisica devono essere identiche a seconda che siano studiate su un treno che si muove a velocità costante o che stia fermo rispetto alla stazione. Muoversi a velocità esattamente costante è comunque una cosa rara, concorderai sicuramente che capita spesso di sentirsi “tirati” in una direzione o in un’altra in un viaggio in macchina, o in treno quando frena o fa una curva. In quei frangenti il moto non è a velocità costante, ma trascurandoli possiamo dire che il resto del viaggio si svolge in maniera che se oscurassi i finestrini e mascherassi il suono del motore, non saresti in grado di dire se si è fermi o in movimento. Questa è l’idea di Galileo: il principio di relatività.

Se mettiamo tre persone di tre nazionalità diverse davanti a una mela su un tavolo, ciascuna delle tre persone dirà nella propria lingua “la mela è sul tavolo”. Il fatto che la mela stia sul tavolo è un dato di fatto che non può dipendere dalla particolare lingua che si utilizza per descriverlo.
Siccome l’obbiettivo degli umani è comunicare tra loro, deve esistere una traduzione da un linguaggio all’altro che mantenga intatto il fatto oggettivo che la mela è sul tavolo.

Allo stesso modo, sistemi di riferimento in moto relativo l’uno con l’altro devono poter concordare sui fenomeni che osservano con le proprie coordinate. Deve quindi esistere una traduzione da un set di coordinate all’altro che mantenga intatto il fatto oggettivo di ciò che si manifesta nello spaziotempo.

Se il moto relativo è a velocità costante, la traduzione linguistica è particolarmente semplice e lascia inalterati tutti i risultati della Fisica: si chiama trasformazione di Galileo.

Dati due osservatori che utilizzano due piani cartesiani diversi con coordinate diverse:

Se “v” è la velocità relativa, possiamo ottenere le coordinate di uno in funzione delle coordinate dell’altro con una trasformazione di Galileo:

Una trasformazione di Galileo.

Ovviamente abbiamo assunto che i due osservatori abbiano sincronizzato i propri orologi in un certo istante di tempo precedente, ecco perché le loro coordinate temporali sono identiche: T=t.

Con questa traduzione possiamo descrivere con le coordinate dell’osservatore 2 tutti gli eventi descritti in precedenza con le coordinate dell’osservatore 1.

Una cosa concettualmente molto utile per ciò che faremo dopo è rappresentare i due sistemi di riferimento nello stesso grafico. Rispetto all’osservatore 1, gli assi dell’osservatore 2 si ottengono impostando le loro equazioni T=0 e X=0. Infatti l’asse T è anche noto come “la retta verticale tale che X=0“. Quindi possiamo ricavare l’asse T nelle coordinate (x,t) sostituendo “0” al posto di “X

Nel diagramma spazio-tempo di prima avremo quindi

Una trasformazione di Galileo da coordinate (x,t) a coordinate (X,T).

La cosa più importante da notare è che rispetto all’osservatore di coordinate (x,t), l’asse T del secondo osservatore è geometricamente inclinato: questa inclinazione rappresenta il fatto che il secondo osservatore si sta muovendo rispetto al primo con una certa velocità.

Ora studiamo un po’ come questi osservatori interpretano lo spaziotempo intorno a loro. Le linee di simultaneità sono sempre rette parallele agli assi x e X per definizione:

I punti dello spazio simultanei tra loro secondo l’osservatore (X,T) sono simultanei anche per l’osservatore (x,t). Per verificare, scorri una retta arancione con il dito e verifica che non ti stai spostando né sulla coordinata t, né sulla coordinata T.

Le trasformazioni di Galileo non toccano la simultaneità: il tempo, nella concezione galileiana e newtoniana della fisica classica, è assoluto.

Ovviamente invece il discorso cambia se consideriamo gli eventi che avvengono in un unico punto nello spazio dell’osservatore in movimento. Magari l’osservatore 2 è in auto e sta segnando sul taccuino la posizione di un suo compagno di viaggio che è fermo rispetto a lui in ogni istante di tempo. Tuttavia dal nostro punto di vista in cui osserviamo l’autostrada da un casello, quel compagno di viaggio non è fermo!


Come abbiamo fatto prima, per ottenere le rette degli eventi che avvengono nello stesso punto dello spazio tracciamo le parallele all’asse T, quindi si avrà:

Le rette degli eventi che per l’osservatore (X,T) avvengono tutti in uno specifico punto del suo sistema di riferimento.

Come puoi notare, le rette non sono verticali anche per l’osservatore fermo (x,t), proprio perché dal suo punto di vista tutti quegli eventi che sono fissi nel sistema di riferimento (X,T) si muovono alla stessa velocità di questo. Infatti le rette hanno la stessa inclinazione dell’asse T, che rappresenta, come detto, il moto dell’osservatore 2.

Il tuo occhio potrebbe ora notare un fatto interessante: dal grafico sembra che l’intervallo temporale ∆T tra i due eventi (indicato in rosso), sia maggiore dell’intervallo temporale ∆t, quando invece sappiamo che nelle trasformazioni di Galileo deve essere rigorosamente:

L’intervallo di tempo tra due eventi è un numero su cui tutti gli osservatori connessi da una trasformazione di Galileo devono sempre concordare.

Questo è un dettaglio acutissimo e che potenzialmente potrebbe generare molta confusione. Non se ne parla spesso.

La verità è che quell’asse “T” ruotato non ha la stessa scala di lettura dell’asse originale, proprio per via della rotazione! Una volta tenuto conto di questo fattore di scala, troviamo che anche se visivamente le lunghezze indicate in rosso sembrano diverse, a conti fatti risultano uguali, come ci aspettiamo.

Una dimensione spaziale in più

Ora che abbiamo macinato un po’ di percorso, aggiungiamo una dimensione spaziale in più per divertimento. Assieme alla “x” consideriamo anche la “y” per ottenere il classico, beneamato piano euclideo.
Lo spazio-tempo ha ora dimensione 2+1 (due spaziali e una temporale), e può essere visualizzato nel modo seguente:

La rappresentazione di uno spazio bidimensionale nel tempo, descritta come una sovrapposizione di copie.

Concentriamoci però solo sul piano spaziale senza considerare il tempo, o se preferisci, congeliamo un singolo istante di tempo. Il piano euclideo è proprio quello che ci ha svezzato e ci ha introdotto alla geometria piana, è quel posto magico in cui l’ipotenusa di un triangolo rettangolo è data dal teorema di Pitagora:

Tutti concordano sul teorema di Pitagora, è un fatto matematico che è indipendente dal proprio stato di moto! Se le trasformazioni di Galileo fanno quel che promettono di fare, non dovrebbero mai e poi mai alterare la lunghezza dell’ipotenusa di un triangolo rettangolo! Ci aspettiamo che sia:

Le trasformazioni di Galileo lasciano invariata la geometria euclidea dello spazio.

Effettivamente è così, le trasformazioni di Galileo restituiscono il risultato corretto, lasciando intatto il teorema di Pitagora (non avrebbe proprio senso se dovesse dipendere dallo stato di moto!). Nel caso più semplice in cui il moto relativo è lungo l’asse x dell’osservatore 1 si ha:

Nota che il conto restituisce il risultato che ci aspettiamo solo se poniamo uguale a zero l’intervallo temporale “∆t” tra i due eventi spaziali che specificano i cateti del triangolo rettangolo! Questo passo è fondamentale, le lunghezze spaziali, nello spaziotempo, si calcolano per definizione a tempo fissato. Non avrebbe proprio senso dire “questo oggetto è lungo 3 cm tra gli istanti di tempo 1 e 10 secondi”: un osservatore è in grado di misurare una lunghezza spaziale nel proprio sistema di riferimento solo una volta che individua simultaneamente gli estremi dell’oggetto che vuole misurare.

Ora che abbiamo completato il riscaldamento con la relatività di Galileo, è il momento di passare al succo del discorso, ovvero il motivo per cui sei qui!

Ripensare il principio di relatività

Alla fine del XIX secolo ci si accorse che una serie di argomenti teorici e sperimentali rendevano incompatibili le leggi dell’elettromagnetismo con il principio di relatività, o meglio, con il principio di relatività mediato dalle trasformazioni di Galileo. Siccome l’elettromagnetismo era fondato su radici sperimentali solidissime, e si presumeva che il principio di relatività fosse un qualcosa di irrinunciabile per la Fisica, si spalancarono due possibilità:

  • 1) La teoria dell’elettromagnetismo è falsa e bisogna trovarne una migliore, che sia compatibile con Galileo. Il principio di relatività è irrinunciabile.
  • 2) La teoria dell’elettromagnetismo è vera. Il principio di relatività può essere abbandonato.

Fu quel giovanotto di Einstein a trovare il mix perfetto tra queste due soluzioni molto drastiche, la cosiddetta terza via:

  • 3): La teoria dell’elettromagnetismo è vera. Il principio di relatività è irrinunciabile. Le trasformazioni di Galileo però non sono le trasformazioni corrette per applicare il principio di relatività.

Einstein notò che le trasformazioni di coordinate che lasciavano invariate le leggi dell’elettromagnetismo non erano quelle di Galileo, ma le trasformazioni di Lorentz:

“c” è la velocità della luce: 300.000 km/s. È evidenziato il fattore gamma.

Queste bestiole non sono altro che le trasformazioni di Galileo con un po’ di accorgimenti in più: ad esempio compare a moltiplicare il “fattore gamma: γ” che contiene il rapporto tra la velocità relativa dei due osservatori e la velocità della luce al quadrato. La velocità della luce compare per due motivi, uno storico e uno concettuale:

  • 1): Queste trasformazioni furono trovate tra quelle possibili che lasciavano invariate le leggi elettromagnetiche tra osservatori in moto a velocità costante. Siccome la luce è un’onda elettromagnetica che si propaga nel vuoto con velocità “c”, questa compare direttamente nelle trasformazioni come fattore costante per far sì che l’equazione dell’onda rimanga appunto invariata, come vuole il principio di relatività.
  • 2): Studiando le conseguenze di queste trasformazioni si scoprì che facevano una predizione insolita: la velocità della luce è un vero e proprio limite di velocità: nessuno può raggiungerla e nessuno può superarla. È una conseguenza matematica di queste trasformazioni. (Si nota già dal fatto che il fattore gammaγ” esplode se poniamo la velocità relativa “v” uguale a “c”. Non si può dividere per zero!).
    Come tutti i limiti di velocità, deve essere uguale per ogni “automobilista”: la velocità della luce è una costante che ha lo stesso valore numerico per tutti gli osservatori che si muovono di moto relativo a velocità costante. Questo è anche un fatto rigorosamente verificato sperimentalmente.

Senza soffermarci troppo sulla matematica di queste trasformazioni, osserviamo che la prima differenza importante con quelle di Galileo è il fatto che la coordinata temporale dell’osservatore in moto relativo è ottenuta mischiando coordinate temporali e spaziali dell’osservatore iniziale!

A differenza di Galileo, non è semplicemente “T=t”, ma compare prepotentemente anche lo spazio con la coordinata “x”!


Questo fatto è assolutamente inedito, e dà i natali a una interpretazione completamente rivoluzionaria del concetto di spaziotempo!

Il tempo non è più assoluto e uguale per tutti, ma è una cosa personale per ogni osservatore dell’universo, così come sono personali le proprie coordinate spaziali. L’importante poi è riuscire a tradurre da una lingua all’altra per mettersi tutti d’accordo, ma a questo ci pensano proprio le trasformazioni di Lorentz.

Il problema dell’elettromagnetismo ci ha aiutato a capire che sono in realtà le trasformazioni di Lorentz quelle corrette da introdurre quando si parla di principio di relatività. Le trasformazioni di Lorentz si riducono a quelle di Galileo nel limite in cui la velocità relativa “v” è molto inferiore alla velocità della luce “c” (cosa che ci riguarda in particolar modo, dato che nulla nel nostro mondo viaggia a velocità prossime a 300.000 km/s, eccezion fatta per la luce e alcune particelle subatomiche).

Lo spaziotempo di Minkowski

Ricordi la questione del teorema di Pitagora discussa poco fa? Le trasformazioni di Galileo vanno molto d’accordo con la geometria euclidea dello spazio. Anche le trasformazioni di Lorentz ci vanno d’accordo, ma concentrarsi solo sulla parte spaziale è riduttivo. Si trovò che esiste una nuova quantità spaziotemporale che è lasciata invariata dalle trasformazioni di Lorentz! Tenendoci sempre in dimensioni 2+1, questa quantità è la seguente:

L’intervallo spaziotemporale lasciato invariato

Cioè se prendiamo due eventi separati da una distanza spaziale e da una distanza temporale, la quantità costruita in questo modo assume lo stesso valore per tutti gli osservatori che si muovono con velocità costante:

Questo fatto ci fa capire quanto fosse poco casuale che tempo e spazio si mischiassero nelle trasformazioni di Lorentz. Tempo e spazio si mischiano per un motivo ben preciso: fanno parte di un costrutto più grande dello spazio, lo spaziotempo! In questo spaziotempo la velocità della luce gioca un ruolo così importante da comparire addirittura nella “versione estesa del teorema di Pitagora spaziotemporale”.

L’insegnamento che ne possiamo trarre è il seguente: se lo moltiplichiamo per la velocità della luce, il tempo diventa a tutti gli effetti una nuova dimensione spaziale.

Viviamo quindi in una realtà a quattro dimensioni: tre dimensioni spaziali e una dimensione temporale. A differenza di come la pensavano qualche secolo fa, la dimensione temporale è in grado di mischiarsi con le informazioni spaziali tramite le trasformazioni di Lorentz.

Il teorema di Pitagora spaziotemporale è però particolarmente speciale, perché non possiamo ignorare che il termine temporale presenta un segno negativo!

Tempo e spazio non sono trattati allo stesso modo, c’è un segno meno di differenza!

Cambia proprio il concetto di geometria: la geometria dello spaziotempo non è più euclidea! Hai mai visto un teorema di Pitagora con una differenza al posto di una somma?
È la somma dei quadrati a rendere euclidea la geometria spaziale del teorema di Pitagora.

D’altra parte la geometria dello spaziotempo si dice essere “pseudo-euclidea“. Questo nome potrà essere figo da pronunciare, ma non dice nulla di troppo rilevante per i nostri scopi.

Una cosa ben più rilevante da esplorare invece è il diagramma spaziotempo (detto “di Minkoswki“).
Ricordi i diagrammi che abbiamo studiato nel caso di spazio-tempo classici? Quello spazio-tempo era particolarmente noioso in quanto tempo e spazio non erano in alcun modo connessi reciprocamente da trasformazioni di coordinate rilevanti per la Fisica. Ora si son mischiate un po’ le carte, quindi vediamo cosa bolle in pentola.

Consideriamo di nuovo due osservatori in moto relativo l’uno rispetto all’altro con velocità costante, ed esattamente come prima rappresentiamo i loro sistemi di riferimento in un unico grafico spaziotempo.

Per fare ciò dobbiamo trovare le equazioni degli assi T e X del secondo osservatore in funzione delle coordinate del primo! Con un procedimento identico a prima troviamo le seguenti rette:

Il risultato del mixing tra coordinate spaziali e temporali cambia completamente le regole del gioco: nel caso di Galileo avevamo che solo l’asse temporale dell’osservatore appariva ruotato nello spazio-tempo dell’osservatore fermo. Ora abbiamo una rotazione di entrambi gli assi!

Un diagramma di Minkowski.
Nota che gli assi temporali sono moltiplicati per la velocità della luce.
Come suggeritoci dal “teorema di Pitagora dello spaziotempo”, la dimensione temporale deve comparire moltiplicata per la velocità della luce.

Questo fatto ha delle implicazioni senza precedenti, perché se ora andiamo a chiederci, come fatto prima, quali siano le rette di simultaneità per l’osservatore in movimento, dovremo tracciare nuovamente la parallela all’asse X:

Eventi che giacciono sulle rette di simultaneità, come si vede, sono separati da un intervallo temporale ∆t non nullo per l’altro osservatore.

Il fatto che le rette di simultaneità non siano parallele all’asse “x” del primo osservatore implica che:

Eventi simultanei per un osservatore in moto possono non essere simultanei per un altro osservatore

La simultaneità di due eventi è relativa a chi osserva gli eventi! Se io osservo due eventi A e B accadere allo stesso istante di tempo sul mio orologio, un osservatore che si muove rispetto a me potrebbe veder succedere A prima o dopo B.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questo fatto dipende dalla velocità della luce: la velocità della luce è una costante per tutti gli osservatori, e siccome le informazioni sugli eventi possono arrivarci al massimo alla velocità della luce (noi “vediamo” il mondo intorno a noi proprio grazie alla luce) l’unico modo in cui il moto relativo dell’osservatore riesce a non influenzare questi due fatti è proprio mettendo mano alla coordinata temporale.
Concettualmente, è come se la coordinata temporale si fosse “sacrificata” per preservare la velocità della luce.

Ricordi quegli astronauti che sincronizzavano i loro telefoni, convinti di poter definire un unico istante comune di “simultaneità” anche se distanti? Nel contesto dello spaziotempo di Minkowski ha poco senso: non esiste una retta di simultaneità degli eventi comune a tutti gli osservatori!

Se pensi che ciò sia la cosa più strabiliante di tutta questa faccenda, ti consiglio di continuare a leggere la prossima!

Dilatazione temporale

Consideriamo un evento che avviene in una singola posizione spaziale per l’osservatore in moto, e che la durata da lui registrata sia ∆T. Indicando con dei pallini il momento iniziale e il momento finale dell’evento, questi giace sulla retta degli eventi che avvengono in quella posizione, che ricordiamo, si ottiene tracciando la parallela all’asse T.

La durata ∆T dell’evento è indicata dalla striscia rossa sull’asse T. Come si vede graficamente, la durata dell’evento è indicata in rosso anche dal punto di vista dell’osservatore fermo. Secondo le trasformazioni di Galileo avremmo dovuto avere “∆T=∆t“: cioè la durata temporale dell’evento deve essere una cosa su cui è possibile concordare indipendentemente dal proprio stato di moto.

La trasformazione di Lorentz per la coordinata temporale ha tutta l’aria di promettere un po’ meno. Anzi, promette discordia tra gli osservatori a seconda del loro stato di moto.

Quanto è durato lo stesso evento secondo l’osservatore fermo? Per scoprirlo facciamo ricorso al teorema di Pitagora pseudo-euclideo, ovvero l’unica quantità su cui i due osservatori possono concordare di certo.
Consideriamo un’unica dimensione spaziale e ipotizziamo che il moto relativo si svolga sull’asse “x” del primo osservatore.
Per l’osservatore in moto l’evento avviene in un unico punto dello spazio, cioè la sua posizione non cambia, quindi si ha ∆X=0.:

Qui stiamo indicando con ∆t e ∆x la durata e la variazione in posizione dell’evento dal punto di vista dell’osservatore fermo, il quale evidentemente vedrà l’evento muoversi alla stessa velocità dell’osservatore in moto. Non ci resta che eguagliare le due espressioni per l’invarianza di Lorentz citata prima:

Abbiamo l’obbiettivo di isolare ∆t per capire quanto dura l’evento dal punto di vista dell’osservatore fermo. A tale scopo raccogliamo

Siccome l’evento in questione si sposta alla stessa velocità dell’osservatore in moto, chiamiamo proprio “v” il rapporto tra spazio percorso e l’intervallo di durata, dove “v” è proprio la velocità relativa dell’osservatore in moto. A questo punto ricaviamo ∆t dividendo tutto per quella quantità e calcolando la radice quadrata di entrambi i membri

E questa è una delle formule più famose nella storia della Fisica: la dilatazione temporale. La durata di un evento dal punto di vista di un osservatore che vede l’evento muoversi rispetto a lui è sempre maggiore della durata calcolata nel sistema di riferimento solidale a dove l’evento è avvenuto. Perché maggiore? Proprio perché ∆T, qualunque esso sia, è diviso per una quantità che è sempre minore di 1, quindi questa divisione produce un numero più grande di ∆T.

È questa forse la conseguenza più difficile da accettare sullo spaziotempo della nostra realtà, nonostante sia stata verificata sperimentalmente innumerevoli volte nell’ultimo secolo. La durata temporale degli eventi dipende dallo stato di moto dell’osservatore. Lo spaziotempo di Minkowski non è solo un’utile rappresentazione di quello che succede quando usiamo le trasformazioni di Lorentz, ma anche un’ottima intuizione su quale sia la vera natura della nostra realtà.

Ok forse questo è stato più un capitolo di un libro piuttosto che un articolo del blog, ma volevo essere davvero sicuro che ogni pezzo del puzzle del ragionamento cascasse al posto giusto. In futuro parlerò ancora di spaziotempo, quindi userò questo articolo come utile referenza per chi ne avesse bisogno.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei Neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Cosa impariamo da Einstein sul Problem Solving: come si affrontano gli argomenti più difficili?

Non che io sia così intelligente, semplicemente studio i problemi più a lungo

Albert Einstein

Questa citazione è una tra le più famose di Einstein e secondo me evidenzia un punto cruciale del suo modo di lavorare, che lo ha portato a rivoluzionare importanti concetti che altri fisici suoi contemporanei mettevano sotto al tappeto.

Come molti problemi che dobbiamo affrontare nel nostro percorso di studi, quelli che Einstein decise di studiare erano scomodi, fuori dalla zona comfort, non sempre ben posti.

Albert Einstein (1879-1955).

Hai presente quella spiacevole sensazione di inadeguatezza quando ci viene chiesto di risolvere un problema che apparentemente è al di sopra delle nostre capacità? Quella sensazione di avere un muro mentale che ci impedisce anche solo di iniziare a impostare il problema? Ma soprattutto, quel senso di fallimento nel soddisfare le aspettative che abbiamo di noi stessi, e di sentirsi fuori posto: “se non so risolvere questo problema, cosa ci sto a fare qui?”.

Tutte queste emozioni negative sono il pane quotidiano dei ricercatori. Infatti, per definizione, il ricercatore è colui che prova a risolvere problemi mai risolti da nessuno, e nel fare ciò finisce per sbattere continuamente contro quel muro mentale, per cercare di avanzare anche solo di uno 0.1%.

Noto che viene poco enfatizzato il fatto che i ricercatori sono comunque prima di tutto studenti. Questo è un fatto molto importante, perché non stai facendo ricerca se non ti metti a studiare cose che vanno al di là delle tue capacità. Per questo motivo il modus operandi del ricercatore dovrebbe essere preso come modello per gli studenti più giovani.

Gli anni febbrili di Einstein

Dal 1907 al 1915 Einstein lavorò incessantemente alla teoria della Relatività Generale, andando a sbattere la testa contro difficoltà teoriche e matematiche che all’epoca rappresentavano l’apice della Fisica Teorica.

In questo processo Einstein dovette imparare quasi da zero il linguaggio matematico più adatto per formulare le sue idee (la geometria di Riemann e il formalismo di Minkowski per lo spaziotempo), e l’impresa si dimostrò così eccezionale che dovette collaborare continuamente con due amici matematici, Marcel Grossmann e Michele Besso.

Le difficoltà però non erano solo matematiche. Einstein cambiò più di qualche volta le principali strutture concettuali con cui desiderava conciliare la gravità di Newton con la sua relatività ristretta, e fino all’ultimo momento non fu mai esattamente convinto di quali fossero i reali fondamenti teorici.

Per chi mastica un po’ di inglese consiglio il magistrale lavoro dello storico Michel Janssen “No success like failure: Einstein’s quest for General Relativity, 1907-1920“, il quale ha saputo rintracciare tutto il percorso concettuale di quegli anni.

Nelle pagine di Janssen non c’è la moderna figura mitologica dell’Einstein “tutto d’un pezzo”, al quale bastò immaginarsi “una persona in caduta libera” per formulare la nuova teoria della gravitazione. Invece viene fuori l’Einstein ricercatore, pieno di dubbi e ripensamenti, ma che faceva di queste tre qualità principali le sue armi di battaglia:

  • Lungimiranza. Einstein era di sicuro un visionario perché era capace di sintetizzare tutte le difficoltà teoriche in pochissimi punti cardine: se doveva esistere una teoria della gravità compatibile con la relatività, allora doveva rispettare un principio di covarianza delle leggi della fisica sotto qualsiasi trasformazione di coordinate. La visione di Einstein era ben delineata: credeva ciecamente nel principio di Galileo e sapeva che in un modo o nell’altro la teoria corretta doveva racchiuderlo in una nuova veste.
  • Umiltà intellettuale. La storia è cosparsa di ricercatori che hanno dedicato gran parte della loro carriera a teorie che si dimostravano fallaci e inconcludenti. Il loro principale nemico era il proprio ego, che non gli permetteva di ammettere di essere stati nel torto tutto il tempo.
    Al contrario, Einstein era capace anche di pubblicare un articolo al mese in cui nel successivo smontava la maggior parte delle cose dette nel precedente. Continuò a ripetere questo processo di “avanzamento-smentita” per almeno 3 anni, dal 1913 al 1915.
  • Perseveranza. Einstein era un lavoratore incallito, disposto a dedicare tutto il tempo che riteneva necessario per la risoluzione di un problema. Laddove i suoi colleghi mollavano, lui continuava. Aveva capito che la mente è in grado di fare avanzamenti importanti solo quando le si dà tempo sufficiente.
La famosa foto della scrivania di Einstein nel suo ufficio a Princeton.

Gli ultimi anni di gestazione della Relatività Generale furono intensissimi, specialmente l’ultimo anno in cui Einstein si ritrovò a rivaleggiare con nientemeno che David Hilbert (il più grande matematico del suo tempo), il quale aveva fiutato la possibilità di trovare le equazioni corrette prima di Einstein. Proprio a questo punto (inverno del 1915) il lavoro di Einstein divenne febbrile: si lasciò assorbire completamente dal proprio obbiettivo, dimenticandosi persino di scrivere agli amici. Oggi il suo stato mentale sarebbe probabilmente classificato in psicologia come “flusso”.

Spesso sono così assorbito dal lavoro che mi dimentico di pranzare.

Albert Einstein in una lettera a suo figlio Hans, 1915.

Lo stato mentale di “flusso” è comune a tantissimi artisti, ed è spesso descritto come uno degli stati di coscienza più sereni dell’esistenza, in quanto il cervello ha piena libertà espressiva e lavora all’unisono con emozioni e corpo.

In ogni caso, ciò che condusse Einstein a risolvere il problema più difficile della sua carriera fu un mix di qualità da cui tutti possiamo trarre ispirazione per migliorare il nostro problem solving in generale.

In fondo, i principali nemici di Einstein erano quelli che accomunano tutti i noi: dubbio, insicurezza, ripensamento, il non sentirsi all’altezza. Queste sanguisughe emotive tolgono energia preziosa che invece occorrerebbe investire nel cercare di risolvere il problema in sé.

Come vanno approcciati gli argomenti più rognosi

La mente è capace di produrre i più grandi successi, ma anche di condizionare i più grandi fallimenti. Dipende tutto da come la si usa, e forse la nostra società dedica troppo poco tempo all’educazione sul suo corretto utilizzo.
Come sosteneva David J. Schwartz, professore alla Georgia State University, davanti a un problema molto rognoso le persone solitamente scelgono di investire le energie mentali in uno tra due modi:

  • Distruttivo. La maggior parte delle energie mentali vengono spese per ricercare tutte le buone ragioni per cui non siamo in grado di risolvere il problema che ci è stato posto di fronte.
  • Creativo. La maggior parte delle energie mentali vengono spese cercando di capire come possiamo fare anche solamente un piccolo avanzamento verso la soluzione.

Questo è ciò che ho imparato anche nella mia esperienza universitaria. È capitato spesso agli esami che tra due persone ugualmente preparate solo la più intraprendente delle due riuscisse a strappare un voto più alto, tentando di rispondere alla “domanda bonus” dell’esame. Questo perché, a differenza del collega, riusciva a investire le proprie energie mentali concentrandosi solo sul problema, senza ascoltare le sanguisughe emotive. Mentre uno dei due cercava la soluzione, l’altro cercava delle scuse per autoconvincersi di non essere in grado.

Una pagina degli appunti di Einstein sulla sua teoria della gravitazione.

Io stesso mi sono accorto di aver fatto questo errore specialmente il primo anno di università.
Nel momento in cui mi sono accorto di questo cattivo approccio mentale ho cercato di non ripeterlo più, e i risultati sono arrivati subito.

In generale nel momento in cui dobbiamo studiare qualsiasi argomento particolarmente rognoso, mal posto o semplicemente noioso, l’approccio corretto è quello creativo: bisogna cercare di trovare la volontà di concentrarsi solo sull’argomento, aprendo una bolla intellettuale in cui eliminiamo tutte le interferenze della nostra vita. Occorre mettere via smartphone e social media ed entrare dentro la materia.

Ho notato che il modo più rapido che ho di farmi piacere qualcosa è leggere ciò che ha entusiasmato altre persone di quell’argomento. Spesso non ci piace qualcosa solo perché ne sappiamo troppo poco, o perché chi ce l’ha presentata non è riuscito a trasmetterci il motivo per cui dovremmo studiarla. Internet è un posto fantastico proprio per questo motivo: con pochi click puoi avere accesse alla vita e alle opinioni di migliaia di persone che hanno studiato la nostra stessa cosa.

Sii come Einstein, immergiti dentro al tuo lavoro. Solo dopo esserti immerso saprai se quell’argomento ti piace o meno. Se stai risolvendo un problema: cerca soluzioni, non scuse. Se proprio non trovi nessun indizio per riuscire a risolverlo: informati su come le persone hanno risolto problemi simili, e magari torna sul libro per approfondire il capitolo riguardante quel problema. L’approccio attivo batte sempre l’approccio passivo.

Un’altra cosa che ha funzionato nel mio caso quando mi sono confrontato con argomenti piuttosto noiosi o problemi apparentemente insormontabili è quella di “renderli memorabili”. Mi convincevo che quello che stavo facendo era davvero importante, e davo un tono solenne alla mia impostazione del problema, fingendomi un ricercatore. Spesso sono arrivato anche a scrivere degli articoli in PDF in cui proponevo la mia soluzione: l’atto di scrivere quei PDF mi motivava a concentrarmi solennemente sul problema. Questo piccolo accorgimento riusciva a fregare il cervello, spazzare via quell’apatia che crea il mindset distruttivo per lasciare spazio alla creatività.
Anche quando stai risolvendo esercizi apparentemente banali o che i tuoi colleghi ritengono semplici (triviali), continua comunque a darti quell’aria solenne per motivarti ad andare avanti. Prima o poi gli altri si lasceranno ingoiare dall’apatia e presto smetteranno di confrontarsi con i problemi più complessi.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Infine, un’ultima nota sul concetto di “esaurimento”, o come va di moda dire oggi “burnout“.

Risolvere problemi o studiare materie molto complesse porta via tanta energia. Nonostante ci siano comunque tanti modi di ottimizzare l’energia giornaliera, ad esempio eliminando le distrazioni, pianificando le cose da fare, ed eliminando la mentalità distruttiva (cioè non sprecare energia mentale per trovare scuse o motivi per cui fallirai in ciò che stai per fare), in ogni caso è facile arrivare a un punto in cui si è semplicemente esaurita tutta l’energia.

Cosa possiamo fare quando ci sentiamo completamente esausti riguardo lo studio, nonostante ci siamo riposati e ricaricati in altri modi? Mi è rimasto impresso il suggerimento del monaco benedettino David Steindl-Rast, secondo il quale:
il rimedio all’esaurimento non è smettere di fare ciò che stiamo facendo, ma iniziare a farlo mettendoci tutto ciò che abbiamo, anima e corpo, il 100% della nostra dedizione e concentrazione.

Secondo Steindl-Rast, l’energia che cercavamo era già dentro di noi, soppressa dal fatto che non stavamo lavorando al 100% della nostra concentrazione, ma magari al 60-70%. Quante volte ci siamo dedicati a un argomento, o a un problema, avendo però la testa rivolta verso altri argomenti o altri problemi? O magari avendo la testa occupata dalle sanguisughe emotive? Questo multitasking mentale comporta un consumo energetico molto più elevato del “dedicarsi al 100%”.

Sii come Einstein, dedicati a un argomento o un problema alla volta, organizzandoti il tempo. Pensa in grande e solennemente, non togliere importanza al lavoro che fai. Solo questo è in grado di scacciare l’apatia e le sanguisughe emotive che ti trattengono dall’imparare cose nuove o dal risolvere i problemi più complessi.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Come ho imparato ad amare i numeri immaginari

Ho molta difficoltà nel visualizzare cosa sarebbe la Fisica teorica, o la Scienza in generale, senza i numeri immaginari. Non fraintendermi, il mondo esisterebbe lo stesso e la Terra continuerebbe a girare attorno al Sole. Dico solo che senza l’ausilio dei numeri immaginari faremmo molta più fatica nella costruzione di tantissime teorie della Fisica.
Ma il vantaggio non è solo teorico, questi speciali numeri sono così utili che anche gli ingegneri non saprebbero proprio farne a meno, dalla fluidodinamica fino alla teoria dei segnali elettrici.

Cosa c’è di immaginario nei numeri immaginari?

Alla fine ha poco senso definire un numero “immaginario” o reale, in quanto la matematica è di fatto un’invenzione umana e possiamo decidere a piacere cosa sia “reale” o meno.

Invece mi piace pensare che l’aggettivo “immaginario” si riferisca piuttosto a una qualità particolare di chi li ha pensati per la prima volta. Chi ha scoperto questi numeri era una persona ricca di immaginazione, disposta a fare quel passo in più e a sfidare lo status quo. Una persona che ha saputo sfruttare il potere del pensare in grande, del “e se fosse..?“. Alla fine questa è la storia di un “bighellonare produttivo”.

Il bighellonare produttivo

I matematici del XVI secolo erano maggiormente indaffarati con la fondazione dell’algebra e della geometria analitica. Nel frattempo si divertivano a risolvere alcuni “cruciverba“ come: “trova le radici dell’equazione polinomiale x2+3x-4=0 usando gli assiomi dell’algebra”. Era importante specificare “usando gli assiomi dell’algebra” perché, come ogni gioco, anche la matematica ha le sue regole. Ad esempio sarebbe facile, in una partita di calcio, prendere la palla con le mani e lanciarla verso la porta per fare gol, ma a quel punto staremmo parlando proprio di un altro sport. La matematica è tale proprio per via delle sue regole.

Le regole del gioco della matematica di allora prevedevano che fosse proibito affermare che il quadrato di un numero potesse essere un numero negativo: “meno per meno fa più, e più per più fa più“. Se così non fosse, romperemmo ogni logica del gioco. Queste regole impedivano che alcune equazioni polinomiali avessero una soluzione. Ad esempio x2-2x+2=0 non ammette soluzioni: non esiste un numero “x” che inserito in quella equazione dia zero come risultato. Graficamente stiamo parlando di una parabola che non tocca mai l’asse y=0

Un modo semplice di vedere perché l’equazione non ha soluzioni è con un cambio di variabile:

Cioè, definendo t=x-1, risolvere x2-2x+2=0 equivale a risolvere:

È quindi chiaro perché quella parabola non tocca mai lo zero! Se lo facesse staremmo rompendo le regole del gioco: il quadrato di un numero non può mai essere negativo.

Il matematico italiano Gerolamo Cardano sapeva bene che qualcosa come x2-2x+2=0 non ammette soluzioni, eppure decise di bighellonarci attorno. Cardano fece finta che in qualche modo fosse possibile che un numero al quadrato potesse essere negativo. Possiamo immaginare che forse lo fece per gioco, o magari per puro sfizio, in ogni caso si divertì a scrivere la radice quadrata di -1:

La radice quadrata di un numero negativo è l’unico numero che moltiplicato per se stesso ha come risultato un numero negativo.

Et voilà, ora anche x2+1=0 ammette due soluzioni come moltissime altre equazioni di secondo grado.
Questa soluzione non fu presa sul serio dai matematici dell’epoca. Rafael Bombelli, altro matematico italiano che osò bighellonare su queste questioni, definiva queste soluzioni “quantità silvestri“.


Questo piccolo passo segnò però l’inizio di una nuova comprensione della matematica: si possono modificare le regole del gioco e riuscire comunque a creare dei costrutti logici autoconsistenti.

Chiaramente la radice quadrata di un numero negativo non può essere rappresentata sul piano cartesiano, perché è un numero che rompe le regole dei numeri cartesiani di tutti i giorni. Ma per questo motivo non è un numero che ha meno diritti degli altri, è semplicemente un numero diverso che merita il proprio “asse cartesiano”, magari con un nome diverso. I matematici dei secoli successivi definirono quindi i numeri immaginari come un’estensione dei numeri reali, aventi la loro algebra e i loro assiomi.

Torniamo però un attimo alla soluzione di x2-2x+2=0. Avevamo visto che questa era equivalente a risolvere t2=-1 che ha due soluzioni immaginarie date dalla radice di -1. Avevamo definito t=x-1, quindi possiamo scrivere la soluzione con la variabile originale

Puoi verificare che inserendo queste soluzioni nell’equazione di partenza ottieni zero. Clever trick!

Quindi la soluzione non è un numero puramente immaginario: il numero “1″ è un numero “normalissimo”, reale, che rispetta gli assiomi dei numeri reali. Tuttavia è sommato (o sottratto) con un numero immaginario (la radice di -1). Che senso ha, e come può essere rappresentato questo numero? I matematici lo definirono numero complesso, cioè un ibrido tra numero reale e numero immaginario.

Un numero complesso venne definito come un oggetto costituito da due parti: una parte reale e una parte immaginaria. La parte reale e la parte immaginaria sono rappresentate comunque da numeri reali, quindi in un certo senso un numero complesso non è altro che una coppia di numeri reali che soddisfa alcune proprietà speciali. Vedremo tra poco il senso di questa affermazione.
Per comodità di notazione fu definito un simbolo speciale per l’unità immaginaria, “i“, in modo che ogni numero immaginario sia un suo multiplo:

L’unità immaginaria “i”.

Un numero complesso “z” può essere espresso con più notazioni equivalenti:

Un numero complesso è costituito da una parte reale e da una parte immaginaria.


La cosa curiosa è che la notazione con le parentesi (parte reale, parte immaginaria) ricorda quella utilizzata per rappresentare i vettori in due dimensioni (componente x, componente y). Questa cosa è del tutto intenzionale, come vedremo tra poco.

Dal XVIII secolo in poi i numeri complessi vennero considerati un’estensione dei numeri reali, nel senso che un numero reale non è altro che un numero complesso con parte immaginaria nulla.

Diagramma di Venn per i campi dell’algebra.

Con molta astuzia, furono identificate delle operazioni di somma e prodotto di numeri complessi che rendessero tutto autoconsistente.

La somma di due numeri complessi è un altro numero complesso con parte reale data dalla somma delle parti reali e con parte immaginaria data dalla somma delle parti immaginarie.
Il prodotto di due numeri complessi è un altro numero complesso, le sue parti reale e immaginaria non sono però semplicemente il prodotto delle parti reali e immaginarie. Questa particolarità è necessaria per avere un’algebra autoconsistente nel campo dei numeri complessi.

Cosa mi ha fatto amare i numeri immaginari

I matematici capirono presto che per i numeri complessi esisteva un’interpretazione geometrica piuttosto semplice, ed è per questo motivo che scelsero di rappresentarli con una notazione simile a quella usata per i vettori in due dimensioni.

La volta che mi affezionai ai numeri immaginari fu quando realizzai quanto fossero utili in un contesto geometrico. A un certo punto mi si sbloccò il seguente ragionamento.
Prendiamo un vettore a componenti reali, innocentissimo, bidimensionale: una freccia. Se moltiplichiamo il vettore per il numero “-1” ne invertiamo la direzione:

Siccome i vettori possono essere ruotati sul piano, possiamo interpretare l’inversione come una rotazione di un angolo piatto!

La rotazione di 180 gradi di un vettore restituisce il suo inverso.

Quindi il numero -1 è un numero molto speciale perché esegue la stessa mansione di una rotazione di 180 gradi.

Il punto è che potremmo anche arbitrariamente pensare che la rotazione di 180 gradi sia un processo a due step, una composizione di due rotazioni di 90 gradi:

Due rotazioni consecutive di 90 gradi generano una rotazione di 180 gradi.

Uno può quindi chiedersi: esiste un numero speciale in grado di ruotare un vettore di 90 gradi moltiplicando entrambe le sue componenti per esso?
Assumiamo che esista, a quel punto dobbiamo riconoscere che moltiplicare il vettore due volte consecutive per questo numero equivale a ruotare il vettore di 180 gradi, e quindi questo numero deve avere a che fare con “-1″, perché esegue la stessa azione

Applicare due volte la moltiplicazione per un numero speciale “a” equivale a ruotare il vettore di 180 gradi.

Quindi se il vettore è ruotato di 180 gradi deve valere

Quindi il quadrato di questo numero deve dare -1: deduciamo che “a=i”, cioè proprio l’unità immaginaria.

Questa è stata la connessione che mi ha fatto apprezzare i numeri complessi: possono essere utilizzati per ruotare degli oggetti! Per questo motivo i matematici inventarono un piano cartesiano dedicato ai numeri complessi, il piano di Gauss!

In questo piano abbiamo due assi: l’asse reale e l’asse immaginario. Un numero complesso è “molto simile” a un vettore, perché ha una componente reale a una componente immaginaria date dalle proiezioni su questi assi ortogonali:

Il piano di Gauss dei numeri complessi.

Il vantaggio algebrico di avere un numero che moltiplicato per se stesso dà “-1” è il potere di ruotare degli oggetti moltiplicandoli tra loro!

Se prendiamo come riferimento l’angolo tra il numero complesso e l’asse reale, la moltiplicazione di due numeri complessi ha l’effetto di produrre un nuovo numero complesso avente come nuovo angolo la somma degli angoli iniziali, come mostrato in figura:

La moltiplicazione di due numeri complessi ha restituito un numero complesso la cui angolazione è data dalla somma dei due angoli iniziali: abbiamo quindi eseguito una rotazione usando la moltiplicazione.

Infatti si ha, per le regole stabilite sopra:

E questa è secondo me la principale utilità dei numeri complessi: ci permettono di trasformare oggetti usando la notazione più compatta possibile.

Infatti se “ρ” è il modulo del numero complesso (definito proprio come il modulo dei vettori):

Il modulo di un numero complesso si ottiene facendo la radice della somma dei quadrati delle parti reale e immaginaria (esclusa la “i” ovviamente).

Allora possiamo scrivere le componenti reale e immaginaria usando la trigonometria proprio come si fa per i vettori in notazione polare. Se θ è l’angolo formato con l’asse reale si ha

La quantità tra parentesi (che ha modulo unitario per via della relazione trigonometrica fondamentale) può essere semplificata usando una relazione utilissima dimostrabile in analisi matematica, la quale lega il numero di Eulero con i numeri complessi:

La famosa relazione di Eulero. Può essere dimostrata sviluppando in serie di Taylor entrambi i membri dell’equazione.

Quindi un numero complesso può essere espresso con la elegantissima notazione

Un numero complesso in notazione polare.

La moltiplicazione di due numeri complessi ha quindi il seguente effetto:

Con questa notazione è anche più facile vedere che gli angoli si sommano, grazie alla proprietà degli esponenziali.

In sostanza, i numeri complessi sono davvero uno spasso (di sicuro sono meno monotoni dei numeri reali), ma prima di tutto sono i numeri più popolari della Scienza:

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.
  • Moltissime trasformazioni nella fisica teorica sono generate da operatori complessi. Alcune tra le più importanti equazioni del Modello Standard sono scritte in notazione complessa.
  • In ingegneria, la teoria dei segnali è fondata sull’utilizzo dei numeri complessi.
  • In aerodinamica, l’analisi complessa è utilizzata per mappare il flusso dei fluidi attorno ad alcuni oggetti.
  • ….

Di sicuro potremmo fare tutte queste cose anche senza i numeri complessi, solo che faremmo molta più fatica! I numeri complessi sono una short-cut, ci semplificano la vita ogni giorno, e per questo dovremmo amarli.

Tuttavia a volte non si tratta solo di semplificare la vita. Di recente ho incrociato un articolo su Physics Today che parlava della necessità dei numeri complessi nella meccanica quantistica.
In sostanza, non solo non esiste un modo semplice per formulare la meccanica quantistica usando solo variabili reali, ma la versione della teoria senza numeri complessi non è in grado di replicare le previsioni sperimentali della teoria complessa. Questa conclusione mi ha lasciato un po’ sorpreso, dato che implicherebbe una supremazia quasi metafisica dei numeri complessi. Ho quindi intenzione di approfondirla in un prossimo articolo, dopo che mi sarò informato adeguatamente.

  • Esercizio: come ultima chicca ti sfido a scoprire una cosa che ritengo molto carina. Prendi la relazione di Eulero:

Questa è un’identità, quindi l’uguaglianza vale per qualsiasi valore di θ. Ti invito a inserirci θ=π/2 e usare quanto sai sul valore di seno e coseno per l’angolo retto. Dopodiché eleva entrambi i membri per “i”, cosa ottieni?


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Demistificando il Principio di Heisenberg

Il principio di indeterminazione di Heisenberg è considerato l’essenza della meccanica quantistica. Per questo motivo è uno degli argomenti più chiacchierati a livello divulgativo. Persino l’enunciato è celebre:

È impossibile misurare con precisione arbitraria la quantità di moto e al contempo la posizione di una particella

Enunciato del principio di Heisenberg

Anche la versione matematica dell’enunciato è piuttosto celebre: se indichiamo con “∆x” e “∆p” le incertezze sulla posizione e sulla quantità di moto, vale la disuguaglianza

Se rendiamo piccolo “∆p“, cioè se riduciamo l’incertezza sulla quantità di moto, per far valere ancora la disuguaglianza dobbiamo aumentare “∆x“.
ℏ è la costante di Planck divisa per 2π.

Negli anni ho notato alcune imprecisioni concettuali nelle analisi di questo principio, per cui ho deciso di rifletterci un po’ e dare il mio contributo. Ho trovato che il modo migliore per demistificarlo è il seguente:

Il principio di indeterminazione può essere compreso matematicamente una volta accettati i postulati della meccanica quantistica, tramite l’analisi di Fourier.

Lo scopo di questo articolo è quello di aiutarti ad apprezzare come la matematica della meccanica quantistica ci faccia comprendere meglio il principio di indeterminazione.

Non preoccuparti, non è una matematica di alto livello, useremo al massimo le funzioni trigonometriche (seni e coseni), e magari qualche integrale. È davvero tutto ciò che serve per apprezzare il discorso.

Teoria ed esperimento

Quando si costruisce una teoria fisica si cercano delle strutture concettuali che siano in grado di produrre dei risultati misurabili e in grado di giustificare i dati sperimentali. La meccanica quantistica è l’unica teoria in grado di spiegare accuratamente i risultati sperimentali dei fenomeni atomici, e ogni struttura concettuale della teoria ci aiuta a comprendere anche i risultati stessi, grazie alla matematica.

Ogni teoria presuppone dei postulati fondamentali (essenzialmente delle proposizioni che vengono assunte vere, senza necessità di dimostrazione). Ciò che ci servirà oggi è il postulato di De Broglie della meccanica quantistica. Infatti, una volta accettato questo postulato, la matematica parlerà da sola e ci aiuterà a capire il principio di Heisenberg.

“Scusa, ma non è un ragionamento circolare? Se devo accettare acriticamente un postulato, allora è possibile dimostrare tutto e il contrario di tutto. Io mi aspettavo che mi illustrassi il motivo metafisico per il quale non posso misurare contemporaneamente impulso e posizione di una particella!"

Il punto è che la Scienza funziona proprio così, dobbiamo accettare dei postulati se vogliamo fare delle previsioni verificabili. Se le previsioni sono verificate, allora la teoria può essere utilizzata anche come guida matematica alla comprensione dei risultati stessi. Funziona così da sempre. Senza la matematica saremmo scientificamente analfabeti.

Lo schema gerarchico per teoria ed esperimenti.

Uno dei postulati fondamentali della meccanica quantistica è quello di De Broglie: “le particelle sono descritte da funzioni d’onda ψ(x,t) dipendenti da tempo e spazio“, il cui modulo al quadrato rappresenta la densità di probabilità di trovare la particella in un certo punto dello spazio.

La teoria delle onde

La parola fondamentale su cui devi concentrarti è “funzione d’onda“. L’utilizzo di questa parola ha delle conseguenze molto pesanti, perché le onde hanno un comportamento speciale.
Nei prossimi paragrafi ti aspetta una carrellata di nozioni matematiche, ma ti assicuro che sono tutte essenziali per apprezzare meglio il principio di Heisenberg. Dagli una chance, ripaga bene!

Le onde sono perturbazioni nello spazio e nel tempo che possono essere più o meno regolari nella loro forma. Le “onde semplici” sono caratterizzate da una certa ampiezza e una frequenza di oscillazione costanti nel tempo, e ci piace chiamarle onde sinusoidali. Non tutte le onde sono semplici! Le sinusoidi sono matematicamente semplici da descrivere (probabilmente hai già incontrato seni e coseni da qualche parte), ma il mondo reale ha ben poco a che fare con le onde semplici. Purtroppo, la maggior parte dei segnali oscillanti nel tempo sono molto complessi:

Un’onda sinusoidale è caratterizzata dal fatto che la sua ampiezza e la sua frequenza non cambiano nel tempo, restano inalterate, preservando la forma ondulatoria.

Quindi non abbiamo speranza di descrivere matematicamente delle funzioni d’onda molto complesse? Fortunatamente entra in gioco uno dei risultati che a me piace definire come una delle pietre miliari nella storia della Scienza:

Qualsiasi segnale nel tempo può essere costruito sovrapponendo delle onde sinusoidali

È un po’ come se le onde sinusoidali fossero gli atomi elementari della teoria dei segnali: così come i corpi complessi sono composti da più atomi, i segnali complessi sono composti da onde sinusoidali.

In una notazione abbastanza simbolica e approssimativa, l’idea è la seguente: per ottenere il segnale desiderato basta sommare tante onde sinusoidali, pesate ciascuna con un certo coefficiente detto “di Fourier” (il quale dipenderà dal particolare segnale):

Cosa significa “sovrapporre onde sinusoidali”?

Qui entra in gioco la cara vecchia trigonometria. Un “atomo di segnale”, cioè un’onda sinusoidale, ha la seguente struttura:

Un’oscillazione dipendente dal tempo, y(t), è caratterizzata da una certa ampiezza “A” e da una certa frequenza “f“.

La magia si manifesta quando sommiamo due onde sinusoidali di ampiezze e frequenze diverse. Consideriamo ad esempio la somma delle seguenti onde:

Due sinusoidi, la prima di frequenza f=1 Hz, e la seconda di frequenza f=3/2 Hz. La seconda ha anche un’ampiezza doppia della prima.

Il risultato è il seguente: l’onda risultante dalla somma non è più un’onda semplice!

La somma di due onde semplici non è più un’onda semplice.

La spiegazione è puramente geometrica, ed è riassunta nelle formule di prostaferesi che si imparano a scuola. Infatti in generale:

L’applicazione delle formule di composizione di seni e coseni ci fa capire cosa succede quando sommiamo delle sinusoidi.

Lo so, non è molto carina da vedere, infatti non preoccuparti di leggerla tutta, è solo una giustificazione del perché la somma di due sinusoidi non è sempre una sinusoide: quei prodotti di seni modificano l’ampiezza dell’onda risultante nel tempo!

Alla fine questo è un concetto che caratterizza la vita di tutti giorni: anche una nota di un violino è una sovrapposizione di armoniche (onde sinusoidali di diverse frequenze), delle quali sentiamo maggiormente la dominante.

L’analisi di Fourier

Quel segnale complicato che abbiamo ottenuto sopra potrebbe sembrare irrilevante per il nostro discorso: sapendo quali sono gli atomi di partenza, è piuttosto facile costruire il segnale più complicato.
Il divertimento inizia quando decidiamo di invertire il problema di prima:

Dato un segnale complicato, è possibile capire la sua composizione in onde sinusoidali?

Questa è la domanda a cui vuole rispondere l’analisi di Fourier.

L’analisi di Fourier ci dice che esiste un altro modo di osservare un segnale. Quello che abbiamo illustrato prima è l’analisi temporale: cioè osserviamo il profilo dell’onda in funzione del tempo.

Ma l’analisi nel tempo è solo uno dei due modi. Possiamo anche studiare il segnale risultante andando a cercare le frequenze principali che lo costituiscono: stiamo facendo una radiografia del segnale per capire di quali atomi elementari è composto!

La descrizione temporale e la descrizione in frequenza sono due modi diversi di osservare lo stesso segnale, e il passaggio da una descrizione all’altra è garantito da un’operazione chiamata trasformata di Fourier.
Come illustrato nella figura, la trasformata di Fourier prende in pasto una funzione nel tempo e restituisce una nuova funzione, stavolta nella frequenza:

L’espressione matematica è la seguente:

L’integrale contiene l’unità immaginaria “i” nell’esponenziale.

Se non hai mai visto un integrale non lasciarti intimorire: questi simboli sono solo un modo intimidatorio per esprimere che stiamo sommando infiniti prodotti tra sinusoidi e il segnale in input “h(t)”. Le sinusoidi sono nascoste nell’esponenziale tramite la relazione di Eulero

La relazione di Eulero che lega l’esponenziale complesso con le funzioni trigonometriche.

Se questa relazione ti crea disagio fai finta che non ci sia. L’ho tirata fuori solo per dimostrarti che sono coinvolti, come promesso, dei seni e dei coseni. Queste sinusoidi vanno a moltiplicare il segnale in input “h(t)” in ogni istante di tempo, e la somma infinita produce una distribuzione del segnale nella frequenza “f“.
Ovviamente se partiamo dalla distribuzione in frequenza, esiste anche un’anti-trasformata di Fourier che ci riporta alla funzione nel tempo. Il cerchio si chiude.

Un esempio

Per dimostrarti che la trasformata di Fourier fa quanto promesso, consideriamo la somma delle sinusoidi che ti ho proposto prima.

Il segnale risultante, come abbiamo visto graficamente, non è una sinusoide semplice:

In blu e rosso le sinusoidi costituenti, in verde il segnale risultante.

Tiriamo fuori il problema inverso:
Supponiamo ora che qualcuno ci dia solo il segnale risultante come input e ci chieda di capire di quali “atomi sinusoidali” è composto. Questo è un lavoro per la trasformata di Fourier!

Il risultato è il seguente grafico nelle frequenze:

Cosa sono questi due picchi intimidatori? È il risultato di quell’integrale altrettanto intimidatorio. Osserva dove sono collocati i picchi: il primo picco è a “f=1” e il secondo picco a “f=3/2“. Quali erano le frequenze delle due sinusoidi iniziali? Esattamente “f1=1 Hz” e “f2=3/2 Hz”.

Questi due “picchi” ci stanno dicendo:
“Ehi, con la trasformata ho individuato due grosse frequenze costituenti, cioè il segnale che mi hai dato in pasto era costituito da due sinusoidi elementari di frequenze “f1=1 Hz” e “f2=3/2 Hz”.

Ovviamente noi sapevamo già che il segnale era composto da queste due sinusoidi, quindi il risultato non ci sorprende. Semmai ci rassicura su una cosa: la trasformata di Fourier funziona, ed è un ottimo modo per analizzare le componenti delle onde che usiamo nella Fisica.

Il cuore del principio di indeterminazione: gli spazi duali

Veniamo ora alla questione centrale. Voglio che noti una particolarità interessante della trasformata di Fourier. Supponiamo di dilatare la variabile temporale del segnale in input, cioè

Se b>1, è una dilatazione del tempo, se b<1 è una contrazione.

Questa è un’operazione matematica che ho scelto di fare: voglio modificare temporalmente il segnale in ingresso tramite una certa costante “b”. Che succede al segnale in frequenza? Per saperlo dobbiamo fare la trasformata di Fourier e fare un cambio di variabile:

Che è successo? Tra il passaggio (1) e il passaggio (2) ho cambiato variabile per ricondurmi alla forma standard della trasformata di Fourier. Questo passaggio ha generato il termine 1/b moltiplicativo, e mi ha portato a definire una nuova frequenza “f’=f/b” nel passaggio (3). Nel passaggio (3) abbiamo tra le mani la definizione di trasformata di Fourier del segnale con il tempo dilatato. Rispetto alla funzione in frequenza di prima, ora si ha:

Il risultato della dilatazione temporale sulla controparte in frequenza.

Quel “f/b” è davvero il succo del discorso, perché stiamo dividendo la variabile frequenza per un numero “b“. Se b>1, cioè se dilatiamo il tempo, otteniamo un restringimento delle frequenze. Viceversa, se b<1 cioè se contraiamo il tempo, otteniamo una dilatazione delle frequenze.
Il dominio temporale e il dominio delle frequenze si chiamano in gergo “spazi duali” , proprio perché hanno questo comportamento. Tempo e frequenza sono “variabili duali”.
A livello intuitivo potevamo aspettarcelo anche senza fare macello, basta ricordarsi che per definizione

cioè la frequenza è l’inverso del periodo di oscillazione, per cui se dilatiamo una delle due, l’altra si restringe.

Se restringiamo la durata del segnale, aumentiamo il suo contenuto in frequenza. Viceversa se estendiamo la durata del segnale, diminuiamo il suo contenuto in frequenza.

Possiamo spiegare questo comportamento intuitivamente:

  • Per creare un segnale corto nel tempo sono necessarie tantissime onde elementari per cancellare l’ampiezza di oscillazione al di fuori dell’intervallo di durata del segnale. Maggiore è il numero di onde elementari di varie frequenze che costituiscono il segnale, maggiore sarà il contenuto in frequenza del grafico della trasformata.

Per fare un esempio concreto, consideriamo il segnale in figura, che è quanto di meno sinusoidale si possa chiedere: un gradino di segnale tra i tempi t=-T e t=+T e zero altrove

La sua trasformata di Fourier nel dominio delle frequenze è illustrata sotto.
Ho assemblato diversi casi di durata del segnale da T=0.1 s a T=5 s per evidenziare l’effetto della dilatazione della durata temporale sul dominio delle frequenze. Per un segnale molto corto vengono coinvolte tantissime frequenze (quindi il grafico della trasformata è praticamente quasi piatto, vedi il caso T = 0.1 s).

La trasformata di Fourier di un segnale di durata 2T. Al crescere della durata del segnale, la controparte in frequenza si comprime.

L’analisi di Fourier sugli spazi duali apre le porte a una miriade di teoremi che portano a dimostrare le cosiddette “relazioni di incertezza“. In particolare ogni coppia di variabili duali è caratterizzata da una relazione di incertezza. Nel caso di tempo e frequenza abbiamo:

Questa è esattamente la forma matematica assunta dal principio di Heisenberg! Il prossimo passo sarà quindi tradurre quanto abbiamo appena detto nel regime di posizione “x” e quantità di moto “p“.

Posizione e impulso: altre variabili duali

Una volta accettato il postulato che le particelle sono descritte da una funzione d’onda spaziale, non è difficile accettare che la quantità di moto di una particella abbia qualcosa a che fare con la frequenza. Ce lo disse De Broglie! Ad esempio anche la luce (che è un’onda elettromagnetica) trasporta una quantità di moto, e per De Broglie questa quantità è data da:

“c” è la velocità della luce. La quantità di moto dell’onda è proporzionale alla frequenza dell’onda.

In generale a una particella non è assegnata una quantità di moto precisa, ma una distribuzione di quantità di moto, che vanno a comporre un certo “pacchetto d’onda”. Anche questa è una conseguenza del postulato fondamentale: la posizione della particella non è assegnata in ogni momento, ma è distribuita tramite la funzione d’onda della posizione. I picchi della funzione d’onda corrispondono ai punti dello spazio in cui è più probabile rivelare la particella:

Una generica funzione d’onda quantistica. I “picchi” sono punti in cui è più probabile trovare la particella. I punti in cui Ψ(x)=0 sono punti in cui la probabilità di trovare la particella è nulla.

Per rafforzare l’analogia con quanto discusso all’inizio ti basta realizzare che, come ogni onda, anche la funzione d’onda Ψ(x) è costituita da numerosi “atomi elementari” sinusoidali.

Siccome ora parliamo di particelle massive cambierà solo il linguaggio: ciò che prima era frequenza ora diventa quantità di moto, e ciò che prima era il tempo ora diventa lo spazio:

Il passaggio dalle onde sinusoidali nel tempo alle sinusoidi della meccanica quantistica.

È proprio ora che tutto inizia a fare “clic”. Basta tenere a mente questi due passaggi fondamentali:

  • 1) I picchi della funzione d’onda corrispondono ai punti dello spazio in cui è più probabile rivelare la particella.
  • 2) Per ottenere un picco della funzione d’onda è necessario sommare tante sinusoidi di “frequenze” diverse (cioè tante quantità di moto “p” diverse), come illustrato nell’animazione seguente:
Aggiungiamo tante sinusoidi di quantità di moto diverse per ottenere una funzione d’onda sempre più “piccata” in un certo punto dello spazio.

Questa animazione sta esattamente alla base del principio di indeterminazione: per ottenere la massima probabilità di trovare la particella in un punto (quindi rivelarla con precisione) è necessario che la sua quantità di moto diventi una sovrapposizione di numerosissime quantità di moto (che quindi si misurerà meno precisamente). È poco intuitivo? Le onde funzionano proprio così, non sono nate per soddisfare la nostra intuizione!

Analogamente a quanto discusso per i segnali nel tempo, la funzione d’onda della posizione può essere analizzata sia nel dominio dello spazio (dandoci informazioni sulla probabilità di trovare la particella nello spazio), sia nel dominio delle quantità di moto (dandoci informazioni su quale sia la probabilità di trovare la particella in un certo stato dinamico).

Il messaggio da portare a casa è questo:

La quantità di moto gioca lo stesso ruolo della frequenza, e la posizione gioca lo stesso ruolo del tempo: sono anche loro variabili duali.

La trasformata di Fourier della funzione d’onda Ψ(x) è una funzione dell’impulso ed è data da:

A parte l’integrale intimidatorio, la relazione che devi tenere a mente è la seguente:

Il principio di indeterminazione di Heisenberg è racchiuso nella definizione di trasformata di Fourier: se estendiamo la funzione d’onda nello spazio, stiamo restringendo la funzione d’onda nella quantità di moto: per descrivere una particella la cui funzione d’onda ha un’estensione infinita è sufficiente una sola quantità di moto, mentre per descrivere una particella la cui funzione d’onda ha un’estensione limitata, sono necessarie più sinusoidi diverse per cancellare i contributi nella regione in cui la funzione d’onda non esiste.
Se dilatiamo la variabile spaziale, l’effetto sulla trasformata nello spazio degli impulsi è:

Come ti accorgerai facendo avanti e indietro su questa pagina, il discorso è esattamente analogo al caso della frequenza-tempo. Anche qui i teoremi sull’analisi di Fourier determineranno quindi la famosa relazione:

Il principio di indeterminazione di Heisenberg
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Intuizione fisica

Il fatto che le variabili posizione e quantità di moto siano duali e rispettino un principio di indeterminazione è un limite invalicabile della natura. Non dipende dal fatto che la nostra strumentazione non è adeguatamente precisa.

Di certo è vero il fatto che se vogliamo seguire la traiettoria di una particella quantistica è necessario perturbare il suo moto (se voglio tracciare un elettrone devo ad esempio illuminarlo, ma nel fare ciò trasferisco quantità di moto sotto forma di radiazione luminosa, perturbando la misura), ma il motivo del principio di indeterminazione rimane insito nella natura degli oggetti quantistici, e il postulato sulla funzione d’onda di De Broglie ci aiuta a capirlo matematicamente.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Il bosone di Rubbia ha una massa leggermente diversa: cedimento del Modello Standard?

Dopo decenni di stagnazione, il Modello Standard mostra i primi segni di cedimento?

È di ieri (7 aprile) la notizia pubblicata su Science: è stata trovata una differenza tra predizione teorica e misura sperimentale per la massa del bosone W. Una differenza piccola (0.09%) ma superiore ai margini di errore (0.01%) e quindi assolutamente degna di nota.

Il bosone W è proprio il famoso bosone scoperto dal team di Carlo Rubbia nell’ormai lontano 1983 (scoperta che valse il premio Nobel al fisico italiano).

Dopo vari decenni dalla sua scoperta, il bosone W può dare indicazioni di Fisica oltre il Modello Standard, ed è facile immaginare l’entusiasmo nella comunità dei Fisici del Fermilab, dove è avvenuta la scoperta:

La misura è estremamente eccitante e davvero un risultato monumentale nel nostro campo.

Florencia Canelli, fisica sperimentale dell’Università di Zurigo

Ci sono però quelli che domandano un po’ di cautela:

Userei cautela nell’interpretare questo risultato come il segno di nuova Fisica oltre il Modello Standard. I fisici dovrebbero concentrarsi sul capire come mai questo valore differisce da altri risultati anche recenti.

Matthias Schott, fisico dell’Università di Gutenberg

Perché ce ne siamo accorti solo ora?

La risposta è particolarmente semplice: siamo diventati più bravi nell’analisi dei dati. Il team di ricerca è stato capace, grazie a nuove tecniche, di manipolare un campione statistico di 4 milioni di bosoni W prodotti all’interno del detector, tra il 2002 e il 2011. Questi bosoni sono decaduti producendo degli elettroni, dei quali è stata misurata l’energia osservando la loro traiettoria in un campo magnetico.
A differenza del passato, è stato possibile misurare molto meglio la traiettoria degli elettroni, migliorando quindi la precisione di quanta energia si sono portati via.

La misura dell’energia degli elettroni permette di ricondursi alla massa del bosone W (il cui decadimento ha concesso agli elettroni di avere questa energia in primo luogo).

Perché il bosone W è importante?

Ad oggi conosciamo quattro forze fondamentali della Natura, meglio note come interazioni fondamentali.
Il modo in cui studiamo queste interazioni su basa sull’analisi di alcuni processi che coinvolgono le particelle. Tali processi possono essere studiati a differenti scale di energia in cui vengono rappresentati con diverse schematizzazioni, le quali ci danno un’idea di quello che sta succedendo.

Da questi schemi teorici emerge che un’interazione tra particelle deve essere mediata da una particella speciale chiamata bosone.
Il modo più diretto per avere l’identikit di questa particella è conoscere la sua massa.

Prima di ricavare una stima di queste masse, facciamo il punto della situazione sulle interazioni fondamentali in gioco:

  • Gravità: interazione tra tutti i corpi con massa. In una teoria di gravità quantistica (ancora solo ipotizzata a stento) deve essere mediata da un bosone chiamato gravitone.
  • Elettromagnetismo: interazione tra tutti i corpi con carica elettrica. Mediata da un bosone chiamato fotone.
  • Forza forte: interazione che tiene assieme i nuclei degli atomi. Ad alte energie si manifesta come un’interazione mediata dai gluoni dei quark, a basse energie ha invece come mediatore il bosone pione.
  • Forza debole: interazione che permette i decadimenti di alcuni nuclei. Mediata da tre bosoni, chiamati W+,W- e Z.

La prima distinzione interessante tra queste quattro forze è il loro raggio di interazione. Sono infatti tutte forze che agiscono a distanza, e due tra queste, cioè gravità ed elettromagnetismo, hanno un raggio di interazione infinito. Ciò significa che la forza gravitazionale tra due masse agli antipodi dell’universo è sempre teoricamente diversa da zero. Nella realtà, ovviamente, tale valore è così piccolo da poter essere considerato irrilevante per lo stato di moto delle due masse. Lo stesso discorso si applica all’elettromagnetismo. Questo raggio di interazione si dice asintoticamente infinito nel senso che la forza può essere considerata “matematicamente” nulla solo all’infinito (cioè un punto irraggiungibile).

Le altre due forze, quella nucleare forte e quella debole, hanno invece a che fare con il mondo dell’infinitamente piccolo, cioè i nuclei degli atomi.
La scala di distanza nucleare è completamente fuori dagli schemi della quotidianità: parliamo di qualche milionesimo di miliardesimo di metro. Questo numero è così difficile da scrivere e pensare che è stata creata direttamente una nuova unità di misura: il fermi (in onore di Enrico Fermi).

Come informazione di orientamento, diremo che il raggio di un nucleo è del valore di qualche fermi.

Siccome l’interazione forte si occupa di tenere assieme i nuclei, composti da tanti protoni e neutroni (protoni che altrimenti si respingerebbero per via dell’interazione elettromagnetica), il suo raggio di interazione è proprio dell’ordine di qualche fermi. L’interazione debole è ancora più a corto raggio, perché agisce su una scala che è un millesimo di quella nucleare.

In che modo vengono interpretati questi differenti raggi di azione delle forze fondamentali dalla fisica teorica?

Livello intuitivo: il diagramma di bassa energia

Un’interazione in un certo intervallo di bassa energia può essere schematizzata da un diagramma tipo questo

Nel quale viene riportato un processo di repulsione elettromagnetica tra due elettroni. Matematicamente questa repulsione viene comunicata da un fotone virtuale “γ” che viene creato con una certa energia per un certo intervallo di tempo. L’informazione elettromagnetica si propaga tra due punti dello spaziotempo diversi e non può essere istantanea (per non contraddire la relatività ristretta), ma può propagarsi, al massimo, alla velocità della luce.

Con poche differenze, i diagrammi delle altre interazioni alle basse energie hanno una struttura molto simile (fatta eccezione per la gravità, per la quale non esiste ancora una teoria quantistica soddisfacente). Ciascun diagramma è caratterizzato dal proprio personalissimo bosone di interazione, che sia il fotone (elettromagnetismo), il pione (forze nucleari forti), o i W e Z (interazione debole).

Lo scambio di un oggetto tra due persone su due barche genera un allontanamento per via della conservazione della quantità di moto totale.

Esiste un esempio intuitivo, seppur da prendere con le pinze perché serve solo a darci un’intuizione fisica, del perché lo scambio di un mediatore produca una forza di interazione. L’esempio viene dalla fisica classica ed è illustrato in figura.

Il principio di Heisenberg in una forma speciale

Vogliamo studiare in maniera intuitiva quali siano le grandezze in gioco nella propagazione dei bosoni mediatori. Sappiamo dalla fisica teorica che possiamo interpretarli come particelle create e riassorbite durante l’interazione, e che esistono per un certo intervallo di tempo che consente la loro propagazione.

“Aspetta, mi stai dicendo che viene creata una particella dal niente? Ma questo non viola il principio di conservazione dell'energia?"

Una forma molto speciale del principio di indeterminazione di Heisenberg riguarda proprio l’energia e il tempo. Una particella può essere creata con una certa energia per un certo intervallo di tempo, senza violare il principio di conservazione, a patto però che valga

Il simbolo “~” indica un’uguaglianza approssimata. A destra, la costante di Planck divisa per 2π.

Per la creazione di un bosone mediatore di massa “m” richiediamo che questi esista per un tempo sufficiente per propagarsi di una distanza “R” (che è proprio il raggio di azione dell’interazione) a una velocità che è dello stesso ordine (ma MAI uguale) a quella della luce “c“. In sintesi:

Il simbolo “~” sta proprio a indicare che la relazione vale solo come ordine di grandezza: non stiamo dicendo in nessun modo che un corpo di massa “m” possa viaggiare alla velocità della luce, ma solo a una velocità comparabile e ad essa inferiore.

Un gioco poco rigoroso, che ci azzecca molto bene

Sfruttando una possibile interpretazione dei diagrammi sulle interazioni, immaginiamo che i bosoni mediatori vengano creati nei processi e che si propaghino per una distanza “R” che è proprio il raggio di azione.

Come facciamo a capire se tali bosoni esistano davvero o se siano solo costrutti teorici?
Dobbiamo rivelarli sperimentalmente, ma per rivelarli sperimentalmente dobbiamo prima sapere che tipo di massa possiamo aspettarci per queste particelle.

Un giochino poco rigoroso è quello di usare il principio di Heisenberg esposto sopra, perché a quel punto l’energia di massa dei bosoni si ottiene dividendo per “∆t

L’energia di massa dei bosoni in funzione del raggio di interazione

Applichiamo ora questa formula ai bosoni delle interazioni: fotone, gravitone, pione e bosoni W,Z.

  • Fotone: l’interazione elettromagnetica ha un raggio di azione infinito. Se diamo a “R” un valore molto grande nella formula troviamo che la massa tende a zero. I fotoni, come si sa comunemente, hanno massa nulla, e quindi sono capaci di viaggiare alla massima velocità dell’universo, cioè la velocità della luce. Non una grandissima notizia, dato che i fotoni sono proprio la luce stessa.
  • Gravitone: l’interazione gravitazionale è sorella (molto più debole a parità di distanza) della forza elettromagnetica, e ha anche lei un raggio di azione infinito. Troviamo quindi una massa nulla anche per il fantomatico bosone dell’interazione gravitazionale: se mai troveremo una teoria quantistica della gravità, il suo bosone si propagherà alla velocità della luce.

Per discutere del pione (mediatore della forza nucleare forte a bassa energia) e dei bosoni della forza debole, diamo prima una formula numerica utile

Con “fm” intendiamo “fermi”, cioè l’unità di misura delle lunghezze nucleari.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

L’energia delle particelle atomiche si misura infatti con una scala energetica chiamata MeV.
Come per tutte le unità di misura, fatti bastare solo qualche numero di orientamento: l’energia di massa dei neutroni e dei protoni è di circa 1000 MeV, mentre l’elettrone “pesa” solo 0.5 MeV. Le energie dei legami nucleari sono invece dell’ordine di qualche MeV.

Per quanto riguarda il bosone W dell’interazione debole, per la quale il raggio di azione è dell’ordine di 0.0025 fermi

Questo era il valore appunto trovato nel 1983! Per la precisione parliamo di 80,379 migliaia di MeV. Oggi questo valore è in discordanza dello 0.09% con quello misurato al Fermilab.

Se il risultato verrà confermato da ulteriori esperimenti, siamo davanti al primo reale superamento del Modello Standard.

È un arrivo una nuova stagione eccitante per i fisici teorici?


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

La Matematica di come diventiamo bravi in qualcosa

Spesso mi viene chiesto se la Fisica possa essere imparata da tutti, e quasi sempre ho la stessa difficoltà nel formulare una risposta.

Ovviamente mi viene da dire “Certo che sì, non c’è nulla di speciale, basta applicarsi con costanza“, ma dentro di me so che la parola cruciale è “costanza“: come per tutte le discipline la differenza sta nel reale interesse. Tutti possiamo imparare tutto, il punto è che tutti (com’è naturale) prima o poi scegliamo solo una tra le tante possibilità. La vita è una sola e quindi sarebbe poco pratico investire energie in più interessi.

La formulazione più corretta della mia risposta sarebbe quindi “Basta avere l’interesse, dopodiché bisogna riporre fiducia nella costanza della pratica”. Qui molti storcono il naso: “Devi esserci nato con la passione per la Fisica, non è per tutti, è roba poco accessibile”.

Quello della passione è in realtà un falso mito, e il discorso può essere applicato non solo alla Fisica, ma a tutte le discipline e tutti gli hobby che cerchiamo di imparare: sono infatti convinto che per diventare bravi in qualcosa bastino due ingredienti:

  • L’interesse.
  • La fiducia nella costanza.

L’autosabotaggio del cervello

Capita a tutti di avere, in qualcosa di specifico, abbastanza interesse da volerne sapere di più e imparare. Non sempre riusciamo a trovare la motivazione per dedicarci a questo interesse, semplicemente perché il cervello si lascia spaventare dalla mole necessaria di lavoro.
In sostanza ho imparato che in questi casi il cervello individua due macro-stati di esistenza:

  • 1) Ciò che so ora
  • 2) Ciò che saprò quando avrò “finito” di imparare

questa suddivisione innaturale elimina tutto quello che sta in mezzo, e cioè il processo stesso dell’imparare.
Il cervello si spaventa perché “imparare a fare quella cosa” diventa all’improvviso una montagna da scalare e non un semplice sentiero da percorrere in leggera pendenza. Diversamente, l’arte dell’apprendimento segue la stessa filosofia degli scalatori: guarda il sentiero, non la cima della montagna!

Inoltre la suddivisione elimina un prerequisito fondamentale dell’animo dello studente: non c’è mai fine all’apprendimento, e “imparare a fare qualcosa” non è un obbiettivo, ma un percorso, uno stato dell’esistenza.

Ho letto in giro che il primo passo per imparare qualcosa è togliere pressione da se stessi.
Bisogna cioè trasformare il nostro modo di formulare gli obbiettivi: passare da questa affermazione: “imparerò a suonare la chitarra” a quest’altra: “dedicherò qualche ora alla chitarra, perché mi piace”.
Questa trasformazione fa la differenza perché toglie tanta pressione al cervello.
Rimane però la questione annosa a cui siamo ben familiari: ma quanta fatica devo fare prima di vedere progressi in ciò che imparo?

Perché non faccio progressi?

Chiaro che non si possa ignorare il fatto che ci piace praticare solo ciò che ci dà un minimo di soddisfazione. Come si fa a “guardare solo il percorso” se non si vedono progressi immediati? È chiaro che si arrivi a credere di non essere portati se si osserva solo una minima percentuale di miglioramento.
Siamo campioni del mollare appena le cose non procedono come ci aspettiamo.

Il punto è che bisogna “imparare anche come impariamo”.

Ho preso ispirazione da un articolo di James Clear, in cui si evidenziava come le nostre aspettative sull’apprendimento siano completamente irrealistiche. Provo a riformulare il ragionamento nello stile che preferisco io. Iniziamo con un’affermazione su cui penso si possa concordare facilmente:

Ogni volta che facciamo pratica, miglioriamo dell’1% rispetto a prima.

Questa dell’1% è la nostra assunzione fondamentale su un modello dell’apprendimento molto semplificativo, non per forza realistico, ma che rende l’idea degli ordini di grandezza (è il modus operandi dei fisici).

Il punto è che è proprio quel 1% che ci scoraggia: ai nostri occhi è troppo poco!

Immaginiamo però di fare pratica “n“-volte su qualcosa che vogliamo imparare, e indichiamo con “Bi” la nostra bravura al tentativo “i“-esimo. All’inizio siamo completamente ignoranti perché abbiamo fatto zero tentativi, quindi la nostra bravura sarà indicata con “B0“. Dopo un tentativo, siamo migliorati solo dell’1% rispetto a prima. In formule ciò significa che la nostra bravura “B1” dopo il “tentativo 1″ sarà

Dopo 1 tentativo saremo l’1% più bravi di prima

Ora la nostra bravura è “B1“, per cui la prossima volta che faremo pratica miglioreremo ancora dell’1%, ma stavolta la nostra base di partenza è “B1” quindi al tentativo “2″ la nostra bravura “B2” sarà

Dopo 2 tentativi saremo l’1% più bravi di prima, ma ora non stiamo partendo da zero!

Detta così non sembra chissà cosa, ma ricordiamoci da dove siamo partiti: bisogna confrontarsi con la propria bravura di partenza “B0” inserendo l’espressione di “B1” nell’equazione precedente:

Al secondo tentativo siamo più bravi di un fattore (1.01)2=1.0201

Al secondo tentativo saremo un fattore (1.01)2=1.0201 più bravi del nostro stato iniziale, cioè un miglioramento del 2.01%.
D’altronde che ci aspettavamo? Se migliori dell’1% a ogni tentativo, è chiaro che dopo due tentativi sarai migliorato del 2%! Invece è proprio qui che la matematica degli esponenziali prende il sopravvento: nota che non siamo migliorati del 2%, ma del 2.01%, quel 0.1% in più fa tutta la differenza del mondo.

Magia esponenziale

Applicando “x“-volte lo stesso ragionamento, dopo “x“-tentativi saremo più bravi di un fattore:

Ad esempio al decimo tentativo non saremo migliorati del 10%, ma un po’ di più, perché (1.01)10 rappresenta invece un miglioramento del 10.46%. Sembra ancora molto poco, eppure le cifre decimali stanno crescendo abbastanza in fretta grazie al modello esponenziale.
Tuttavia il nostro cervello penserà di aver capito la matematica: “sì va bene, la nostra bravura crescerà, ma crescerà sempre molto poco, è intuitivo”. Il cervello ha un modo di ragionare lineare: “se sono migliorato di poco le prime volte, allora migliorerò di poco anche tutte le volte successive!”. In questo ragionamento si trascura però un punto fondamentale: ogni volta che facciamo un nuovo tentativo non stiamo più partendo da zero, ma stiamo accumulando esperienza dai tentativi precedenti. Il cervello non è bravo a capire questo dettaglio.
Per questo motivo ci immaginiamo che il grafico del progresso sia una retta y=mx:

Quello che ci immaginiamo quando stiamo imparando qualcosa di nuovo: il nostro cervello ragiona in maniera lineare.

Quindi il cervello si immagina che la differenza tra i nostri stati di bravura finale e iniziale stia in proporzionalità diretta con il numero di tentativi “x“, cioè “Bx-B0=0.01x”, (dove 0.01 è il miglioramento del 1%) che ha il seguente grafico:

Il grafico “mentale” che ci suggerisce di smettere di imparare: meglio lasciar stare, non si migliorerà mai.

Il punto cruciale è che questo grafico non è un modello sufficientemente realistico dell’apprendimento: ogni volta che impari un po’ di più, non stai partendo da capo! Un modello più realistico che tiene conto di ciò è invece quello esponenziale che abbiamo visto sopra, anche se è difficile accorgersi della differenza almeno all’inizio. Ciò è evidenziato nel seguente grafico in cui confronto i due modelli di crescita (esponenziale e lineare) fino a un numero 70 di tentativi:

I due andamenti (quello mentale e quello reale) sono quasi indistinguibili nei primi 70 tentativi. Il nostro cervello è bravo ad approssimare la realtà, ma qualcosa succede dopo il numero 70…

Anche se teniamo in conto di “non partire sempre da zero” e usiamo il modello di crescita esponenziale, i progressi che facciamo sono abbastanza trascurabili, almeno fino al tentativo 70, dopodiché entra in gioco la magia dell’esponenziale! Il grafico in rosso inizia a crescere leggermente di più del grafico in blu. Se aumentiamo ancora il numero di tentativi, arriviamo a questo risultato spettacolare:

Dopo tantissimi tentativi, i miglioramenti rispetto al nostro stato iniziale schizzano alle stelle. L’andamento è esattamente analogo a quello dell’interesse composto.

Riflettiamo un attimo davanti a questo grafico: noi tutti siamo soliti mollare la pratica ben prima del settantesimo tentativo, proprio perché osserviamo pochissimi progressi rispetto al nostro stato iniziale. Spesso ci sembra anzi di fare passi indietro, vuoi per via della scarsa memoria, vuoi perché semplicemente abbiamo capito male qualcosa che pensavamo di aver capito. Il punto è che i miglioramenti arrivano solo dopo centinaia e centinaia di tentativi: ad esempio dopo aver praticato qualcosa 300 volte, migliorando dell’1% ogni volta, arriviamo a diventare più bravi circa del 1878%!

Ne deduciamo che in molte cose della vita non è solo il talento innato che ci permette di fare progressi.
Ovviamente se uno ha un talento innato non migliorerà dell’1% ogni volta, ma magari del 3%. Poco importa, vorrà dire che per diventare eccellente farà 200-300 tentativi in meno di noi, il punto è che compararsi con gli altri ha poco valore nel momento in cui ci concentriamo nel percorso dello scalatore: il fine non è imparare “la cosa” in particolare, ma godersi il sentiero.

In verde: una persona che migliora del 3% ogni tentativo. In rosso: una persona che migliora del 1% ogni tentativo.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questo discorso mi ha portato a ragionare su un aspetto importante: nella vita possiamo potenzialmente scegliere qualunque lavoro vogliamo, indipendentemente dai nostri talenti (a meno che quel lavoro non ci faccia proprio ribrezzo). Il punto sta nel capire quanti tentativi siamo disposti a fare prima di raggiungere un livello che pensiamo possa essere redditizio.
La volontà, dopo un lungo cammino, ci porta dovunque. Il talento ci porta dovunque, in aereo.

Per quanto riguarda ciò di cui mi occupo io, mi verrebbe da dare proprio questa risposta:
“Ok, ti piace la Fisica e vorresti impararla come hobby, ma quanti tentativi saresti disposto a fare? Pensi che se non migliorerai subito entro qualche mese sarà il caso di mollare? Pensi che sia necessario passare notte e giorno sui libri per tutto il resto della tua vita per vedere un miglioramento del 30%?”

Siamo ossessionati dal successo immediato, quindi l’idea di studiare una materia complicata si trasforma subito in una questione di vita o di morte: “Non ho il talento, per capirci qualcosa dovrei dedicarci il 90% della mia giornata!”, la mia risposta invece è “Non è umanamente possibile pretendere di dedicare a un hobby una percentuale così grossa dell’esistenza quotidiana, ma è certamente possibile migliorare di una percentuale insignificante, tipo l’1%, ogni mese per tutto il resto della propria vita”.
L’elefante si mangia a pezzetti.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Cosa possiamo imparare dal diario degli appunti di Feynman

Richard P. Feynman (1918-1988)

Fin da quando ho iniziato il mio percorso nella Fisica sono stato affascinato tanto dalla materia quanto dalle personalità che l’hanno costruita. Anzi, ripensandoci devo ammettere che traevo ispirazione dalle azioni quotidiane, dalle abitudini o dai modi di ragionare dei grandi fisici del passato. Non che volessi “emularli” , semplicemente li ammiravo così tanto da voler portare dei pezzi di loro dentro di me, per sentirli più vicini, per guidarmi nelle decisioni e nella motivazione.

Una parte che trovo estremamente interessante della storia di ogni fisico è il suo metodo di studio, e non di quando era già grande e formato, ma di quando era giusto agli inizi.

Un filo conduttore che ho notato è il seguente: per capire a fondo una materia, devi farla tua. Per fare ciò servono due step fondamentali:

  • Bisogna essere autodidatti per una buona percentuale del tempo. Il professore ha il ruolo di mostrare la via più proficua e fornire gli schemi per aiutarti a non perderti, il resto devi coltivarlo da solo usando dei libri adeguati allo scopo.
  • Dopo aver letto il libro devi estrapolare le tue visioni e i tuoi schemi per poi riorganizzarli come preferisci in forma scritta, su diari o quadernini personali.
Il diario di Feynman: “The Calculus”, in italiano “Il calcolo infinitesimale”.

Uno dei più grandi che seguiva questo metodo era Richard Feynman, celebre fisico teorico americano (Nobel 1965). Ne sono venuto a conoscenza perché sono incappato di recente in un articolo di Physics Today in cui è stato riesumato da un archivio il “diario degli appunti” di quando Feynman decise di imparare il calcolo infinitesimale da autodidatta quando era ancora al liceo.

Il giovane Feynman decise che il curriculum di matematica liceale (che arrivava a stento alla trigonometria) non era abbastanza per chi volesse iniziare ad interessarsi di Fisica. Per sua fortuna il matematico Edgar Thompson decise di scrivere una serie di libri con l’intento di rendere più accessibili alcune tecniche matematiche che all’epoca erano ancora trattate in maniera piuttosto “aulica”. Feynman trovò particolarmente utile il libro di Thompson “Il calcolo infinitesimale reso facile” del 1923, su cui decise di basare tutta la sua preparazione (introduttiva) alla matematica universitaria.

Trovo giusto rimarcare un attimo l’importanza dell’opera di personaggi come Thompson: se Feynman non avesse potuto sviluppare da solo certe attitudini grazie a libri così accessibili, avrebbe magari avuto più dubbi nel suo percorso, e chissà magari non avremmo mai sentito parlare dei “diagrammi di Feynman”.

Cosa possiamo imparare?

Ci sono poche immagini condivise in rete sul diario di Feynman. Tuttavia da quel poco che abbiamo possiamo comunque trarre alcuni spunti interessanti, oltre ad evidenziare alcuni tratti fondamentali che per Feynman diventeranno caratteristici del suo metodo di lavoro.

L’importanza della schematicitià

La cosa che mi ha sorpreso di più di questo diario è anzitutto la presenza di un indice.

L’indice del diario di Feynman. I capitoli sono organizzati in una maniera molto simile a quella del libro di Thompson.

Uno degli ingredienti fondamentali per imparare una materia nuova e complessa è infatti quello di riuscire a organizzare le informazioni in maniera che siano rapidamente accessibili. L’indice è probabilmente il modo migliore per visualizzare graficamente tutti gli aspetti di una materia, e non parlo dell’indice di un libro, ma dell’indice dei propri appunti. Nel mio caso, se i tuoi appunti non hanno un indice è più facile provare un senso di confusione generale quando scorri le pagine. Questo piccolo dettaglio può trasformare una “confusa raccolta” in un serio “arsenale di conoscenze”.
Feynman conservò tutta la vita questa propensione per la schematicità. James Gleick riporta un aneddoto di quando Feynman era ancora studente a Princeton:

[…] Aprì un quaderno degli appunti. Il titolo era “DIARIO DELLE COSE CHE NON SO”. […] Lavorava per settimane per disassemblare ogni branca della Fisica, semplificandone le parti e mettendo tutto assieme, cercando nel mentre inconsistenze e punti spigolosi. Provava a trovare il cuore essenziale di ogni argomento.

James Gleick

Qui non siamo solo davanti a un esercizio “di umiltà” che consiste nel cercare di perfezionare le proprie lacune, ma a una ricerca sistematica, ottimizzata.

Quando Feynman aveva finito il lavoro, si ritrovava con un diario degli appunti di cui andava particolarmente orgoglioso.

James Gleick

La schematicità di questo lavoro permetteva a Feynman di accedere rapidamente a tutti gli argomenti che lui riteneva più importanti, nella grafia e nello stile di presentazione che a lui era più congeniale: il suo.

Da questa lezione possiamo imparare l’importanza della rielaborazione e della schematicità: non solo bisogna far proprio un argomento, ma bisogna organizzare le proprie note in modo che siano accessibili con il minor sforzo possibile, solo così si può andare avanti con una mente abbastanza lucida, pronta ad imparare cose ancora più difficili.

Prendersi un po’ più sul serio

Il secondo aspetto su cui voglio soffermarmi riguarda queste due pagine di appunti:

L’argomento riguarda l’analisi matematica ordinaria: l’angolo iperbolico e le funzioni iperboliche, ma non è questa la cosa interessante, bensì è l’utilizzo di intermezzi stilistici del tipo: “come abbiamo visto”, “se dividiamo…” tutti rivolti al plurale, proprio come farebbe un professore che sta spiegando un argomento in un’aula. Feynman si prendeva sul serio. Questo prendersi sul serio lo portava a redigere gli appunti con uno stile che poteva essere letto da tutti, aumentandone la facilità di lettura e senza sacrificare la rigorosa riorganizzazione delle informazioni.
Ricordiamo: Feynman era appena un adolescente mentre scriveva questo diario, non stiamo parlando di uno studente universitario che si suppone abbia già consolidato certi metodi di studio. Qui sta la precoce genialità di Feynman.

Il diario degli appunti di Enrico Fermi.

Se si vogliono scrivere degli appunti che ci potrebbero essere utili in futuro, bisogna farlo prendendosi sul serio, scrivendo come se dovessimo esporre in un’aula con persone che su quell’argomento non sanno nulla.
Se non si fa ciò, si rischia di ritrovarsi con degli appunti illeggibili presi distrattamente qualche anno prima, con il risultato di aver sprecato ore di studio senza poter riacquisire in maniera rapida le conoscenze dimenticate.

Anche uno dei più grandi fisici del novecento, Enrico Fermi, usò la tecnica del diario degli appunti fin da quando era al liceo. Proprio come Feynman, Fermi era ossessivo nel redigere i propri appunti, dedicandovi una meticolosa attenzione, fin dalla stesura dell’indice:

L’indice di un quaderno di Fermi.

Come testimoniarono i suoi colleghi e amici, Fermi riutilizzava spesso i propri quadernini anche in età adulta, proprio perché gli consentivano l’accesso immediato a numerose branche del sapere, diventando quasi “un’estensione” del proprio cervello.
Di nuovo, la loro efficacia stava probabilmente nel fatto di essere stati scritti in uno stile a lui più congeniale, usando schemi con cui aveva maggiore confidenza. Qualcuno disse che Fermi aveva fatto sua tutta la Fisica, tanto da definirlo “l’ultimo uomo che sapeva tutto“.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Il Teorema “CPT”, o il motivo per cui un anti-universo sarebbe indistinguibile dal nostro

Ci sono pochi argomenti che fanno da musa ispiratrice sia per i fisici teorici che per i fisici sperimentali. Le simmetrie discrete rappresentano una guida importantissima con cui interpretiamo i risultati sperimentali e con cui strutturiamo la forma matematica delle teorie, perché hanno la capacità di predire “cosa è concesso e cosa è vietato”.

  • Vuoi osservare il decadimento di una particella e non sai quali proprietà aspettarti dai suoi prodotti di decadimento? Argomenti di simmetria scarteranno alcune tra le varie possibilità, permettendoti di focalizzare le tue misure su altre proprietà.
  • Vuoi scrivere una teoria che descrive l’interazione nucleare? Sappi che gli esperimenti non hanno mai osservato la violazione di una certa simmetria “A”, quindi assicurati che le tue equazioni abbiano la stessa simmetria!

Quando diciamo “il sistema ha una simmetria” dobbiamo prima specificare rispetto a quale trasformazione. Infatti una simmetria è sempre preceduta da una trasformazione, altrimenti dire “simmetria” perde ogni significato. (Per un’introduzione al concetto di simmetria rimando a un precedente articolo).

Non tutte le trasformazioni sono una simmetria di un certo sistema. Ciò non è un problema: in ogni caso abbiamo scoperto che è molto comodo catalogare gli oggetti in base al loro comportamento sotto determinate trasformazioni.
Ad esempio la freccia in figura possiamo chiamarla “generica freccia bianca con punta a destra”

Potremmo decidere arbitrariamente di studiare il comportamento di questa freccia sotto alcune trasformazioni interessanti: ad esempio la trasformazione “inversione speculare” trasforma la freccia in quest’altra:

L’oggetto ottenuto non è lo stesso di prima, ora la freccia ha la punta verso sinistra: diremo che “la riflessione speculare non è una sua simmetria della freccia”. Pazienza! Non tutto può essere simmetrico.
Abbiamo comunque imparato qualcosa di nuovo: possiamo dare un nuovo nome a questo sistema: tipo “freccia bianca che sotto riflessione va nel suo opposto“. Questo modo di chiamare un oggetto in base a come si comporta sotto una trasformazione è ciò che facciamo per catalogare le particelle e le interazioni fondamentali del Modello Standard.

Il Modello Standard è caratterizzato da tre simmetrie fondamentali: la simmetria di Lorentz (le leggi della Fisica hanno la stessa forma in tutti i sistemi di riferimento inerziali, o in altri termini, sono simmetriche sotto una trasformazione di Lorentz), la simmetria di gauge (gli oggetti matematici della Fisica presentano più variabili di quelle fisicamente necessarie), e la simmetria CPT. Le prime due sono abbastanza astratte rispetto all’ultima, su cui ci concentriamo oggi.

La simmetria “CPT” evidenzia un fatto importantissimo della nostra realtà: le leggi della Fisica rimangono inalterate se applichiamo tutte e tre le seguenti trasformazioni:

  • Inversione spaziale “P”
  • Inversione di carica “C”
  • Inversione temporale “T”

Le trasformazioni P, C, T sono chiamate in gergo “simmetrie discrete”. Svisceriamole una ad una.

La simmetria P: inversione spaziale

L’inversione spaziale, altrimenti nota come “trasformazione di parità” consiste nell’invertire tutte e tre le direzioni spaziali: le coordinate cartesiane (x,y,z) vengono mandate in (-x,-y,-z).
Per visualizzare meglio questa trasformazione, considera una freccia in tre dimensioni, ad esempio dotata di un certo spessore, una punta e due facce rettangolari. Chiamiamo “A” e “B” le due facce di questa freccia.

Le due facce “A” e “B” della stessa freccia.

Visualizziamo la freccia in una certa posizione iniziale, ad esempio disponiamola con la faccia “A” rivolta verso di noi (quindi la faccia “B” è rivolta verso la pagina di questo articolo), e la punta è rivolta verso destra.
Per ottenere una trasformazione di parità eseguiamo due step: anzitutto ruotiamo di 180 gradi la freccia attorno alla direzione della sua punta ed infine invertiamo la punta. Infatti così facendo abbiamo mandato la faccia “A” nel suo opposto (cioè la faccia B), poi abbiamo invertito il basso con l’alto, ed infine abbiamo invertito la destra con la sinistra. Gli step sono illustrati in figura

Una trasformazione di parità della freccia. Dall’alto verso il basso: la freccia nella sua posizione iniziale, la freccia dopo una rotazione di 180 gradi attorno alla direzione della sua punta, e poi l’inversione della punta nell’ultimo step.

Nota bene, una trasformazione di parità è ben diversa da una trasformazione “speculare”. Non è come vedere la freccia davanti a uno specchio!

Una trasformazione speculare della freccia.

Spesso invece capita di sentire che l’inversione spaziale corrisponde a “vedere l’universo attraverso uno specchio”, come mai questa inesattezza?
Immagina per un attimo se la freccia avesse due facce uguali e non ci fosse modo di distinguere il basso dall’alto, in quel caso la riflessione speculare e la trasformazione di parità coincidono!

Questo perché la freccia iniziale era simmetrica sotto una rotazione di 180 gradi rispetto alla direzione della punta (quindi il primo step della trasformazione di parità la lascia invariata). Moltissimi sistemi fisici di interesse godono di una simmetria sotto rotazioni attorno a una certa direzione, per cui non è così scorretto dire che l’inversione spaziale “coincide” con l’osservare l’universo allo specchio.

"Però mi sfugge cosa c'entri con la Fisica tutto questo discorso sull'inversione dello spazio. Cosa gliene frega alle particelle se prendo gli assi cartesiani in un verso o nell'altro?" 

Magari non è immediato vederlo, ma la connessione è piuttosto profonda e ha a che fare con le interazioni fondamentali.

In particolare ha a che fare con il modo con cui scriviamo le teorie della Fisica.
Se le evidenze sperimentali suggeriscono ad esempio che un processo ha la stessa probabilità di avvenire in una direzione rispetto alla direzione opposta, allora sarà meglio che la teoria sia simmetrica sotto una trasformazione di parità dal punto di vista matematico! Lo schema di queste ragionamento è il seguente:

Per fare un esempio consideriamo la teoria di Dirac per un fermione di massa m. Nella teoria il termine di massa è scritto accoppiando i campi ψ del fermione nel seguente modo:

La trasformazione di parità dei campi fermionici si ottiene moltiplicandoli per una matrice detta “di Dirac”: γ0

Trasformazione di parità per i campi fermionici. La matrice di Dirac è caratterizzata dall’equazione (γ0)2 =1, cioè il suo quadrato è uguale all’identità.

A questo punto mostriamo che il termine di massa della teoria di Dirac è invariante sotto parità:

La trasformazione di parità dei campi fermionici lascia invariato il termine di massa grazie al fatto che 0)2 =1. La teoria di Dirac è costruita in modo da essere invariante sotto parità (ciò era suggerito dagli esperimenti).

In teoria nulla garantisce che le leggi della Natura siano invarianti sotto inversione spaziale, è una nostra assunzione ragionevole, confermata dalla maggior parte dei risultati sperimentali e per la maggior parte delle interazioni fondamentali.
Negli anni 50′, con grossa sorpresa, si scoprì che la nostra assunzione non corrispondeva alla realtà.

L’interazione debole e la violazione della parità

È arcinota l’importanza dei vettori nella Fisica. Siccome i vettori sono quantità riferite agli assi cartesiani, invertire gli assi con una trasformazione di parità invertirà anche i vettori.
Un vettore r verrà mandato nel suo opposto –r in seguito a una trasformazione di parità. Se però consideriamo il prodotto di due vettori, ad esempio come il momento angolare L=rxp , sotto una trasformazione di parità si ha

I segni meno si cancellano e il momento angolare rimane uguale a se stesso, non si inverte.

Un giroscopio davanti a uno specchio. L’asse di rotazione del giroscopio è perpendicolare alla superficie dello specchio: il verso di rotazione rimane inalterato nella riflessione.

Ciò si capisce intuitivamente se pensiamo a un sistema invariante sotto rotazioni e caratterizzato da un asse di rotazione, come un giroscopio. Per questo oggetto la trasformazione di parità equivale alla riflessione speculare (come precisato sopra). Se mettiamo un giroscopio rotante davanti allo specchio, il suo verso di rotazione non viene invertito: se gira in senso orario nel “nostro mondo”, continuerà a girare in verso orario anche nello specchio.

Fatta questa premessa, consideriamo uno degli esperimenti cruciali nella Fisica delle particelle: l’esperimento di Wu (1956).
Nell’esperimento di Wu si considerò un particolare decadimento nucleare del Cobalto-60, che provocava l’emissione di elettroni e antineutrini.
Tramite l’accensione di un campo magnetico, il team di Wu orientò gli spin dei nuclei di Cobalto in una direzione privilegiata, proprio come si farebbe con degli aghi magnetici. Per la conservazione del momento angolare, gli spin dell’elettrone e dell’antineutrino emessi dovevano avere lo stesso orientamento spaziale degli spin dei nuclei di Cobalto.
L’obbiettivo dell’esperimento era di seguire le traiettorie degli elettroni e vedere quale direzione prendessero rispetto allo spin del nucleo decaduto. Dopo un po’ di raccolta dati, si scoprì che gli elettroni avevano una direzione preferita di emissione: opposta allo spin nucleare. L’informazione raccolta sulla Fisica del problema era l’osservazione sperimentale: “la direzione preferita di emissione da parte degli elettroni è quella opposta allo spin del nucleo.”

Di primo acchito questa osservazione non sembra presentare nulla di problematico. Consideriamo però una trasformazione di parità: lo spin nucleare (essendo analogo a un momento angolare) viene mandato in se stesso come abbiamo visto, ma la direzione di moto degli elettroni viene invertita. Quindi in un mondo speculare (con asse di riflessione coincidente con quello dello spin) la conclusione dell’esperimento è che la direzione di emissione preferita da parte degli elettroni è quella concorde allo spin del nucleo.

Sotto una trasformazione di parità le conclusioni sperimentali sono diverse, in netta contrapposizione l’una con l’altra! Per la prima volta nella storia della Fisica una conclusione sperimentale è modificata da una trasformazione di parità, cioè la parità NON è una simmetria del sistema!

Perché la parità potesse essere una simmetria del sistema, ci saremmo aspettati tanti elettroni emessi nella direzione dello spin nucleare, quanti emessi nella direzione opposta. Ciò non è quello che si osserva, per cui siamo portati alla conclusione che la parità non è una simmetria fondamentale della natura, nonostante sia una simmetria delle forze nucleari e delle forze elettromagnetiche.

Interpretazione dell’esperimento di Wu

L’interpretazione dell’esperimento fu la seguente: esiste un’interazione fondamentale capace di far decadere un nucleo emettendo elettroni e antineutrini (oggi nota come interazione debole) che non è simmetrica rispetto a una trasformazione di parità. La parità NON è più una simmetria fondamentale della Natura.
L’universo visto allo specchio ha un comportamento diverso se si considerano i decadimenti deboli di alcuni nuclei. Questa distinzione fu abbastanza sconcertante e i fisici dell’epoca rimasero piuttosto sorpresi.

La simmetria C: inversione di carica

La trasformazione matematica di un elettrone in un positrone.

Una trasformazione di inversione di carica viene effettuata sulle funzioni d’onda che descrivono le particelle.
Le funzioni d’onda possono essere caratterizzate da numeri quantici come: carica elettrica, numero leptonico, numero barionico e numero leptonico di sapore.
L’inversione di carica, come suggerito dal nome, inverte tutti questi numeri quantici: non solo la carica elettrica, ma anche numero leptonico, numero barionico e sapore!


Ad esempio l’inversione di carica su un elettrone lo trasforma in un positrone (cioè una particella con stessa massa, ma carica elettrica opposta e numero leptonico opposto). Quindi effettivamente l’inversione di carica trasforma una particella nella sua anti-particella (per un resoconto su come siamo arrivati a teorizzare le antiparticelle rimando a un precedente articolo).

D’altra parte, una particella senza carica elettrica e senza altri numeri quantici (come il fotone) viene mandato in se stesso da questa trasformazione: il fotone è l’antiparticella di se stesso.

Per la maggior parte dei processi fisici, l’inversione di carica C è una simmetria: potremmo sostituire tutte le particelle del processo con le rispettive antiparticelle e il processo rimarrebbe lo stesso (stesse previsioni teoriche e stessi risultati sperimentali).
Ancora una volta fa eccezione l’interazione debole: per questa interazione entrambe le trasformazioni P e CP (combinazione di C e P) non sono una simmetria. Si pensa che questo fatto sia la risposta al quesito: perché il nostro universo è composto per la maggior parte da materia rispetto ad antimateria? In qualche momento dopo il big bang ci fu una maggior produzione di materia forse proprio grazie al fatto che l’interazione debole presenta questa asimmetria nel trattare particelle e antiparticelle.

La simmetria T: inversione temporale

L’ultima trasformazione discreta è l’inversione temporale: si inverte il tempo nelle equazioni della Fisica. L’inversione del tempo agisce su tutte quelle quantità in cui il tempo compare, ad esempio la quantità di moto (contenendo la velocità definita come il rapporto tra spazio e tempo) acquista un segno negativo sotto inversione temporale: p va in –p. Il momento angolare acquista un segno negativo anche lui, dato che L=rxp e r va in se stesso, ma p va in –p, quindi rx(-p)=-L.

Di nuovo, la maggior parte delle teorie fisiche rimane inalterata sotto inversione temporale, ad eccezione della solita guastafeste: l’interazione debole!

Ciò non sconforta ormai più di tanto, dato che le eventuali simmetrie sotto C,P e T separatamente non hanno motivo di esistere se non per la nostra soddisfazione personale.
Esiste un’unica simmetria che però deve essere rispettata affinché non crolli tutto il palazzo della Fisica Teorica, ed infatti esiste un Teorema che lo dimostra precisamente. Questa simmetria è la combinazione simultanea di C, P e T: la simmetria CPT.

Il Teorema CPT

Il Teorema CPT discende dall’unione tra meccanica quantistica e relatività ristretta, nel contesto della teoria quantistica dei campi. La sua dimostrazione dipende fortemente da tutto ciò che sappiamo essere verificato sperimentalmente sulla meccanica quantistica e sulla relatività ristretta. TUTTE le leggi della Natura sono invarianti se applichiamo successivamente: un’inversione di tutte le coordinate spaziali, un’inversione della carica di tutte le particelle (cioè la trasformazione di tutte le particelle in antiparticelle) e l’inversione temporale dei processi fisici.

Stiamo dicendo che non è possibile distinguere un esperimento di Fisica condotto in un anti-universo composto da anti-particelle, studiate con coordinate spaziali invertite e con i processi che avvengono al contrario nel tempo.

Per capire il significato del teorema, dobbiamo ricollegarci all’interpretazione di Feynman-Stückelberg sulle antiparticelle, come discusso in un articolo precedente. Un’antiparticella può essere interpretata come una particella che si muove “indietro nel tempo”.

Siccome la trasformazione combinata “CP” trasforma tutte le particelle in anti-particelle e inverte le coordinate spaziali (in modo da farle muovere “all’indietro” rispetto alle coordinate originali), se applichiamo un’ulteriore trasformazione “T” di inversione temporale stiamo facendo muovere queste antiparticelle all’indietro nel tempo e in una direzione spaziale opposta alle coordinate originali. Tradotto: siamo ritornati punto e a capo, e cioè all’universo originale. Quindi, se operiamo un’ulteriore trasformazione di inversione temporale “T”, l’anti-universo ottenuto con la trasformazione “CP” può essere reso indistinguibile dall’universo iniziale.

Una delle prime dimostrazioni del teorema CPT è dovuta a Wolfgang Pauli, il quale fu tra i primi a formalizzare il concetto di simmetria discreta nella teoria quantistica dei campi.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

La violazione di CP e T, ma non di CPT

Sottolineiamo: la simmetria sempre conservata è la combinazione simultanea CPT, ma ciascuna delle trasformazioni separate C, P o T può comunque non essere una simmetria delle teorie fisiche.

Abbiamo visto che l’interazione debole viola la simmetria P. Sappi che viola anche la simmetria CP, cioè la combinazione simultanea di C e P ( è stato verificato sperimentalmente). Questo fatto mise in grave allarme i fisici dell’epoca, perché la simmetria CPT era quindi in pericolo, e assieme a lei tutta la struttura matematica della teoria quantistica dei campi.

Grazie all’interpretazione di Feynman-Stückelberg sappiamo che, se CP è violata, allora l’unico modo per avere simmetria CPT è che anche T sia violata. Un po’ come dire: se voglio ottenere +1 dal prodotto di due numeri, dovranno essere entrambi negativi in modo che si cancelli il segno “-“, in questo modo (-1)(-1)=+1. Fisicamente corrisponde a dire:

Analogia tra la violazione delle simmetrie e la moltiplicazione tra numeri negativi.

I risultati sperimentali odierni sembrano confermare che la simmetria T sia violata, quindi la CPT dovrebbe essere salva, assieme a tutto il castello della Fisica Teorica.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

[Immagine di copertina: Kelly Sikkema]

Quel tremendo colloquio con Enrico Fermi che cambiò la carriera di Dyson

Ci sono svariati motivi per cui la Scienza, pur essendo una disciplina di matrice umana e quindi predisposta all’errore, riesce sempre a raddrizzarsi. Il motivo più cruciale è la spietatezza del giudizio tra pari: l’oggettività e il metodo scientifico non guardano in faccia nessuno.

Naturalmente per garantire il continuo raddrizzamento servono grandi personalità, che devono essere la base di ogni comunità scientifica. E non parlo di “grandi personalità” solo dal punto di vista accademico, servono grandi capacità relazionali e grande onestà intellettuale, anche a costo di dire qualcosa di molto scomodo. La scienza inizia a morire quando inizia a prendere piede il pensiero di gregge, dal quale nessuno ha il coraggio di discostarsi.
A capo del gregge servono dei pastori, pochi fari nella notte, ma sempre accesi e messi nei punti giusti.

In questo contesto, qualche tempo fa sono incappato in una storia condivisa da Freeman Dyson, che è stato uno dei più importanti fisici teorici del secondo novecento. Credo che questa storia riassuma perfettamente lo stato esistenziale del ricercatore: la ricerca è un mondo appassionante in tutti i sensi, passione emotiva e passione in senso latino, “patire, soffrire”.

Un po’ di contesto storico

Un tipico processo di elettrodinamica quantistica, un fotone virtuale viene scambiato tra due elettroni.

Alla fine degli anni ’40 si era raggiunta una soddisfacente descrizione dei processi atomici. L’unica forza fondamentale del mondo quantistico allora compresa, l’elettrodinamica quantistica, aveva come ingredienti i campi fermionici come elettroni, protoni e neutroni, e il campo elettromagnetico (rappresentato dal suo quanto di eccitazione, il fotone).
Come descritto in un precedente articolo, essendo il mediatore di un’interazione a raggio d’azione infinito, il fotone ha massa nulla. Un principio di simmetria, assieme alle nozioni dell’elettrodinamica classica, ci guidano a scrivere l’interazione elettrodinamica, come spiegato in un precedente articolo, con la seguente struttura:

L’accoppiamento tra campi fermionici ψ e il campo elettromagnetico Aμ.
L’intensità dell’interazione è specificata dalla carica dell’elettrone in unità fondamentali (unità di c=ℏ=1).
Freeman Dyson (1923-2020)

A partire da questa struttura, si è in grado di calcolare tutti i processi elettromagnetici possibili, e verificare l’accuratezza della teoria confrontando i valori ottenuti con i dati sperimentali. Questa era l’occupazione di Freeman Dyson e il suo gruppo di studenti. Dyson, allora un giovanissimo professore di Fisica Teorica alla Cornell, era riuscito con il suo gruppo ad ottenere uno spettacolare accordo tra le previsioni teoriche e i dati sperimentali: l’elettrodinamica era una teoria in grado di fare previsioni molto accurate.

Dopo questi successi, nel 1951 il gruppo di Dyson era alla ricerca di altri problemi da conquistare. Uno particolarmente promettente era il problema di studiare cosa tenesse assieme i nuclei: l’interazione nucleare.
All’epoca la Fisica Nucleare era una scienza prettamente empirica: i modelli teorici erano pochi, confusi e dallo scarso potere predittivo. Quello che era certo, almeno alla scala di energia che si esplorava all’epoca, è che il mediatore della forza nucleare doveva essere massivo (per sapere perché leggi qua) perché al di fuori del nucleo la forza nucleare cessava di esistere.
Se il mediatore dell’elettrodinamica era il fotone, il mediatore dell’interazione nucleare fu individuato nel pione. L’obbiettivo era quindi fare degli esperimenti in cui si facevano collidere pioni con altre particelle nucleari, per studiarne l’interazione.

Dyson e il suo gruppo, avendo avuto così tanto successo con il modello dell’elettrodinamica, decisero che la struttura migliore per l’interazione doveva essere molto simile:

L’accoppiamento tra i campi fermionici ψ e il campo del pione ϕ.
L’intensità dell’interazione è specificata dalla costante “g” , che ha un valore molto più elevato della costante di accoppiamento elettromagnetica “e”.
Un protone ed un neutrone interagiscono scambiandosi un pione neutro.
Nota la somiglianza con il diagramma dell’elettrodinamica.


Questa teoria era conosciuta come “teoria del pione pseudoscalare” , e il gruppo di Dyson ci lavorò a tempo pieno per due anni. Dopo uno sforzo di proporzioni eroiche, nel 1953 riuscirono a produrre delle predizioni teoriche in accettabile accordo con i dati disponibili all’epoca. La carriera di alcuni studenti di Dyson dipendeva dal successo di questa teoria, dato che erano per la maggior parte dottorandi o post-doc.

I dati sperimentali con cui confrontavano le loro previsioni teoriche erano stati raccolti da uno dei migliori fisici del novecento, nonché uno dei padri fondatori della ricerca nucleare: Enrico Fermi, professore a Chicago e al tempo uno dei leader nella costruzione del Ciclotrone con cui si studiavano le interazioni nucleari.
Fermi era anche uno dei migliori fisici teorici della sua generazione, quindi Dyson pensò fosse il caso di andare a trovarlo per discutere sul successo del proprio lavoro, prima di pubblicarlo.

Enrico Fermi (1901-1954), premio Nobel per la Fisica 1938.

L’incontro con Fermi

Nella primavera del ’53, Dyson si diresse a Chicago per andare a trovare Fermi nel suo ufficio, portando con sé una pila di fogli con alcuni grafici che riproducevano i dati sperimentali calcolati dal suo gruppo.

Fermi aveva la nomea di incutere una certa soggezione, di certo non solo per la sua fama di grande scienziato, ma anche per l’acutezza del suo giudizio. Quindi è facile immaginarsi che Dyson si sentisse un po’ teso per quell’incontro.
La sua tensione si trasformò presto in soggezione quando vide che Fermi diede solo un rapido sguardo ai fogli che gli aveva portato, per poi invitarlo a sedersi e chiedergli con un tono amichevole come stessero sua moglie e suo figlio neonato.

Dopo qualche chiacchiera, improvvisamente Fermi rilasciò il suo giudizio nella maniera più calma e schietta possibile

Ci sono due modi di fare i calcoli in Fisica Teorica. Il primo modo, che io preferisco, è di avere un chiaro schema mentale del processo fisico che vuoi calcolare. L’altro modo è di avere un preciso ed auto-consistente formalismo matematico. Voi non avete nessuno dei due.

Dyson rimase ammutolito, anche se la parte più orgogliosa di lui era comunque incredula. Quindi cercò di capire cosa non andasse, secondo Fermi, con la teoria del pione pseudoscalare.

Fermi aveva un intuito fisico eccezionale su cui fondò letteralmente una scuola di pensiero in grado di far fruttare ben 8 premi Nobel per la Fisica tra i suoi studenti.

La teoria del pione pseudoscalare, secondo il suo intuito, non poteva essere corretta perché a differenza dell’elettrodinamica l’interazione era molto più intensa e nei calcoli era necessario mascherare alcune divergenze senza avere un chiaro schema fisico di quello che stesse succedendo.

Inoltre, quando Dyson gli chiese, ancora orgogliosamente, come mai secondo lui i dati fossero comunque in accordo con le sue previsioni nonostante la teoria fosse inadeguata, Fermi gli fece notare che il numero di parametri utilizzato (quattro) era troppo alto, e che con un numero così elevato fosse possibile raggiungere un raccordo tra le previsioni teoriche e qualunque dato sperimentale.

In sostanza Fermi demolì, con estrema calma e schiettezza, gli ultimi due anni di lavoro dell’intero gruppo di Dyson, composto da dottorandi e post-doc la cui carriera in quel momento dipendeva dal successo di quella teoria.

La storia diede ragione a Fermi. La teoria del pione pseudoscalare non era quella corretta, al modello delle forze nucleari mancava un pezzo fondamentale del puzzle: i quark, teorizzati da Gell-Mann il decennio successivo, quando Fermi era già morto.

Dopo quell’incontro traumatico, Dyson e il suo gruppo pubblicarono comunque il lavoro, ma abbandonarono completamente quel campo di ricerca. Negli anni successivi, ripensando a quell’evento, Dyson espresse di essere grato eternamente a Fermi per quello “schiaffo” morale, perché la sua teoria non avrebbe portato nessun frutto e avrebbe fatto sprecare preziosi anni di ricerca a lui e al suo gruppo.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo la laurea in Fisica e la magistrale in Fisica Teorica all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

No, le equazioni di Maxwell non furono capite subito

Se consideriamo i più importanti avanzamenti scientifici del XIX secolo, la teoria elettromagnetica di James Clerk Maxwell è seconda solo al lavoro di Darwin “l’origine delle specie”.

Tuttavia questa importanza non fu riconosciuta subito, e non parlo di qualche anno. Rimasi sorpreso quando scoprii che ci vollero circa 30 anni affinché le equazioni di Maxwell fossero capite a pieno, e che addirittura per i primi 20 anni furono praticamente ignorate.
Dopo un po’ di ricerche, ho individuato due motivi principali per spiegare ciò:

James Clerk Maxwell (1831-1879)
  • Il carico concettuale della teoria di Maxwell.
  • La modestia di Maxwell.

Il tangibile e l’intangibile

La teoria di Maxwell, pubblicata per la prima volta nel 1865, risulta ancora oggi un po’ indigesta per la maggior parte dei neofiti, figuriamoci per i fisici del 1800!
Immaginiamo il contesto culturale di questi fisici: l’universo newtoniano era composto da oggetti tangibili, in grado di interagire “a distanza” l’uno con l’altro in maniera misteriosa. Nonostante l’azione a distanza, le quantità misurabili erano tangibili, e questo era quello che contava!
Prima Faraday e poi Maxwell introdussero il giochino astratto dei “campi” intangibili che si estendono nello spazio e producono perturbazioni locali nel moto dei corpi. Per i fisici dell’epoca si trattava giusto di un giochino, un utensile fantasioso per schematizzare un meccanismo che funzionava bene anche senza.

Un disegno originale di Maxwell sulle linee di forza e le superfici equipotenziali.

Infatti i fisici classici ragionavano in termini meccanicistici perché erano figli del loro tempo, a cavallo tra la prima e la seconda rivoluzione industriale. Per loro i “campi” erano la manifestazione di strutture meccaniche composte da una moltitudine di piccoli vortici in grado di trasmettere gli stress meccanici tra cariche e correnti.

Maxwell era un visionario, ma pur sempre un fisico del 1800, per cui i campi da esso descritti avevano come fine ultimo quello di inserirsi nel contesto della teoria dei vortici. Il risultato era di una difficoltà paurosa e fu un po’ come darsi la zappa sui piedi.

Questo fu uno dei principali freni alla comprensione della teoria: per i suoi contemporanei era dannatamente complicata, difficile da visualizzare e senza nessun vantaggio rispetto al framework newtoniano.

Nel framework newtoniano il campo elettrico e il campo magnetico venivano descritti come due entità ben distinte, e la loro azione sui corpi veniva descritta con le leggi empiriche di Faraday, Lenz e Gauss, usando il concetto misterioso di forza a distanza.

Maxwell invece fece uno dei più grandi passi avanti nella Storia del Pensiero: l’interazione si propagava alla velocità della luce attraverso un certo mezzo (l’etere) sotto forma di onda elettromagnetica, e cioè di una nuova entità fisica che vede campo elettrico e campo magnetico come due facce della stessa medaglia.

Nessuno era pronto per capire la portata di questa grande unificazione. Nessuno l’aveva richiesta, e nessuno era volenteroso di imparare la matematica necessaria.

Infatti un altro problema fu che Maxwell non scrisse le sue equazioni nella forma elegante che conosciamo oggi (grazie al lavoro di Heaviside)

Sinistra: le equazioni di Maxwell originali. Destra: le equazioni di Maxwell in notazione di Heaviside.

bensì scrisse delle equazioni vettoriali componente per componente, per un totale di 20 equazioni, e con una notazione un po’ buffa. Pensa che disastro dover fare una peer review di un lavoro simile!

Quando la modestia è controproducente

È riportato che durante una conferenza Maxwell riservò alla sua teoria elettromagnetica giusto una breve menzione:

“[…] Un’altra teoria dell’elettricità che io preferisco rinnega l’azione a distanza e attribuisce l’azione elettrica alle tensioni e pressioni di un mezzo che pervade l’universo. Queste tensioni sono dello stesso tipo di quelle familiari agli ingegneri, e il mezzo è lo stesso in cui si pensa che avvenga la propagazione della luce.”

James Clerk Maxwell

Tutto qui? Tutto qui. Quando Newton scoprì le leggi della gravitazione le annunciò al mondo con un sonoro “Ora dimostrerò la struttura del sistema del Mondo”, mentre Maxwell si limita a citare il proprio lavoro con la frase “un’altra teoria che io preferisco…”


La sua modestia spinse i fisici dell’epoca a non prendere sul serio la teoria, ritardandone la comprensione per almeno 20 anni, fino ai lavori di Hertz, Lorentz e Einstein, i quali crebbero già in un contesto più amichevole al concetto di campo, per cui ai loro occhi sembrava quasi ovvio che il mondo dovesse parlare il linguaggio della teoria di Maxwell.

La transizione concettuale

La teoria di Maxwell diventa semplice e intellegibile solo quando si esegue una transizione concettuale: gli oggetti primari non sono più i modelli meccanici: le forze sono solo un ingrediente secondario, il campo elettromagnetico è l’ingrediente primario!

Ciò che è misurabile non è direttamente il campo elettromagnetico, ma una sua particolare espressione matematica: ad esempio il modulo quadro del campo rappresenta la sua energia, che è una quantità misurabile. Le quantità misurabili, a differenza della teoria di Newton, diventano una manifestazione secondaria di ciò che si nasconde dietro, il quale è molto più profondo.

Questo innovativo modo di pensare è stato replicato per tutto il XX secolo: oggi abbiamo ridotto all’osso le equazioni di Maxwell, capendole dal punto di vista della relatività di Einstein. Dalle 20 equazioni originali, passando per le 4 equazioni di Heaviside, arriviamo alla forma elegantissima di oggi, la quale le condensa tutte in due righe:

Le equazioni di Maxwell nell’elettrodinamica relativistica.

Questo è stato fatto grazie a un altro salto concettuale: il potenziale vettore del campo elettromagnetico, un tempo considerato solo come uno strumento astratto, si è rivelato come l’unico modo per trasportare l’elettromagnetismo nel reame della teoria classica dei campi. Questa necessità ha spalancato le porte alla formulazione dell’elettrodinamica quantistica e di tutta l’infrastruttura delle teorie di gauge moderne.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

L’unico modo che conosco per studiare Fisica

Abbiamo tutti cominciato da qualche parte.
Prima qualche libro divulgativo, di quelli discorsivi ma non troppo: fammi vedere le equazioni diamine! No scusami scherzavo, torniamo alle analogie per favore. Sto capendo la Fisica o sto capendo le analogie?
Poi qualche approfondimento su YouTube, magari un buon documentario. Non si capisce niente, troppe analogie e pochi fatti. Quel discorso era un po’ troppo accelerato!
Poi si inizia a prestare un po’ più di attenzione all’ora di Fisica in classe, e anche gli esercizi sembrano darti l’illusione di fare enormi progressi. Appunto, di illusione si tratta.

Avendo 23 anni, ricordo ancora benissimo le prime sensazioni di quando a 16 anni ho iniziato ad interessarmi seriamente di Fisica. Di sicuro sentivo che le mie conoscenze avanzavano soprattutto quando risolvevo qualche esercizio particolarmente difficile (ma pur sempre algoritmico), o quando riuscivo a spiegare con parole semplici una teoria interessante. Con il senno di ora mi accorgo che in realtà la rapidità dei miei progressi era solo una percezione dovuta alla sovrastimolazione: quando impari Fisica per la prima volta hai voglia di esporti al maggior numero di argomenti possibile, senza nessuna speranza di assorbirli tutti in dettaglio. La sovrastimolazione mentale accorcia la percezione del tempo, quindi si crede di star facendo tantissimi progressi nella comprensione di teorie e dimostrazioni matematiche.

La realtà è che per approcciarmi alla meccanica classica con uno studio da autodidatta (condotto in parallelo agli argomenti del liceo scientifico, che usavo come ripasso di quello che già studiavo per conto mio) ho impiegato quasi più di un anno, studiando nella maggior parte del mio tempo libero (cioè almeno il 60% della mia giornata, in cui il restante era il tempo in classe). Sembra un gran risultato?

Un me 16enne, in pieno delirio di onnipotenza cognitiva.

La vera domanda è: quanto avevo capito davvero?


All’epoca credevo di aver capito quanto basta per risolvere la maggior parte degli esercizi dei libri di testo canonici. D’altronde non pretendevo di diventare un esperto alla prima passata, non ero così stupido.
Ero invece stupido su un altro aspetto, quello di non mettermi alla prova immediatamente.

Solitamente il mio approccio era quello di provare a scrivere degli articoli riassuntivi una volta capito un argomento, ma per fare ciò aspettavo che passassero abbastanza mesi affinché l’argomento mettesse le radici nelle mie connessioni neuronali, in maniera del tutto naturale. Qualcuno dirà che ho fatto bene, certi processi di ragionamento è meglio lasciarli instaurare in maniera naturale, senza forzarli!
In realtà avrei potuto capire il quadruplo delle cose se solo avessi forzato quel processo (o anche se avessi consultato libri più stimolanti di quelli “ortodossi”).

Il libro ha appena proposto una dimostrazione? Dimostrala pure tu. Proprio qui, proprio ora. Immediatamente.
Ripetimi su un foglio quel ragionamento che porta alla formulazione di Clausius del principio della termodinamica (che trovavo particolarmente involuto ed evitavo accuratamente di provare a derivare). Immediatamente. Diamine quanto avrei dovuto farlo! Avrei dovuto faticare molto di più e ne sarebbe valsa la pena! Carta, penna e calcoli! Immediatamente! Meno tempo impiegato, più risultati ottenuti.

Io fallivo nel momento in cui dovevo mettermi alla prova “immediatamente”. Diciamo che preferivo cullarmi nell’illusione che presto l’argomento mi sarebbe entrato in testa in maniera del tutto naturale, senza forzarlo. Quel “presto” era solo un’illusione.

L'unico modo che conosco ora per studiare Fisica è quello di diventare un miscredente nei confronti dell'autore del libro da cui studio. 
Carta e penna: i migliori alleati di un Fisico.

Mi metto nell’ottica in cui ogni cosa che leggo può essere potenzialmente una fregatura nei miei confronti, e così tengo una penna e un foglio di fianco al libro. Ogni passaggio e ogni parte concettualmente più complessa viene industrialmente convertita in alcuni schemi, bozze di calcoli, o dimostrazioni complete, usando carta e penna.

Lo so, è un processo tedioso. Soprattutto perché ti mette a confronto con la tua ignoranza, ti lacera l’ego. Ma l’alternativa qual è? Capire nel quadruplo del tempo ciò che vuoi imparare. Non ci sono shortcuts. Lo so, sono particolarmente duro, ma è ciò che direi al me stesso 16enne.

Una volta fatto ciò, non bisogna poi dimenticare di salvare alcuni di questi fogli di carta, per riutilizzarli in futuro come note personali. Sarebbe anzi preferibile convertirli in formato digitale, usando ad esempio delle app come Notion.

L’unico apprendimento possibile è quello attivo, quello in cui si mette in moto il cervello. Quest’ultimo è infatti una macchina particolarmente efficiente: vuole sprecare meno energia possibile. Sta quindi a noi scegliere in quali direzioni investire le nostre energie, ed imparare attivamente è decisamente la più remunerativa. Questo consiglio non si applica solo alla Fisica, di sicuro.

Ancora oggi mentre studio alcune materie della Magistrale sono spesso tentato dalla vocina nella mia testa “ma sì, leggilo e basta, poi si vedrà, ti entrerà in testa col tempo”. Di certo è la soluzione più comoda: rimandare a domani lo sconforto di oggi. Non credo proprio che la strategia “leggi e poi si vedrà” messa in pratica su un esame come cromodinamica quantistica mi consentirà di masterizzare le cose entro la prossima era geologica…


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Alla ricerca del neutrino di Majorana nel punto più freddo dell’Universo

I neutrini sono secondo molti le particelle più interessanti della Fisica moderna. In un recente articolo ho cercato di dare un’idea del perché questa sia un’opinione così diffusa.

Tra tutti i grattacapi sui neutrini, uno dei più discussi riguarda il meccanismo teorico con cui interpretiamo la loro massa.

"Perché è necessario un meccanismo teorico per interpretare le masse delle particelle? E poi, che vuol dire interpretare? Non si interpreta una massa, la massa esiste e basta, no?"

L’osservazione è ragionevole! Ma la Fisica Teorica (lo strumento con cui facciamo previsioni sull’universo) lo è un po’ meno, o meglio, parla un linguaggio che ai nostri occhi può apparire meno “ragionevole”. In un recente articolo ho provato a illustrare come e perché sia necessario interpretare la massa delle particelle tramite la rottura di una simmetria. Questo meccanismo, in grado di “dare massa” alle particelle, è noto come “meccanismo di Higgs”.
Siccome sappiamo da poco più di un ventennio che i neutrini hanno massa, è lecito estendere il meccanismo di Higgs anche a loro. Tutto funziona perfettamente, se non fosse per due questioni poco soddisfacenti:

  • Come spiegato nell’articolo precedente e accennato qui, la massa dei fermioni (la stessa famiglia dei neutrini) deve essere costruita con due blocchetti matematici fondamentali chiamati “chiralità destra” e “chiralità sinistra”. I neutrini interagiscono solo con la chiralità sinistra della loro funzione d’onda, per cui se vogliamo introdurre una massa con il meccanismo di Higgs, dobbiamo introdurre forzatamente una chiralità destra, la quale sarebbe “sterile” (cioè non avrebbe motivo di esistere se non per costruire la massa della particelle, dato che non partecipa alle interazioni).
    I fisici preferiscono lavorare con quantità che possono misurare, se non possiamo misurare la “chiralità destra” nel senso che non possiamo osservare neutrini che interagiscono con quella chiralità, è poco soddisfacente introdurla.
  • La costante di accoppiamento tra il campo del neutrino e il campo di Higgs (tramite cui possiamo “assegnare“ la massa alla particella) è inspiegabilmente molto più piccola delle costanti di accoppiamenti dei fermioni più famosi (elettroni, quark, muoni, etc.).

Queste questioni poco soddisfacenti fanno sentire la necessità di un meccanismo alternativo per dare massa ai neutrini, un meccanismo personalizzato apposta per loro, per nascondere la nostra ignoranza su una eventuale Fisica oltre il modello standard.

Questo meccanismo è noto come Meccanismo di Majorana: a un livello molto elementare si tratta di ipotizzare che neutrino e antineutrino siano la stessa particella. Il tutto è spiegato brevemente in questo articolo dedicato all’ipotesi di Majorana. In sintesi: se neutrino e antineutrino sono la stessa particella (cosa possibile in quanto il neutrino è neutro elettricamente), allora serve un solo blocchetto matematico per descrivere la sua massa, cioè solo la “chiralità sinistra”, e non serve introdurre chiralità sterili.


Il meccanismo di Majorana, con poche altre ipotesi di contorno, è in grado di spiegare la massa dei neutrini senza incappare nelle questioni elencate sopra, per cui è generalmente favorito tra i fisici.

Il meccanismo dell’altalena per la massa del neutrino. Il motivo per cui i neutrini sono così leggeri è perché esiste un loro partner di Majorana, sterile e molto massivo.

Questo meccanismo identifica neutrino con antineutrino, quindi non illustra solo come la particella acquista una massa, ma ci dice anche che il neutrino è un fermione completamente diverso dagli altri fermioni del Modello Standard.
Inoltre fornisce una possibile interpretazione del perché il neutrino è tanto leggero rispetto agli altri fermioni. Infatti in una delle declinazioni della teoria di Majorana la massa del neutrino è così piccola per via dell’esistenza di un ipotetico neutrino sterile di Majorana (sterile rispetto alle interazioni) avente una massa molto grande.
Con uno speciale accorgimenti teorico, l’introduzione di un neutrino molto massivo di Majorana ha l’effetto di rendere molto piccola la massa del neutrino che osserviamo nelle interazioni comuni.
Il modo migliore per immaginarsi questo particolare escamotage è tramite un’altalena: il neutrino è così leggero in quanto esiste un suo “partner sterile e pesante” molto più massivo.
I due meccanismi sono rappresentati in figura:

Un punto importante da capire del meccanismo “altalena” di Majorana è il seguente: il neutrino finale (quello leggero) è comunque una particella di Majorana. Esistono quindi due “neutrini di Majorana” di cui tenere conto nella teoria, il primo è il neutrino sterile introdotto all’inizio, questo neutrino sterile tramite un particolare accorgimento teorico può essere utilizzato per rendere molto piccola la massa del neutrino che si manifesta nelle interazioni. Un sottoprodotto di questo meccanismo è che il neutrino leggero diventa una particella di Majorana.

Come possiamo capire se il neutrino è una particella di Majorana?

La strategia più favorita è quella di andare a studiare processi nucleari in cui un neutrino si trasforma in un antineutrino, cioè processi che possono avvenire se e solo se il neutrino è una particella di Majorana.

Un processo di questo tipo è il doppio decadimento beta senza neutrini. (Per una breve introduzione sul decadimento beta singolo, leggi qui).
In sintesi in un decadimento beta normale un neutrone all’interno del nucleo si trasforma in un protone grazie all’interazione debole, ma nella trasformazione vengono generati un elettrone (per conservare la carica elettrica), e un antineutrino.

Illustrazione di un singolo decadimento beta nucleare.
Un doppio decadimento beta senza neutrini. La “barra” sopra il nome della particella indica la sua antiparticella. Nell’ipotesi di Majorana neutrino e antineutrino coincidono. Notare che le uniche particelle emesse nello stato finale sono due elettroni.

Questo antineutrino, prima di uscire dal nucleo, può andare a interagire con una certa probabilità (in verità piuttosto bassa) con un altro neutrone. L’interazione può avvenire solo se l’antineutrino interagisce con il neutrone con la chiralità preferita dall’interazione debole, cioè la chiralità sinistra (come illustrato nell’articolo precedente), ma per fare ciò dovrebbe invertire la chiralità con cui è stato emesso nel decadimento iniziale (se i neutrini interagiscono solo con la chiralità sinistra, gli antineutrini interagiscono solo con la chiralità destra, dato che particelle e antiparticelle trasformano in maniera opposta). Quindi deve avvenire il passaggio da chiralità destra a chiralità sinistra, e questo può avvenire solo se neutrino e antineutrino sono la stessa particella, cioè se sono particelle di Majorana!
Se l’antineutrino (neutrino) inverte la propria chiralità, può andare a fare interazione debole con un altro neutrone nucleare, e questo genera l’emissione di un altro protone e di un altro elettrone.
In questo modo nel nucleo spuntano due protoni in più rispetto a prima, e vengono emessi due elettroni in totale (ma nessun neutrino).

Il risultato del doppio decadimento beta è che non vengono emessi neutrini, perché agiscono solo come particelle virtuali di scambio all’interno del processo nucleare.

L’esperimento CUORE

La probabilità di osservazione di un doppio decadimento beta nucleare è così bassa che se stessimo ad aspettare ne accadrebbe in media uno solo in ben dieci milioni di miliardi di volte l’età dell’universo.

La fisica dei neutrini è abituata a cercare l’acqua nel deserto, essendo i neutrini le particelle più sfuggenti che conosciamo. Fortunatamente, come già discusso nell’articolo precedente, possiamo aumentare le nostre probabilità di vincita se giochiamo bene tante schedine!
È sufficiente indagare grandi masse nucleari, dell’ordine della tonnellata, e questa probabilità si innalza considerevolmente: almeno qualcuno fra quei miliardi e miliardi di nuclei dovrà pur decadere!
Tuttavia la probabilità del processo è comunque molto più bassa delle probabilità di tutti i restanti processi dell’ambiente che ci circonda, dalla radioattività naturale fino ai prodotti di spallazione dei raggi cosmici.
Se si vuole cercare il doppio decadimento beta, bisogna schermare tutte queste sorgenti indesiderate di particelle, andando ad esempio sottoterra.

E qui entra in gioco l’esperimento CUORE, uno dei numerosi esperimenti che cercano il doppio decadimento beta, ma comunque uno dei più promettenti. CUORE si trova nel cuore dei Laboratori Nazionali del Gran Sasso, protetto da strati su strati di roccia in grado di schermare i detector che cercano il segnale tipico del doppio decadimento beta (cioè l’emissione di due elettroni dal nucleo).

Il problema è che la sensibilità dei detector richiesta è soddisfacente solo se si lavora a temperature molto vicine allo zero assoluto.

Sia chiaro: non parliamo dello zero Celsius, ma dello zero Kelvin (cioè 273 gradi sotto lo zero Celsius). L’esperimento CUORE è stato in grado di raggiungere temperature dell’ordine del millesimo di Kelvin, cioè poco maggiori di 0.001 Kelvin, questo al fine di ottenere sensibilità sperimentali in grado di discernere, con sufficiente accuratezza, il segnale del doppio decadimento beta dal segnale delle altre eventuali fonti di radioattività naturale. Questo fa di CUORE “il metro cubo più freddo dell’Universo”.

Ecco cosa dovrebbe succedere in uno scenario positivo e idealizzato:

Nell'ipotesi che il nucleo decada con doppio decadimento beta senza neutrini, nel processo vengono emessi due elettroni. Il nucleo si trova all'interno di un materiale cristallino mantenuto a temperature dell'ordine del millesimo di Kelvin. I due elettroni uscenti dal nucleo depositano una certa energia nel cristallo, e questa energia viene captata da un detector, che a queste temperature ha la sensibilità sufficiente per distinguere l'energia degli elettroni dal rumore circostante. 
L'energia viene registrata dal detector: se essa corrisponde al calcolo teorico caratteristico del processo, allora con una buona probabilità il neutrino è una particella di Majorana!
Un gruppo di ricercatori di CUORE esegue dei controlli sulla struttura che contiene il materiale nucleare candidato per il decadimento cercato.

Ribadiamo un fatto fondamentale: se il neutrino NON è una particella di Majorana, non osserveremo mai il doppio decadimento beta senza neutrini.
Finora l’esperimento CUORE, in accordo con altri esperimenti internazionali, non ha trovato evidenza del decadimento (ultimi dati del 2020). Ciò NON esclude che i neutrini siano particelle di Majorana, perché dobbiamo ancora raggiungere la sensibilità sperimentale sufficiente (abbassare la temperatura purtroppo non basta, serve anche riuscire ad eliminare completamente il rumore ambientale che può influenzare i detector e coprire il segnale che stiamo cercando).

A fini divulgativi (almeno a un livello universitario), ho cercato di mettere assieme una guida per lo studente interessato alla questione del doppio decadimento beta e alle difficoltà sperimentali di CUORE:

Clicca qui per il download

Lo scopo era quello di fornire una referenza più completa e al contempo succinta possibile, poiché l’argomento è in continua evoluzione e ricco di letteratura specializzata (citata in bibliografia).


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Il neutrino: la particella che non dovremmo conoscere

Tutte le particelle note del nostro universo sono state da noi classificate con alcune proprietà che a nostro giudizio sono le più interessanti: la carica elettrica, la massa e lo spin.
Per studiare queste proprietà è di vitale importanza osservare il comportamento delle particelle nelle interazioni con il mondo, in particolare ci si concentra su:

  • Come interagiscono con un campo elettromagnetico: questo al fine di stimare la loro carica elettrica e la loro massa.
  • Come interagiscono con le altre particelle di un materiale noto: questo al fine di capire il particolare meccanismo di forza a cui la particella è sensibile.

Per il neutrone, elettrone, protone e tante altre particelle, questi metodi ci hanno permesso di avere delle stime molto accurate sulla loro carica elettrica, massa e spin.
Ad esempio neutrone e protone hanno quasi la stessa massa, ma il primo è neutro elettricamente: quindi il neutrone non è sensibile alla forza elettromagnetica, percepisce solo la forza forte e la forza debole (per una rapida infarinatura sulle interazioni fondamentali consulta un articolo recente cliccando qui). Il protone invece è sensibile a tutte le forze fondamentali della natura. L’elettrone non è sensibile alla forza forte, ma lo è alla forza elettromagnetica e debole. Il modo che abbiamo per scoprirlo è utilizzando i due metodi esposti sopra.

Il modo in cui studiamo le interazioni: un proiettile di particelle viene mandato contro un bersaglio. Dopo aver interagito con il bersaglio, le particelle vengono rivelate con un rivelatore. Grazie a calcoli teorici, si può capire che tipo di interazione hanno fatto le particelle nel materiale, ad esempio in base all’angolo di uscita.

Tra tutta la zoologia di particelle, il neutrino è senza dubbio la più seccante.

Immagina se dovessimo studiare le proprietà di una particella che risponde molto male ai nostri metodi di indagine. Una bella gatta da pelare! Una particella parecchio seccante è proprio il neutrino: il primo metodo è inefficace in quanto il neutrino è neutro, mentre il secondo metodo è frustrante in quanto il neutrino interagisce pochissimo con la materia che lo circonda:

In media, un neutrino interagisce una sola volta dopo aver percorso 100 miliardi di volte un diametro terrestre.

In sintesi: il neutrino si comporta come un fantasma in grado di attraversare i muri: non c’è peggior comportamento che una particella possa avere, se il fine è quello di studiare come interagisce!

“Siamo sicuri che questo neutrino esista? Come fanno i fisici a studiare una cosa che non si lascia studiare e poi affermare che esiste con certezza?"

Questo è l’aspetto più frustrante: non possiamo fare a meno del neutrino: per una giustificazione storica dell’esistenza del neutrino clicca su questo articolo. I neutrini sono stati scoperti sperimentalmente e vengono studiati con cura dagli anni ’50, questo perché sono state impiegate sorgenti che emettono grandi quantità di neutrini: in questo modo si contrasta la scarsa probabilità di interazione con l’enorme numero di proiettili. È la stessa filosofia di comprare un centinaio di “gratta e vinci” per aumentare le chances di pescarne almeno uno vincente.

I neutrini interagiscono così poco perché sono sensibili (per quanto ne sappiamo oggi) a un solo tipo di interazione che sfortunatamente è la più debole di tutte (alle energie tipiche degli sperimenti), non per niente si chiama “forza debole“.
Ora devi sapere che dal punto di vista della relatività speciale (leggi qui e qui) ogni particella di spin 1/2 può partecipare alle interazioni in due configurazioni possibili: con il proprio spin orientato come la quantità di moto, o con lo spin orientato in direzione opposta. Il primo modo si dice destrorso, il secondo modo si dice sinistrorso.
Non esiste nessun motivo teorico per cui la configurazione destrorsa debba essere favorita rispetto alla sinistrorsa, eppure per qualche mistero l’interazione debole accoppia le particelle solo nella loro configurazione sinistrorsa (questo fatto si chiama “violazione della simmetria di parità spaziale”).

Il mistero della massa

Siccome i neutrini interagiscono solo con l’interazione debole, essi hanno di fatto un’unica configurazione che possiamo studiare sperimentalmente: quella sinistrorsa. Questo fa sorgere un dubbio dato che, come spiegato brevemente qui, una particella massiva avente lo stesso spin del neutrino dovrebbe invece manifestarsi con entrambe le configurazioni, per questione di relatività.
Se i neutrini si manifestano solo con una delle due configurazioni, potrebbero non avere massa?

Questo sospetto andava a braccetto con i dati sperimentali sulla massa del neutrino: dagli esperimenti sul decadimento beta nucleare (spiegato brevemente qui) si osservava che la massa doveva essere piccolissima, almeno un milione di volte più piccola anche di quella dell’elettrone. Se poggio e buca fa pari, i neutrini dovevano allora avere massa esattamente uguale a zero!

Invece i neutrini si sono rivelati ancora una volta una spina nel fianco, perché nel 1998 furono osservate le oscillazioni dei neutrini.
Devi sapere infatti che di neutrini ne esistono ben tre specie (sono chiamati sapori leptonici): “e, μ, τ”. Siccome si pensava che i neutrini non avessero massa, questi sapori erano ben distinti l’uno dall’altro. Nelle oscillazioni accade proprio il contrario: un neutrino può cambiare sapore con una certa probabilità, e la grande notizia è che ciò può avvenire solo se la massa del neutrino è diversa da zero!

Un neutrino può cambiare sapore con una certa probabilità dovuta alla sovrapposizione quantistica degli stati.

D’accordo, i neutrini hanno massa, ma per via degli esperimenti sul decadimento beta nucleare sappiamo che questa massa deve essere piccolissima, e dunque molto difficile da misurare (in un mondo di particelle molto più massive è difficile misurare una massa piccola). Gli esperimenti sulle oscillazioni dei neutrini evidenziano che una massa c’è, ma non ci dicono quanto vale. A dire il vero ci dicono solo quanto vale la differenza tra i quadrati delle masse. Infatti la notizia interessante è che le masse dei tre neutrini non sono identiche, anche se la differenza dei quadrati è comunque un numero molto piccolo.

Cosa potremmo desiderare di più? Siamo di fronte a particelle neutre, che interagiscono in un solo modo e pure molto debolmente, di cui non sappiamo precisamente nemmeno la massa. Inoltre queste non sono particelle rare: si stima che in ogni centimetro cubo della nostra vita ci siano almeno 300 neutrini! Sono la seconda particella più abbondante nell’universo dopo il fotone!

Il vero motivo per cui i neutrini sono frustranti

Tutte queste difficoltà della Fisica dei neutrini non sarebbero così tragiche se questi fossero particelle noiose e poco importanti. Il problema è che è vero il contrario: i neutrini prendono parte ad alcuni dei processi più importanti della storia dell’universo, dalle teorie cosmologiche fino al meccanismo di funzionamento delle Stelle, e nel fare ciò mettono a nudo la nostra ignoranza residua sul Modello Standard attuale.

Perché la forza debole viola la simmetria di parità? Perché i neutrini sono così leggeri rispetto alle altre particelle elementari? Perché i neutrini sono le uniche particelle elementari neutre? I neutrini possono coincidere con la propria antiparticella? E se sì, i neutrini possono spiegare la iniziale asimmetria tra materia e antimateria negli istanti dopo il Big Bang?

È un po’ come se queste particelle celassero la chiave per aprire le porte a una nuova teoria oltre il Modello Standard, e per via di ciò, ci fosse “reso” molto difficile lavorare con loro. In un certo senso è quasi come se l’universo cercasse di ostacolare il nostro percorso, quasi come se non dovessimo proprio sapere dell’esistenza di queste particelle, le più eccitanti della Fisica moderna.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

L’anatomia dell’equazione di Dirac

Paul A. M. Dirac, 1902-1984

In un precedente articolo abbiamo parlato della genesi dell’equazione di Dirac. Ora però mettiamo le mani nella marmellata ed eseguiamo una vera e propria dissezione dell’equazione, in ogni suo elemento chiave.

Cosa contiene

Partiamo dal capire cosa c’è dentro. Abbiamo di fronte a noi cinque simboli diversi, ciascuno con un ruolo ben preciso. Procediamo da sinistra verso destra

  • La “i”, altrimenti nota come unità immaginaria.
    Cosa è?: È un numero, proprio come anche 2 è un numero, o 13.4. L’unica differenza è che “i” ha delle proprietà speciali, infatti è l’unico numero che moltiplicato algebricamente per se stesso è capace di dare come risultato un numero negativo, cioè i2 = −1.
    Perché è presente nell’equazione?: la meccanica quantistica prevede l’utilizzo delle unità immaginarie al fine di semplificare la scrittura delle equazioni più importanti. I fisici sono pigri e preferiscono usare la notazione più comoda e diretta possibile. I “numeri complessi“ garantiscono comodità logistica. Nulla di più, nulla di meno.
  • “La matrice γμ “, nota come matrice di Dirac.
    Cosa è?: È una matrice, cioè un oggetto matematico che ha il compito di trasformare altri oggetti formati da più componenti. La trasformazione ha l’effetto di mischiare queste componenti secondo una particolare ricetta contenuta nella struttura matematica della matrice. In questo caso l’oggetto da trasformare è la funzione d’onda ψ, che nella teoria di Dirac è formata da 4 componenti.
    Perché è presente nell’equazione?: come discusso nel precedente articolo sulla genesi, le γμ sono presenti al fine di garantire la covarianza dell’equazione sotto le trasformazioni relativistiche di Einstein. (Per saperne di più sul concetto di covarianza clicca qui).
  • “La derivata parziale ∂μ” , scritta in un formato criptico e riassuntivo.
    Cosa è?: è un operatore, cioè trasforma gli oggetti proprio come una matrice, ma in aggiunta ha anche il compito di calcolare la variazione dell’oggetto in una specifica direzione dello spazio-tempo. Le direzioni dello spaziotempo sono specificate dall’indice μ=0,1,2,3 in cui μ=0 è la direzione temporale, e μ=1,2,3 sono le tre direzioni cartesiane x,y,z a cui siamo abituati.
    Perché è presente nell’equazione?: In fisica studiamo i sistemi chiedendoci come variano sotto certi stimoli. Le variazioni sono calcolate con le derivate. Le equazioni chiave della fisica sono chiamate “equazioni differenziali” perché contengono le derivate delle soluzioni che vogliamo trovare, cioè hanno il compito di descrivere l’evoluzione di un sistema chiedendoci: “sai trovare quella funzione soluzione ψ che quando varia in un certo modo descritto dall’equazione differenziale ci dà questo risultato?”. La risposta a questa domanda, matematicamente, fornisce la soluzione che permette di fare previsioni teoriche da verificare sperimentalmente.
  • “La massa m”.
    Cosa è?: è la massa della particella descritta dalla soluzione ψ.
    Perché è presente nell’equazione?: come spiegato nella genesi dell’equazione, l’equazione di Dirac è stata ricavata modellando l’equazione di Schrödinger e adattandola al caso relativistico. In tal caso l’energia di una particella ferma è proporzionale alla sua massa, come evidenziato da E=mc2: questa massa deve quindi comparire esplicitamente nell’equazione differenziale relativistica (perché l’equazione di Schrödinger coinvolge proprio l’energia della particella).
  • “La funzione d’onda ψ“, altrimenti nota come spinore di Dirac.
    Cosa è?: dal punto di vista quantistico rappresenta quella quantità matematica il cui modulo al quadrato rappresenta la densità di probabilità di trovare la particella in un certo punto dello spazio. Dal punto di vista della teoria dei campi rappresenta il campo della particella di massa m, distribuito nello spaziotempo. Le eccitazioni di questo campo vengono interpretate come la particella stessa.
    Perché è presente nell’equazione?: per trovare l’espressione matematica del campo ψ, occorre capire come si comporta quando si calcola una sua variazione. Questo è il metodo delle equazioni differenziali, e l’equazione di Dirac è un’equazione differenziale. L’equazione ci chiede di trovare la più generica ψ che rispetta una certa proprietà. Questa proprietà è evidenziata da un altro modo di scrivere la stessa equazione (portando cioè il termine di massa a secondo membro):
Un altro modo di scrivere l’equazione di Dirac.

L’equazione ci sta parlando, ci chiede di risolvere un determinato problema:

Sai trovare quella funzione ψ tale che, una volta trasformata tramite gli operatori “γμμ” e moltiplicata per il numero “i”, produce come risultato la moltiplicazione di se stessa per una costante “m”?

La risposta a questa domanda fornisce la soluzione per il campo di una particella massiva, libera da forze.

Come si interpreta

Per capire il potere concettuale di questo modo di porre i problemi, cioè quello di ricavare delle informazioni su un certo oggetto ψ studiando prima come si comporta sotto trasformazioni generate da degli operatori, è molto utile sfruttare un’analogia con il concetto di vettori.
Un vettore 2D può essere rappresentato sul piano cartesiano (x,y) come una freccia uscente dall’origine:

La rappresentazione cartesiana del vettore (1,1). Le sue componenti sono v1=1 sull’asse x, e v2=1 sull’asse y.

Ad esempio per costruire un vettore di componenti (1,1), cioè v1=1 sull’asse x, e v2=1 sull’asse y, parto dall’origine e mi sposto di 1 sull’asse x, poi mi sposto di 1 sull’asse y. Il punto in cui arrivo è la testa del vettore. Collegando la testa con la coda (cioè l’origine) ottengo una linea diagonale che chiamo “vettore”.
Un vettore può essere trasformato da una matrice usando la seguente ricetta di composizione:

Il risultato della trasformazione di un vettore è un nuovo vettore le cui componenti possono essere ottenute dalla ricetta contenuta nella matrice.

Il vettore trasformato ha le sue componenti che nascono mischiando le componenti del vettore di partenza, secondo una particolare ricetta descritta dalla matrice-operatore.
Anche il non fare niente è una trasformazione: prende il nome di matrice identità, la sua azione mi fa ottenere di nuovo il vettore di partenza. Puoi verificare anche tu con la ricetta data sopra che il seguente calcolo lascia invariato il vettore di partenza:

La matrice identità lascia il vettore invariato.

Infatti in questo caso l’operatore è tale che a1=1, a2=0, a3=0, a4=1, e sostituendo nella ricetta di sopra otteniamo proprio che il vettore rimane invariato.
Una trasformazione meno banale può invece essere una riflessione, descritta da:

La riflessione del vettore produce un vettore con la componente y invertita di segno.

Puoi verificare il risultato pure tu usando la solita ricetta. Graficamente abbiamo invertito la componente verticale del vettore, come si vede sul piano cartesiano:

La riflessione di un vettore produce un vettore diverso, speculare rispetto al primo.

L’equazione di Dirac si presenta, come accennato, nella seguente veste:

La quale ricalca fortemente il modo in cui trasformiamo i vettori. In questo caso la ricetta prescritta dall’equazione è molto specifica: la trasformazione di ψ è tale da restituire come risultato la ψ stessa, moltiplicata per la massa m. Dal punto di vista matematico, questa richiesta può permetterci di trovare la ψ in maniera non ambigua.


NB: non a caso ψ soddisfa un’equazione con una struttura simile alle equazioni vettoriali con le matrici. Infatti ψ sono oggetti parenti dei vettori, chiamati spinori di Dirac. La differenza fondamentale con i vettori è legata al modo in cui trasformano sotto trasformazioni di Lorentz, come accennato in questo articolo.

Come si usa

Per dare un assaggio di come si affronti una situazione in cui si deve risolvere l’equazione di Dirac, scegliamo la situazione più semplice possibile: il caso di una particella libera e ferma rispetto a noi.
Prima permettimi di trasformare l’operatore “γμμ in una sua forma più agevole matematicamente:

In meccanica quantistica l’operatore μ può essere espresso in termini della quantità di moto “p” della particella. Per ora prendi questa affermazione come un “ipse dixit”, non è questo il luogo e il momento per giustificarla. L’equazione di Dirac può quindi essere scritta come

L’equazione di Dirac espressa con la quantità di moto.

In cui esplicitiamo una volta per tutte il fatto che con γμpμ intendiamo una somma che per pigrizia non avevamo voglia di esplicitare prima

La somma ha il segno negativo nelle componenti spaziali per via della struttura dello spaziotempo della relatività ristretta di Einstein.

Le quantità γ123 sono tutte matrici di Dirac che non ci interessano perché noi supponiamo che la particella sia ferma rispetto a noi, quindi le componenti spaziali della quantità di moto sono nulle, cioè px=py=pz=0. La “quantità di moto” di indice p0 è invece solo un modo lezioso di chiamare l’energia totale della particella. Nel caso di particella a riposo l’energia è, com’è arcinoto:

m è la massa della particella, c è la velocità della luce.

Da ora in poi porremo c=1 per pigrizia, dato che questa scelta non cambia di sicuro la fisica del problema. L’equazione di Dirac si traduce in

che ha la stessa identica forma delle equazioni con i vettori studiate sopra. Le quantità scritte hanno le seguenti espressioni esplicite

Lasciando agire γ0 su u(p) otteniamo

L’effetto di γ0 su u(p) è quello di capovolgere le sue componenti. Puoi verificare usando la regola di composizione matrice-vettore.

Eguagliando questo risultato con u(p) stesso, come ci dice di fare l’equazione di Dirac, scopriamo di dover risolvere il seguente sistema a due incognite

il quale ha la soluzione ovvia u1=u2: una particella di Dirac ferma rispetto a noi ha uguali componenti spinoriali. La soluzione può essere scritta sostituendo u1=u2 e invocando la struttura di onda piana (che è ovviamente soluzione, ed è evidenziata dall’esponenziale contenente quantità di moto e coordinate spaziali):

Da questa espressione si evince che in realtà lo spinore che abbiamo trovato è composto da altre due componenti aggiuntive. In realtà ti ho ingannato tutto il tempo per salvare la semplicità concettuale: uno spinore di Dirac è un oggetto a quattro dimensioni, non due. Tuttavia può essere visto come un oggetto di due componenti, le quali sono a loro volta composte da altre due componenti, per un totale di quattro. La matematica è molto simile e si presta bene a questo inganno.


Una volta ottenuta la soluzione per la particella ferma si può effettuare una trasformazione di Lorentz per osservarla in movimento e derivare così la soluzione più generica per una particella libera.

“Però io credevo che il mondo della Fisica fosse costellato da interazioni tra particelle. Che utilità hanno le soluzioni di particella “libera" senza interazioni?"

Giusta osservazione. Le soluzioni di particella libera in realtà sono ottime approssimazioni per trattare processi in cui le particelle arrivano a collidere e poi si allontanano: nei due stati iniziale e finale possiamo considerare le particelle come libere, ed usiamo la soluzione molto semplice dell’equazione di Dirac per descriverle. L’interazione viene trattata in maniera perturbativa considerando piccoli contributi delle interazioni, basandoci sempre sulla soluzione libera.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

La genesi dell’equazione di Dirac

L’equazione d’onda relativistica dell’elettrone rappresenta uno dei trionfi più importanti della scienza del XX secolo.

Nota come “equazione di Dirac”, dal nome del suo scopritore Paul Dirac, essa costituisce la base di tutta la Chimica e di quasi tutta la Fisica moderna.

Trovo molto interessante provare a riavvolgere il filo del pensiero di Dirac, immedesimandoci in lui quando in una fredda serata a Cambridge nel 1928 arrivò a scrivere la sua equazione dopo essere stato tanto tempo seduto a fissare il caminetto (o così dice la leggenda).

Innegabilmente l’equazione di Dirac vanta una certa eleganza estetica, ed è per questo motivo bersaglio di una sempre crescente mercatizzazione (non è raro trovarsela stampata sulle tazze o sulle magliette).
Trovo anche io difficile resistere al suo fascino e decido quindi di raffigurarla qui in bella vista, prima di iniziare l’articolo:

L’equazione di Dirac descrive una particella libera (relativistica) di spin 1/2.
Piccolo suggerimento: prima di procedere può essere utile dare un'occhiata a due articoli più introduttivi come questo e questo. Se non ne hai voglia ora, li citerò comunque nel prosieguo, inserendoli nei punti chiave in caso tu voglia approfondire.

Schrödinger: le particelle libere come onde piane

Nel 1926 Schrödinger aveva illustrato al mondo che le particelle quantistiche potevano essere descritte da funzioni d’onda la cui forma funzionale era fissata dalla soluzione dell’equazione

In questa equazione ψ è la funzione d’onda che vogliamo trovare, e H rappresenta l’interazione tra particella e il mondo circostante. Questa interazione, agendo su ψ nel membro di destra, produce una variazione nel tempo della ψ stessa, come evidenziato nel membro di sinistra col simbolo di variazione nel tempo ∂/∂t lasciato agire su ψ.
Per una particella libera (cioè senza interazioni con il mondo circostante, o con interazioni così deboli da poter essere trascurate rispetto all’energia cinetica della particella), l’equazione di Schrödinger ha una soluzione semplicissima: un’onda piana

Se non sei familiare con quella forma curiosa per l’energia cinetica ti basti sapere che partendo da 1/2 m v2, questa può essere riscritta in una forma più conveniente sostituendo la quantità di moto p=mv.

In che senso “più conveniente”? In meccanica quantistica si usano gli operatori, che sono oggetti matematici che trasformano le funzioni d’onda in un certo modo. Non tutte le quantità a cui siamo abituati classicamente sono dei buoni operatori. La quantità di moto è un operatore che sappiamo maneggiare bene nei calcoli, al contrario della velocità che è mal definita.

L’energia relativistica, un passo oltre Schrödinger

Nel 1905 Einstein rivoluzionò la meccanica newtoniana con la teoria della Relatività Ristretta. Una delle conseguenze fu la correzione all’energia totale di una particella libera. La forma newtoniana prevedeva, come abbiamo visto, E= p2/2m. In realtà questa non è altro che l’approssimazione della versione einsteiniana una volta che consideriamo velocità molto più basse di quelle della luce, in cui si ha:

In queste formule “m” è la massa della particella, “p” la quantità di moto e “c” la velocità della luce.
A basse velocità otteniamo di nuovo la formula newtoniana per l’energia.

Le energie di legame atomiche sono solitamente così piccole da far sì che le particelle si muovano a velocità molto più basse di quella della luce. L’equazione di Schrödinger era stata creata proprio per descrivere i processi atomici, quindi all’inizio nessuno si preoccupò che non fosse relativistica, c’erano problemi ben più importanti da risolvere.
Se invece si indaga sulla scala subatomica si scopre che bisogna tenere conto delle correzioni relativistiche, proprio perché stavolta aumenta l’energia in gioco.
La strategia più naturale per rendere relativistica l’equazione di Schrödinger è quella di sostituire la vecchia forma di H con la formulazione relativistica:

La forma relativistica dell’equazione di Schrödinger.

Il problema è che, come anticipato prima, in meccanica quantistica la quantità di moto è un operatore, ed è problematico definire la radice quadrata di un operatore. Come superiamo questo ostacolo?

La Klein-Gordon e i suoi problemi

L’approccio proposto da Klein e Gordon per eliminare la radice fu quello di calcolare la variazione temporale di entrambi i membri dell’equazione relativistica, applicando ∂/∂t a sinistra e a destra

In questo conto è fondamentale sapere che l’unità immaginaria “i” è definita in modo che i2=-1

A sinistra abbiamo quindi una doppia derivazione rispetto al tempo, mentre a destra (siccome H è costante nel tempo) otteniamo ψ/∂t, alla quale possiamo sostituire l’equazione di Schrödinger stessa. Con questo piccolo trucco otteniamo che la radice quadrata sparisce.
Ora per semplificare i conti che seguiranno scegliamo di lavorare con delle unità in cui ħ=c=1 e facciamo un cambio di variabili, l’equazione di sopra diventa l’equazione di Klein-Gordon:

L’equazione di Klein-Gordon scritta in una forma più simpatica all’occhio.

L’equazione di Klein-Gordon fu il primo tentativo di relativizzare l’equazione di Schrödinger. La soluzione di questa equazione è ancora un’onda piana per una particella di massa m, solo che a differenza di prima la forma dell’equazione è immediatamente covariante sotto trasformazioni di Lorentz, in quanto P2 e m2 sono degli scalari di Lorentz: in sostanza il principio di relatività è automaticamente soddisfatto (mentre non lo era nell’equazione di Schrödinger).

Dove sta la fregatura?

L’aver mandato via la radice quadrata ha sollevato un problema irritante: l’evoluzione temporale nell’equazione di Schrödinger era espressa da un termine di primo grado ψ/∂t, mentre ora nella Klein-Gordon è espressa da un termine di secondo grado (∂2ψ/∂t2), e ciò fa sì che la densità di probabilità possa ora assumere valori non solo positivi, ma anche negativi o nulli.

Infatti i moduli quadri delle funzioni d’onda (che per la regola di Born rappresentano le densità di probabilità) possono essere calcolati tramite una particolare “ricetta” che dipende in una maniera molto precisa dal tipo di equazione dinamica da cui si parte. Si dà il caso che la “ricetta” ereditata dall’equazione di Klein-Gordon sia difettosa rispetto a quella dell’equazione di Schrödinger.
Ciò fa perdere di significato fisico tutta la struttura matematica della nostra teoria, una bella gatta da pelare!

Non c'era via di uscita? È questo il prezzo da pagare per aver cercato di introdurre la relatività nella meccanica quantistica?

L’illuminazione di Dirac

Per dei motivi che oggi non sono più rilevanti, Dirac era fortemente preoccupato dal problema della densità di probabilità nella Klein-Gordon. Per questa ragione si ossessionò al punto da forzare la matematica stessa: voleva abbassare l’ordine delle derivate temporali dal secondo grado al primo grado a tutti i costi, pur mantenendo un’equazione relativisticamente permessa. Nella sua mente la forma prediletta doveva essere, per ragioni relativistiche e di “eleganza”

In cui γ0 è un termine per ora indeterminato. Questa equazione doveva comunque essere collegata alla Klein-Gordon in qualche modo, perché questa garantisce l’invarianza relativistica. L’illuminazione arrivò quando fu colto il seguente parallelismo con la differenza algebrica dei quadrati a2-b2

dove le γμ sono degli oggetti per ora ignoti, e la notazione va intesa nel modo seguente:

j=1,2,3 indica le tre direzioni cartesiane x,y,z. Quindi x1=x , x2=y , x3=z. γP è quindi solo un modo rapido di scrivere quella somma di termini, comprendenti tutte le direzioni spaziali cartesiane.

Affinché valga l’uguaglianza con la Klein-Gordon tramite la differenza dei quadrati le misteriose γμ devono soddisfare

in cui ημν è la metrica dello spazio-tempo della relatività ristretta. Infatti per avere uguaglianza deve essere

e questa condizione può essere soddisfatta solo se vale la relazione scritta sopra, che lega la metrica ημν con gli oggetti γμ.

La richiesta di un’equazione con derivata temporale al primo ordine ha quindi generato due possibili equazioni relativistiche:

le quali descrivono particelle aventi energia di segno “opposto” (per saperne di più sulla questione dell’antimateria e l’equazione di Dirac clicca qui).

L’uguaglianza del loro prodotto con la Klein-Gordon impone poi che gli oggetti γμ debbano essere delle matrici quattro-dimensionali con delle ben determinate regole di composizione legate alla metrica dello spaziotempo. Non solo, la forma matematica di queste equazioni impone che la funzione d’onda ψ trasformi in una maniera ben precisa sotto trasformazioni di Lorentz.

Fu la prima volta nella storia della Fisica in cui una richiesta di struttura visiva della matematica portò a scoprire un’intera classe di nuovi oggetti matematici.

Tornando alla notazione con le derivate scritte in una forma più elegante:

otteniamo la forma dell’equazione di Dirac che si stampa sulle magliette:

È cruciale il fatto che ora possiamo interpretarla proprio come una sorta di decomposizione della Klein-Gordon per far sì di ottenere solo derivate di primo grado nel tempo. Nonostante ciò, è in realtà è più proficuo (dal punto di vista teorico) interpretare questa equazione come l’equazione del moto di una teoria di campo costruita per le particelle che trasformano come una rappresentazione di spin 1/2 sotto trasformazioni di Lorentz (se vuoi saperne di più sul perché classifichiamo le particelle come rappresentazioni di spin clicca qui).


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg


Perché è stato necessario teorizzare il bosone di Higgs? Demistificando la rottura di simmetria

Sono passati quasi 10 anni, e il bosone di Higgs rimane ancora l’ultima grande scoperta del CERN.
Per molti ciò ha chiuso un capitolo della fisica delle particelle, in quanto l’Higgs rappresentava l’ultimo pezzo del puzzle del Modello Standard, la teoria che ad oggi descrive tutto il mondo subatomico.

Il Modello Standard con tutte le particelle e i bosoni mediatori

Tuttavia rimane ancora un po’ di “misticismo” attorno al ruolo teorico giocato da questa particella, che è stata impropriamente soprannominata “la particella di Dio” in più occasioni. Il suo ruolo dovrebbe essere quello di “dare massa” alle particelle del Modello Standard, ma in che senso ciò avviene? E perché serve proprio il campo di Higgs per dare massa a un qualcosa che la massa (nel nostro immaginario) ce l’ha già di per sé?

Il campo di Higgs (da cui nasce il suo bosone come fluttuazione quantistica) non descrive un’interazione fondamentale, e non ha radici teoriche nei princìpi primi.
Ma allora, perché non potevamo fare a meno di teorizzarlo?

In realtà il campo di Higgs è uno strumento teorico che permette il funzionamento di un meccanismo ben preciso. La rivelazione sperimentale del bosone ha solo confermato che il meccanismo è stato azzeccato appieno.

Al contrario delle interazioni fondamentali, il campo di Higgs non è venuto a cercarci, siamo stati noi a invocarlo per poi verificarne l’esistenza

Vediamo quali sono i punti concettuali che hanno fatto sorgere l’esigenza del meccanismo di Higgs.

L’elettrodinamica e le simmetrie: squadra che vince non si cambia

Tra le quattro forze fondamentali, la prima che fu spiegata con una teoria quantistica di campo fu l’elettromagnetismo. Come spiegato in un precedente articolo, si scoprì negli anni ’30 che il modo più semplice per descrivere l’interazione elettromagnetica tra le particelle era quello di richiedere che la teoria fosse simmetrica sotto una particolare trasformazione che chiamiamo “θ“.
Il campo elettromagnetico è noto, nel gergo tecnico, come campo di gauge. I campi di gauge trasformano in una maniera particolare sotto la “θ“, in modo da far sì che le equazioni del moto (e quindi la Fisica del sistema) rimangano invariate.
D’altro canto, gli oggetti che compongono la teoria quantistica delle particelle (cioè i campi) non lasciano invariata la Fisica del sistema una volta che li trasformiamo sotto la “θ“. La trasformazione produce purtroppo dei pezzetti in più, e la teoria non è quindi invariante. Un modo per cancellare i pezzetti in più è quello di accoppiare il campo di gauge con il campo della particella.

La cosa stupefacente è che questo accoppiamento è perfettamente sufficiente per descrivere tutti i fenomeni di interazione tra le particelle con la teoria. Il mediatore dell’interazione diventa proprio il campo di gauge.

Abbiamo ottenuto un’interazione a partire da una questione che apparentemente non c’entrava proprio nulla, e cioè la richiesta di simmetria sotto una certa trasformazione.

Il meccanismo con cui otteniamo le interazioni in teoria quantistica dei campi

Il campo mediatore tra le particelle per una teoria di campo che conservi la carica elettrica (la quantità conservata sotto la trasformazione “θ“) è proprio il campo elettromagnetico, il cui bosone (cioè le oscillazioni del campo) è noto come fotone.

Questa tecnica di accoppiamento con un campo di gauge funzionò così bene che oggi l’elettrodinamica quantistica è ritenuta essere la teoria scientifica meglio testata di sempre.

Nel momento in cui si presentò il problema di descrivere le altre due interazioni subatomiche, cioè l’interazione debole e l’interazione nucleare forte, si decise di seguire un vecchio motto: squadra che vince non si cambia. Si cercò quindi di scrivere una teoria di campo per le interazioni a partire da princìpi di simmetria e introducendo altri campi di gauge.

L’interazione debole e il problema della massa

Per garantire la simmetria della teoria, il campo di gauge deve godere di una caratteristica fondamentale: i suoi quanti di eccitazione (cioè i suoi bosoni), devono avere massa nulla. Se il campo di gauge ha massa, non si può garantire la simmetria della teoria quantistica con la tecnica esposta sopra. Fortunatamente questa condizione è soddisfatta dal fotone, il quale ha notoriamente massa nulla.
Ma non è detto che saremo sempre così fortunati.

C’è infatti una differenza sostanziale tra interazione elettromagnetica e interazioni deboli: la prima è a raggio di azione infinito, mentre le seconde sono confinate alle dimensioni nucleari. Come spiegato in un precedente articolo, ciò significa che i bosoni mediatori delle interazioni deboli devono essere massivi, al contrario del fotone elettromagnetico, che non ha massa. Quindi se dovessimo introdurre dei campi di gauge per costruire una teoria dell’interazione usando la tecnica della simmetria, questi dovrebbero essere massivi, ma allora dovremmo sacrificare la simmetria, e quindi anche le quantità conservate che da essa derivano.

Si arrivò a un punto in cui si ritenne che il principio di simmetria di gauge fosse indispensabile per descrivere le interazioni fondamentali, quindi le teorie del Modello Standard vennero scritte usando campi di gauge senza massa, così come le particelle coinvolte.
Che cosa da pazzi, sacrificare la massa pur di avere la simmetria!

Il colpo di genio fu quello di immaginare che i bosoni di gauge, così come le particelle, acquisissero massa spontaneamente, con un particolare meccanismo alle basse energie

L’approccio è simile a quello che si usa quando si studia il moto di una particella massiva avente energia relativistica “E” data da:

“p” è la quantità di moto della particella, “m” è la sua massa.

Una particella senza massa ha energia data da “E=pc” (le particelle senza massa possono trasportare quantità di moto, come dimostrato dalle vele solari che sfruttano la pressione di radiazione). Tuttavia anche una particella massiva con grande quantità di moto può essere pensata in prima approssimazione come una particella a massa nulla

La massa può essere trascurata dentro la radice, se la quantità di moto è molto più grande di lei.

L’intenzione era quindi quella di teorizzare le interazioni fondamentali usando particelle senza massa ad alte energie, in modo da garantire la simmetria di gauge. Alle basse energie le masse sarebbero dovute emergere naturalmente, senza appiccicarcele manualmente, perché tale intervento romperebbe la simmetria di gauge accuratamente costruita. Serviva un particolare escamotage teorico affinché questo funzionasse.

Si decise di lasciare che la simmetria si rompesse da sola, spontaneamente, usando un escamotage teorico

Lungo e corto raggio: un’analogia per la rottura di simmetria

Per capire il meccanismo della rottura spontanea di simmetria a livello intuitivo, facciamo un’analogia con un sistema fisico più intuitivo, caratterizzato da una grossa simmetria.
Consideriamo il reticolo di un ferromagnete: ogni molecola del reticolo può essere pensata, per convenienza di ragionamento, come una bussola il cui “ago magnetico” punta, in una configurazione di minima energia, nello stesso verso del campo magnetico locale. Ciò succede se supponiamo che ogni ago magnetico sia a sua volta una sorgente di magnetismo e che riesca a interagire con gli aghi magnetici vicini al suo sito.
L’allineamento è contrastato dall’agitazione termica:

  • Ad alte temperature l’orientamento degli aghi magnetici è casuale, perché l’agitazione termica è ben più forte delle interazioni locali. In media troveremo tanti aghi allineati in un verso, quanti ne troveremo allineati in verso opposto, il risultato netto è una magnetizzazione nulla.
  • A basse temperature la configurazione di minima energia è quella in cui tutti gli aghi sono allineati nello stesso verso e il materiale acquista una magnetizzazione media diversa da zero.

Quale delle due situazioni ha maggiore simmetria geometrica? Si tenderebbe a pensare che sia la seconda, dato che siamo abituati a pensare la simmetria come un “grado di ordine” delle cose. Per lo stesso motivo potremmo sostenere che l’acqua sia più simmetrica quando si solidifica in ghiaccio, rispetto alla sua fase liquida.
In realtà la simmetria va pensata come segue:

“Io eseguo una trasformazione mentre tu chiudi gli occhi, quando li riapri possono succedere due cose: se vedi che il sistema è uguale a prima, allora la trasformazione era una simmetria del sistema, se invece vedi che il sistema è cambiato, quella trasformazione non era una simmetria.”


Il moto delle particelle agitate termicamente è molto più simmetrico, perché possiamo eseguire qualsiasi rotazione geometrica e il sistema rimarrà uguale a se stesso (nel nostro esempio continueranno a esserci tanti aghi magnetici allineati in qualsiasi direzione, con un risultato netto nullo). Le molecole sono così tante e in una disposizione così caotica che non avremmo modo di accorgerci di qualsiasi rotazione attorno a qualsiasi asse.

A sinistra un dipinto caotico di Marc Quinn, a destra lo stesso dipinto ruotato di 180 gradi. Difficile notare la differenza, eh?

Se ora abbassiamo la temperatura il sistema si “irrigidisce” e perde molta simmetria, gli aghi magnetici si dispongono in una situazione di energia minima allineandosi tutti, e ora una rotazione manda il sistema in se stesso solo se la eseguiamo attorno all’asse di magnetizzazione.

Il sistema ha ridotto spontaneamente la simmetria iniziale una volta scelto lo stato energetico più basso!

La simmetria non viene però semplicemente rotta e dispersa, ma viene tradotta in una certa libertà: l’allineamento degli aghi può comunque avvenire in qualsiasi direzione dello spazio in maniera casuale. Il sistema può scegliere di allinearsi lungo tantissime direzioni diverse, tuttavia una volta scelta un’orientazione si stabilizza solo in quella e in nessun’ altra. La simmetria è rotta dalla particolare scelta dell’orientamento, ma tale scelta è comunque casuale per via della simmetria globale iniziale.

In figura sono mostrati due stati di minima energia tra i quali il sistema può scegliere. Questi due stati sono differenziati da una rotazione simultanea di tutti gli aghi magnetici, ma il livello energetico è lo stesso

Non costa energia trasformare uno stato di minima energia in un altro alla stessa energia

Nel gergo della fisica teorica, se una certa interazione non costa energia, può essere descritta da un quanto di vibrazione senza massa.
Che succede se invece di ruotarli tutti assieme, ruotiamo un solo aghetto magnetico rispetto agli altri? Questo ci costerà energia! Invece nello stato di massima energia questa azione non sarebbe costata così tanta energia, per via dell’agitazione termica. Ora è come se l’interazione fosse descritta da un modo di vibrazione massivo.
Il motivo è che costa più fatica portare in cima a una collina una massa più grande rispetto a una massa più piccola. Se la massa più piccola diventa nulla, costerà nessuna fatica muoverla nel campo gravitazionale.

I modi di vibrazione che erano senza massa ad alta energia, diventano massivi a bassa energia.

L’accoppiamento con il campo di Higgs

La grossa simmetria di gauge del Modello Standard alle alte energie è composta da tre simmetrie principali, che vengono indicate con dei nomi simpatici a cui non devi badare troppo:

La simmetria di gauge del Modello Standard

Alle alte energie le interazioni deboli sono un tutt’uno con le interazioni elettromagnetiche, e in totale l’interazione elettrodebole risultante è descritta da quattro campi di gauge senza massa.
Tuttavia le interazioni deboli devono prevedere dei bosoni di gauge massivi, per fare previsioni sperimentali accurate.
Per salvare le simmetrie di gauge e al contempo avere dei bosoni di gauge massivi, i fisici teorici decisero di introdurre un’interazione ad hoc con un campo chiamato “campo di Higgs”, caratterizzato da un potenziale a forma di cappello messicano:

Il potenziale del campo di Higgs. Sulla cima del cappello l’energia è maggiore che sulla valle. Tutti i punti della valle sono alla stessa energia,.

Possiamo immaginarlo di nuovo come una collina: ciascuna particella sulla sommità preferirà rotolare verso il basso e stabilizzarsi in una situazione di minima energia. Il campo di Higgs può assumere spontaneamente una valore di minimo in ogni punto della valle nel cappello messicano.
Siccome nella teoria quantistica dei campi i valori medi sono un’indicazione del numero di particelle in un determinato stato, possiamo dire che la sommità del cappello rappresenta uno stato poco popolato con valore medio nullo del campo di Higgs, mentre la valle è uno stato densamente popolato con valore medio diverso da zero per il campo di Higgs. Popolato da chi? Da bosoni di Higgs, cioè i quanti di eccitazione del campo. Questo è analogo alla magnetizzazione degli aghi magnetici, che aveva valore medio nullo alle alte energie, mentre alle basse energie acquisisce un valore medio diverso da zero.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Se ora accoppiamo il campo di Higgs con i campi del Modello Standard, cioè sia i campi di gauge che i campi delle particelle, abbiamo una rottura spontanea di simmetria alle basse energie.
L’accoppiamento va scelto saggiamente, perché vogliamo far acquisire massa solo ai bosoni dell’interazione debole. Per far ciò possiamo costruire il campo di Higgs in modo che trasformi come un oggetto appartenente allo spazio di simmetria SU(2), che è la simmetria caratteristica dell’interazione debole.

La simmetria iniziale di gauge da cui siamo partiti viene ora utilizzata per scegliere una posizione qualsiasi sul cappello messicano. Infatti ricordiamo: una trasformazione dei campi di gauge non cambia la fisica, e questa libertà può essere utilizzata per scegliere una determinata configurazione in cui l’universo andrà a sostare.
Ciò è analogo al modo in cui gli aghi magnetici erano liberi (per via della simmetria iniziale) di scegliere un’orientazione privilegiata a basse temperature, ed una volta scelta, si stabilivano lì.

L’accoppiamento tra i campi di gauge e il campo di Higgs fa sì che ora non tutte le direzioni di movimento sul cappello messicano siano gratuite: se volessimo risalire lungo la collina ci costerebbe un po’ di energia. Questo costo in energia viene interpretato come un modo di vibrazione massivo. I bosoni delle interazioni deboli, tramite un particolare formalismo matematico, si mischiano tra di loro per via di una particolare scelta della configurazione nello spazio della simmetria iniziale ed acquisiscono massa. Con un altro speciale tipo di accoppiamento acquisiscono massa anche le particelle del Modello Standard!

Siccome la “rottura” di simmetria avviene spontaneamente alle basse energie, abbiamo salvato la simmetria iniziale alle alte energie e le teorie di campo hanno una forma elegante e sperimentalmente solida.

Una visualizzazione pittorica del campo di Higgs e delle particelle frenate da questo “fluido universale”.

In un certo senso il campo di Higgs può essere pensato come un fluido che permea l’universo, e in questo fluido le particelle senza massa (che si muoverebbero alla velocità della luce) vengono “frenate” dal campo di Higgs come se ci fosse un certo attrito, che è il risultato dell’accoppiamento.
Il risultato è che le particelle non si muovono più alla velocità della luce, perciò hanno una massa ben precisa, predetta dal meccanismo di Higgs.

Il risultato del mixing dei campi di gauge dopo la rottura di simmetria corrisponde a tre bosoni di gauge massivi e uno senza massa.
I tre bosoni massivi corrispondono ai mediatori dell’interazione debole alle basse energie, mentre il bosone senza massa corrisponde a quello dell’elettromagnetismo, cioè il fotone.

La verifica sperimentale della massa del bosone di Higgs ha permesso di verificare con grande precisione tutte le previsioni sulle masse dei bosoni dell’interazione debole e sulle masse delle particelle del Modello Standard (con poche eccezioni come i neutrini, che rimangono ancora oggi un grande mistero).

Che mondo imperfetto sarebbe se ogni simmetria fosse perfetta!

B.G. Wybourne

PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Perché scrivo guide per lo studente e l’importanza di condividere ciò che si impara

Ho passato buona parte di novembre appresso al feroce bisogno di approfondire una mantra che ho sentito spesso dai miei docenti di alcuni corsi di teorica che sto seguendo:

"Fermi scrisse la teoria del decadimento beta usando un vertice a quattro fermioni, fate il conto e ricavatevi la costante di accoppiamento dalla vita media." 

Una nota di background: nei principali corsi teorici della mia facoltà è riservato poco spazio alla teoria elettrodebole, per cui uno studente tra il primo e il secondo anno (come me) ha a disposizione giusto una buona base sulla seconda quantizzazione e teoria dello scattering, con alcune nozioni qua e là di fenomenologia di fisica delle particelle.

Riguardo al conto per il decadimento beta di Fermi ho pensato tra me e me:

"Ok, suppongo si possa fare, è un decadimento fermionico che posso trattare con il formalismo della matrice S che ci hanno insegnato a Teorica 1. Scrivo gli operatori di creazione etc. etc." 
Io, impegnato nel non capire in che modo strutturare un discorso sull’argomento che sto studiando, in un triste quadro novembrino.

Il tempo di poggiare la penna sul foglio e vengo travolto da un turbinio di dubbi, non tanto sui conti, quanto più su cosa stessi davvero facendo: ho realizzato che il formalismo della matrice S funziona bene per le particelle asintoticamente libere, ma se voglio descrivere le particelle nucleari che decadono, come posso fare? Da qui è iniziata una ricerca che mi ha portato ad analizzare per intero l’articolo originale di Fermi, per scoprire che i miei dubbi erano comunque fondati: non posso trascurare i nuclei! E subito sorgono nuovi dubbi: ma allora il conto a quattro fermioni che processo calcola esattamente? Il decadimento del neutrone libero? Ma la costante non torna mica! E poi, come si è passati dalla teoria di Fermi alla teoria elettrodebole? In che senso la teoria di Fermi è una Effective Field Theory della elettrodebole, e in che modo questa descrive i processi nucleari con il formalismo che si usa oggi? La ricerca di risposte a queste domande mi ha portato sui libri specialistici in teoria elettrodebole, dove però era dedicato decisamente poco spazio alla costruzione di un percorso pedagogico.

È molto probabile che la mia ossessione per la necessità di avere una struttura pedagogica da seguire per poter capire un argomento sia una cosa un po’ stupida e inutile, ma sono fatto così:

Per capire le cose ho necessità che mi venga spiegato non solo come funzionano, ma anche perché gli umani le hanno fatte funzionare in quel modo e non in un altro.

Questa sidequest ha occupato la maggior parte delle mie giornate di quest’ultimo mese, portandomi a una realizzazione:

“Tutto questo poteva essere enormemente semplificato da una trattazione più organica e rivolta a uno studente con il mio stesso background".

Mi sono quindi immaginato:

"E se qualcuno si fosse messo a scrivere un bel riassunto introduttivo di tutto quello che concerne la teoria di Fermi fino alla teoria elettrodebole, in modo da farmi fare in poche ore quel sentiero concettuale che ho sviluppato in tutti questi giorni?"

Non trovando nulla in merito, ho deciso di farlo io. Il risultato è “Guida per lo studente al calcolo di Fermi sul decadimento β“, in cui esploro e commento il famoso articolo del 1934 di Enrico Fermi, e lo analizzo da un punto di vista degli strumenti matematici che vengono insegnati nei corsi universitari introduttivi di fisica teorica, cercando di costruire un percorso pedagogico fino ad arrivare a un cenno sulla teoria elettrodebole e al concetto di Effective Field Theory.

Guida per lo Studente al calcolo di Fermi sul decadimento β

Clicca per il download

Perché è importante condividere ciò che si impara, oggi più che mai

Gestisco questo blog da ormai 6 anni, cioè fin da quando ero in quarta liceo, e lo scopo è sempre stato lo stesso: voglio scrivere delle note/appunti approfonditi che desidererei dare al me stesso del passato per fargli fare meno della metà della fatica che ha fatto effettivamente per costruire il ragionamento logico. Ho notato con piacere che negli anni questi sforzi sono stati apprezzati da altri studenti che erano curiosi di imparare gli stessi argomenti, come evidenziato dal numero di download sempre crescente negli anni.

In questo senso coltivo un ambizione probabilmente poco realistica: desidererei che partisse un movimento di scambio culturale tra studenti, volto a condividere ciò che si impara.
Sia chiaro non basta condividere lo straccio dei propri appunti scritti a penna, ma serve una vera e propria esposizione pedagogicamente strutturata e studiata per toccare le corde giuste nella mente di chi legge, con lo scopo di far suonare tanti “eureka” nella sua testa. In questo modo tutti assieme si potrebbe imparare a più del triplo della velocità ed efficienza, e si verrebbe a creare un vero e proprio circolo intellettuale tra studenti.

Questo discorso diventa sempre più importante man mano che la scienza progredisce, perché inevitabilmente nessuno ha più il tempo materiale di specializzarsi anche solo su una frazione delle numerosissime branche di un campo scientifico. La necessità di semplificare i percorsi di apprendimento, condividendo ciò che si impara, è oggi più urgente che mai.

Perché fare questo invece di affidarsi solo ai libri di testo universitari?

Semplicemente perché la conoscenza è strutturata in diversi livelli di comprensione, dal livello zero al livello “esperto”; inoltre vale la regola generale che:

Non sempre il libro che stai studiando è sintonizzato con il tuo livello di apprendimento attuale.

Il risultato? Una fatica immensa.

Ciò che penso è questo:

Se io voglio capire un argomento “x” appartenente a un insieme di concetti “X” del quale ho comunque un minimo di background, non è necessario che la persona che arrivi a spiegarmi “x” sappia poi tutto di “X”, perché a me basta la sintonizzazione col mio attuale livello di apprendimento. Solo dopo, una volta compreso “x” al livello precedente, potrò muovermi al livello successivo, in cui mi servirà magari un’esposizione da parte di una persona che dovrà comunque essere anche lei al mio stesso livello di apprendimento.

Io credo che in questo modo si faccia molta meno fatica, soprattutto in branche come la fisica teorica in cui di uno stesso argomento “x” si possono avere tantissimi livelli diversi di comprensione, da quello basico a quello totalmente astratto. In ciascuno di questi livelli è utilissimo, per chi sta imparando, poter trovare spunti da chi si è preso del tempo per organizzare i propri schemi mentali e si sia sforzato di tirar fuori una spiegazione quanto più pedagogica possibile.

Ricapitolando, scrivo guide per lo studente (o per il me stesso del passato) perché:

  • Voglio tenere un’organizzazione concettuale delle cose che imparo, in modo da poterle consultare rapidamente per qualche dubbio futuro, e in modo da evitare di annegare in un mare di libri e referenze già consultate (citate comunque nella bibliografia della guida).
  • Voglio far fare meno fatica a chi sarà curioso sullo stesso argomento, in quel preciso livello di comprensione. Chiaro che ad esempio quella guida che ho appena scritto è di scarso interesse per chi quei concetti li ha già assimilati da anni e a livelli superiori di comprensione.
    Il punto è che non tutti partiamo dalla stessa base, ed esiste sempre una certa popolazione che si trova invece nello sweet spot, per la quale magari quella guida è un salvavita, magari per una tesina o un seminario da preparare.

In verità mi ossessiono un po’, perché finché non trovo il libro che spiega quel mio dubbio esattamente nel modo in cui io voglio capirlo, o nel modo in cui io voglio che venga spiegato, non mi do pace.

Se proprio non trovo nessuna alternativa, mi viene da scriverla io stesso, una volta che penso di aver capito il concetto abbastanza in profondità.
In ogni caso non è uno sforzo inutile: avrò comunque una referenza personale per il futuro, o magari sarà utile a qualche altro studente che si trova nella mia stessa situazione.


Se facessimo tutti questo lavoro, non è da escludere che il mondo universitario italiano possa diventare un posto ben più stimolante e ricco di spunti.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg


Un semplice conto per stimare la massa dei bosoni delle forze fondamentali


Sono sempre stato un entusiasta delle “stime grossolane”, perché ti aiutano a risolvere un problema molto complesso dandoti almeno un’ordine di grandezza della soluzione. Il senso di soddisfazione quando la stima grossolana viene confermata dai calcoli ben più rigorosi è un po’ una guilty pleasure di ogni fisico. Vediamo quindi un esempio di questo modo di lavorare.

Ad oggi conosciamo quattro forze fondamentali della Natura, meglio note come interazioni fondamentali.
Il modo in cui studiamo queste interazioni su basa sull’analisi di alcuni processi che coinvolgono le particelle. Tali processi possono essere studiati a differenti scale di energia in cui vengono rappresentati con diverse schematizzazioni, le quali ci danno un’idea di quello che sta succedendo.

Da questi schemi teorici emerge che un’interazione tra particelle deve essere mediata da una particella speciale chiamata bosone.
Il modo più diretto per avere l’identikit di questa particella è conoscere la sua massa.

Prima di ricavare una stima di queste masse, facciamo il punto della situazione sulle interazioni fondamentali in gioco:

  • Gravità: interazione tra tutti i corpi con massa. In una teoria di gravità quantistica (ancora solo ipotizzata a stento) deve essere mediata da un bosone chiamato gravitone.
  • Elettromagnetismo: interazione tra tutti i corpi con carica elettrica. Mediata da un bosone chiamato fotone.
  • Forza forte: interazione che tiene assieme i nuclei degli atomi. Ad alte energie si manifesta come un’interazione mediata dai gluoni dei quark, a basse energie ha invece come mediatore il bosone pione.
  • Forza debole: interazione che permette i decadimenti di alcuni nuclei. Mediata da tre bosoni, chiamati W+,W- e Z.

La prima distinzione interessante tra queste quattro forze è il loro raggio di interazione. Sono infatti tutte forze che agiscono a distanza, e due tra queste, cioè gravità ed elettromagnetismo, hanno un raggio di interazione infinito. Ciò significa che la forza gravitazionale tra due masse agli antipodi dell’universo è sempre teoricamente diversa da zero. Nella realtà, ovviamente, tale valore è così piccolo da poter essere considerato irrilevante per lo stato di moto delle due masse. Lo stesso discorso si applica all’elettromagnetismo. Questo raggio di interazione si dice asintoticamente infinito nel senso che la forza può essere considerata “matematicamente” nulla solo all’infinito (cioè un punto irraggiungibile).

Le altre due forze, quella nucleare forte e quella debole, hanno invece a che fare con il mondo dell’infinitamente piccolo, cioè i nuclei degli atomi.
La scala di distanza nucleare è completamente fuori dagli schemi della quotidianità: parliamo di qualche milionesimo di miliardesimo di metro. Questo numero è così difficile da scrivere e pensare che è stata creata direttamente una nuova unità di misura: il fermi (in onore di Enrico Fermi).

Come informazione di orientamento, diremo che il raggio di un nucleo è del valore di qualche fermi.

Siccome l’interazione forte si occupa di tenere assieme i nuclei, composti da tanti protoni e neutroni (protoni che altrimenti si respingerebbero per via dell’interazione elettromagnetica), il suo raggio di interazione è proprio dell’ordine di qualche fermi. L’interazione debole è ancora più a corto raggio, perché agisce su una scala che è un millesimo di quella nucleare.

In che modo vengono interpretati questi differenti raggi di azione delle forze fondamentali dalla fisica teorica?

Livello intuitivo: il diagramma di bassa energia

Un’interazione in un certo intervallo di bassa energia può essere schematizzata da un diagramma tipo questo

Nel quale viene riportato un processo di repulsione elettromagnetica tra due elettroni. Matematicamente questa repulsione viene comunicata da un fotone virtuale “γ” che viene creato con una certa energia per un certo intervallo di tempo. L’informazione elettromagnetica si propaga tra due punti dello spaziotempo diversi e non può essere istantanea (per non contraddire la relatività ristretta), ma può propagarsi, al massimo, alla velocità della luce.

Con poche differenze, i diagrammi delle altre interazioni alle basse energie hanno una struttura molto simile (fatta eccezione per la gravità, per la quale non esiste ancora una teoria quantistica soddisfacente). Ciascun diagramma è caratterizzato dal proprio personalissimo bosone di interazione, che sia il fotone (elettromagnetismo), il pione (forze nucleari forti), o i W e Z (interazione debole).

Lo scambio di un oggetto tra due persone su due barche genera un allontanamento per via della conservazione della quantità di moto totale.

Esiste un esempio intuitivo, seppur da prendere con le pinze perché serve solo a darci un’intuizione fisica, del perché lo scambio di un mediatore produca una forza di interazione. L’esempio viene dalla fisica classica ed è illustrato in figura.

Il principio di Heisenberg in una forma speciale

Vogliamo studiare in maniera intuitiva quali siano le grandezze in gioco nella propagazione dei bosoni mediatori. Sappiamo dalla fisica teorica che possiamo interpretarli come particelle create e riassorbite durante l’interazione, e che esistono per un certo intervallo di tempo che consente la loro propagazione.

“Aspetta, mi stai dicendo che viene creata una particella dal niente? Ma questo non viola il principio di conservazione dell'energia?"

Una forma molto speciale del principio di indeterminazione di Heisenberg riguarda proprio l’energia e il tempo. Una particella può essere creata con una certa energia per un certo intervallo di tempo, senza violare il principio di conservazione, a patto però che valga

Il simbolo “~” indica un’uguaglianza approssimata. A destra, la costante di Planck divisa per 2π.

Per la creazione di un bosone mediatore di massa “m” richiediamo che questi esista per un tempo sufficiente per propagarsi di una distanza “R” (che è proprio il raggio di azione dell’interazione) a una velocità che è dello stesso ordine (ma MAI uguale) a quella della luce “c“. In sintesi:

Il simbolo “~” sta proprio a indicare che la relazione vale solo come ordine di grandezza: non stiamo dicendo in nessun modo che un corpo di massa “m” possa viaggiare alla velocità della luce, ma solo a una velocità comparabile e ad essa inferiore.

Un gioco poco rigoroso, che ci azzecca molto bene

Sfruttando una possibile interpretazione dei diagrammi sulle interazioni, immaginiamo che i bosoni mediatori vengano creati nei processi e che si propaghino per una distanza “R” che è proprio il raggio di azione.

Come facciamo a capire se tali bosoni esistano davvero o se siano solo costrutti teorici?
Dobbiamo rivelarli sperimentalmente, ma per rivelarli sperimentalmente dobbiamo prima sapere che tipo di massa possiamo aspettarci per queste particelle.

Un giochino poco rigoroso è quello di usare il principio di Heisenberg esposto sopra, perché a quel punto l’energia di massa dei bosoni si ottiene dividendo per “∆t

L’energia di massa dei bosoni in funzione del raggio di interazione

Applichiamo ora questa formula ai bosoni delle interazioni: fotone, gravitone, pione e bosoni W,Z.

  • Fotone: l’interazione elettromagnetica ha un raggio di azione infinito. Se diamo a “R” un valore molto grande nella formula troviamo che la massa tende a zero. I fotoni, come si sa comunemente, hanno massa nulla, e quindi sono capaci di viaggiare alla massima velocità dell’universo, cioè la velocità della luce. Non una grandissima notizia, dato che i fotoni sono proprio la luce stessa.
  • Gravitone: l’interazione gravitazionale è sorella (molto più debole a parità di distanza) della forza elettromagnetica, e ha anche lei un raggio di azione infinito. Troviamo quindi una massa nulla anche per il fantomatico bosone dell’interazione gravitazionale: se mai troveremo una teoria quantistica della gravità, il suo bosone si propagherà alla velocità della luce.

Per discutere del pione (mediatore della forza nucleare forte a bassa energia) e dei bosoni della forza debole, diamo prima una formula numerica utile

Con “fm” intendiamo “fermi”, cioè l’unità di misura delle lunghezze nucleari.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

L’energia delle particelle atomiche si misura infatti con una scala energetica chiamata MeV.
Come per tutte le unità di misura, fatti bastare solo qualche numero di orientamento: l’energia di massa dei neutroni e dei protoni è di circa 1000 MeV, mentre l’elettrone “pesa” solo 0.5 MeV. Le energie dei legami nucleari sono invece dell’ordine di qualche MeV.

Detto ciò torniamo al nostro gioco e occupiamoci del pione, cioè il bosone dell’interazione nucleare forte.
Il raggio di azione dell’interazione nucleare forte è dell’ordine di 1.4 fermi

Per quanto riguarda invece il bosone W dell’interazione debole, per la quale il raggio di azione è dell’ordine di 0.0025 fermi

Un confronto con i valori sperimentali

Non ci dilunghiamo sulla massa del fotone, perché essendo un quanto di luce è il bosone meglio conosciuto nella storia e sappiamo con molta confidenza che la sua massa è da considerarsi nulla.
Sul gravitone diciamo solo che il risultato è quantomeno ragionevole: un’onda gravitazionale si propaga alla velocità della luce, quindi è ragionevole aspettarsi che, così come il fotone è la manifestazione dei modi di vibrazione del campo elettromagnetico, allora anche il gravitone avendo a che fare con il campo gravitazionale che si propaga alla velocità della luce, deve avere massa nulla.

Il pione è stato una delle prime particelle a essere scoperta nel dopoguerra (1947), e la sua massa è stata misurata in numerosissimi modi diversi. Tutti i risultati sono in accordo con il valore di circa 139 MeV, in perfetto accordo con quanto abbiamo trovato “giocando”.

La scoperta del bosone W dell’interazione debole ha portato il nobel a Carlo Rubbia (1983). Oggi la sua massa è nota essere di circa 80 mila MeV, proprio come abbiamo stimato.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo la laurea in Fisica e la magistrale in Fisica Teorica all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Fermi: quel 21enne che contribuì alla Relatività Generale

Uno degli scopi principali di Internet dovrebbe essere quello di dare la possibilità di condividere per aiutarsi a vicenda negli studi. In questo senso trovo appagante quando riesco a trovare un articolo di un altro studente che sta studiando un particolare argomento tecnico e ha voglia di condividere il risultato con gli altri, per aiutarli nella stessa ricerca. Ho tratto beneficio da questo tipo di pratiche, quindi mi sento di condividere a mia volta.

Una delle questioni che mi hanno lasciato insoddisfatto quando ho studiato Relatività Generale era la scarsa enfasi posta dai corsi e dai libri di testo introduttivi nei confronti delle coordinate di un osservatore in caduta libera.

Nella meccanica classica è spesso cruciale porsi nei panni di un osservatore che interagisce con l’universo intorno a sé, per capire come questi descrive i fenomeni intorno a lui, e le interpretazioni fisiche che ne dà.

Se ad esempio una particella in movimento si trova nella stessa regione di spazio di un’altra carica elettrica, è di nostro interesse capire quale sia il campo “visto” dalla particella, immedesimandoci in lei con un opportuno cambio di coordinate. Ciò ci permette di interpretare alcune proprietà del suo moto che altrimenti ci sarebbe apparso meno intuitivo.

Il principio di equivalenza

La Relatività Generale si fonda sul principio che un osservatore in caduta libera in un campo gravitazionale rappresenta un sistema localmente inerziale. Cioè nei pressi della sua traiettoria, dal suo punto di vista, lo spaziotempo è quello della relatività ristretta: piatto.

Questo principio permette di derivare la struttura matematica delle equazioni di Einstein per lo spaziotempo attorno a una distribuzione di massa o di energia qualunque. Tuttavia nella maggior parte delle trattazioni introduttive, il ruolo del principio di equivalenza finisce qui.

Ad esempio la soluzione che descrive lo spaziotempo attorno a un buco nero di Schwarzschild viene fornita nelle coordinate di un osservatore che si trova ad infinita distanza dal buco nero, e difficilmente viene affrontato il problema, (ben più interessante dal mio punto di vista), di come appaia lo spaziotempo attorno a un buco nero dal punto di vista di un osservatore che ci stia cascando dentro.

Questo è un gran peccato perché una delle curiosità più interessanti riguarda proprio ciò che percepirebbe un malcapitato nei pressi dell’orizzonte degli eventi!

La cosa curiosa è che nemmeno Einstein, il padre del principio di equivalenza e della relatività, si preoccupò di cercare quale fosse la trasformazione di coordinate per un osservatore in caduta libera (o meglio, si accontentò della prima approssimazione più semplice, e cioè lo spaziotempo piatto di un osservatore inerziale). Ma questo non ci dice nulla sullo spaziotempo poco più distante dalla traiettoria dell’osservatore, dove inizierebbero a manifestarsi gli effetti della curvatura!

Il giovanissimo Fermi

Sorprendentemente ci pensò l’allora 21enne Enrico Fermi, il quale scrisse quelle che oggi sono note come “coordinate di Fermi”. Il suo lavoro fu pubblicato nel 1922 con il nome “Sopra i fenomeni che avvengono in vicinanza di una linea oraria” e fu pionieristico.

Le coordinate di Fermi descrivono lo spaziotempo nelle vicinanze di un osservatore in caduta libera, e possono essere applicate per provare a soddisfare la curiosità di cosa succeda davvero nell’orizzonte degli eventi di un buco nero molto semplice, non rotante ed eterno: un buco nero di Schwarzschild.

Sfortunatamente queste coordinate sono poco trattate nei corsi introduttivi, e la letteratura è poco accessibile. Da questa insoddisfazione ho deciso di fare un po’ di ricerca a proposito e come risultato ho scritto un piccolo compendio con il fine di rendere questo argomento più accessibile a uno studente del primo anno di un corso magistrale.

Il file in PDF può essere scaricato qui sotto:

Naturalmente lascia a bocca aperta la maturità con la quale l’allora 21enne Enrico Fermi, geniale nella matematica, affrontò la questione. Ciò fu immediatamente riconosciuto dai fisici matematici italiani (come Levi Civita).

Oggi le coordinate di Fermi rappresentano uno strumento molto utile, e sono usate nella ricerca più avanzata nelle computazioni teoriche della relatività generale.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Perché la teoria di Enrico Fermi rimane una delle vette dell’ingegno umano

La teoria di Fermi sull’interazione debole era così all’avanguardia che fu rifiutata dalla rivista “Nature” perché “contiene speculazioni teoriche troppo distanti dalla realtà“.
Oggi è ritenuta uno dei più importanti avanzamenti del XX secolo.

Per apprezzare la portata della teoria di Fermi, cerchiamo di ripercorrere concettualmente il suo lavoro, immedesimandoci in lui agli inizi degli anni ’30.

Quando nessuno conosceva il contenuto del nucleo

Se avessi fermato un fisico per strada nel 1930 e gli avessi chiesto la struttura del nucleo atomico l’avresti messo in imbarazzo. Ancora non si sapeva nulla del neutrone e si conosceva solo il protone; inoltre non si aveva la minima idea di cosa fosse un’interazione nucleare.

Ovviamente si sapeva, ad esempio, che un nucleo di Elio aveva carica +2 (unità di carica dell’elettrone) e che quindi doveva contenere due protoni. Tuttavia il peso del nucleo corrispondeva a quattro volte la massa del protone. D’accordo, quindi nel nucleo ci sono quattro protoni? Sì, ma allora la carica come fa a essere +2 e non +4? Beh allora ci mettiamo anche due elettroni, così neutralizziamo due cariche e si ha +4-2=+2, tanto la massa degli elettroni è mezzo millesimo di quella dei protoni e l’aggiunta non cambia il peso atomico! Problema risolto?

Il problema teorico: ci possono essere degli elettroni nel nucleo?
Oggi si prenderebbe un’insufficienza per un’affermazione simile, eppure prima della scoperta del neutrone (1932) era una delle spiegazioni accettate. Ma gli elettroni hanno una massa davvero troppo piccola per “accontentarsi” di stare in uno spazio ridotto come il nucleo: la loro lunghezza d’onda di De Broglie è centinaia di volte maggiore della dimensione del nucleo.

La situazione della fisica teorica prima del 1934

La meccanica quantistica di Schrödinger (1926) funzionava bene a livello atomico. Ma nel momento in cui si voleva provare a indagare le alte energie (cioè la struttura dei nuclei e delle particelle) falliva proprio nel formalismo matematico.
Fu Dirac (1928) a portare la relatività nella meccanica quantistica (cioè una teoria delle alte energie) e, assieme a Fock e Jordan, a proporre una seconda quantizzazione per trattare le particelle come eccitazioni dei campi quantistici. Un risultato spettacolare di questa teoria fu la scoperta dell’elettrodinamica quantistica, che era in grado di predire con successo tanti processi elettromagnetici tra particelle dotate di carica elettrica.

Ad esempio la repulsione tra due elettroni veniva spiegata con un’interazione trasmessa da un fotone creato e distrutto nel processo stesso

Leggendo dal basso verso l’alto: due elettroni arrivano, interagiscono scambiando un fotone “γ” e poi si allontanano.

La cosa importante che devi notare qui è il concetto di creazione e distruzione di un fotone. Questo modo di pensare era inglobato nella matematica della seconda quantizzazione, e fu un passo da gigante verso la fisica moderna.

L’imbarazzo del decadimento β nucleare

Tanto per infierire sul problema teorico degli elettroni nel nucleo, c’era un tipo di decadimento nucleare che si conosceva da qualche decennio: il decadimento beta (β).
In tale decadimento un nucleo era in grado di trasformarsi nel nucleo dell’elemento successivo nella tavola periodica, emettendo radiazione beta, che è un gergo sofisticato per dire “elettroni“. Questo decadimento era davvero una bella gatta da pelare per almeno due motivi:

  • Sembrava rafforzare l’idea che gli elettroni dovessero essere contenuti nel nucleo, perché da qualche parte dovevano spuntare fuori questi elettroni beta! Ma ciò era, come detto sopra, in contrasto con il fatto che la lunghezza d’onda di un elettrone avente l’energia tipica dei decadimenti β era molto maggiore delle dimensioni nucleari.
  • Gli elettroni, a parità di nucleo che decade, venivano emessi con tantissime energie diverse, da una minima energia fino a una massima energia. Se l’energia messa a disposizione dal nucleo è sempre la stessa, perché gli elettroni non assumono solo quel valore specifico di energia? Niels Bohr arrivò a dire che le interazioni nucleari non conservavano l’energia!

Il primo azzardo: un’analogia

La genialità di Fermi risiedeva nella semplicità dei suoi ragionamenti, anche se tale semplicità era solo apparente, perché il risultato di un’approfondita analisi concettuale svolta quando nessuno stava guardando.

Fermi nel 1933 conosceva solo un tipo di interazione spiegabile con una teoria delle alte energie: l’elettrodinamica quantistica a cui abbiamo accennato sopra. Questa teoria faceva uso del concetto di creazione e distruzione del fotone nei processi.
Il colpo da maestro di Fermi fu quello di ragionare per analogia: spinto dalla convinzione che gli elettroni non potevano vivere dentro il nucleo, convinzione rafforzata dalla recente scoperta del neutrone, arrivò ad affermare che:

L’elettrone viene creato durante il processo di interazione all’interno del nucleo, dopodiché non può che propagarsi libero, fuori dal nucleo.

Si trattava, questa, della prima applicazione del concetto di creazione e distruzione di particelle, applicato a particelle che non fossero il fotone. Prima si pensava che le particelle come l’elettrone dovessero esistere sempre e che non potessero apparire e scomparire nei processi. Il passo compiuto da Fermi fu di proporzioni gigantesche.

Fermi riconobbe subito che un processo fisico del genere avrebbe dovuto garantire la conservazione della carica, e sfruttando il fatto sperimentale che il nucleo si trasformava in un nucleo con un protone in più, riconobbe che il decadimento beta non era altro che il decadimento del neutrone. Il protone rimane nel nucleo, e l’elettrone viene rilasciato libero. La reazione del processo è:

Il decadimento del neutrone.
Questo processo conserva la carica elettrica: all’inizio abbiamo carica zero, e alla fine abbiamo carica +1-1=0.

Una teoria che conserva la carica elettrica ha proprio la struttura matematica dell’elettrodinamica quantistica. Fermi si affidò di nuovo a un’analogia e scrisse l’interazione come un accoppiamento tra correnti cariche, proprio come nell’elettrodinamica:

Le analogie tra elettrodinamica e teoria di Fermi

Tuttavia questa forma dell’interazione restituiva di nuovo una distribuzione di energia a un singolo valore per l’elettrone uscente. L’analogia con l’elettrodinamica era troppo bella e semplice per essere vera? Non si riesce proprio a salvare il principio di conservazione dell’energia?

Il secondo azzardo: la particella fantasma

Come mai l’energia dell’elettrone assume più valori fino all’energia massima disponibile? Si dimostra matematicamente che questo in realtà è proprio ciò che succede quando il decadimento non produce solo due corpi, ma tre! Se il neutrone decade in protone ed elettrone, chi è la terza particella misteriosa prodotta?

Fermi, su suggerimento di Pauli, decise di fare un passo in più dove molti avrebbero mollato. Ci troviamo di fronte al primo caso in cui una particella viene teorizzata prima di essere scoperta: il neutrino. Il suo identikit è il seguente:

  • È neutro, per non intaccare la conservazione della carica nell’interazione di corrente.
  • È molto leggero, più leggero dell’elettrone (questo serve per giustificare l’energia degli elettroni).
  • Anche se il nome è simile a quello del neutrone (fu Fermi a battezzarlo), il neutrino non ha nulla a che vedere con il neutrone, non farti fregare!


La reazione completa è quindi:

La reazione corretta per il decadimento beta del neutrone. Assieme all’elettrone viene emesso anche un neutrino.

A questo punto basta aggiungere la corrente del neutrino e l’analogia con l’elettrodinamica è salva!

Rappresentazione schematica delle due teorie. A sinistra un vertice di interazione tra protone e fotone (rappresentato da γ). A destra il decadimento del neutrone (ispirato, nella sua struttura, dallo schema di sinistra).

Questa interazione era in grado di spiegare con successo lo spettro energetico degli elettroni nel decadimento beta, con notevole precisione per l’epoca. Fu un trionfo!

Il punto fondamentale è che il neutrino non fu mai rivelato prima degli anni ’50!

Enrico Fermi (1901-1954).

Questo per via del fatto che Fermi inconsapevolmente non aveva solo teorizzato il decadimento del neutrone, ma un nuovo tipo di forza della natura: l’interazione debole! Il neutrino interagisce solo tramite la forza debole, che, come suggerisce il nome, è più difficile da rivelare sperimentalmente.

Il travaglio del capolavoro

È difficile sovrastimare la portata del lavoro di Fermi, in quanto inconsapevolmente aveva teorizzato per primo, in una forma a bassa energia, una delle quattro forze fondamentali della natura. Fu inoltre il primo a usare il concetto di creazione e distruzione delle particelle che non fossero fotoni, e il primo a teorizzare una particella ancora da rivelare sperimentalmente.

Oggi questo tipo di pratica è all’ordine del giorno, ma all’epoca di Fermi era un modo di lavorare rivoluzionario.

Fermi pubblicò la propria teoria nel dicembre del 1933 con l’umile nome “Tentativo di una teoria dei raggi beta“, nonostante fosse ben più di un tentativo!
Per capire la portata di questo “tentativo” basti pensare che il lavoro fu rifiutato dalla rivista “Nature” in quanto:

“Contiene speculazioni teoriche troppo distanti dalla realtà per essere di interesse al lettore.”

Insomma il lavoro del fisico italiano era troppo all’avanguardia per essere considerato, nonostante spiegasse bene i risultati sperimentali.
Fermi prese molto male questo rifiuto, ma pubblicò comunque l’articolo nelle riviste italiane e tedesche, dove invece fu accolto con grande clamore.
La teoria di Fermi fu apprezzata sempre di più negli anni, ma venne compresa e completata solo tra gli anni ’50 e ’60, ed oggi è riconosciuta come una delle più grandi intuizioni del ventesimo secolo.

L’eredità di un gigante

Oggi la teoria di Fermi è inglobata all’interno della teoria unificata elettro-debole, che contiene cioè sia l’elettrodinamica sia l’interazione debole. Tale unificazione avvenne però solo negli anni ’60, e in questo senso Fermi può essere pensato come il precursore non solo dell’interazione debole, ma anche dell’unificazione elettrodebole, perché intuì per primo la forte analogia con l’elettrodinamica.
Oggi sappiamo che esistono dei mediatori della forza elettrodebole che sono bosoni proprio come il fotone è un bosone mediatore della forza elettromagnetica.

Il decadimento beta nella teoria elettrodebole moderna. Confronta questo disegno con quello sopra: c’è un bosone mediatore W in più. L’analogia con l’elettrodinamica, che Fermi fu il primo a intuire, è finalmente completa.

Fermi avrebbe potuto teorizzare, in linea di principio, anche questo bosone mediatore, e completare l’analogia unificando le due teorie. La sua attitudine umile e la sua volontà di spiegare i risultati sperimentali (che riguardavano la fisica delle basse energie, in cui la mediazione del bosone non produce effetti misurabili), lo spinse a non fare il passo più lungo della gamba. Ma la gamba di un gigante è comunque la più lunga che ci sia.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’università di Pisa, è dottorando presso l’Università degli Studi Roma III, dove studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Come una simmetria fa nascere la teoria dell’elettromagnetismo

Gran parte del lavoro della fisica degli ultimi 70 anni è stato quello di scovare nuove leggi della natura a partire da princìpi di simmetria. Un esempio di questo modo di lavorare può essere fornito andando a re-inventare la ruota, cioè analizzando l’emergere della teoria dell’elettromagnetismo (studiata e compresa da ormai un secolo e mezzo) da un principio di simmetria.

L’identikit di una simmetria

Se mi chiedessero di riassumere ciò che i fisici teorici intendono con la parola magica “simmetria” tramite l’esempio più semplice possibile, userei questo:

Stai osservando un sistema fisico e nel mentre che chiudi gli occhi eseguo una certa trasformazione del sistema in modo che quando li riapri per te non è cambiato nulla: allora quella trasformazione è una simmetria del sistema.

Esistono simmetrie più intuitive e meno astratte di altre, e quelle della meccanica quantistica sono decisamente poco intuitive. Per questo motivo la nostra strategia sarà quella di cercare delle analogie con le simmetrie geometriche, con cui abbiamo più confidenza.

Prima di poter apprezzare il discorso è però necessario passare un piccolo purgatorio di matematica dei numeri complessi, perché è li che si nasconde la simmetria che fa nascere l’elettromagnetismo.

La natura complessa della quantistica

La meccanica quantistica studia il moto delle particelle tramite le funzioni d’onda che “vivono” in uno speciale spazio matematico.
Si scoprì presto che, per riprodurre i risultati sperimentali a partire dalla teoria, tale spazio matematico doveva essere a valori complessi. Perché? Semplicemente è più facile fare i conti con i numeri complessi, ed alcune proprietà fisiche appaiono più evidenti.

In ogni punto dello spazio, il valore della funzione d’onda è rappresentato da un numero complesso: cioè una freccia sul piano di Gauss.

Se non hai molta dimestichezza col concetto di numero complesso, può aiutare un’analogia.
L’essenza matematica è molto simile a quella di un vettore sul piano cartesiano, dove con “vettore” devi sostituire “numero complesso” e con “piano cartesiano” devi sostituire “piano di Gauss”.

Le analogie non finiscono qui!

  • Proprio come un vettore, un numero complesso può allungarsi, accorciarsi, ribaltarsi, e in generale ruotare sul piano di Gauss.
  • La lunghezza di un vettore è un numero reale ed è chiamata in gergo ”modulo”.
  • La “lunghezza“ di un numero complesso è un numero reale ed è chiamata in gergo ”modulo”.

I numeri complessi godono però di alcune proprietà aggiuntive che tornano molto comode nei calcoli, per cui vanno in ogni caso ben distinti dai vettori.

Nota bene: ciò che calcoliamo dalle misure negli esperimenti sono i numeri reali, non i numeri complessi.
Per questo motivo la funzione d’onda di una particella è stata interpretata dai fisici come un numero complesso il cui modulo al quadrato restituisce un numero reale che è la densità di probabilità

La funzione d’onda di una particella è un numero complesso il cui modulo al quadrato (numero reale) viene interpretato come la probabilità di trovarla in un certo punto dello spazio.

dove la probabilità è in un certo senso ciò che si manifesta sperimentalmente, e quindi è la connessione tra mondo teorico e mondo degli esperimenti. Tutti i calcoli della meccanica quantistica hanno lo scopo di arrivare a una stima della probabilità.

La cosa interessante è che la definizione di probabilità come modulo quadro della funzione d’onda ci lascia una certa libertà: potremmo moltiplicare la funziona d’onda per un altro numero complesso “z” avente modulo uguale a uno, e la probabilità rimarrebbe la stessa

Se il numero complesso z ha modulo uguale a uno, la sua moltiplicazione con la funzione d’onda non ha alcun effetto sulla probabilità.

Dal punto di vista del mondo reale non è cambiato nulla (la probabilità è la stessa), ma dal punto di vista matematico la moltiplicazione per il numero “z” ha trasformato, in ogni punto dello spazio, il valore della funzione d’onda.

“Trasformato? Che vuol dire? Non è un semplice prodotto algebrico quello che abbiamo appena visto?"

Lo sarebbe se stessimo parlando di numeri reali. Tuttavia una proprietà molto interessante dei numeri complessi è che quando li moltiplichiamo tra loro otteniamo una rotazione sul piano di Gauss.
La trasformazione prende il nome gergale “trasformazione di fase”.

Il numero complesso A viene ruotato di un angolo pari all’inclinazione del numero complesso B. Il risultato è un numero complesso AB ruotato.

La matematica della meccanica quantistica ci dà la libertà di trasformare il valore complesso delle funzioni d’onda in ogni punto dello spazio, senza intaccare la probabilità di osservazione che esse descrivono.

L’atto di trasformare un oggetto con il risultato di lasciare intatta una certa quantità (come la probabilità che osserviamo) corrisponde proprio all’identikit di una simmetria.

“Non mi convincono troppo queste parole altisonanti. “Simmetria" mi fa pensare più a una cosa geometrica, mentre mi pare di capire che qui siano solo astrazioni matematiche..."

Però abbiamo appena visto che la trasformazione di fase è parecchio analoga a una rotazione!

“Vorrai mica dire che c'è un modo per rendere più intuitive tutte queste astrazioni?"

Le interpretazioni di una simmetria: la teoria dei gruppi

Considera un quadrato disteso su un piano e immagina di chiudere gli occhi mentre io ruoto il quadrato di 5 gradi. Quando riapri gli occhi sei in grado di capire se ho eseguito una rotazione o meno?

Il quadrato iniziale (linea tratteggiata), e il quadrato dopo la rotazione di 5 gradi (linea continua).
“Mi prendi per uno stolto? Il quadrato ora è diverso da prima, è un po' più storto! Come fai a pretendere che non mi accorga della trasformazione?"

Ciò è successo perché la trasformazione “rotazione di 5 gradi” non è una simmetria del quadrato. Il quadrato non è rimasto identico a se stesso.

Un quadrato rimane identico a se stesso se invece lo ruotiamo per alcuni angoli speciali:

  • Possiamo non fare nulla, cioè ruotarlo di 0 gradi, e il quadrato rimane identico a se stesso.
  • Possiamo ruotarlo di 90 gradi e il quadrato rimane identico a se stesso.
  • Possiamo ruotarlo di 180 gradi e il quadrato rimane identico a se stesso.
  • Possiamo ruotarlo di 270 gradi e il quadrato rimane identico a se stesso.

In sostanza se io avessi eseguito una qualsiasi delle suddette rotazioni mentre tenevi gli occhi chiusi, dopo non saresti in grado di dirmi se io abbia trasformato il quadrato o meno.
In gergo gli angoli {90, 180, 270, 0} formano un gruppo: il gruppo di simmetria del quadrato.

Una rotazione di 90 gradi lascia il quadrato identico a se stesso.

Il nome “gruppo” si riferisce al fatto che se eseguissi due trasformazioni consecutive usando gli elementi del gruppo {90, 180, 270, 0} otterrei comunque una trasformazione che lascia invariato il quadrato, e quindi tale trasformazione deve fare anche lei parte del gruppo {90, 180, 270, 0}.
Ad esempio se ruoto di 90 e poi ruoto di 180, ottengo una rotazione totale di 270, che è un elemento del gruppo. Se ruoto di 270 e poi ruoto di 180 ottengo una rotazione di 450 gradi, che equivale a 90 gradi. Il gruppo è una “società chiusa“.

Spingendoci un po’ più sull’astratto desideriamo che un gruppo di simmetria, per ritenersi tale ai nostri occhi, abbia queste proprietà importanti:

  • Chiusura: se due elementi appartengono al gruppo, allora anche la loro composizione (cioè applico prima l’uno e poi l’altro) appartiene al gruppo. Lo abbiamo appena visto con le rotazioni.
  • Esistenza dell’identità: anche la trasformazione “non faccio nulla” deve appartenere al gruppo. Come ben sai, il “fare nulla” lascia le cose uguali a come erano prima.
  • Esistenza dell’inverso: se ruoto di 90 gradi e poi voglio tornare indietro, posso ruotare di altri 270 gradi e fare quindi un angolo giro di 360 gradi per tornare da dove ero partito. La composizione 90+270 equivale al “non fare niente”. Quindi diremo che l’elemento 270 gradi è la trasformazione inversa della rotazione di 90 gradi.

Il gruppo di simmetria del quadrato ha, come hai visto, pochi elementi. Esistono però gruppi con un numero infinito di elementi. Considera ad esempio un cerchio

Nel caso del cerchio qualsiasi angolo di rotazione è un elemento del gruppo di simmetria. Se chiudessi gli occhi e io ruotassi il cerchio di 13.42 gradi, dopo non sapresti dire se io abbia eseguito la rotazione o meno.
Il gruppo di simmetria del cerchio è definito da un angolo che può assumere infiniti valori.

“Tutto molto elegante, ma quindi? Non stavamo parlando di trasformazioni di fase?"

Le trasformazioni di fase: il gruppo U(1)

Abbiamo visto che le trasformazioni di fase che si fanno sulle funzioni d’onda sono delle rotazioni nel piano di Gauss, e la notizia è che sono molto simili al gruppo di simmetria del cerchio. Il loro collettivo ha un nome speciale: gruppo U(1).

Un elemento del gruppo può essere rappresentato da un esponenziale avente come esponente l’angolo di cui si sta facendo la rotazione.

“i” è l’unità immaginaria dei numeri complessi: la radice quadrata di -1.

Questa rappresentazione esponenziale degli elementi del gruppo rende più evidenti le proprietà dei gruppi elencate sopra:

Quindi la trasformazione di fase U(1) ha pieno diritto di essere considerata un gruppo di simmetria.

Quando trasformiamo una funzione d’onda moltiplicandola per un elemento del gruppo U(1), stiamo ruotando il suo valore sul piano complesso in ogni punto dello spazio in cui la funzione d’onda è definita. Se facciamo il modulo quadro di questo prodotto, l’effetto è quello di effettuare una rotazione inversa: la composizione delle due cose restituisce l’identità, cioè il non fare niente.

“Continuo a non capire perché porre tanta enfasi sulle simmetrie. È un accidente matematico e nulla di più, perché perderci tutto questo tempo?"

Il motivo di tanta enfasi è il teorema di Noether.

Simmetrie e conservazione

Il teorema di Noether garantisce che per ogni simmetria debba esserci una quantità conservata. Ad esempio se un sistema fisico ha lo stesso gruppo di simmetria del cerchio, la quantità conservata è il momento angolare nel tempo.

È lecito chiedersi quale quantità conservata si nasconda dietro la simmetria U(1).

La teoria della relatività impone che la teoria più semplice per la descrizione di una particella libera sia quella di Dirac

La teoria di Dirac per una particella libera di spin 1/2 e massa m.

Dove la parte di sinistra descrive un cambiamento della funzione d’onda nello spaziotempo, e la parte di destra descrive la massa “m” della particella.

La parte sinistra della teoria di Dirac coinvolge una derivata rispetto alle coordinate spaziotemporali, cioè calcola le variazioni della quantità su cui agisce. In questo caso agisce sulla funzione d’onda a destra.

La teoria di Dirac è stata costruita in modo da essere simmetrica rispetto a una trasformazione di fase globale. Le due funzioni d’onda scritte sopra trasformano infatti in modo opposto sotto una trasformazione U(1)

In modo che il loro prodotto rimanga invariato

La trasformazione di fase globale, ripetiamo ancora una volta, ha l’effetto di ruotare simultaneamente in ogni punto dello spaziotempo il valore della funzione d’onda nel piano di Gauss. In sostanza il valore dell’angolo di rotazione θ è uguale per tutti i punti dello spaziotempo.

Siccome θ è una costante (cioè uguale in tutti i punti dello spazio tempo, da cui il nome globale), la parte di variazione della teoria di Dirac è anch’essa lasciata intatta dalla trasformazione

L’angolo θ non dipende dallo spaziotempo e la derivata non ha effetto su di lui.

Questa simmetria della teoria di Dirac genera una quantità conservata molto importante: la differenza tra numero di particelle e numero di antiparticelle.

Tuttavia la relatività vieta che la trasformazione di una fase in un certo punto dello spaziotempo possa ruotare istantaneamente la fase in un altro punto.

Richiediamo che debba esserci un “tempo di propagazione diverso da zero” tra un punto e l’altro.
L’unico rimedio è assumere che l’angolo di rotazione θ abbia un valore diverso punto per punto nello spaziotempo e che la trasformazione si propaghi ad una velocità finita, trasmessa da un qualche campo ignoto che siamo costretti a introdurre nella teoria:

Introduzione di un campo ignoto nella teoria per fare da mediatore nella trasmissione dell’informazione sulla fase tra i punti dello spaziotempo. “q” è una costante ignota.

Inoltre ora la teoria di Dirac ha perso la simmetria U(1), in quanto la parte di variazione comprende sia la variazione della funzione d’onda, sia la variazione dell’angolo che passa da θ costante a θ(x) funzione dello spaziotempo:

La richiesta che l’angolo di rotazione dipenda dallo spazio rompe la simmetria globale U(1)

quel termine aggiuntivo a destra rovina la festa, perché l’espressione non rimane uguale a se stessa dopo la trasformazione!

“Mi pare che andiamo di male in peggio. Ora non solo dobbiamo aggiungere alla teoria un campo ignoto per rispettare la relatività, ma abbiamo anche un pezzo in più dovuto alla variazione dell'angolo θ(x)! 

Non ha proprio nulla di simmetrico, non ne usciremo mai!"

Siccome nella realtà nessun esperimento è in grado di rivelare questo cambiamento di fase θ(x) che abbiamo effettuato matematicamente, vorremmo eliminare questa imbarazzante rottura della simmetria nella matematica della nostra teoria. E se la via d’uscita fosse proprio il campo ignoto che siamo stati costretti a postulare?

Per preservare sia la simmetria U(1) che la relatività ristretta, possiamo imporre che la nostra teoria sia simmetrica rispetto a un nuovo tipo di trasformazione.

Ad esempio una trasformazione del tipo:

Per quale motivo proprio questa trasformazione? Furbizia!
Infatti facendo entrambe queste trasformazioni, i termini aggiuntivi si eliminano e la nostra teoria rimane invariata, cioè abbiamo di nuovo una simmetria, che chiamiamo per ragioni storiche “simmetria U(1) di Gauge“.

L’azione combinata di entrambe le trasformazioni fa in modo di cancellare il termine aggiuntivo, la teoria è ora simmetrica.

Nasce l’elettrodinamica quantistica

Tramite alcune ragionevoli considerazioni si dimostra che il famigerato campo ignoto non è altro che il campo elettromagnetico. La teoria di Dirac descrive il comportamento delle particelle cariche in presenza di un campo elettromagnetico!

La costante “e” rappresenta la carica dell’elettrone, se vogliamo descrivere l’interazione di un elettrone con un campo elettromagnetico rappresentato da “A”.

Si è presentata la necessità dell’esistenza del campo elettromagnetico nel momento in cui abbiamo richiesto che venisse rispettata la relatività ristretta assieme alla simmetria U(1). Ciò ci ha condotto a considerare un nuovo insieme di trasformazioni sotto le quali la teoria è simmetrica: la U(1) di Gauge.

Inoltre la quantità conservata sotto questa nuova simmetria è proprio la carica elettrica.

La teoria ottenuta da queste considerazioni è nota come elettrodinamica quantistica, ed è la teoria del modello standard meglio verificata sperimentalmente.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Come l’antimateria nasce dalla relatività

Antiparticella = particella di uguale massa, ma con carica elettrica opposta

Il concetto di antimateria si è imposto praticamente da solo e prepotentemente, senza che nessuno lo abbia cercato di proposito, nel momento in cui sono state unificate meccanica quantistica e relatività ristretta alla fine degli anni ’20. Le prove sperimentali arrivarono fin dai primi anni ’30.
Oggi siamo in grado di produrre antimateria anche a fini medici (si pensi alla PET dove si sfruttano gli anti-elettroni, noti come positroni).

Ha un fascino particolare provare a seguire il percorso concettuale che, dalla relatività di Einstein, ha condotto alla teorizzazione dell’antimateria (dovuta a Dirac).

Facciamo finta di star scoprendo noi stessi il concetto di antiparticella in questo momento, e ripercorriamo tutte le tappe logiche fondamentali in cui potremo apprezzare il ruolo fondamentale giocato dalla teoria di Einstein.

L’energia di una particella

Nella meccanica quantistica ordinaria l’energia di una particella libera avente una quantità di moto p e una massa m si trova inserendo dentro l’equazione di Schrödinger la soluzione di onda piana (che è il modo quantistico di dire “particella esente da forze”). Il risultato è

La relatività di Einstein impone invece che tale espressione matematica per l’energia sia solo la versione approssimata della seguente

c è la velocità della luce

nell’approssimazione di quantità di moto molto piccole rispetto all’energia di massa. Fin qui nessun problema, la Fisica funziona così: quella che oggi sembra la forma definitiva di un’equazione, sarà l’approssimazione della versione più completa scoperta in futuro.

Il vero problema nasce quando si tenta di rendere l’equazione di Schrödinger relativistica

Lo schema è lo stesso: l’equazione non relativistica è solo l’approssimazione di quella relativistica, la quale, ad oggi, è la “vera equazione del moto” in quanto rispetta il principio di relatività di Einstein.

Il principio di relatività cambia la struttura matematica dell’equazione di Schrödinger, e se si prova a calcolare l’energia di una particella libera inserendovi al suo interno una soluzione di onda piana, si ottiene stavolta l’energia in questa forma curiosa e problematica

“Scusa, ma dove sta il problema? Abbiamo appena detto che la vera energia di una particella è data da quell'espressione brutta con m e c al quadrato e così via, non siamo contenti che l'equazione relativistica di Schrödinger restituisca la stessa energia per la particella libera?"

Il punto è che la struttura matematica dell’equazione di Schrödinger relativistica ci pone ora dinanzi a due vie, perché non ci dà l’energia, ma l’energia al quadrato!

Prima o poi nella vita siamo stati tutti mazziati dalla seguente proprietà matematica:

Ora il gioco è lo stesso, per la prima volta in Fisica l’equazione del moto di una particella esente da forze ci impone che l’energia possa essere data sia da un numero negativo che da un numero positivo

“E che ci vuole? Buttiamo via la soluzione negativa come si fa a scuola. Non esistono particelle libere con energia negativa!"

Facciamo però l’avvocato del diavolo e scegliamo di ascoltare la matematica imposta dalla relatività ristretta (ha sempre portato bene nella storia della Fisica!). Facciamo finta che possa esistere una particella ad energia negativa.

Come si comporta una particella di energia negativa?

L’energia in meccanica quantistica è importante perché ci dice come si evolve, nel tempo, la dinamica di una particella. Tale evoluzione è descritta, in soldoni, da

è insomma un esponenziale di un certo numero (di Eulero) avente come esponente il prodotto tra il numero complesso “i”, l’energia “E” e il tempo “t”. Non soffermarti sul perché, non è questo il punto.

Concentrati solo sul fatto che l’evoluzione dipende dal prodotto tra energia e tempo.

Se l’energia di una particella è negativa, il prodotto viene mandato in:

Ed ora è il momento di dire la cruda verità: ai fisici non piace per niente il fatto che le particelle possano avere energie negative, perché ci sarebbero non pochi problemi riguardo alla stabilità stessa della materia (mancherebbe un limite inferiore all’energia, un fatto molto pericoloso perché la natura vuole sempre occupare stati a energia minore).

Ma allora è tutto da buttare?


Continuiamo a fare gli avvocati del diavolo. Forse c’è un modo interessante di interpretare quel segno meno nel prodotto.

Continuiamo a seguire ciò che ci ha insegnato la relatività ristretta sulla struttura spaziotemporale della nostra realtà.

Questione di interpretazione: lo spaziotempo di Einstein

Supponiamo di osservare due eventi (contrassegnati da “1″ e “2″) che accadono in due punti dello spazio e a due istanti di tempo diversi. Li annotiamo sul nostro taccuino come

Ipotizziamo che, secondo noi, l’evento 1 sia avvenuto prima dell’evento 2. Matematicamente chiediamo quindi che sia

Se un altro osservatore in moto con una velocità costante “v” rispetto a noi osserva gli stessi eventi, annoterà anche lui i due eventi sul suo taccuino usando le sue personalissime coordinate

Einstein ci ha insegnato a collegare le due descrizioni dello stesso evento con la seguente trasformazione:

dove “γ” è una quantità positiva che dipende dalla velocità, di cui non devi preoccuparti.

Preoccupiamoci invece di sottrarre le due equazioni di sopra per ottenere la differenza tra gli istanti di tempo dei due eventi rilevati dall’osservatore in moto, rispetto alle nostre coordinate (così per curiosità, perché non farlo?)

La matematica della relatività ci tenta di porre la seguente domanda “e se la differenza tra i due istanti di tempo per il secondo osservatore fosse negativa?”. Ciò si tradurrebbe in:

La seconda condizione è possibile se la velocità del secondo osservatore è tale che

A patto però, come dicono le regole di Einstein, che v non superi la velocità della luce. Cioè deve essere

L’ultima condizione ci dice che la distanza spaziale tra i due eventi deve essere maggiore della distanza percorsa da un raggio di luce (di velocità c) nel tempo che intercorre tra i due eventi stessi. Se gli eventi soddisfano questa particolare caratteristica, allora è possibile trovare un osservatore con una velocità v tale da rendere

ovvero l’ordine degli eventi è invertito per il secondo osservatore: secondo lui è successo prima l’evento “2″ dell’evento “1”.

In relatività ristretta è permesso che l’ordine temporale degli eventi possa essere invertito dal punto di vista di un osservatore in moto

“Aspetta un attimo, ma questo mi consentirebbe di vedere la gallina prima dell'uovo, no? Non c'è un problema di causa-effetto?"

Ottima osservazione, ma non c’è nessun problema! Infatti l’inversione temporale avviene solo per eventi che non possono essere connessi da alcuna relazione causale: non ci può essere trasmissione di informazioni tra eventi che distano nello spazio più della distanza percorribile dalla luce nel tempo che li separa! Lo abbiamo incluso tacitamente nella condizione:

“Ok...e quindi? Cosa c'entrano nella fisica gli eventi senza connessione causale? La fisica è fatta di causalità! Mi pare che tu stia a chiacchierare di metafisica!“

Ora interviene la meccanica quantistica!

Per il principio di indeterminazione di Heisenberg, è possibile che una particella si propaghi da un punto all’altro dello spazio anche se questi due punti non sono connessi causalmente.

Se una particella viene emessa in un punto A ed assorbita in un punto B (e tali punti non sono causalmente connessi per ipotesi) allora un osservatore che si muove con una certa velocità (calcolata sopra), vedrebbe l’assorbimento della particella nel punto B in un tempo che precede l’istante in cui viene emessa nel punto A.

Come si esce da questo paradosso?

L’interpretazione di Feynman-Stückelberg

Il fisico americano Richard Feynman

Torniamo al prodotto tra energia e tempo per quanto riguarda l’evoluzione temporale di una particella. Avevamo detto che se l’energia è negativa abbiamo

Immagina che io ti abbia bendato gli occhi e avessi messo il segno meno davanti al prodotto senza dirti a quale fattore è stato applicato. Potrei benissimo aver cambiato segno a “t” invece che all’energia, senza dirti nulla. Il risultato è a tutti gli effetti equivalente:

Matematicamente non cambia nulla, ma il risultato è rivoluzionario:

Una particella di energia negativa può essere pensata anche come una particella di energia positiva che si muove indietro nel tempo!

Questa è l’interpretazione di Feynman-Stückelberg, i quali volevano cancellare dall’esistenza il concetto di energia negativa. Dal punto di vista delle interazioni tra le particelle, la relatività prevede l’inversione temporale, come abbiamo discusso sopra.

“Ma che senso ha questa propagazione indietro nel tempo? A me pare ancora che si stia parlando di metafisica qui..."

Hai ragione. Infatti bisogna sedersi un attimo e ragionare su cosa significhi, dal punto di vista fisico, l’inversione temporale.

L’interpretazione dell’inversione temporale

Generalmente classifichiamo le particelle in base al modo in cui si comportano nelle interazioni fondamentali. In particolare ci interessa studiarne la traiettoria in una regione in cui è presente un campo elettromagnetico.

L’accoppiamento tra una particella e un campo elettromagnetico ha un nome tutto suo: la carica elettrica “q”.

La forza elettromagnetica su una carica “q” modifica la sua traiettoria accelerandola.

Le particelle descrivono traiettorie in una certa direzione, in base al segno della carica “q”, che può essere positivo o negativo.

Tra tutti i simboli dell’equazione appena scritta, concentriamoci solo sul tempo “τ“. Ci sono solo due termini che contengono il tempo esplicitamente, ed entrambi si trovano al denominatore ed appaiono come

Se invertiamo il tempo, otteniamo che il termine a sinistra non cambia (essendo un quadrato). Quindi cambia solo il secondo e si ha

Quindi sotto inversione temporale compare un segno meno globale per tutta l’equazione.
Ora immagina di nuovo che io ti abbia bendato gli occhi e avessi fatto spuntare fuori questo segno meno senza dirti che ho invertito il tempo. Potresti benissimo interpretare il segno meno in questo modo

Dal punto di vista sperimentale, l’effetto è quello di aver invertito il segno della carica elettrica. Le equazioni del moto relativistiche ci dicono che invertire il tempo si traduce, sperimentalmente, come il moto di una particella di carica elettrica opposta.

Una particella di energia positiva che si muove indietro nel tempo può essere interpretata come una particella di energia positiva, ma con carica opposta, che si muove avanti nel tempo.

Ecco che sparisce tutta la stranezza dell’inversione temporale! Ed ecco cosa ci ha insegnato la relatività ristretta applicata alla meccanica quantistica!

Le particelle ad energia negativa possono essere interpretate come delle particelle ad energia positiva che si muovono avanti nel tempo, ma che hanno carica opposta.

Oggi abbiamo un nome particolare per questo tipo di particelle che differiscono dalle particelle originali solo per il segno della carica elettrica e degli altri numeri quantici: le antiparticelle.

Una particella di energia negativa può essere interpretata come un’antiparticella di energia positiva che si muove, come tutte le altre particelle, avanti nel tempo. L’antiparticella differisce dalla particella solo per il segno della carica elettrica e di altri numeri quantici.

In questo modo abbiamo risolto anche il paradosso enunciato sopra:

Mettiamo che io veda una particella emessa in un punto A ed assorbita in un punto B. Come ci dice la relatività un altro osservatore potrebbe invece vedere una particella assorbita in B in un istante che precede la sua emissione nel punto A (se A e B non sono connessi causalmente). Ma ora sappiamo che ciò equivale ad osservare una particella di carica opposta che viene emessa in B ed assorbita in A. La causalità è salva.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’Università di Pisa, fa ricerca sulle simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.

È membro della Società Italiana di Fisica.

È autore del libro “L’apprendista teorico” (2021).

Come la particella di Majorana potrebbe rivoluzionare la Fisica

Perché il neutrino?

Le particelle più famose sono notoriamente:

ProtoneElettroneNeutrone
Carica elettrica: +1 -1 0
La carica è data in unità della carica elementare dell’elettrone.

le quali erano le uniche particelle note al tempo in cui si studiavano i primi meccanismi nucleari (agli inizi degli anni 30′). Furono proprio i primi esperimenti sui nuclei a suggerire l’esistenza di una nuova, inedita particella elementare.

Il decadimento beta dei nuclei
Negli esperimenti si notava che alcuni nuclei erano in grado di emettere spontaneamente degli elettroni, con il nucleo che di conseguenza finiva per trasformarsi in quello dell’elemento successivo nella tavola periodica.

 
“Aspetta rallenta un attimo, quindi gli elettroni stanno dentro al nucleo e poi vengono rilasciati? Non torna mica con il modellino dell'atomo che s'è fatto a scuola!"


No: gli elettroni non possono “vivere” dentro i nuclei, perché sono troppo leggeri. I nuclei sono abitati da protoni e neutroni. Quindi questa emissione doveva essere spiegata in un altro modo. La teoria proposta era questa:
Dentro al nucleo un neutrone può trasformarsi in un protone (ciò spiega l’aumento del numero atomico nucleare) al prezzo di produrre anche un elettrone (al fine di lasciare inalterata la carica elettrica originale).
La reazione dovrebbe quindi essere

Un neutrone nucleare si trasforma in un protone più un elettrone

Il protone rimane confinato nel nucleo, mentre l’elettrone riesce a sfuggire con una certa energia ben definita dal punto di vista teorico.

Sperimentalmente invece l’energia dell’elettrone era tutt’altro che ben definita, ma distribuita in un certo intervallo.

Questo poteva voler dire due cose: o l’energia totale non si conserva, o l’energia dell’elettrone viene un po’ distribuita anche in quella di una terza particella invisibile emessa nel decadimento

Nessuno vuole mai sacrificare il principio di conservazione dell’energia, ma allo stesso tempo negli esperimenti non si vedeva nessuna “terza particella”, quindi che alternative avevano i fisici?
Inoltre siccome il processo deve conservare la carica elettrica totale, partendo da un neutrone (che è neutro come dice il nome) e arrivando a un protone più un elettrone (la cui carica totale è nulla), l’aggiunta di una terza particella senza intaccare la carica totale sarebbe possibile solo se tale particella fosse neutra.


In sintesi la “terza particella” deve soddisfare questo identikit:

  • Deve essere neutra
  • Deve interagire poco con le altre particelle (il motivo per cui non la vediamo sperimentalmente)
  • Deve essere molto leggera (per spiegare i dati sperimentali).

Enrico Fermi propose il nome “neutrino” per ovvie ragioni (ma non perché è “figlio del neutrone”: sono particelle davvero molto diverse, non farti ingannare dal nome). La reazione completa è quindi

La reazione corretta con l’aggiunta del neutrino

Il problema della massa del neutrino

I dati sperimentali lasciavano presagire che il neutrino dovesse avere una massa piccolissima, e che dovesse essere strutturalmente analogo all’elettrone, ma con carica nulla.

Siccome le particelle vengono catalogate in base a come trasformano sotto le simmetrie, il neutrino trovò subito la sua perfetta catalogazione nel ruolo di “particella di spin 1/2 con massa molto piccola” .

Le particelle di spin 1/2 sono descrivibili con due blocchetti matematici fondamentali:

I campi L e i campi R

Non soffermarti sui loro nomi per ora, sappi solo che si riferiscono al modo in cui entrambi trasformano sotto la simmetria di Lorentz (per saperne di più leggi questo).

Solitamente le particelle di spin 1/2 come gli elettroni possono essere pensate come la composizione di questi due blocchetti L e R perché partecipano sia ai tipi di interazione L sia ai tipi di interazione R.

Ora un fatto importante:

Per costruire una particella di spin 1/2 massiva occorrono entrambe le componenti L e R

D’altra parte i neutrini, in tutti i processi noti, interagivano solo con la componente L. Questa fu una conferma del fatto che il neutrino dovesse avere una massa esattamente uguale a zero: infatti siccome interagisce solo con la parte L, e siccome non è possibile descrivere una particella massiva con solo la parte L senza una parte R (si otterrebbe una teoria che viola il principio di relatività), allora il neutrino poteva benissimo essere descritto con un unico blocchetto L e avere massa nulla.

Due piccioni con una fava: Ettore Majorana

Ogni particella ha la sua antiparticella (di uguale massa e con carica opposta): l’elettrone ha il positrone, il protone ha l’anti-protone e il neutrone ha l’anti-neutrone.

Le anti-particelle sono ciò che si ottiene quando si mischia la teoria quantistica con la teoria della relatività, per cui sono un qualcosa di abbastanza fondamentale.
Per questo motivo anche il neutrino doveva avere un’antiparticella: l’anti-neutrino. Se il neutrino interagisce solo tramite un campo L, l’anti-neutrino interagisce solo tramite un campo R. Tutto torna matematicamente.

“Non me la bevo mica questa! Una particella di uguale massa e carica opposta si chiama anti-particella...ma il neutrone non ha carica, come si fa a distinguerlo dall'antineutrone?"

Il neutrone ha una struttura interna composta da quark: è possibile distinguerlo dall’anti-neutrone con alcuni esperimenti ben congegnati. Però hai sollevato un dubbio interessante che potrebbe riguardare il neutrino:

Chi ci dice che neutrino e antineutrino non siano in realtà la stessa particella? Dopotutto sono neutri…

e dopotutto non hanno una struttura interna di quark (essendo fatti della stessa pasta degli elettroni).

Purtroppo c’è un problema: se sono la stessa particella, come mai interagiscono in modo diverso? Il neutrino interagisce solo come blocchetto L e l’anti-neutrino solo come R. Una bella gatta da pelare.

Poi arrivò il genio di Majorana e prese due piccioni con una fava:

È possibile costruire una teoria che rispetti il principio di relatività a partire da un blocchetto L e un blocchetto R, ma con quest’ultimo costruito a partire da un blocchetto L tramite il meccanismo della coniugazione di carica. Un neutrino può quindi essere descritto da

campo L + C ( campo L)

con “C” si intende il meccanismo della coniugazione di carica

questa costruzione impone che neutrino e anti-neutrino sono la stessa particella: quello che in precedenza era visto come anti-neutrino era in realtà la componente R costruita con “C(L)”.

La cosa più sorprendente dell’intuizione di Majorana era però un’altra: s’era detto poco fa che si possono costruire particelle di spin 1/2 massive solo se hanno entrambe le componenti L e R: ebbene ora il neutrino di Majorana le ha entrambe, quindi è possibile dargli una massa ed ottenere allo stesso tempo una teoria che rispetti il principio di relatività!

Il neutrino di Majorana ha una massa

Per anni il lavoro di Majorana fu trascurato perché la comunità scientifica era invece fermamente convinta che i neutrini dovessero avere massa nulla, e per distinguerli dai neutrini di Majorana, furono chiamati neutrini di Weyl del modello standard. In questo modello il neutrino e l’anti-neutrino sono particelle distinte.

Ettore Majorana 1906 – 1938 (morte presunta)

Inoltre i neutrini di Weyl permettevano matematicamente la conservazione di un certo “numero leptonico” (un numero quantico derivante da una simmetria accidentale, cioè non giustificata teoricamente), il quale era un concetto molto caro ai fisici dell’epoca.
Il neutrino di Majorana avrebbe invece distrutto la simmetria del numero leptonico, per via della sua struttura matematica (campo L più campo C(L)). Un prezzo alto da pagare.

Lo scacco matto: i neutrini hanno massa!

La svolta arrivò con la scoperta del meccanismo di oscillazione dei neutrini. La cosa più importante che devi sapere di questo meccanismo è che letteralmente non potrebbe avvenire se i neutrini avessero massa nulla:

L’oscillazione dei neutrini IMPLICA che i neutrini hanno massa!

Tale fatto era prettamente sperimentale e si traduce nella questione seguente: la massa c’è, ma di che massa si tratta?

Massa di Dirac o massa di Majorana?

  • Una massa di Dirac cioè un neutrino composto da campi L e R che però interagisce solo con L;
    e l’anti-neutrino (distinto dal neutrino) composto anche lui da L e R, ma che interagisce solo con R.
    Le componenti R e L di neutrino e anti-neutrino rispettivamente sarebbero sterili (non partecipano alle interazioni).
  • Una massa di Majorana cioè il neutrino e l’anti-neutrino sono la stessa particella.

La massa di Dirac manterrebbe conservato il numero leptonico, mentre la massa di Majorana no. La massa di Dirac implica l’esistenza di componenti sterili del neutrino (che non partecipano alle interazioni), un fatto abbastanza misterioso. La massa di Majorana non ha bisogno di misteriose componenti sterili.

Conseguenze: la fine di una simmetria

Come possiamo sapere se la massa dei neutrini è di Dirac o di Majorana? Basta cercare un processo di neutrini che comporti la violazione del numero leptonico. Un processo di questo tipo è noto come “doppio decadimento beta senza neutrini” ed è molto raro, cioé molto difficile da rilevare sperimentalmente (vedi esperimento CUORE).

Se si dovesse osservare tale processo si dimostrerebbe una volta per tutte che i neutrini sono particelle di Majorana (a quasi un secolo dalla sua prematura scomparsa) e si aprirebbero nuovi orizzonti oltre il Modello Standard delle particelle: ad esempio la violazione del numero leptonico potrebbe dare nuova linfa ai modelli cosmologici che cercano di spiegare perché ci sia più materia che anti-materia nel nostro universo!


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Come lo spin nasce dalla relatività

Lo spin è uno dei concetti più astratti da capire in un qualunque corso base di scienza dell’atomo. Spesso se ne dà una rappresentazione “intuitiva” o “semi-classica” come il risultato della rotazione della particella intorno al proprio asse, lasciando ai più curiosi tanti, troppi interrogativi.
Un secolo di teoria quantistica dei campi ci ha invece aiutato a comprendere che la “biglia rotante” è solo un’ approssimazione (seppur molto utile) di un concetto dietro al quale si cela praticamente tutta la struttura della nostra realtà: la relatività speciale.

La scoperta che le particelle hanno uno spin è uno dei trionfi della fisica sperimentale, ma come viene interpretato lo spin nella fisica teorica moderna?

Il principio di relatività e la simmetria di Lorentz

La fisica è fatta di fenomenologia, e tali fenomeni sono studiati dagli osservatori, che possiamo essere tutti noi. Possiamo prendere righello e compasso e tracciare la traiettoria di un corpo sulla nostra personalissima cartina di coordinate.
Un osservatore è detto inerziale se può concordare con tutti gli osservatori che si muovono con velocità costante rispetto a lui su un fatto molto semplice: un corpo esente da forze si muove di moto rettilineo uniforme.
Il punto però è che:

Non esiste un osservatore inerziale più speciale di altri

Se io uso la mia cartina di coordinate, e Pino (che si muove con velocità costante rispetto a me) usa la sua cartina di coordinate, dobbiamo concordare sulle leggi della fisica dei fenomeni che stiamo osservando, per cui deve esistere una trasformazione che colleghi le mie coordinate con le sue: una traduzione da una lingua all’altra che preservi la struttura delle leggi fisiche.

Questo è quello che ci disse Galileo con il suo principio di relatività

Due osservatori inerziali descrivono lo stesso fenomeno fisico usando le loro coordinate. La traduzione che lega i due set di coordinate si chiama “Trasformazione di Galileo” e lascia invariate in forma le leggi della fisica.

Dopodiché venne Einstein e si accorse che le trasformazioni di Galileo non lasciavano invariata la velocità della luce vista da osservatori inerziali, e siccome ciò era in conflitto con le leggi dell’elettromagnetismo, Einstein disse che la relatività di Galileo era solo un’approssimazione di un tipo di trasformazioni di coordinate molto speciale: le trasformazioni di Lorentz

Le trasformazioni di Lorentz lasciano invariata la velocità della luce vista da tutti gli osservatori inerziali dell’universo.

Esiste quindi una struttura matematica ben precisa che permette di tradurre un set di coordinate in un altro, e tale struttura matematica lascia invariate le leggi della fisica ed anche la velocità della luce: è la simmetria di Lorentz.


Le leggi di Newton non rispettano la simmetria di Lorentz, perché sono un’approssimazione che rispetta invece la simmetria di Galileo. La relatività di Einstein ci insegna quindi a teorizzare delle leggi che rispettino la simmetria di Lorentz.

La ricerca di leggi che rispettano la simmetria di Lorentz ci ha condotto a nuova fisica e risultati confermati sperimentalmente

Simmetrie e generatori: la teoria quantistica dei campi

Nella fisica ogni simmetria genera una quantità conservata, e tale quantità può essere interpretata, matematicamente, come il generatore della simmetria.

  • La simmetria per traslazioni implica la conservazione della quantità di moto. Matematicamente una traslazione nello spazio può essere generata dalla quantità di moto.
  • La simmetria per rotazioni implica la conservazione del momento angolare. Matematicamente una rotazione nello spazio può essere generata dal momento angolare.
  • La simmetria per traslazioni temporali implica la conservazione dell’energia. Matematicamente l’evoluzione temporale può essere generata dall’energia di un sistema.
  • …..

e così via.
La relatività di Einstein ha postulato che il mondo debba rispettare una simmetria molto speciale: la simmetria di Lorentz. In questo caso la quantità conservata è una sorta di combinazione tra momento angolare e quantità di moto, che diventano quindi i generatori matematici della simmetria.

Questi generatori soddisfano alcune regole di composizione matematica, e tale fatto permette di rappresentarli in alcuni spazi molti speciali di oggetti matematici. Tali oggetti possono poi essere usati per descrivere i campi delle particelle quantistiche.

Il punto è che gli oggetti che vivono negli spazi delle rappresentazioni dei generatori di simmetria, trasformano in un modo ben specifico sotto la simmetria di Lorentz: questo permette di classificarli.

Siccome i fisici classificano le cose in base a come si comportano sotto le simmetrie, questo fatto ha permesso di catalogare tutte le particelle rivelate sperimentalmente.

Lo spin

Le diverse rappresentazioni dei generatori della simmetria di Lorentz possono essere catalogati con degli speciali numeri interi o semi-interi

E sono questi numeri a decidere in che modo speciale deve trasformare l’oggetto delle rappresentazione
j-esima sotto la simmetria di Lorentz.

Il passo successivo è costruire, per ciascun oggetto che trasforma nel suo modo speciale, una teoria invariante di Lorentz: una teoria di campo i cui quanti di eccitazione sono proprio particelle che, sperimentalmente, interagiscono con il mondo proprio in base al numerino speciale j, altrimenti detto spin.

I campi costruiti con gli oggetti degli spazi j descrivono le particelle che conosciamo:

  • Le particelle con spin j=0: come il bosone di Higgs
  • Le particelle con spin j=1/2: come gli elettroni, i protoni ecc.
  • Le particelle con spin j=1: come il fotone.

Lo spin è quindi un modo per dire “come trasforma quella particella sotto simmetria di Lorentz”?

Le rappresentazioni j della simmetria continuano fino a infinito, nulla lo vieta. Tuttavia non abbiamo ancora osservato sperimentalmente particelle elementari con spin superiore a j=1.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile a tutti e insegnare le tecniche matematiche necessarie a una sua comprensione. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg



Da dove nascono i princìpi di conservazione della Fisica?

La parola “conservazione” è una delle più ripetute su tutti i libri di fisica, ed è una delle prime parole prettamente “teoriche” imparate da bambini, a cui viene insegnata la “conservazione della massa” e dell’energia ancora prima di arrivare al liceo.
Quello che però non gli viene insegnato è il “perché” la scienza sia governata da princìpi di conservazione, ma c’è poco da biasimare: nessuno lo sa. Tuttavia la fisica teorica dell’ultimo secolo ha trovato il modo di interpretare matematicamente questo fatto, e il risultato è delizioso, ma ha a che fare con due concetti fondamentali: la trasformazioni e la simmetria sotto trasformazioni.

Trasformazioni e simmetrie

Detto in soldoni la fisica studia il comportamento dei sistemi sotto particolari tipi di trasformazione.

Se a un fisico presenti un qualsiasi oggetto, la prima cosa che gli interessa è controllare come reagisce l’oggetto sotto una trasformazione.

Un esempio di oggetti che possiamo descrivere con una proprietà di forma geometrica.
A sinistra un oggetto simmetrico sotto una riflessione attorno al suo asse verticale, a destra un oggetto asimmetrico sotto la stessa trasformazione.

Tutta la scienza fa ciò: prende un oggetto e ne verifica il comportamento sotto alcune trasformazioni, perché nei secoli si è capito che questo è il miglior modo per studiare il mondo che ci circonda.
Un esempio tipico di trasformazione è la rotazione spaziale: si tratta di ruotare gli oggetti attorno a qualsiasi asse passante per essi. Una volta effettuata la trasformazione ci si può chiedere quali proprietà dell’oggetto si vogliono indagare.
Ad esempio puoi prendere in mano il tuo telefono ed elencarne alcune proprietà:
La prima proprietà può essere quella ontologica: il telefono è un telefono perché è costruito in modo da funzionare come un telefono. La seconda proprietà può essere funzionale: la facciata del telefono ha funzione di touchscreen, mentre il retro non ha questa funzione. Una terza proprietà può essere la forma geometrica: un telefono è rettangolare.

Eseguiamo una trasformazione: ruotiamo il telefono di 180 gradi rispetto al suo asse verticale, cioè giriamolo in modo che ora il retro sia rivolto verso di noi.

Una volta ruotato il telefono possiamo chiederci: come sono cambiate le proprietà che avevamo elencato?

  • La prima proprietà non può variare: un telefono rimane tale indipendentemente da che angolo lo guardi.
  • La seconda proprietà varia, perché ora non puoi usare il touchscreen sul retro.
  • La terza proprietà non varia: un telefono rimane di forma rettangolare anche se ruotato.
La forma geometrica di una sfera è simmetrica sotto qualsiasi rotazione.

Possiamo quindi classificare il telefono come un oggetto le cui proprietà variano in questo modo sotto una rotazione spaziale di 180 gradi attorno al suo asse verticale.
I fisici teorici lavorano così.

Se una certa proprietà rimane uguale a se stessa sotto una trasformazione, diremo che quella proprietà è una simmetria sotto quella trasformazione.

La simmetria è una “immunità” a una certa trasformazione.

Facciamo un altro esempio. Consideriamo la sfera in figura, caratterizzata da un simbolo a forma di stella sulla sua superficie. Questa sfera può essere caratterizzata da due proprietà: la sua forma geometrica e la posizione della stellina. Potremmo classificare questo oggetto chiamandolo anche “sfera con una stellina in alto a sinistra”.

È intuitivo che sotto qualsiasi rotazione la sfera rimanga una sfera ai nostri occhi, ma la proprietà “stellina in alto a sinistra” cambia in base al tipo di rotazione. Ad esempio se riflettiamo la sfera attorno al suo diametro orizzontale, ora la proprietà cambierà in “sfera con stellina in basso a sinistra”.

La lezione da portare a casa è che non tutte le proprietà con cui possiamo descrivere un oggetto rimangono invariate sotto una trasformazione, e non c’è nulla di male in ciò. Una simmetria va sempre riferita al tipo di trasformazione effettuato.
Possiamo dire che una sfera è simmetrica sotto rotazione, ma non possiamo dire che “sfera con stellina in alto a sinistra” rimane simmetrica sotto qualsiasi rotazione, ma magari solo per rotazioni di 360 gradi.

La conservazione e il teorema di Noether

Una classe speciale di trasformazioni in fisica sono le traslazioni. Possiamo considerare un certo sistema e segnare la sua posizione tramite degli assi cartesiani. In questo modo possiamo elencare alcune proprietà: ad esempio la massa dell’oggetto e la sua interazione con l’ambiente circostante, il suo moto ecc.

Una particella in uno spazio completamente vuoto e identico in ogni suo punto.

Per essere concreti consideriamo una particella in uno spazio completamente vuoto e identico in ogni suo punto. Siccome lo spazio è vuoto ed identico in ogni suo punto, se spostiamo la particella in un altro punto le sue proprietà di moto non possono variare, altrimenti significherebbe che una qualche posizione spaziale è più speciale di altre, in contraddizione con l’ipotesi di spazio identico.
Non solo la proprietà di “particella” rimane invariata sotto la traslazione spaziale, ma anche le sue proprietà di moto.

La simmetria delle proprietà di moto viene chiamata quindi “conservazione” di una certa quantità, che in questo caso è la quantità di moto: una particella, come ci diceva Galileo, prosegue indisturbata nel suo moto rettilineo in assenza di forze, o rimane ferma se era già ferma.

Se invece ci fosse una forza, generata da una sorgente localizzata nello spazio, allora perderemmo l’equivalenza dei punti spaziali: non può esserci conservazione della quantità di moto, perché la quantità di moto varia in base alla forza applicata.

Non tutte le proprietà rimangono simmetriche sotto una certa trasformazione. Supponiamo però che ora la sorgente di forza abbia una simmetria circolare, cioè che la forza sia la stessa lungo una circonferenza immaginaria centrata attorno alla sorgente.
In tale modo abbiamo ottenuto una simmetria sotto rotazioni attorno all’asse della sorgente. Per via di questa simmetria la traiettoria della massa è influenzata allo stesso modo indipendentemente da che angolo formi rispetto alla posizione della sorgente, ciò consente la conservazione di un’altra proprietà di moto: il momento angolare.

Abbiamo perso la conservazione della quantità di moto, ma abbiamo guadagnato la conservazione del momento angolare, che nasce da un’altra simmetria del sistema sorgente-particella.

Emmy Noether, fisica matematica tedesca. Nel 1915 pubblicò uno dei risultati più spettacolari della fisica teorica.

Il pattern è chiaro: una certa simmetria spaziale di un sistema fisico genera la conservazione di una certa proprietà del suo moto, e questo è il contenuto del teorema di Noether. Il risultato è spettacolare:

Le leggi di conservazione nascono dalle
simmetrie.


Emmy Noether era contemporanea di Einstein, il quale proprio in quegli anni ci insegnò che spazio e tempo devono fare parte di un unico concetto: lo spaziotempo. Se consideriamo le traslazioni spaziali dobbiamo quindi considerare anche le traslazioni temporali e studiare le trasformazioni dei sistemi fisici sotto tali traslazioni.

Il principio di conservazione dell’energia nasce proprio dalla simmetria sotto traslazioni temporali: se le interazioni di un sistema non variano nel tempo, deve conservarsi il suo contenuto energetico.

Energia e quantità di moto sono quindi due proprietà di un sistema che rimangono invariate sotto una traslazione temporale per la prima, e spaziale per la seconda.

Ciò aprì le porte alla fisica delle simmetrie, che ha permesso la classificazione di tanti tipi di interazione, con le relative particelle mediatrici. Infatti molti oggetti della fisica vengono classificati semplicemente in base a come trasformano: il modo che abbiamo di distinguere un processo di interazione da un altro è proprio osservarne il comportamento sotto trasformazioni. Nel tempo sono state studiate tante altre simmetrie:

  • La simmetria di inversione spaziale.
  • La simmetria di inversione temporale.
  • La simmetria sotto cambi di coordinate.
  • La simmetria sotto cambi di sistemi di riferimento inerziale.
  • ….

e da ciascuna di queste simmetrie è nata una teoria capace di spiegare i risultati sperimentali. Ad esempio la richiesta di simmetria di alcune quantità fisiche sotto un cambio di coordinate tra due sistemi in moto uniforme ha condotto alla relatività di Einstein. Oggi le nuove teorie della fisica vengono costruite sui princìpi di simmetria.



PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile a tutti e insegnare le tecniche matematiche necessarie a una sua comprensione. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Le radici quantistiche della Fisica classica: da dove arriva il principio di minima azione?

Probabilmente avrai sentito parlare delle proprietà degli oggetti quantistici, in particolare della doppia natura ondulatoria-corpuscolare delle particelle. Avrai anche sentito da qualche parte che il mondo macroscopico è solo un’approssimazione di quello quantistico, ma forse non ti è mai stato detto in che senso.

Anche il mondo macroscopico è misterioso!

La fisica macroscopica è dominata dal misteriosissimo principio dell’azione stazionaria, il cui enunciato è:

La traiettoria seguita da un corpo è tale da estremizzare il prodotto fra la differenza di energia cinetica e potenziale e il tempo impiegato a percorrere la traiettoria.

Una traiettoria che unisce i punti A e B per un corpo in caduta libera. La suddividiamo in varie porzioni e per ciascuna calcoliamo la differenza tra energia cinetica T e potenziale U, moltiplicando poi per il tempo impiegato ∆t.

In soldoni: una massa in caduta libera (e quindi sottoposta al potenziale gravitazionale) segue, come sappiamo, una traiettoria rettilinea dall’alto verso il basso.

Fin qui nulla di speciale, non può mica fare le piroette per aria un grave, giusto? Sì, però perché? Andiamo a vedere cosa ha di speciale questa traiettoria.

Se per ogni porzione piccolissima di questa traiettoria calcoliamo la differenza tra energia cinetica ed energia potenziale del grave, e poi moltiplichiamo tale differenza per il tempo impiegato a percorrere tale porzione, e poi sommiamo tutti i risultati delle singole porzioni, otteniamo un certo numero che chiamiamo “S”.

Tieni bene a mente questo numerino “S” dato che è molto speciale, calcolabile per qualsiasi traiettoria e sistema fisico. In sostanza è un’indicazione di quanto eccesso di energia cinetica rispetto all’energia potenziale abbiamo avuto nella traiettoria, e per quanto tempo lo abbiamo avuto.


Se ora immaginiamo di avere poteri soprannaturali per modificare la traiettoria del grave in qualsiasi modo preferiamo, e rifacciamo lo stesso calcolo, scopriamo che è letteralmente impossibile ottenere un valore più basso di quello ottenuto prima, che era “S”. La traiettoria naturale del grave è tale da rendere minimo il numero “S”.

Tradotto: puoi immaginare di far compiere al grave qualche piroetta in aria, prima di farlo cadere dal punto più alto al punto più basso, e il numerino ”S” che provi a calcolare risulterà sempre maggiore di quello ottenuto con la traiettoria rettilinea naturale.
Se invece fai compiere al corpo traiettorie molto vicine a quella naturale, il numero ”S” si discosterà pochissimo da quello originale, cioè ∆S=0.

I punti A e B possono essere uniti da tante traiettorie immaginarie. Il principio dell’azione stazionaria ci dice che la traiettoria effettivamente seguita in natura è quella che estremizza il numero “S”.

I fisici calcolano in questo modo le traiettorie dei corpi nella meccanica classica, cercando cioè quella che minimizza il numero “S”.

Il mistero:


Il motivo per cui ciò debba essere così è letteralmente un mistero: perché la natura fa seguire delle traiettorie che estremizzano o minimizzano quella quantità, e scarta tutte le altre traiettorie?


In che modo il principio più importante della fisica teorica ci è suggerito dalle leggi quantistiche?

La soluzione:

Procediamo per piccoli step. Forse avrai già visto da qualche parte questa immagine, riguardo il comportamento degli oggetti quantistici

Se pratichiamo due fori su una parete S2 e vi facciamo passare un fascio di oggetti quantistici, le loro posizioni di arrivo sullo schermo F si dispongono a strisce, con un pattern ben determinato di interferenza. Se la natura di tali oggetti fosse solo corpuscolare ci aspetteremmo invece, come suggeritoci dall’intuito, solo due strisce, in corrispondenza dei fori.

Questa figura di interferenza è dovuta al fatto che gli oggetti quantistici si comportano come onde, e le onde hanno un modo molto speciale di interagire con l’ambiente: in corrispondenza dei due fori vengono a crearsi due nuove versioni dell’onda incidente, che finiscono poi per interferire tra loro: dove l’interferenza è costruttiva sullo schermo F, osserviamo un massimo (striscia chiara), mentre dove l’interferenza è distruttiva osserviamo un minimo (striscia scura).

I fisici quantistici interpretano il comportamento ondulatorio dicendo “Ok, alla particella è associata una certa ampiezza di probabilità (l’ampiezza dell’onda), e l’ampiezza totale di probabilità di trovare la particella su F deve essere data dalla somma delle ampiezze dei due fori”. La probabilità si trova poi facendo il quadrato dell’ampiezza totale, per cui la probabilità di arrivo in F è

Il quadrato della somma è diverso dalla somma di quadrati. Il termine misto è responsabile dell’interferenza.

Che succede se pratichiamo tre fori invece che due? Indovinato, dobbiamo sommare anche la terza ampiezza e fare il quadrato della somma delle tre. Se invece usiamo quattro fori? La stessa cosa. Ormai dovrebbe essere chiaro.
E se volessimo essere malefici e usare due pareti invece che una sola?

La probabilità di arrivare in O si ottiene facendo il quadrato della somma delle ampiezze B1,B2,B3, ma la probabilità che la particella arrivi in B1,B2 o B3 è data anch’essa dal quadrato della somma delle probabilità di A1,A2,A3. Si può ripetere il ragionamento ricorsivamente aggiungendo altre pareti.

Il fascio di oggetti quantistici parte dalla sorgente S e deve attraversare ora ben due pareti: si “propaga” in maniera probabilistica da ciascun foro A1,A2,A3 verso ciascuno dei fori B1,B2,B3,B4, dai quali, nuovamente, si propagherà per essere raccolto dallo schermo nel punto O con una certa probabilità che dipende da tutte le combinazioni possibili delle probabilità precedenti.

Che succede se al posto di praticare solo tre o quattro fori, usiamo una parete con centinaia, migliaia di fori? Esattamente la stessa cosa: la particella arriverà in O con una probabilità data dalla combinazione di tutte le ampiezze e i modi possibili di arrivare a destinazione.
Concorderai con me che se pratichiamo migliaia e migliaia di fori, è come se stessimo facendo scomparire la parete, ed infatti è proprio qui che sorge l’intuizione di Richard Feynman:

Un oggetto quantistico può propagarsi da S ad O seguendo tutte le traiettorie immaginabili, cioè ciascuna traiettoria, nessuna esclusa, contribuisce alla probabilità che l’oggetto possa essere osservato in O.

Una particella quantistica può arrivare in O seguendo qualsiasi traiettoria immaginabile. Naturalmente certe traiettorie sono semplicemente più probabili di altre, in base al valore del numero ”S”, che assume un ruolo importante anche nella teoria quantistica.

Questa è una proprietà speciale del comportamento ondulatorio degli oggetti quantistici, ma in che modo si ripercuote sul mondo degli oggetti macroscopici?

Il punto cruciale è l’interferenza distruttiva: nel limite macroscopico in cui la scala di energia quantistica diventa molto piccola, sopravvivono solo quelle traiettorie che fanno variare poco il numerino “S” che abbiamo definito in precedenza, dato che l’interferenza distruttiva è tanto maggiore quanto più varia “S”.

Siccome la traiettoria naturale (macroscopica) coincide con il limite estremo del valore di ”S”, abbiamo che ”S” varia molto poco in corrispondenza di traiettorie vicine a quella naturale, che quindi sopravvivono nell’interferenza.
Le altre traiettorie hanno semplicemente una probabilità minuscola di compiersi in natura, per questioni essenzialmente probabilistiche-ondulatorie.

Da qualche parte nel tempo, presente o futuro, potrai osservare un sasso che, nell’atto di cadere da un punto più alto a un punto più basso, compie una traiettoria circolare, poi fa zig zag avanti e indietro, ed infine cade nel punto più basso.

Non hai mai visto una cosa simile accadere? Ti credo bene!
La probabilità che segua questa traiettoria al posto di quella naturale è, quantisticamente parlando, così minuscola che non basterebbe l’età dell’universo per osservarla.



PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile a tutti e insegnare le tecniche matematiche necessarie a una sua comprensione. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

L’equazione più importante della fisica: perché tutto è un oscillatore armonico?

Spesso tra colleghi fisici ci si scherza sopra: “tutto, ma proprio tutto è un oscillatore armonico!”.
In realtà questa non è proprio un’esagerazione: in un certo senso, sotto alcune approssimazioni, tantissimi sistemi fisici hanno lo stesso comportamento di un oscillatore armonico.

Alcuni esempi:

  • Il pendolo oscilla
  • Le corde di una chitarra oscillano
  • Un liquido in un tubo a U oscilla
  • I pianeti seguono una traiettoria che riferita a una certa coordinata è un’oscillazione
  • La corrente elettrica in un circuito di una radio oscilla
  • Gli atomi oscillano
  • Gli elettroni sono delle oscillazioni di un certo campo fermionico

Cos’è un oscillatore armonico?

Tutti siamo familiari con il moto di una massa collegata a una molla: se tendiamo la molla e la lasciamo andare, la massa inizierà ad oscillare perché richiamata dalla forza elastica. Questa oscillazione è detta armonica perché è un’oscillazione perfetta, cioè segue l’isocronismo: il tempo che impiega la massa a fare avanti e indietro è indipendente da quanto è stata tesa la molla all’inizio. Questa proprietà permette di risolvere con estrema semplicità il moto di un sistema fisico.


L’equazione di un oscillatore armonico è la seguente

Questa è un’equazione differenziale che desidera essere risolta da una particolare funzione x(t) che rappresenta la traiettoria della massa nel tempo. Se non sai cos’è un’equazione differenziale, non preoccuparti, non è questo il punto del discorso.
Ti basta sapere che la soluzione x(t) è proprio un’oscillazione, cioè una funzione seno o coseno, avente una frequenza ω.

La traiettoria oscillante x(t) in funzione del tempo t.

La grande notizia è questa: sotto certe approssimazioni, la maggior parte dei sistemi fisici sono ben descritti da un’oscillazione!

Perché all’universo piace l’oscillatore armonico?

Le forze decidono in che modo devono muoversi i corpi.
Il motivo per cui la traiettoria della massa collegata alla molla obbedisce all’equazione differenziale dell’oscillatore armonico va ricercato nella natura dell’interazione tra la molla e la massa: la forza elastica.

In fisica tutte le interazioni possono essere descritte da un oggetto matematico fondamentale: il potenziale di interazione. Questo potenziale descrive le forze tra gli oggetti ed è specificato dall’interazione di cui si sta parlando, (ad esempio quella gravitazionale o elettromagnetica), per cui può dipendere dalle loro distanze reciproche, dalle loro masse, o dalle loro cariche elettriche.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Per non mettere troppa carne sul fuoco consideriamo una sola dimensione spaziale x e supponiamo che l’interazione dipenda solo dalla distanza x dall’origine x=0.

Matematicamente il potenziale di interazione sarà quindi una funzione di x, che indichiamo per convenzione con U(x).

Alcuni potenziali di interazione in una sola dimensione. Solo il potenziale più a sinistra produce delle traiettorie di oscillazione armonica.

Il potenziale di un oscillatore armonico è una parabola

Il potenziale di un oscillatore armonico

Come mai ciò?
Immagina una biglia sul fondo di una scodella: se si prova a spostare la biglia verso le pareti della scodella, la biglia tornerà indietro verso il fondo e inizierà a oscillare da una parete all’altra fino a quando l’attrito non avrà consumato tutta l’energia potenziale iniziale.

La biglia vuole tornare nel fondo della scodella perché era una posizione di equilibrio stabile, ma non può più semplicemente fermarsi in quel punto dato che ha abbastanza energia cinetica da risalire nuovamente sulla parete in direzione opposta (abbiamo perturbato il suo equilibrio stabile).
Allo stesso modo una molla vuole portare il più possibile vicino a sé la massa (per raggiungere il punto di equilibrio), ma se lasciamo andare la massa da una certa posizione iniziale, essa avrà un’energia cinetica abbastanza elevata da non fermarsi nel punto di equilibrio della molla, per cui lo oltrepasserà e proseguirà fino a quando non sentirà l’interazione elastica richiamarla nuovamente, stavolta in direzione opposta.

Il punto è che il potenziale armonico è lo stesso sia per x>0 che per x<0:
la parabola è simmetrica nei due bracci

ciò consente alla molla di richiamare la massa con una simmetria direzionale perfetta: da questo nasce l’oscillazione. Tutte le interazioni che presuppongono l’esistenza di un potenziale a forma di parabola producono delle oscillazioni armoniche dei corpi.

La metamorfosi: come si diventa armonici?

La chiave che accomuna tutti i sistemi che possono essere trattati come oscillatori armonici è che debba esistere un punto di equilibrio stabile attorno a cui oscillare. Se fissiamo tale punto di equilibrio nell’origine x=0 allora grazie ai teoremi di analisi matematica abbiamo che il potenziale può essere sviluppato come un polinomio attorno a questo punto

dove teoricamente la somma continua fino all’infinito.
Il punto fondamentale è che possiamo approssimare, cioè possiamo studiare il sistema così vicino al punto di equilibrio da poter trascurare i termini polinomiali di grado superiore (in soldoni, il numero 0.01 al cubo è più piccolo di 0.01 al quadrato, e così via). Ad esempio possiamo fermarci al polinomio di grado due.

Non lasciarti distrarre dai parametri costanti F, sappi solo che dipendono dal punto attorno cui stiamo sviluppando il potenziale. In particolare nel punto di equilibrio si ha

infatti tale parametro rappresenta la forza sentita dal corpo, e per definizione di punto di equilibrio, la forza in quel punto è nulla. Quindi si annulla il primo ordine del polinomio, e se trascuriamo il terzo ordine, ci rimane proprio una parabola.

Quindi l’interazione diventa del tutto analoga a quella elastica per piccole distanze attorno alla posizione di equilibrio. Il potenziale armonico è uno dei pochissimi casi in cui sappiamo risolvere perfettamente le equazioni, per cui non solo all’universo piace oscillare, ma anche ai fisici piace descrivere interazioni molto complicate, approssimandole, quando possibile, con quelle di un oscillatore.



PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica e che ruota attorno all’equazione dell’oscillatore armonico. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Il paradosso di Putnam: il futuro esiste già rispetto a noi?

In che modo, partendo dalle trasformazioni di Lorentz, possiamo dimostrare che il futuro coesiste con il presente? Per vederlo servono alcune argomentazioni metafisiche, unite a una rapida infarinatura sui diagrammi di Minkowski.
La relatività di Einstein ci ha insegnato a vedere il mondo da un punto di vista geometrico: tempo e spazio diventano un tutt’uno chiamato spaziotempo. In tale contesto il tempo viene misurato come una distanza spaziale semplicemente moltiplicandolo per la velocità della luce “c”. Gli eventi del mondo visto da un sistema di riferimento inerziale possono quindi essere individuati (se consideriamo una sola dimensione spaziale) da due coordinate: ct e x, cioè ci basta sapere quando è successo l’evento (ct) e dove è successo, cioè la posizione (x). L’insieme di tutti gli eventi può essere descritto quindi da un diagramma di Minkowski mostrato in figura 1.

Figura 1: diagramma di Minkowski in dimensione 1+1 (una dimensione spaziale e una dimensione temporale).

In tale diagramma le rette parallele all’asse x sono l’insieme degli eventi che avvengono simultaneamente (cioè ct=costante), mentre le rette verticali sono l’insieme degli eventi che avvengono nello stesso punto (cioè x=costante). Lo spaziotempo di un osservatore situato in O è diviso in 2 macroregioni: il suo futuro assoluto e passato assoluto (cioè ct>0 e ct<0), ciò significa che potrà ricevere segnali solo se da punti spaziotemporali contenuti tra le due bisettrici:

che nel diagramma di Minkowski (x,ct) sono quindi rette inclinate di 45 gradi rispetto all’asse x.

Se consideriamo un secondo osservatore inerziale in moto con velocità v, ci interessa di solito sapere con quali coordinate egli veda il mondo interno a sé, e magari esprimerle in funzione di quello che vede un altro osservatore inerziale (in Fisica è fondamentale saper tradurre cosa vedono due scienziati che usano coordinate diverse per descrivere la stessa cosa).

Come otteniamo questa trasformazione di coordinate tra i due osservatori? Le coordinate (ct’,x’) del secondo osservatore rispetto al primo si ottengono con le trasformazioni di Lorentz

in cui

Assumiamo che v sia la velocità relativa tra i due osservatori inerziali


Come si muove l’origine O’ , e cioè i punti x’=0 e ct’=0 del secondo osservatore, nelle coordinate del primo?
Sostituendo nella trasformazione di Lorentz, la traiettoria di O’ nel diagramma dell’osservatore O (cioè il suo asse verticale x’=0) è rappresentato dalla retta

cioè una retta che ha un’inclinazione 1/β rispetto all’asse x (come se avessimo una retta x=3y sul piano cartesiano (x,y) che ha quindi coefficiente angolare 1/3). Siccome nulla può superare la velocità della luce, è sempre v<c e allora è sempre β<1 , quindi

cioè le traiettorie degli osservatori inerziali sono sempre rette con inclinazione maggiore di 45 gradi, come detto prima (in modo da farle stare all’interno della regione del futuro assoluto).
Il diagramma di Minkwoski del secondo osservatore rispetto al primo sarà quindi dato graficamente da

Il punto focale è proprio il fatto che ora la linea di simultaneità degli eventi per il secondo osservatore è una retta parallela al suo asse ct’=0 (ovvero l’asse x’), ma tale asse ct’=0 ha invece un’inclinazione rispetto all’osservatore originale, cioè non è parallela rispetto al suo asse x, quindi tali eventi non sono simultanei per l’osservatore originale: nella relatività di Einstein gli osservatori non devono per forza concordare sulla simultaneità degli eventi.

Simultaneità e realtà per Putnam

Facciamo ora il gioco metafisico di Putnam per divertirci.

Ipotesi:

Diremo che un evento è ontologicamente reale rispetto a noi, se e solo se questo evento è simultaneo a noi. Questa definizione è piuttosto innocua ed è facile che metta d’accordo tutti. In realtà non è così innocua. Prendiamo un osservatore in moto con velocità v, che al nostro tempo t=0 si trova a una certa distanza da noi, cioè supponiamo che la sua origine O’ sia simultanea rispetto alla nostra origine O.

Come abbiamo visto dalle trasformazioni di Lorentz, gli assi minkowskiani del secondo osservatore sono inclinati rispetto a noi, quindi è possibile che la linea di simultaneità individuata da ct’=0 possa intersecare il futuro assoluto dell’evento collocato in O nel sistema di coordinate originale, ad esempio in un punto A.

Ma ct’=0 corrisponde proprio all’asse x’, il quale include, tra tutti gli eventi, ovviamente anche l’origine O’ . Ma tale origine era per costruzione simultanea a O, quindi se la simultaneità è transitiva allora il fatto che A sia simultaneo ad O’ e che O’ sia simultaneo a O, implica che O debba essere simultaneo ad A, cioè a un evento del suo futuro assoluto.

Per quanto sembri assurda, questa costruzione è geometricamente permessa, come si vede in figura, dalla metrica dello spaziotempo minkowskiano.

Se ora usiamo la condizione di Putnam, cioè che un evento è ontologicamente reale rispetto a noi se e solo se è a noi simultaneo, allora dobbiamo concludere che il nostro futuro esiste già rispetto a noi: futuro e presente coesistono.
Notiamo quindi come un’assunzione innocua, come dire “se un evento è a me simultaneo, allora coesiste con me”, possa portare, nel contesto della relatività, a un paradosso di proporzioni enormi.
L’argomento è più metafisico che fisico, ed è dibattuto ancora oggi nella corrente dell’eternalismo. Per maggiori informazioni su questo affascinante dibattito: Hilary Putnam: Time and Physical Geometry.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Fisica e matematica: una scuola che non insegna l’autodidattismo ha fallito nel suo ruolo

L’istruzione non è imparare i fatti, ma è allenare la mente al pensiero.

Albert Einstein

Uno dei problemi secolari dell’istruzione italiana è quello dell’apprendimento nozionistico. Questo tipo di apprendimento premia quegli studenti che preferiscono un approccio passivo allo studio, il quale ha come unico movente l’imposizione del docente, mentre svantaggia quegli studenti che apprendono meglio solo se stimolati da un movente interiore di curiosità. Si parla, nell’ultimo caso, di apprendimento attivo.

Apprendimento passivo e attivo non devono escludersi, possono completarsi. Da una parte lo studente deve lasciarsi guidare dal docente, che ha il compito di mostrargli le metodologie e i punti critici della materia. Ma dall’altra è giusto incentivare lo sviluppo di un pensiero critico e di una maturazione indipendente dalle direttive dei programmi scolastici. Lo studente deve poter studiare degli argomenti a piacere, magari anche un po’ più complessi. Deve cioè sviluppare dei tratti da autodidatta.

Solo i buoni insegnanti formano i buoni autodidatti.

Jean-François Revel

La fisica e la matematica sono materie in cui l’apprendimento attivo può far fare il salto di qualità da bravo studente a studente eccezionale, perché sono sostanzialmente una scoperta continua che si costruisce sulle scoperte pregresse. Questo meccanismo crea diversi effetti positivi:

Photo by cottonbro on Pexels.com
  • Lo studente impara a distinguere da solo i punti cardine degli argomenti destreggiandosi tra tutte le fonti che riesce a raccogliere. Questo permette di sviluppare quella saggezza che lo rende un vero studioso della materia, e non un semplice studente che studia per passare la verifica.
  • Lo studente impara con i suoi tempi. Non deve seguire un programma scolastico che gli richiede di imparare un certo numero di cose in un tempo limitato e deciso da altri. Ognuno è diverso e ha curve di apprendimento diverse. L’apprendimento è efficace solo quando viene rispettata la tempistica di ognuno.
  • Lo studente sviluppa tanta autostima nei propri mezzi, in quanto ha dimostrato a se stesso di poter imparare qualsiasi argomento senza l’ausilio di qualcuno che gli dica dove guardare. Il circolo virtuoso è instaurato e lo studente continuerà ad apprendere sempre di più.
  • I risultati scolastici in fisica e matematica non potranno che migliorare. Uno studente consapevole, saggio e indipendente, svilupperà una padronanza e una confidenza tali da permettergli di superare le prove scolastiche con pochissima difficoltà.

Il mondo moderno è il paradiso degli autodidatti

Viviamo in un’era di progresso sfrenato, in cui il numero di risorse online è talmente vasto che lo studente potrebbe potenzialmente essere in grado di imparare qualsiasi argomento: le possibilità sono infinite. Varie ricerche di mercato hanno poi evidenziato come le aziende siano alla ricerca di profili che abbiano sviluppato competenze anche tramite l’autodidattismo, in quanto i diversi gradi di istruzione non riescono a stare al passo delle richieste del mercato per quanto riguarda le abilità e le competenze in settori sempre in rinnovamento. Questo tipo di abilità si possono apprendere sfruttando le risorse online, se si sa dove guardare.




PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.


Fisica e matematica: non sempre gli esperti sono i migliori insegnanti

 Quante volte ci è capitato di sentire questa frase? Eppure tutti noi ci siamo trovati in una situazione simile almeno una volta nella nostra vita: l’eccessivo distacco emotivo ed intellettuale tra noi ed il nostro professore andava a ledere la buona riuscita dell’insegnamento. Il risultato? Ci siamo sentiti inadeguati, forse stupidi, o comunque non degni del suo servizio. In realtà non era una nostra sensazione, ma un problema serio che vale la pena discutere.

A tal fine è interessante riportare una citazione di C.S. Lewis:

Succede spesso che due studenti siano in grado di aiutarsi a vicenda con più efficacia del loro professore nel risolvere alcuni dubbi. Quando portavi il problema al prof, come ricordiamo tutti, era abbastanza probabile che ti spiegasse le cose che già avevi capito, che aggiungesse un gran carico di informazioni che non volevi, senza però dire nulla a proposito della questione che ti stava dando problemi.

[…] Il compagno di studi, invece, può aiutare più del professore, perché sa meno cose. Inoltre il dubbio che vogliamo chiarire riguarda un problema che il nostro compagno ha incontrato di recente, mentre l’esperto l’ha incontrato così tanto tempo fa che se ne è ormai dimenticato. L’esperto vede la materia nella sua interezza, e non può più avere una concezione di quali possano essere le difficoltà dello studente.

Se poi aggiungiamo che in Italia l’età media degli insegnanti è la più alta d’Europa, la frittata è fatta: il gap generazionale instaura quel timore reverenziale che spesso rende impossibile la comunicazione tra studente e professore, a ogni livello: liceo e università.

I ragazzi di Via Panisperna, Roma 1934. Da sinistra a destra: Oscar D’Agostino, Emilio Segré, Edoardo Amaldi, Franco Rasetti, Enrico Fermi.

Un confronto può essere fatto con il gruppo di ricerca italiano più geniale di sempre: i ragazzi di via Panisperna. L’età media del gruppo era di 28 anni, e il loro professore, il premio nobel Enrico Fermi, aveva solo 7 anni in più dello studente più giovane. Enrico seppe insegnare così bene ai suoi studenti soprattutto perché aveva affrontato le loro stesse difficoltà pochi anni prima, e seguiva un approccio giovanile, energico, moderno. Quel gruppo portò la ricerca italiana alla vetta mondiale, e da lì fu poi una lenta discesa. Oggi gli orizzonti sono ben più ristretti di allora.

Nella mia carriera da studente ho sempre cercato di mettermi a disposizione per poter aiutare gli altri a chiarire qualche dubbio. Ho tratto molto più beneficio dalle discussioni con i miei colleghi che da quelle con alcuni miei professori, proprio per i motivi sopracitati. Sono convinto che la strada della ricostruzione della didattica italiana nelle materie scientifiche debba passare da qui: è il momento di rendere disponibile per tutti un nuovo approccio didattico.



PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

La caduta libera in un buco nero di Schwarzschild in coordinate di Fermi

Cosa percepisce un astronauta in caduta libera oltre l’orizzonte degli eventi?
Vengono utilizzate le coordinate normali di Fermi per descrivere lo spaziotempo in una piccola regione che circonda la traiettoria di un corpo in caduta libera verso un buco nero di Schwarzschild.

Perché la gravità è una forza fittizia in Relatività Generale?

Molte idee chiave della relatività generale sono nascoste nel formalismo di Minkowski della relatività ristretta. Partendo da ciò, possiamo percorrere la strada concettuale che condusse Einstein al più grande cambio di prospettiva dopo Newton:

La gravità è una forza fittizia perché è eliminabile con un cambio di coordinate: un corpo in caduta libera non è accelerato, segue solo la traiettoria percorsa dai corpi liberi in uno spaziotempo curvo.

Matteo Parriciatu

Meccanica statistica dei sistemi a temperatura assoluta negativa

Compendio sullo stato attuale della ricerca sui sistemi a temperatura assoluta negativa: include trattazione sistema di spin a due livelli, l’esperimento di Purcell & Pound, e una discussione concettuale sul concetto di temperatura statistica VS temperatura termodinamica.

Matteo Parriciatu

La Dolce Vita tra i Calcoli Sbagliati – Cronache di Fisica Teorica

Cambio posizione per l’ennesima volta. La scalinata davanti al Palazzo Ducale di Genova non è uno dei posti più comodi per mettersi a scrivere calcoli sul tablet. La speranza è che la scomodità della situazione stimoli il cervello a produrre più di quanto farebbe a casa.

È il mio primo tentativo nel mondo della ricerca in Fisica Teorica, e davvero sento di non poter sbagliare. In qualche modo sono convinto che un ricercatore alle prime armi abbia a disposizione un solo tentativo, altrimenti è tacciato di incompetenza. Qualcosa tipo “se non ottieni risultati, almeno salvati la reputazione e non commettere errori”.

Tra le questioni da indagare nel mio lavoro ce n’è una che mi sta molto a cuore: una spiegazione teorica del perché elettrone, muone e tau (tre particelle “sorelle” da tutti i punti di vista) abbiano masse così spropositatamente diverse:

Elettrone, muone e tau, assieme al bosone di Higgs.
  • Rapporto massa elettrone/muone m_e/m_\mu\approx 1/200
  • Rapporto massa muone/tau m_\mu/m_\tau\approx 1/17

Questi rapporti non sono in nessun modo giustificati nel Modello Standard. È un puzzle vero e proprio nella fisica delle alte energie: perché particelle così simili in tutto e per tutto devono differire in maniera così marcata nelle loro masse?

Non che stessi provando a fare nulla di nuovo, negli ultimi 40 anni sono state pubblicate molte teorie (non verificate) in grado di spiegarlo, il punto è che il lavoro di ricerca prevedeva la risoluzione di questo puzzle in un contesto più ampio, una nuova simmetria della Natura proposta di recente: la simmetria modulare. Tale simmetria aiuterebbe a fare previsioni sulle particelle più elusive che conosciamo: i neutrini.

La simmetria modulare funziona molto bene, ma non è facile incastrarci in maniera naturale quei rapporti di massa. Questo era parte della scommessa del nostro lavoro di ricerca. Nulla di sconvolgente, ma un possibile (interessante) avanzamento in un’area molto misteriosa.

Il Sole picchia forte su quella scalinata, e man mano che si sposta nel cielo traccia un’ombra che io sono costretto a seguire per vedere meglio i miei calcoli. Nella mente riecheggiano le parole del mio supervisore, sentito poco prima in una informalissima chiamata Teams al telefono:

Quei pesi modulari possono avere un ruolo nella spiegazione dei rapporti di massa, qualcosa che non è stato ancora provato…

I “pesi modulari” sono speciali coefficienti con cui scriviamo le teorie di simmetria modulare, e sono collegati in qualche modo agli accoppiamenti delle particelle con il campo di Higgs (il quale dà massa alle particelle, come sai). Detto in maniera spiccia: un peso diverso corrisponde a un accoppiamento più o meno forte con il campo di Higgs, per via di interazioni che avvengono a energie altissime con altri campi ad oggi sconosciuti.

Il mio obbiettivo è quello di spiegare con lo stesso modello sia i rapporti di massa di queste tre particelle, sia alcuni parametri fondamentali nelle oscillazioni dei neutrini. La maggior parte dei modelli “modulari” in letteratura riesce a fare solo la seconda cosa.

Provo quindi tutte le combinazioni possibili di pesi da assegnare. Dai! Elettrone, muone e tau, da qualche parte dovrete pur distinguervi l’uno dall’altro. Nessuna strada mi convince, forse perché cerco di essere più ortodosso possibile: non sia mai che proponga una mia idea originale col rischio di metterci la faccia e fallire quella che io penso sia la mia unica chance.

Tra un calcolo e l’altro, le ore scorrono a una velocità impressionante: un soleggiato (ma freddo) pomeriggio autunnale inizia a volgere al termine.

Sono sempre stato uno studente più “visivo” che “logico” quando si tratta di conti, cerco anzitutto analogie e somiglianze tra i simboli. Spesso funziona, e se funzionasse pure stavolta?

Mi intestardisco su un’idea: e se dessi dei pesi diversi a queste tre particelle? Provo varie possibilità, decisamente alla cieca.

Verso il tramonto, inizio a notare un pattern nei miei calcoli. Un’assegnazione di pesi modulari pare riprodurre la gerarchia di masse correttamente. La mia testardaggine con quei calcoli pare premiarmi. Ho tentato un approccio un po’ meno ortodosso, ma sì sai forse che quasi quasi è anche…originale?

Il cuore salta un battito. Che bella la verginità del ricercatore alle prime armi: basta così poco.

Rialzandomi da quella scalinata, mi accorgo di aver perso sensibilità alle gambe dopo averle pressate per almeno 4 ore sul marmo fresco. Mentre sto perdendo l’equilibrio penso: l’mportante è non far cadere il tablet, no quello è troppo importante. Ovviamente per quello che ci sta scritto dentro.

Sono così paranoico che decido subito di mandare al mio supervisore una mail con le paginate che ho scritto. Paginate illeggibili, dunque inutili per chiunque non fosse me, ma dovevo in qualche modo salvarle. Potevo sempre essere rapito o finire in un tombino nella via di casa…e quelle pagine non avrebbero mai visto la luce del giorno.

Il tempo di allontanarmi dal Palazzo ed arriva una telefonata su Teams, è lui.

Nel momento in cui finisco la chiamata mi ritrovo quasi dall’altra parte della città. Nell’euforia ho percorso tutto viale XX settembre. Sono convinto di essermi giocato la mia unica carta da fisico teorico, e che forse è quella vincente.

Ricordo bene quella sensazione mistica: mi sentivo davvero in comunicazione con le leggi della Natura, la stessa sensazione che mi ha sempre attratto alla Fisica. Le parole entusiaste del mio supervisore mi hanno folgorato.

Quella chiamata su Teams ha però esaurito le ultime energie vitali del mio telefono. Un’ottima occasione per riflettere su quanto fatto, in solitudine, per riprendersi dallo shock.

Camminando, l’euforia lascia il posto a una strana sensazione di sollievo: penso “fiùu, per fortuna me la sono giocata bene questa carta, ora posso essere preso sul serio“. Subentra anche una certa ansia da prestazione: ora che ho mosso bene il primo passo, ci si aspetta che azzecchi pure il prossimo? E così via, senza fine? Quasi toglie un po’ di sapore a quella che penso essere la vita del ricercatore.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Quella notte non riesco a prendere sonno, vorrei sia subito mattina per ritornare a lavorare, e magari scrivere in bella copia quei risultati preliminari.

Ma, come a volte mi capita (specialmente dopo aver dato un esame scritto) la notte è portatrice di lucidità divina. Inizio ad avere dei sospetti su quello che ho fatto, così mi alzo e mi presento in salotto, illuminato al chiaro di Luna, tablet in una mano e computer nell’altra. Mi rileggo un po’ di articoli su questa nuova teoria, in cerca di eventuali punti deboli nel mio ragionamento.

L’orgoglio scaturito dalla giornata mi impedisce di avere grossi dubbi, ma ho anche fiducia nella mia attività cerebrale in regime di dormiveglia: se ho accumulato qualche sospetto ho il dovere di controllare.

La città inizia a risvegliarsi, e assieme a lei il cinguettio degli uccellini del parco vicino. Fa un suono ben più forte il tonfo del mio cuore mentre realizzo che ho trascurato alcuni vincoli fondamentali nelle equazioni del modello.

Il modello che ho trovato non è corretto perché alcuni vincoli di simmetria non sono rispettati.

Tutto distrutto, tutto in malora, per via di un dettaglio.

Con mia enorme sorpresa, il tonfo non è però doloroso, somiglia più a quella sensazione che hai dopo essere sceso dalle montagne russe. Lo spavento è intenso, ma la voglia di rifarlo lo è ancora più.

In pochissimi secondi ho il vero lampo della giornata: non sono deluso, sono estasiato. Tutto ha molto più sapore, e arriva il vero sollievo.

La dolce illusione di aver trovato qualcosa di nuovo è molto più gustosa del risultato in sé. In quelle chiamate su Teams non ero entusiasta solo per l’elettrone, il muone e il tau, ma anche per la possibilità di conversare con un altro ricercatore su questioni difficili di cui nessuno sa la risposta certa.

Quella notte, in quell’istante, realizzo di essere orgoglioso di me.

Il tentare e ritentare, senza l’obbligo di dover trovare tutto al primo colpo, questa è la Ricerca. Il ricercatore può (e deve) sbagliare tanto, perché ha poi il dovere di informare gli altri su quali strade non funzionano.

Chiaramente il mio era un approccio infantile. Ma quanto spesso pensiamo di doverci giocare la carriera in un colpo solo? Quante volte rigettiamo il fallimento! Quante volte sentiamo di dover dimostrare qualcosa per darci un po’ di tregua e accettarci?
Eppure, quante altre volte la ricerca del successo è ben più saporita del successo stesso?

In quell’attimo, ho capito davvero perché mi interessa la strada della ricerca.


Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la specializzazione in Fisica Teorica (2023) all’Università di Pisa, studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard, interessandosi anche di Relatività Generale.

È autore del libro “L’apprendista teorico” (2021).

PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg