Pontecorvo, il fisico italiano a cui negarono il Nobel

Bruno Pontecorvo (Marina di Pisa 1913- Dubna 1993).

La storia della scienza è cosparsa di scandali riguardanti la negazione di premi importanti a scienziati meritevoli per le più disparate ragioni.

Nel caso di Bruno Pontecorvo (a cui fu negato il Nobel per la Fisica del 1988) le ragioni erano prettamente politiche. In questo articolo dimostriamo perché questo debba ancora oggi risuonare come un vero e proprio scandalo scientifico.

Il “cucciolo” di via Panisperna

Nato a Marina di Pisa nel 1913, Bruno era una persona timida e la sua natura si distingueva da quella degli altri componenti dei gruppi di ricerca poiché, oltre a mostrare grandi doti come fisico sperimentale e teorico, era evidente in lui il profilo di abile fenomenologo, ossia una grande capacità di approfondire applicazioni e ipotesi di lavoro [1].

“A questa opinione soprattutto, io credo, devo la mia timidezza, un complesso di inferiorità che ha pesato su di me per quasi tutta la vita” 

Bruno Pontecorvo

Pontecorvo si riferiva alla seguente opinione che secondo lui i suoi genitori avevano sui loro figli: “il fratello Guido era considerato il più intelligente, Paolo il più serio, Giuliana la più colta e lui, Bruno, il più buono ma il più limitato, come dimostravano i suoi occhi, buoni ma non intelligenti.

Si può dire che Pontecorvo usufruì dell’istruzione universitaria più eccellente che ci fosse: fu ammesso al corso di Fisica sotto la guida di Enrico Fermi e Franco Rasetti nel 1931, all’età di 18 anni, entrando di diritto nel celebre gruppo dei ragazzi di via Panisperna (fu soprannominato “il cucciolo” per la sua giovane età).

Collaborò quindi alla ricerca sul bombardamento dei nuclei usando neutroni come proiettili, e nel 1934 si accorse assieme ad Edoardo Amaldi che la radioattività indotta da bombardamento di neutroni era circa cento volte più intensa se i neutroni attraversavano prima un filtro di paraffina (Fermi spiegò che questo era per via dell’idrogeno contenuto nel materiale, il cui effetto rallentava i neutroni, aumentando la loro efficacia nel bombardamento). Questa scoperta segnò uno step epocale per la ricerca sull’energia nucleare e valse il Nobel del 1938 ad Enrico Fermi, che ne spiegò il funzionamento.

Dopo il periodo romano, la sua vita fu molto movimentata e ricca di eventi di interesse storico (ricordiamo che Pontecorvo era ebreo).

  • Nel 1936 grazie a una raccomandazione di Fermi, collaborò a Parigi con Frédéric e Irène Joliot-Curie (rispettivamente genero e figlia di Pierre e Marie Curie e vincitori nel 1935 del premio Nobel per la scoperta della radioattività artificiale). Fu nell’effervescente ambiente parigino che iniziò a interessarsi di politica. In particolare si iscrisse al PCI nel 1939.
  • Dopo l’invasione della Francia da parte dei tedeschi, Pontecorvo scappò da Parigi in bicicletta e con un rocambolesco viaggio fatto di varie tappe in treno, raggiunse Lisbona. Da qui si imbarcò per gli Stati Uniti.
  • Nei primi anni ’40 lavorò per una compagnia petrolifera in Oklahoma, dove viveva con la famiglia. Qui applicò per la prima volta la tecnica dei neutroni lenti scoperta dai ragazzi di via Panisperna e inventò la tecnica del “carotaggio neutronico dei pozzi di petrolio“.
  • Nel 1943 si trasferì in Canada per lavorare in un laboratorio che si occupava di raggi cosmici. Fu qui che iniziò il suo studio dei neutrini alle alte energie.
  • Dopo aver lavorato in inghilterra, scappò in Russia con la famiglia nell’estate del 1950 senza avvertire nessuno. Per superare la cortina di ferro i Pontecorvo si divisero: moglie e figli su un’automobile, Bruno nascosto nel bagagliaio di un’altra. 
    Nell’URSS continuò le sue importanti ricerche di fisica delle particelle in un laboratorio di Dubna.

Cosa si capiva, all’epoca, dei neutrini

Per poter dire che “capiamo” tutto di una particella dobbiamo essere in grado di affermare quali siano i suoi numeri quantici, e di solito ci si concentra su questi tre:

  • Carica elettrica
  • Spin
  • Massa

Dei neutrini conosciamo con precisione solo i primi due: sono elettricamente neutri (infatti non interagiscono con la forza elettromagnetica) ed hanno spin 1/2, mentre sorprendentemente non sappiamo ancora con precisione il valore della loro massa. Sappiamo solo che non può essere più grande di un numero molto piccolo, per via delle evidenze sperimentali. All’epoca di Pontecorvo si supponeva che non avessero massa.

Dallo studio dei raggi cosmici (ed in particolare del decadimento del muone) Pontecorvo iniziò a intuire una similitudine tra quanto osservato e una teoria del suo vecchio Maestro: la teoria del decadimento \beta di Enrico Fermi (clicca qui se vuoi saperne di più). In una lettera a Giancarlo Wick del 1947 scrisse:

Deep River, 8 maggio 1947

Caro Giancarlo (…) se ne deduce una similarità tra processi beta e processi di assorbimento ed emissione di muoni, che, assumendo non si tratti di una coincidenza, sembra di carattere fondamentale.

Bruno Pontecorvo

La scoperta di questa analogia fu uno degli step fondamentali che condusse all’introduzione di una nuova forza della natura: la teoria di Fermi passò dall’essere una semplice teoria fenomenologica ad una interazione fondamentale che si andava a sommare alle due già esistenti all’epoca: gravità ed elettromagnetismo.

La questione del neutrino rimaneva invece un vero mistero, specialmente la questione se avesse una massa o meno.
È di fondamentale importanza riuscire a determinare la massa di una particella. Nel Modello Standard la massa è spesso l’unico numero quantico che permette di distinguere tra due particelle che hanno gli altri numeri quantici uguali.

Ad esempio il muone e l’elettrone sono due particelle elementari con la stessa carica elettrica e lo stesso spin, ma il muone è circa 200 volte più pesante dell’elettrone ed è proprio ciò che ci permette di distinguerli nella maggior parte dei casi. Allo stesso modo il tau è la terza “sorella” di muone ed elettrone (fu scoperta nel 1975), in quanto ha stessa carica e stesso spin, ma massa pari a circa 18 volte quella del muone.
Queste tre particelle furono raggruppate in un trio chiamato “leptoni carichi”.

Elettrone, Muone e Tau: le tre particelle “sorelle” del Modello Standard costituiscono la famiglia dei leptoni carichi.

Per spiegare i risultati sperimentali degli anni ’30 e ’50, si associò a ciascun leptone carico (elettrone, muone e tau) un neutrino di tipo corrispondente. Infatti si dimostrò che in ciascun processo di interazione debole di un leptone carico compariva sempre un neutrino, di conseguenza:

  • All’elettrone venne associato un neutrino-elettronico: \nu_e
  • Al muone venne associato un neutrino-muonico: \nu_\mu
  • Al tau venne associato un neutrino-tau: \nu_\tau

Quindi anche i neutrini sono considerati dei leptoni, solo che hanno carica elettrica nulla. Assieme ai leptoni carichi costituiscono i 6 leptoni del Modello Standard.

Fu proprio Bruno Pontecorvo a suggerire questo raggruppamento in famiglie di “sapore”: sapore elettronico, sapore muonico e sapore tauonico. Ipotizzò questa teoria già nel 1947, ma la pubblicò con una dimostrazione rigorosa solo nel 1957.

La distinzione tra leptoni carichi e leptoni neutrini. Nell’immagine i leptoni dello stesso colore appartengono allo stesso “sapore”.

La cosa importante da capire è che siamo in grado di distinguere un neutrino \nu_e da un neutrino \nu_\mu o da un neutrino \nu_\tau: basta guardare qual è il leptone carico coinvolto nelle interazioni (rare) di questi neutrini!

Il modo in cui siamo in grado di dire quale dei tre neutrini stiamo considerando: basta guardare i leptoni carichi che escono fuori dalle interazioni del neutrino con la materia.

In questo senso si parla di conservazione del sapore leptonico: un neutrino di sapore “muonico” è sempre associato, in un’interazione debole, a un muone. Se c’era un sapore elettronico all’inizio, dovrà esserci un sapore elettronico anche alla fine.

Purtroppo, l’acceleratore di particelle di Dubna non era abbastanza potente per verificare le teorie di Pontecorvo sul sapore leptonico. Soltanto pochi anni dopo, agli inizi degli anni Sessanta, gli americani Leon Ledermann, Melvin Schwartz e Jack Steinberger confermarono sperimentalmente le ipotesi del fisico italiano.


Questa scoperta valse ai tre fisici il premio Nobel per la Fisica nel 1988 per “il metodo del fascio di neutrini e la dimostrazione della struttura doppia dei leptoni attraverso la scoperta del neutrino muone”, suscitando lo scalpore di una parte della comunità scientifica internazionale per l’esclusione del fisico teorico italiano che per primo effettuò la previsione parecchi anni prima.

Le oscillazioni di sapore

Pontecorvo continuò il suo studio pionieristico dei neutrini e, in collaborazione con il fisico teorico Vladimir Gribov, nel 1969 presenta in dettaglio il formalismo matematico della teoria delle oscillazioni, che fu proposto come soluzione al problema dei neutrini solari sorto negli esperimenti del 1968.
Pontecorvo sosteneva che i neutrini dovessero avere una massa, seppur piccola, e che questo fosse la spiegazione per il problema dei neutrini solari.

La spiegazione di Pontecorvo si rivelò corretta: alla fine del secolo scorso si scoprì che i neutrini sono in grado di cambiare sapore leptonico durante il loro viaggio tra due punti dello spazio, e fu proprio questo fatto ad evidenziare che i neutrini dovevano avere una massa: senza una massa non è possibile questa oscillazione tra sapori!

Ciò che stupisce è che rispetto alle altre particelle i neutrini hanno una massa così piccola che è difficile da misurare.
Gli esperimenti ci consentono solo di porre dei limiti superiori sempre più piccoli. Per dare un’idea, l’elettrone ha una massa di mezzo milione di elettronvolt, mentre si stima che quella dei neutrini sia inferiore a un solo elettronvolt. Se l’elettrone è considerato la particella carica più leggera del Modello Standard, i neutrini sono davvero dei pesi piuma.

L’oscillazione rompe la conservazione del sapore leptonico!

Ad esempio da un processo debole che coinvolge un elettrone (rivelabile) sappiamo che sbucherà fuori un \nu_e, il quale, dopo una certa distanza, si tramuterà in un \nu_\mu, il quale interagirà facendo comparire un muone, che sarà a sua volta rivelabile e ci permetterà di dire che questa oscillazione è effettivamente avvenuta!

Per spiegare questo effetto vengono introdotti gli “stati di massa” dei neutrini, chiamati \nu_1,\nu_2,\nu_3 a cui vengono associate le masse m_1,m_2,m_3. Ciascun stato di massa “contiene” al suo interno i tre sapori dei neutrini \nu_e,\nu_\mu,\nu_\tau in proporzioni che possono essere studiate sperimentalmente.
Graficamente abbiamo quindi tre neutrini ciascuno contenente al suo interno il mixing di sapori:

Gli autostati di massa dei neutrini con al loro interno i mixing dei sapori.
Celeste: \nu_e, Marroncino: \nu_\mu, Grigio: \nu_\tau.

Questo mixing avviene nel senso quanto-meccanico di sovrapposizione di stati: ciascuno stato di massa è una sovrapposizione delle funzioni d’onda dei sapori leptonici e,\mu,\tau.

Ad esempio dalla figura leggiamo che sperimentalmente è stato verificato che lo stato \nu_1 contiene per la maggior parte il sapore elettronico \nu_e (indicato in blu), mentre il sapore tau \nu_\tau è presente solo in minima parte.

Essendo tutto ciò un effetto quanto-meccanico, a ogni oscillazione tra sapori è associata una certa probabilità che sarà tanto più elevata quanto più grande è il mixing tra sapori negli stati di massa. Questa probabilità è verificabile sperimentalmente: basta chiedersi “se nel punto di partenza ho N neutrini di tipo \nu_e, quanti neutrini di tipo \nu_\mu mi ritroverò a una certa distanza dal punto di partenza?”

Ad esempio la probabilità che un neutrino \nu_e si trasformi in un neutrino \nu_\mu è data dalla seguente formula:

Vengono chiamate “oscillazioni” perché la probabilità dipende da un seno al quadrato, il quale rappresenta graficamente un’oscillazione nelle variabili L,E,\Delta m^2.

in cui \theta è un parametro del Modello Standard che è stato misurato sperimentalmente (e definisce il grado di mixing dei due sapori in questo caso). D’altra parte \Delta m^2=m_2^2-m_1^2 riguarda la differenza tra i quadrati delle masse di \nu_2 e \nu_1, mentre L è la distanza a cui hanno viaggiato i neutrini prima di essere rivelati, ed E è la loro energia.
Nota bene che se questi neutrini avessero la stessa massa, e cioè \Delta m^2=0, non si potrebbero avere oscillazioni (la probabilità sarebbe nulla perché il seno di zero fa zero).

Ad esempio è molto più probabile che un \nu_e si trasformi in un \nu_\mu quando l’argomento del seno è vicino al punto in cui il seno ha un massimo, e cioè in prossimità di 90^{\circ} (o in radianti pi/2), e cioè quando

Da questa formula è possibile capire a che valore del rapporto L/E si è più sensibili per rivelare un’oscillazione da \nu_e in \nu_\mu. Si può quindi ottenere una stima di \Delta m^2.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Studiando l’andamento dell’oscillazione con L/E si può quindi ricavare \Delta m^2 proprio da questa formula.

La differenza tra le masse dei neutrini \nu_2 e \nu_1 è minuscola, ma comunque calcolabile dai dati sperimentali. Allo stesso modo è stata calcolata la differenza tra le masse quadre di \nu_3 e \nu_2, e da ciò si può ricavare la differenza tra le masse quadre di \nu_3 e \nu_1.
Conosciamo solo queste \Delta m^2, ma non i valori singoli di m_3,m_2,m_1, che frustrazione, eh?

Misurando il numero di eventi di neutrini di un certo sapore ad alcuni valori del rapporto L/E si possono ricavare i valori sperimentali di \theta e \Delta m^2. Questo è proprio ciò che si fa da qualche decina di anni: la teoria delle oscillazioni è verificata con un alto grado di accuratezza.

I Nobel dei neutrini

La Fisica dei neutrini inaugurata da Pontecorvo ha portato a ben quattro premi Nobel, ma nessuno è stato vinto da lui. Tre di questi furono però assegnati solo dopo la morte di Pontecorvo (1993), il più recente risale al 2015. L’unico che sarebbe doveroso reclamare per la memoria del fisico teorico italiano sarebbe quello del 1988, inspiegabilmente assegnato ad altri se non per questioni politiche.

Pontecorvo rimane uno dei fisici con il numero di previsioni azzeccate più alto e allo stesso tempo un numero di riconoscimenti piuttosto irrisorio (vinse comunque il premio Lenin nel 1963).

Ciò che fa restare stupiti è la precocità delle sue idee: il campo dei neutrini è particolarmente infelice perché essendo questi così poco interagenti, la loro rivelazione può aversi solo grazie a esperimenti particolarmente costosi e avanzati, spesso traslati di almeno 30-40 anni nel futuro rispetto alla loro teorizzazione. Pontecorvo elaborò negli anni ’60 quasi tutta la fisica dei neutrini che utilizziamo ancora oggi e che ha trovato conferma solo negli ultimi 30 anni.

Se mai inventassero un Nobel postumo, uno dei primi a riceverlo dovrebbe essere Pontecorvo.
[1] Fonte principale: “Il fisico del neutrino”- Jacopo De Tullio.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Matteo Parriciatu

Dopo la laurea in Fisica (2020) e la laurea specialistica in Fisica Teorica (2023) all’Università di Pisa, studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard, interessandosi anche di Relatività Generale.

È autore del libro “L’apprendista teorico” (2021).

Come Fermi scoprì la statistica degli elettroni assieme a Dirac

Per capire l’entità del contributo di Enrico Fermi in ciò che servì ad ispirare una delle scoperte più importanti dell’umanità (la teoria dei semiconduttori), è necessario fare qualche passo indietro e considerare il contesto storico-scientifico dell’epoca.

Negli anni ’20 del secolo scorso si sapeva molto poco sulle strutture fondamentali della materia. Le teorie dell’atomo erano giovanissime e l’unico metodo di indagine consisteva nell’osservare l’assorbimento luminoso di alcuni gas della tavola periodica.

Ludwig Boltzmann (1844-1906), uno dei padri fondatori della fisica statistica.

Proprio sui gas si sapeva dire un po’ di più, essendo una collezione di atomi che potevano essere trattati (in certe condizioni di densità e temperatura) come un grosso insieme di biglie microscopiche su cui, tramite la fisica statistica di Maxwell, Boltzmann e Gibbs, si potevano fare previsioni termodinamiche verificabili sperimentalmente.

Una particolarità interessante della teoria statistica di Maxwell e Boltzmann era il contenuto minimale di ipotesi sulla natura fisica di queste “biglie microscopiche”. Stiamo parlando di una teoria formulata nella seconda metà del secolo XIX, un periodo in cui non era ancora riconosciuta l’esistenza dell’atomo!

Trattandosi tuttavia di atomi, nemmeno la teoria di Maxwell e Boltzmann uscì indenne dalla rivoluzione della teoria dei quanti, iniziata con Planck nel 1900.

La teoria dei quanti funzionò sia da completamento che da antidoto per la vecchia fisica statistica. Da antidoto perché aiutò ad indagare meglio alcuni problemi matematici della teoria di Maxwell e Boltzmann, i quali conducevano a calcoli errati nella trattazione di particelle tra loro indistinguibili, e davano dei risultati impossibili per alcune quantità come l’entropia dei gas a basse temperature.

Un problema statistico dell’entropia

Queste difficoltà erano dovute al fatto che la fisica statistica si basa essenzialmente sul “contare, per tutte le particelle, tutte le possibili configurazioni microscopiche che conducono alla stessa situazione fisica del gas“, come illustrato in figura:

Lo schema concettuale che sta alla base della teoria statistica dei gas.

Pressione, volume, temperatura (P,V,T), sono tutte quantità macroscopiche misurabili sperimentalmente. In fisica statistica ci immaginiamo di conoscere le posizioni e velocità di tutte le particelle del gas in ciascuna configurazione possibile ammessa dalle condizioni ambientali (cosa non possibile da un punto di vista computazionale, ma che facciamo finta di poter fare comunque).


Siccome non sappiamo in quale configurazione microscopica precisa si trovi il gas in ciascun istante di tempo (non è misurabile sperimentalmente), immaginiamo di avere N copie del nostro gas e di fare delle estrazioni per contare quante volte esce una certa configurazione piuttosto che un’altra. La distribuzione di queste estrazioni definisce alcune quantità macroscopiche (P_i,V_i,T_i) associate alla specifica configurazione microscopica i estratta un numero N_i di volte. Le quantità macroscopiche (P,V,T) che misuriamo sperimentalmente possono quindi essere pensate come la media di tutte le (P_i,V_i,T_i) pesate con la probabilità di estrazione N_i/N.

La misura sperimentale di (P,V,T) ci dà quindi informazioni sulla distribuzione delle configurazioni microscopiche del nostro gas.


Immaginando il gas in equilibrio termico a una certa energia interna, il numero di configurazioni del gas corrispondenti a tale energia possono essere contate, dal punto di vista teorico, sommando tutte le possibili accoppiate di posizione-velocità (x,y,z),(v_x,v_y,v_z) nelle tre dimensioni spaziali, e ciò deve essere fatto per tutte le particelle del gas.

Siccome il numero di possibili accoppiate è virtualmente infinito, i padri fondatori della fisica statistica immaginarono di dividere lo spazio dei possibili valori di posizione e velocità in cellette elementari di dimensione finita che chiamiamo \tau. In questo modo due stati dinamici specificati da (x_1,y_1,z_1),(v_{x1},v_{y1},v_{z1}) e (x_2,y_2,z_2),(v_{x2},v_{y2},v_{z2}) che caschino nella stessa celletta di questo spazio sono considerati essere lo stesso stato dinamico. È come se ammettessimo, in un certo senso, di non sapere distinguere tra (x_1,y_1,z_1),(v_{x1},v_{y1},v_{z1}) e (x_2,y_2,z_2),(v_{x2},v_{y2},v_{z2}) nel caso appartengano alla stessa cella, è un’approssimazione.

La suddivisione in cellette dello spazio di posizioni e velocità per le particelle. Secondo questa suddivisione due set di posizioni e velocità che appartengono alla stessa celletta non sono distinguibili (qui non distinguiamo il rosa dal celeste), mentre sono distinguibili da quella in verde, dato che appartiene a un’altra celletta.

Dal punto di vista statistico, l’entropia del gas è pensabile come una misura di quanti stati dinamici microscopici sono associabili a un certo stato termodinamico macroscopico, una misura della nostra “ignoranza” sull’effettiva configurazione microscopica del gas.

Il problema era che la dimensione \tau della celletta elementare era del tutto arbitraria, e ciò influiva pesantemente sul conteggio delle configurazioni. Essendo il numero delle configurazioni direttamente collegato alla definizione statistica di entropia, una scelta di \tau troppo piccola conduceva a valori infiniti per l’entropia del gas. Questa indeterminazione sulla scelta di \tau impediva inoltre di calcolare, statisticamente, il valore della costante dell’entropia alla temperatura dello zero assoluto.

Il problema della costante dell’entropia stava molto a cuore ai fisici dell’epoca. Nella termodinamica ottocentesca ci si interessava solo alle differenze di entropia, e quindi era di scarso interesse pratico domandarsi quale fosse il valore assoluto dell’entropia a una determinata temperatura come T=0\,\text{K}, e in ogni caso questa costante spariva quando si faceva la differenza \Delta S=S(B)-S(A) tra due stati termodinamici B e A.
Tuttavia con l’arrivo del teorema di Nernst e quindi del terzo principio della termodinamica (il quale postula che l’entropia allo zero assoluto sia esattamente zero) si rivelò essenziale determinare il valore di questa costante.

Un altro problema fastidioso era quello che riguardava il conteggio di particelle indistinguibili: quando si contavano tutte le configurazioni possibili di tutte le particelle del gas si finiva per contare più volte la stessa configurazione per via del fatto che non è possibile distinguere una particella dall’altra. Per via di ciò si arrivava a dei paradossi che riguardavano l’entropia di mescolamento dei gas.
Di questo problema si interessò Gibbs, il quale propose di dividere i conteggi per il fattore combinatorico N! dove N è il numero di particelle e con “!” si intende il fattoriale N!=N(N-1)(N-2)....
Tuttavia anche questa soluzione non risolveva tutti i problemi…

La teoria dei quanti sistemò i problemi dell’entropia. Si dimostrò che la dimensione \tau delle cellette elementari doveva essere pari alla costante di Planck h: la natura discreta della teoria quantistica si sposava bene con l’ipotesi delle cellette elementari della fisica statistica.

Il punto è che gli effetti quantistici delle particelle non sono più trascurabili a basse temperature. In fisica statistica esiste una quantità chiamata lunghezza d’onda termica di De Broglie, la quale ha la seguente espressione per un gas perfetto monoatomico:

La lunghezza termica delle particelle di un gas, dove h è la costante di Planck, m la massa delle particelle, k_B la costante di Boltzmann che converte da dimensioni di energia a dimensioni di temperatura tramite E=k_BT, e T la temperatura del gas.

Questa lunghezza d’onda deriva dalla formulazione ondulatoria di De Broglie per le particelle quantistiche.
Secondo De Broglie, a ogni particella avente quantità di moto p è associabile una lunghezza d’onda \lambda=h/p. Se come p si prende la quantità di moto termica delle particelle del gas si ottiene la \lambda_T riportata sopra.
A temperature normali questa lunghezza d’onda è molto più piccola della distanza media tra gli atomi di un gas. Vediamo però che al diminuire di T, la relazione di inversa proporzionalità \lambda_T\propto 1/\sqrt{T} aiuta a far crescere questa lunghezza d’onda. Per temperature sufficientemente basse la lunghezza d’onda \lambda_T diventa comparabile con le distanze inter-atomiche del gas.

Man mano che si abbassa la temperatura del sistema, aumenta la lunghezza d’onda di De Broglie e dominano le interferenze quantistiche tra le funzioni d’onda delle particelle.
Nel caso in figura sono mostrati dei bosoni.

Quindi, per via delle loro proprietà quantistiche, le particelle iniziano ad interferire tra loro come tante onde, e questo succede quando la loro lunghezza d’onda diventa almeno comparabile con la distanza tra una particella e l’altra, a temperature molto basse.

Siccome parliamo di funzioni d’onda che creano interferenze, l’indistinguibilità delle particelle gioca un ruolo centrale in questo processo quantistico, e ciò sta alla base di tutte le difficoltà teoriche della vecchia fisica statistica, la quale non teneva conto di queste proprietà quantistiche. Fino alla prima metà degli anni ’20, questa sottigliezza quantistica non era ancora stata compresa in profondità.

Statistica quantistica: la strada di Fermi

Enrico Fermi (1901-1954). Premio Nobel per la Fisica nel 1938.

Ancora fresco di laurea, Fermi divenne particolarmente ossessionato dal problema della costante dell’entropia, pubblicando diversi articoli tra il 1924 e il 1926.

Aveva intuito che il problema risiedesse nella natura quantistica delle particelle, in particolare dal punto di vista della loro indistinguibilità, ma mancava ancora qualche pezzo del puzzle.

Il pezzo mancante fu messo a disposizione da Pauli con la formulazione del principio di esclusione: non possiamo avere due elettroni con tutti i numeri quantici uguali tra loro. Gli elettroni sono particelle indistinguibili, quindi Fermi si ispirò al loro comportamento per provare a quantizzare un gas di particelle a temperature sufficientemente basse.

Possiamo immaginarci un Fermi che lavora assiduamente all’alba (il suo momento preferito per studiare e lavorare su nuovi articoli) in qualche fredda mattina di Firenze, nell’inverno del 1925-26, sforzandosi di sfruttare il principio di Pauli per ottenere la costante corretta dell’entropia allo zero assoluto.

La prima pagina dell’articolo di Fermi, presentato all’accademia dei Lincei nel febbraio del 1926.

Nel suo articolo “Sulla quantizzazione del gas perfetto monoatomico” uscito nel febbraio del 1926, Fermi ipotizzò che un gas ideale si comportasse proprio come gli elettroni del principio di Pauli e cambiò completamente il modo di contare le configurazioni possibili in fisica statistica: in ciascuno stato dinamico possono esserci zero o al massimo una sola particella, mai due nello stesso stato.
Immaginò poi che il gas potesse essere caratterizzato da determinati livelli energetici discreti, proprio come si faceva nella quantizzazione dell’atomo di idrogeno. Questa spaziatura tra i livelli energetici era tanto più rilevante per la fisica del problema quanto più era bassa la temperatura del gas, essenzialmente per il motivo enunciato sopra. Ad alte temperature gli effetti quantistici devono essere trascurabili e si ritorna alla termodinamica dell’ottocento.

La conseguenza di questo nuovo modo di contare era che ciascuno stato i era occupato da un numero medio di particelle in funzione dell’energia E_i dello stato, secondo la seguente espressione:

Il numero di nepero e (o Eulero), l’energia E_i dello stato, la temperatura T, la costante di Boltzmann k_B. Il parametro \mu è noto come “potenziale chimico” e allo zero assoluto corrisponde all’energia di Fermi: E_F.

Usando questa informazione, Fermi calcolò l’espressione della costante dell’entropia, la quale coincideva con il valore sperimentale dedotto da Sackur e Tetrode nel 1912. La sua teoria era un successo!

Tuttavia, come confermato anche da alcuni studiosi (Belloni, Perez et al), Fermi non si interessò delle radici quantistiche di questa nuova statistica, cioè non provò a collegare il principio di Pauli con la natura ondulatoria della materia. Inoltre non esisteva, al tempo, un gas capace di comportarsi come gli elettroni dell’articolo di Fermi. La soluzione di Fermi voleva andare nella direzione della statistica quantistica, ma con un approccio molto cauto sulle ipotesi alla base. Fermi utilizzò la sua intuizione per dare una nuova soluzione a dei problemi annosi di fisica statistica (già risolti recentemente da Bose e Einstein con la loro statistica) e dedusse una statistica completamente nuova.

Tuttavia, al contrario di quanto si dice solitamente in giro, Fermi non applicò direttamente questa nuova statistica al problema degli elettroni nei metalli (cosa che fu fatta da altri e che condusse alla teoria dei semiconduttori).

La statistica di Fermi-Dirac

La distribuzione trovata da Fermi è dipendente dalla temperatura. Abbiamo già anticipato che gli effetti quantistici diventano preponderanti a temperature vicine allo zero assoluto. In questo caso il principio di Pauli emerge direttamente dalla forma analitica della distribuzione, riportata in figura:

La formula di Fermi al variare della temperatura.

Man mano che la temperatura del gas di elettroni si avvicina a T=0\,\text{K}, la distribuzione di Fermi si avvicina sempre di più alla “funzione gradino”

La funzione gradino, cioè il limite a basse temperature della formula di Fermi.

Allo zero assoluto, gli elettroni occupano i livelli energetici riempiendoli dal più basso fino a un’energia chiamata “energia di Fermi”, indicata con E_F.
Puoi notare come a T=0 il numero medio di occupazione dello stato a energia E_i sia esattamente 1: non può esserci più di un elettrone per stato, è il principio di esclusione di Pauli in tutta la sua gloria. Nota anche che non ci sono elettroni che occupano stati a energia maggiore di quella di Fermi.

Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.

Questo comportamento è essenzialmente verificato anche per temperature più alte di T=0, basta solo che sia T\ll T_F dove T_F è detta “temperatura di Fermi”, ed è pari a T_F=E_F/k_B. Nelle situazioni di interesse fisico (come nei metalli), la condizione T\ll T_F è praticamente sempre soddisfatta, essendo T_F di solito dell’ordine di alcune centinaia di migliaia di gradi kelvin.

I gas di elettroni sono fortemente influenzati dal principio di Pauli: è un po’ come se ci fosse una forza “repulsiva” tra gli elettroni, la quale gli impedisce di occupare lo stesso stato energetico. Questa è anche un’interpretazione euristica del fatto che la pressione di un gas di Fermi sia più elevata di un gas classico: è difficile comprimere un gas di elettroni perché non vogliono mai “occupare lo stesso punto spaziale”.

Come mai questa statistica è chiamata “Fermi-Dirac” e non solo “Fermi”?
È noto che Dirac pubblicò la stessa formula alla fine dell’estate del 1926, mentre Fermi l’aveva presentata nella primavera dello stesso anno. Dirac, su sollecito scritto da parte del fisico italiano, ammise di aver letto il lavoro di Fermi, ma sostenne di averlo completamente scordato.

In difesa di Dirac va detto che il suo lavoro (“On the Theory of Quantum Mechanics“) è molto più generale di quello presentato da Fermi, il quale si era invece proposto di risolvere un problema particolare (quello dell’entropia) che c’entrava poco con i postulati della meccanica quantistica.

Dirac giustificò in maniera elegante il principio di esclusione di Pauli notando che la meccanica quantistica era il luogo naturale per trattare i sistemi di particelle indistinguibili, grazie al formalismo delle funzioni d’onda.

La chiave del ragionamento di Dirac si trova proprio nel fatto che le particelle elementari possono essere considerate indistinguibili. La conseguenza quanto-meccanicistica è che se consideriamo due particelle non interagenti tra loro, e che possono occupare gli stati A e B, la funzione d’onda che le descrive collettivamente è data dal prodotto delle due funzioni d’onda

    \[\psi(x_1;x_2)=\psi_A(x_1)\psi_B(x_2)\]

in cui x_1 e x_2 sono le posizioni delle due particelle. Se scambiamo le due particelle, e cioè le portiamo dallo stato A allo stato B e viceversa, otteniamo la funzione d’onda modificata

    \[\psi'(x_1;x_2)=\psi_B(x_1)\psi_A(x_2)\]

Ma se assumiamo che le particelle siano indistinguibili, la densità di probabilità deve restare la stessa (ricordiamo che è data dal modulo al quadrato della funzione d’onda):

    \[|\psi'(x_1;x_2)|^2=|\psi(x_1;x_2)|^2\]

Quindi al massimo possiamo avere che \psi' è diversa da \psi per un fattore \eta

    \[\psi'(x_1;x_2)=\eta \psi(x_1;x_2)\]

in cui \eta è un numero tale che |\eta|^2=1 in modo da soddisfare |\psi'(x_1;x_2)|^2=|\psi(x_1;x_2)|^2 (verifica pure!).

Se ri-scambiamo le due particelle, torniamo punto e a capo, e cioè deve essere \psi''(x_1;x_2)=\psi(x_1;x_2)

    \[\psi''(x_1;x_2)=\eta \psi'(x_1;x_2)=\eta^2\psi(x_1;x_2)=\psi(x_1;x_2)\]

ovvero \eta^2=1, la quale ha soluzione \eta=\pm 1.
Se \eta=-1 stiamo parlando di particelle con funzioni d’onda antisimmetriche (cioè lo scambio delle particelle produce un segno meno moltiplicativo nella funzione d’onda totale). Una conseguenza è che se parliamo dello stesso stato A=B allora lo scambio delle particelle produce la seguente relazione

    \[\psi_A(x_1)\psi_A(x_2)=-\psi_A(x_1)\psi_A(x_2)\]

la quale implica identicamente \psi_A(x_1)\psi_A(x_2)=0, cioè non esiste uno stato quantistico in cui queste particelle hanno gli stessi numeri quantici. Questa è la giustificazione quanto-meccanicistica del principio di Pauli, e condusse Dirac a ricavare la stessa formula di Fermi per la statistica degli elettroni.

La lettera in cui Fermi richiamò l’attenzione di Dirac sul suo articolo del febbraio precedente.


Fermi si limitò all’applicazione del principio di esclusione su un problema specifico, senza provare a darne un’interpretazione quanto-meccanicistica.

In ogni caso, Dirac riconobbe comunque l’importanza del lavoro di Fermi, e propose di chiamare la nuova statistica “Fermi-Dirac”, mettendo il nome di Fermi al primo posto.

Oggi le particelle (come gli elettroni) che obbediscono alla statistica di Fermi-Dirac sono note come “fermioni”, sempre in onore di Fermi. I fermioni sono tutte quelle particelle caratterizzate da uno spin semi-intero. Per un teorema rigorosamente dimostrabile in teoria quantistica dei campi, tutte le particelle a spin semi-intero obbediscono alla statistica di Fermi-Dirac, mentre quelle a spin intero (note come “bosoni“) obbediscono alla statistica di Bose-Einstein (sono le particelle con \eta=1 dopo uno scambio).

Alle basse temperature i bosoni possono occupare tutti lo stesso stato a energia più bassa, mentre i fermioni sono forzati ad occupare stati a energia crescente fino all’energia di Fermi (nella figura sono presenti al massimo due fermioni per via del numero quantico di spin, il quale assume due valori possibili se lo spin è 1/2).

Alle alte temperature (dove gli effetti quantistici sono meno preponderanti) sia fermioni che bosoni tornano ad obbedire alla statistica di Maxwell-Boltzmann e Gibbs.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Cosa possiamo imparare dal diario degli appunti di Feynman

Richard P. Feynman (1918-1988)

Fin da quando ho iniziato il mio percorso nella Fisica sono stato affascinato tanto dalla materia quanto dalle personalità che l’hanno costruita. Anzi, ripensandoci devo ammettere che traevo ispirazione dalle azioni quotidiane, dalle abitudini o dai modi di ragionare dei grandi fisici del passato. Non che volessi “emularli” , semplicemente li ammiravo così tanto da voler portare dei pezzi di loro dentro di me, per sentirli più vicini, per guidarmi nelle decisioni e nella motivazione.

Una parte che trovo estremamente interessante della storia di ogni fisico è il suo metodo di studio, e non di quando era già grande e formato, ma di quando era giusto agli inizi.

Un filo conduttore che ho notato è il seguente: per capire a fondo una materia, devi farla tua. Per fare ciò servono due step fondamentali:

  • Bisogna essere autodidatti per una buona percentuale del tempo. Il professore ha il ruolo di mostrare la via più proficua e fornire gli schemi per aiutarti a non perderti, il resto devi coltivarlo da solo usando dei libri adeguati allo scopo.
  • Dopo aver letto il libro devi estrapolare le tue visioni e i tuoi schemi per poi riorganizzarli come preferisci in forma scritta, su diari o quadernini personali.
Il diario di Feynman: “The Calculus”, in italiano “Il calcolo infinitesimale”.

Uno dei più grandi che seguiva questo metodo era Richard Feynman, celebre fisico teorico americano (Nobel 1965). Ne sono venuto a conoscenza perché sono incappato di recente in un articolo di Physics Today in cui è stato riesumato da un archivio il “diario degli appunti” di quando Feynman decise di imparare il calcolo infinitesimale da autodidatta quando era ancora al liceo.

Il giovane Feynman decise che il curriculum di matematica liceale (che arrivava a stento alla trigonometria) non era abbastanza per chi volesse iniziare ad interessarsi di Fisica. Per sua fortuna il matematico Edgar Thompson decise di scrivere una serie di libri con l’intento di rendere più accessibili alcune tecniche matematiche che all’epoca erano ancora trattate in maniera piuttosto “aulica”. Feynman trovò particolarmente utile il libro di Thompson “Il calcolo infinitesimale reso facile” del 1923, su cui decise di basare tutta la sua preparazione (introduttiva) alla matematica universitaria.

Trovo giusto rimarcare un attimo l’importanza dell’opera di personaggi come Thompson: se Feynman non avesse potuto sviluppare da solo certe attitudini grazie a libri così accessibili, avrebbe magari avuto più dubbi nel suo percorso, e chissà magari non avremmo mai sentito parlare dei “diagrammi di Feynman”.

Cosa possiamo imparare?

Ci sono poche immagini condivise in rete sul diario di Feynman. Tuttavia da quel poco che abbiamo possiamo comunque trarre alcuni spunti interessanti, oltre ad evidenziare alcuni tratti fondamentali che per Feynman diventeranno caratteristici del suo metodo di lavoro.

L’importanza della schematicitià

La cosa che mi ha sorpreso di più di questo diario è anzitutto la presenza di un indice.

L’indice del diario di Feynman. I capitoli sono organizzati in una maniera molto simile a quella del libro di Thompson.

Uno degli ingredienti fondamentali per imparare una materia nuova e complessa è infatti quello di riuscire a organizzare le informazioni in maniera che siano rapidamente accessibili. L’indice è probabilmente il modo migliore per visualizzare graficamente tutti gli aspetti di una materia, e non parlo dell’indice di un libro, ma dell’indice dei propri appunti. Nel mio caso, se i tuoi appunti non hanno un indice è più facile provare un senso di confusione generale quando scorri le pagine. Questo piccolo dettaglio può trasformare una “confusa raccolta” in un serio “arsenale di conoscenze”.
Feynman conservò tutta la vita questa propensione per la schematicità. James Gleick riporta un aneddoto di quando Feynman era ancora studente a Princeton:

[…] Aprì un quaderno degli appunti. Il titolo era “DIARIO DELLE COSE CHE NON SO”. […] Lavorava per settimane per disassemblare ogni branca della Fisica, semplificandone le parti e mettendo tutto assieme, cercando nel mentre inconsistenze e punti spigolosi. Provava a trovare il cuore essenziale di ogni argomento.

James Gleick

Qui non siamo solo davanti a un esercizio “di umiltà” che consiste nel cercare di perfezionare le proprie lacune, ma a una ricerca sistematica, ottimizzata.

Quando Feynman aveva finito il lavoro, si ritrovava con un diario degli appunti di cui andava particolarmente orgoglioso.

James Gleick

La schematicità di questo lavoro permetteva a Feynman di accedere rapidamente a tutti gli argomenti che lui riteneva più importanti, nella grafia e nello stile di presentazione che a lui era più congeniale: il suo.

Da questa lezione possiamo imparare l’importanza della rielaborazione e della schematicità: non solo bisogna far proprio un argomento, ma bisogna organizzare le proprie note in modo che siano accessibili con il minor sforzo possibile, solo così si può andare avanti con una mente abbastanza lucida, pronta ad imparare cose ancora più difficili.

Prendersi un po’ più sul serio

Il secondo aspetto su cui voglio soffermarmi riguarda queste due pagine di appunti:

L’argomento riguarda l’analisi matematica ordinaria: l’angolo iperbolico e le funzioni iperboliche, ma non è questa la cosa interessante, bensì è l’utilizzo di intermezzi stilistici del tipo: “come abbiamo visto”, “se dividiamo…” tutti rivolti al plurale, proprio come farebbe un professore che sta spiegando un argomento in un’aula. Feynman si prendeva sul serio. Questo prendersi sul serio lo portava a redigere gli appunti con uno stile che poteva essere letto da tutti, aumentandone la facilità di lettura e senza sacrificare la rigorosa riorganizzazione delle informazioni.
Ricordiamo: Feynman era appena un adolescente mentre scriveva questo diario, non stiamo parlando di uno studente universitario che si suppone abbia già consolidato certi metodi di studio. Qui sta la precoce genialità di Feynman.

Il diario degli appunti di Enrico Fermi.

Se si vogliono scrivere degli appunti che ci potrebbero essere utili in futuro, bisogna farlo prendendosi sul serio, scrivendo come se dovessimo esporre in un’aula con persone che su quell’argomento non sanno nulla.
Se non si fa ciò, si rischia di ritrovarsi con degli appunti illeggibili presi distrattamente qualche anno prima, con il risultato di aver sprecato ore di studio senza poter riacquisire in maniera rapida le conoscenze dimenticate.

Anche uno dei più grandi fisici del novecento, Enrico Fermi, usò la tecnica del diario degli appunti fin da quando era al liceo. Proprio come Feynman, Fermi era ossessivo nel redigere i propri appunti, dedicandovi una meticolosa attenzione, fin dalla stesura dell’indice:

L’indice di un quaderno di Fermi.

Come testimoniarono i suoi colleghi e amici, Fermi riutilizzava spesso i propri quadernini anche in età adulta, proprio perché gli consentivano l’accesso immediato a numerose branche del sapere, diventando quasi “un’estensione” del proprio cervello.
Di nuovo, la loro efficacia stava probabilmente nel fatto di essere stati scritti in uno stile a lui più congeniale, usando schemi con cui aveva maggiore confidenza. Qualcuno disse che Fermi aveva fatto sua tutta la Fisica, tanto da definirlo “l’ultimo uomo che sapeva tutto“.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Quel tremendo colloquio con Enrico Fermi che cambiò la carriera di Dyson

Ci sono svariati motivi per cui la Scienza, pur essendo una disciplina di matrice umana e quindi predisposta all’errore, riesce sempre a raddrizzarsi. Il motivo più cruciale è la spietatezza del giudizio tra pari: l’oggettività e il metodo scientifico non guardano in faccia nessuno.

Naturalmente per garantire il continuo raddrizzamento servono grandi personalità, che devono essere la base di ogni comunità scientifica. E non parlo di “grandi personalità” solo dal punto di vista accademico, servono grandi capacità relazionali e grande onestà intellettuale, anche a costo di dire qualcosa di molto scomodo. La scienza inizia a morire quando inizia a prendere piede il pensiero di gregge, dal quale nessuno ha il coraggio di discostarsi.
A capo del gregge servono dei pastori, pochi fari nella notte, ma sempre accesi e messi nei punti giusti.

In questo contesto, qualche tempo fa sono incappato in una storia condivisa da Freeman Dyson, che è stato uno dei più importanti fisici teorici del secondo novecento. Credo che questa storia riassuma perfettamente lo stato esistenziale del ricercatore: la ricerca è un mondo appassionante in tutti i sensi, passione emotiva e passione in senso latino, “patire, soffrire”.

Un po’ di contesto storico

Un tipico processo di elettrodinamica quantistica, un fotone virtuale viene scambiato tra due elettroni.

Alla fine degli anni ’40 si era raggiunta una soddisfacente descrizione dei processi atomici. L’unica forza fondamentale del mondo quantistico allora compresa, l’elettrodinamica quantistica, aveva come ingredienti i campi fermionici come elettroni, protoni e neutroni, e il campo elettromagnetico (rappresentato dal suo quanto di eccitazione, il fotone).
Come descritto in un precedente articolo, essendo il mediatore di un’interazione a raggio d’azione infinito, il fotone ha massa nulla. Un principio di simmetria, assieme alle nozioni dell’elettrodinamica classica, ci guidano a scrivere l’interazione elettrodinamica, come spiegato in un precedente articolo, con la seguente struttura:

L’accoppiamento tra campi fermionici ψ e il campo elettromagnetico Aμ.
L’intensità dell’interazione è specificata dalla carica dell’elettrone in unità fondamentali (unità di c=ℏ=1).
Freeman Dyson (1923-2020)

A partire da questa struttura, si è in grado di calcolare tutti i processi elettromagnetici possibili, e verificare l’accuratezza della teoria confrontando i valori ottenuti con i dati sperimentali. Questa era l’occupazione di Freeman Dyson e il suo gruppo di studenti. Dyson, allora un giovanissimo professore di Fisica Teorica alla Cornell, era riuscito con il suo gruppo ad ottenere uno spettacolare accordo tra le previsioni teoriche e i dati sperimentali: l’elettrodinamica era una teoria in grado di fare previsioni molto accurate.

Dopo questi successi, nel 1951 il gruppo di Dyson era alla ricerca di altri problemi da conquistare. Uno particolarmente promettente era il problema di studiare cosa tenesse assieme i nuclei: l’interazione nucleare.
All’epoca la Fisica Nucleare era una scienza prettamente empirica: i modelli teorici erano pochi, confusi e dallo scarso potere predittivo. Quello che era certo, almeno alla scala di energia che si esplorava all’epoca, è che il mediatore della forza nucleare doveva essere massivo (per sapere perché leggi qua) perché al di fuori del nucleo la forza nucleare cessava di esistere.
Se il mediatore dell’elettrodinamica era il fotone, il mediatore dell’interazione nucleare fu individuato nel pione. L’obbiettivo era quindi fare degli esperimenti in cui si facevano collidere pioni con altre particelle nucleari, per studiarne l’interazione.

Dyson e il suo gruppo, avendo avuto così tanto successo con il modello dell’elettrodinamica, decisero che la struttura migliore per l’interazione doveva essere molto simile:

L’accoppiamento tra i campi fermionici ψ e il campo del pione ϕ.
L’intensità dell’interazione è specificata dalla costante “g” , che ha un valore molto più elevato della costante di accoppiamento elettromagnetica “e”.
Un protone ed un neutrone interagiscono scambiandosi un pione neutro.
Nota la somiglianza con il diagramma dell’elettrodinamica.


Questa teoria era conosciuta come “teoria del pione pseudoscalare” , e il gruppo di Dyson ci lavorò a tempo pieno per due anni. Dopo uno sforzo di proporzioni eroiche, nel 1953 riuscirono a produrre delle predizioni teoriche in accettabile accordo con i dati disponibili all’epoca. La carriera di alcuni studenti di Dyson dipendeva dal successo di questa teoria, dato che erano per la maggior parte dottorandi o post-doc.

I dati sperimentali con cui confrontavano le loro previsioni teoriche erano stati raccolti da uno dei migliori fisici del novecento, nonché uno dei padri fondatori della ricerca nucleare: Enrico Fermi, professore a Chicago e al tempo uno dei leader nella costruzione del Ciclotrone con cui si studiavano le interazioni nucleari.
Fermi era anche uno dei migliori fisici teorici della sua generazione, quindi Dyson pensò fosse il caso di andare a trovarlo per discutere sul successo del proprio lavoro, prima di pubblicarlo.

Enrico Fermi (1901-1954), premio Nobel per la Fisica 1938.

L’incontro con Fermi

Nella primavera del ’53, Dyson si diresse a Chicago per andare a trovare Fermi nel suo ufficio, portando con sé una pila di fogli con alcuni grafici che riproducevano i dati sperimentali calcolati dal suo gruppo.

Fermi aveva la nomea di incutere una certa soggezione, di certo non solo per la sua fama di grande scienziato, ma anche per l’acutezza del suo giudizio. Quindi è facile immaginarsi che Dyson si sentisse un po’ teso per quell’incontro.
La sua tensione si trasformò presto in soggezione quando vide che Fermi diede solo un rapido sguardo ai fogli che gli aveva portato, per poi invitarlo a sedersi e chiedergli con un tono amichevole come stessero sua moglie e suo figlio neonato.

Dopo qualche chiacchiera, improvvisamente Fermi rilasciò il suo giudizio nella maniera più calma e schietta possibile

Ci sono due modi di fare i calcoli in Fisica Teorica. Il primo modo, che io preferisco, è di avere un chiaro schema mentale del processo fisico che vuoi calcolare. L’altro modo è di avere un preciso ed auto-consistente formalismo matematico. Voi non avete nessuno dei due.

Dyson rimase ammutolito, anche se la parte più orgogliosa di lui era comunque incredula. Quindi cercò di capire cosa non andasse, secondo Fermi, con la teoria del pione pseudoscalare.

Fermi aveva un intuito fisico eccezionale su cui fondò letteralmente una scuola di pensiero in grado di far fruttare ben 8 premi Nobel per la Fisica tra i suoi studenti.

La teoria del pione pseudoscalare, secondo il suo intuito, non poteva essere corretta perché a differenza dell’elettrodinamica l’interazione era molto più intensa e nei calcoli era necessario mascherare alcune divergenze senza avere un chiaro schema fisico di quello che stesse succedendo.

Inoltre, quando Dyson gli chiese, ancora orgogliosamente, come mai secondo lui i dati fossero comunque in accordo con le sue previsioni nonostante la teoria fosse inadeguata, Fermi gli fece notare che il numero di parametri utilizzato (quattro) era troppo alto, e che con un numero così elevato fosse possibile raggiungere un raccordo tra le previsioni teoriche e qualunque dato sperimentale.

In sostanza Fermi demolì, con estrema calma e schiettezza, gli ultimi due anni di lavoro dell’intero gruppo di Dyson, composto da dottorandi e post-doc la cui carriera in quel momento dipendeva dal successo di quella teoria.

La storia diede ragione a Fermi. La teoria del pione pseudoscalare non era quella corretta, al modello delle forze nucleari mancava un pezzo fondamentale del puzzle: i quark, teorizzati da Gell-Mann il decennio successivo, quando Fermi era già morto.

Dopo quell’incontro traumatico, Dyson e il suo gruppo pubblicarono comunque il lavoro, ma abbandonarono completamente quel campo di ricerca. Negli anni successivi, ripensando a quell’evento, Dyson espresse di essere grato eternamente a Fermi per quello “schiaffo” morale, perché la sua teoria non avrebbe portato nessun frutto e avrebbe fatto sprecare preziosi anni di ricerca a lui e al suo gruppo.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg
Matteo Parriciatu
Matteo Parriciatu

Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).

Perché scrivo guide per lo studente e l’importanza di condividere ciò che si impara

Ho passato buona parte di novembre appresso al feroce bisogno di approfondire una mantra che ho sentito spesso dai miei docenti di alcuni corsi di teorica che sto seguendo:

"Fermi scrisse la teoria del decadimento beta usando un vertice a quattro fermioni, fate il conto e ricavatevi la costante di accoppiamento dalla vita media." 

Una nota di background: nei principali corsi teorici della mia facoltà è riservato poco spazio alla teoria elettrodebole, per cui uno studente tra il primo e il secondo anno (come me) ha a disposizione giusto una buona base sulla seconda quantizzazione e teoria dello scattering, con alcune nozioni qua e là di fenomenologia di fisica delle particelle.

Riguardo al conto per il decadimento beta di Fermi ho pensato tra me e me:

"Ok, suppongo si possa fare, è un decadimento fermionico che posso trattare con il formalismo della matrice S che ci hanno insegnato a Teorica 1. Scrivo gli operatori di creazione etc. etc." 
Io, impegnato nel non capire in che modo strutturare un discorso sull’argomento che sto studiando, in un triste quadro novembrino.

Il tempo di poggiare la penna sul foglio e vengo travolto da un turbinio di dubbi, non tanto sui conti, quanto più su cosa stessi davvero facendo: ho realizzato che il formalismo della matrice S funziona bene per le particelle asintoticamente libere, ma se voglio descrivere le particelle nucleari che decadono, come posso fare? Da qui è iniziata una ricerca che mi ha portato ad analizzare per intero l’articolo originale di Fermi, per scoprire che i miei dubbi erano comunque fondati: non posso trascurare i nuclei! E subito sorgono nuovi dubbi: ma allora il conto a quattro fermioni che processo calcola esattamente? Il decadimento del neutrone libero? Ma la costante non torna mica! E poi, come si è passati dalla teoria di Fermi alla teoria elettrodebole? In che senso la teoria di Fermi è una Effective Field Theory della elettrodebole, e in che modo questa descrive i processi nucleari con il formalismo che si usa oggi? La ricerca di risposte a queste domande mi ha portato sui libri specialistici in teoria elettrodebole, dove però era dedicato decisamente poco spazio alla costruzione di un percorso pedagogico.

È molto probabile che la mia ossessione per la necessità di avere una struttura pedagogica da seguire per poter capire un argomento sia una cosa un po’ stupida e inutile, ma sono fatto così:

Per capire le cose ho necessità che mi venga spiegato non solo come funzionano, ma anche perché gli umani le hanno fatte funzionare in quel modo e non in un altro.

Questa sidequest ha occupato la maggior parte delle mie giornate di quest’ultimo mese, portandomi a una realizzazione:

“Tutto questo poteva essere enormemente semplificato da una trattazione più organica e rivolta a uno studente con il mio stesso background".

Mi sono quindi immaginato:

"E se qualcuno si fosse messo a scrivere un bel riassunto introduttivo di tutto quello che concerne la teoria di Fermi fino alla teoria elettrodebole, in modo da farmi fare in poche ore quel sentiero concettuale che ho sviluppato in tutti questi giorni?"

Non trovando nulla in merito, ho deciso di farlo io. Il risultato è “Guida per lo studente al calcolo di Fermi sul decadimento β“, in cui esploro e commento il famoso articolo del 1934 di Enrico Fermi, e lo analizzo da un punto di vista degli strumenti matematici che vengono insegnati nei corsi universitari introduttivi di fisica teorica, cercando di costruire un percorso pedagogico fino ad arrivare a un cenno sulla teoria elettrodebole e al concetto di Effective Field Theory.

Guida per lo Studente al calcolo di Fermi sul decadimento β

Clicca per il download

Perché è importante condividere ciò che si impara, oggi più che mai

Gestisco questo blog da ormai 6 anni, cioè fin da quando ero in quarta liceo, e lo scopo è sempre stato lo stesso: voglio scrivere delle note/appunti approfonditi che desidererei dare al me stesso del passato per fargli fare meno della metà della fatica che ha fatto effettivamente per costruire il ragionamento logico. Ho notato con piacere che negli anni questi sforzi sono stati apprezzati da altri studenti che erano curiosi di imparare gli stessi argomenti, come evidenziato dal numero di download sempre crescente negli anni.

In questo senso coltivo un ambizione probabilmente poco realistica: desidererei che partisse un movimento di scambio culturale tra studenti, volto a condividere ciò che si impara.
Sia chiaro non basta condividere lo straccio dei propri appunti scritti a penna, ma serve una vera e propria esposizione pedagogicamente strutturata e studiata per toccare le corde giuste nella mente di chi legge, con lo scopo di far suonare tanti “eureka” nella sua testa. In questo modo tutti assieme si potrebbe imparare a più del triplo della velocità ed efficienza, e si verrebbe a creare un vero e proprio circolo intellettuale tra studenti.

Questo discorso diventa sempre più importante man mano che la scienza progredisce, perché inevitabilmente nessuno ha più il tempo materiale di specializzarsi anche solo su una frazione delle numerosissime branche di un campo scientifico. La necessità di semplificare i percorsi di apprendimento, condividendo ciò che si impara, è oggi più urgente che mai.

Perché fare questo invece di affidarsi solo ai libri di testo universitari?

Semplicemente perché la conoscenza è strutturata in diversi livelli di comprensione, dal livello zero al livello “esperto”; inoltre vale la regola generale che:

Non sempre il libro che stai studiando è sintonizzato con il tuo livello di apprendimento attuale.

Il risultato? Una fatica immensa.

Ciò che penso è questo:

Se io voglio capire un argomento “x” appartenente a un insieme di concetti “X” del quale ho comunque un minimo di background, non è necessario che la persona che arrivi a spiegarmi “x” sappia poi tutto di “X”, perché a me basta la sintonizzazione col mio attuale livello di apprendimento. Solo dopo, una volta compreso “x” al livello precedente, potrò muovermi al livello successivo, in cui mi servirà magari un’esposizione da parte di una persona che dovrà comunque essere anche lei al mio stesso livello di apprendimento.

Io credo che in questo modo si faccia molta meno fatica, soprattutto in branche come la fisica teorica in cui di uno stesso argomento “x” si possono avere tantissimi livelli diversi di comprensione, da quello basico a quello totalmente astratto. In ciascuno di questi livelli è utilissimo, per chi sta imparando, poter trovare spunti da chi si è preso del tempo per organizzare i propri schemi mentali e si sia sforzato di tirar fuori una spiegazione quanto più pedagogica possibile.

Ricapitolando, scrivo guide per lo studente (o per il me stesso del passato) perché:

  • Voglio tenere un’organizzazione concettuale delle cose che imparo, in modo da poterle consultare rapidamente per qualche dubbio futuro, e in modo da evitare di annegare in un mare di libri e referenze già consultate (citate comunque nella bibliografia della guida).
  • Voglio far fare meno fatica a chi sarà curioso sullo stesso argomento, in quel preciso livello di comprensione. Chiaro che ad esempio quella guida che ho appena scritto è di scarso interesse per chi quei concetti li ha già assimilati da anni e a livelli superiori di comprensione.
    Il punto è che non tutti partiamo dalla stessa base, ed esiste sempre una certa popolazione che si trova invece nello sweet spot, per la quale magari quella guida è un salvavita, magari per una tesina o un seminario da preparare.

In verità mi ossessiono un po’, perché finché non trovo il libro che spiega quel mio dubbio esattamente nel modo in cui io voglio capirlo, o nel modo in cui io voglio che venga spiegato, non mi do pace.

Se proprio non trovo nessuna alternativa, mi viene da scriverla io stesso, una volta che penso di aver capito il concetto abbastanza in profondità.
In ogni caso non è uno sforzo inutile: avrò comunque una referenza personale per il futuro, o magari sarà utile a qualche altro studente che si trova nella mia stessa situazione.


Se facessimo tutti questo lavoro, non è da escludere che il mondo universitario italiano possa diventare un posto ben più stimolante e ricco di spunti.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg


Fermi: quel 21enne che contribuì alla Relatività Generale

Uno degli scopi principali di Internet dovrebbe essere quello di dare la possibilità di condividere per aiutarsi a vicenda negli studi. In questo senso trovo appagante quando riesco a trovare un articolo di un altro studente che sta studiando un particolare argomento tecnico e ha voglia di condividere il risultato con gli altri, per aiutarli nella stessa ricerca. Ho tratto beneficio da questo tipo di pratiche, quindi mi sento di condividere a mia volta.

Una delle questioni che mi hanno lasciato insoddisfatto quando ho studiato Relatività Generale era la scarsa enfasi posta dai corsi e dai libri di testo introduttivi nei confronti delle coordinate di un osservatore in caduta libera.

Nella meccanica classica è spesso cruciale porsi nei panni di un osservatore che interagisce con l’universo intorno a sé, per capire come questi descrive i fenomeni intorno a lui, e le interpretazioni fisiche che ne dà.

Se ad esempio una particella in movimento si trova nella stessa regione di spazio di un’altra carica elettrica, è di nostro interesse capire quale sia il campo “visto” dalla particella, immedesimandoci in lei con un opportuno cambio di coordinate. Ciò ci permette di interpretare alcune proprietà del suo moto che altrimenti ci sarebbe apparso meno intuitivo.

Il principio di equivalenza

La Relatività Generale si fonda sul principio che un osservatore in caduta libera in un campo gravitazionale rappresenta un sistema localmente inerziale. Cioè nei pressi della sua traiettoria, dal suo punto di vista, lo spaziotempo è quello della relatività ristretta: piatto.

Questo principio permette di derivare la struttura matematica delle equazioni di Einstein per lo spaziotempo attorno a una distribuzione di massa o di energia qualunque. Tuttavia nella maggior parte delle trattazioni introduttive, il ruolo del principio di equivalenza finisce qui.

Ad esempio la soluzione che descrive lo spaziotempo attorno a un buco nero di Schwarzschild viene fornita nelle coordinate di un osservatore che si trova ad infinita distanza dal buco nero, e difficilmente viene affrontato il problema, (ben più interessante dal mio punto di vista), di come appaia lo spaziotempo attorno a un buco nero dal punto di vista di un osservatore che ci stia cascando dentro.

Questo è un gran peccato perché una delle curiosità più interessanti riguarda proprio ciò che percepirebbe un malcapitato nei pressi dell’orizzonte degli eventi!

La cosa curiosa è che nemmeno Einstein, il padre del principio di equivalenza e della relatività, si preoccupò di cercare quale fosse la trasformazione di coordinate per un osservatore in caduta libera (o meglio, si accontentò della prima approssimazione più semplice, e cioè lo spaziotempo piatto di un osservatore inerziale). Ma questo non ci dice nulla sullo spaziotempo poco più distante dalla traiettoria dell’osservatore, dove inizierebbero a manifestarsi gli effetti della curvatura!

Il giovanissimo Fermi

Sorprendentemente ci pensò l’allora 21enne Enrico Fermi, il quale scrisse quelle che oggi sono note come “coordinate di Fermi”. Il suo lavoro fu pubblicato nel 1922 con il nome “Sopra i fenomeni che avvengono in vicinanza di una linea oraria” e fu pionieristico.

Le coordinate di Fermi descrivono lo spaziotempo nelle vicinanze di un osservatore in caduta libera, e possono essere applicate per provare a soddisfare la curiosità di cosa succeda davvero nell’orizzonte degli eventi di un buco nero molto semplice, non rotante ed eterno: un buco nero di Schwarzschild.

Sfortunatamente queste coordinate sono poco trattate nei corsi introduttivi, e la letteratura è poco accessibile. Da questa insoddisfazione ho deciso di fare un po’ di ricerca a proposito e come risultato ho scritto un piccolo compendio con il fine di rendere questo argomento più accessibile a uno studente del primo anno di un corso magistrale.

Il file in PDF può essere scaricato qui sotto:

Naturalmente lascia a bocca aperta la maturità con la quale l’allora 21enne Enrico Fermi, geniale nella matematica, affrontò la questione. Ciò fu immediatamente riconosciuto dai fisici matematici italiani (come Levi Civita).

Oggi le coordinate di Fermi rappresentano uno strumento molto utile, e sono usate nella ricerca più avanzata nelle computazioni teoriche della relatività generale.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Perché la teoria di Enrico Fermi rimane una delle vette dell’ingegno umano

La teoria di Fermi sull’interazione debole era così all’avanguardia che fu rifiutata dalla rivista “Nature” perché “contiene speculazioni teoriche troppo distanti dalla realtà“.

Oggi è ritenuta uno dei più importanti avanzamenti del XX secolo.

Per apprezzare la portata della teoria di Fermi, cerchiamo di ripercorrere concettualmente il suo lavoro, immedesimandoci in lui agli inizi degli anni ’30.

Quando nessuno conosceva il contenuto del nucleo

Se avessi fermato un fisico per strada nel 1930 e gli avessi chiesto la struttura del nucleo atomico l’avresti messo in imbarazzo. Ancora non si sapeva nulla del neutrone e si conosceva solo il protone; inoltre non si aveva la minima idea di cosa fosse un’interazione nucleare.

Ovviamente si sapeva, ad esempio, che un nucleo di Elio aveva carica +2 (unità di carica dell’elettrone) e che quindi doveva contenere due protoni. Tuttavia il peso del nucleo corrispondeva a quattro volte la massa del protone. D’accordo, quindi nel nucleo ci sono quattro protoni? Sì, ma allora la carica come fa a essere +2 e non +4? Beh allora ci mettiamo anche due elettroni, così neutralizziamo due cariche e si ha +4-2=+2, tanto la massa degli elettroni è mezzo millesimo di quella dei protoni e l’aggiunta non cambia il peso atomico! Problema risolto?

Il problema teorico: ci possono essere degli elettroni nel nucleo?
Oggi si prenderebbe un’insufficienza per un’affermazione simile, eppure prima della scoperta del neutrone (1932) era una delle spiegazioni accettate. Ma gli elettroni hanno una massa davvero troppo piccola per “accontentarsi” di stare in uno spazio ridotto come il nucleo: la loro lunghezza d’onda di De Broglie è centinaia di volte maggiore della dimensione del nucleo.

La situazione della fisica teorica prima del 1934

La meccanica quantistica di Schrödinger (1926) funzionava bene a livello atomico. Ma nel momento in cui si voleva provare a indagare le alte energie (cioè la struttura dei nuclei e delle particelle) falliva proprio nel formalismo matematico.
Fu Dirac (1928) a portare la relatività nella meccanica quantistica (cioè una teoria delle alte energie) e, assieme a Fock e Jordan, a proporre una seconda quantizzazione per trattare le particelle come eccitazioni dei campi quantistici. Un risultato spettacolare di questa teoria fu la scoperta dell’elettrodinamica quantistica, che era in grado di predire con successo tanti processi elettromagnetici tra particelle dotate di carica elettrica.

Ad esempio la repulsione tra due elettroni veniva spiegata con un’interazione trasmessa da un fotone creato e distrutto nel processo stesso

Leggendo dal basso verso l’alto: due elettroni arrivano, interagiscono scambiando un fotone “γ” e poi si allontanano.

La cosa importante che devi notare qui è il concetto di creazione e distruzione di un fotone. Questo modo di pensare era inglobato nella matematica della seconda quantizzazione, e fu un passo da gigante verso la fisica moderna.

L’imbarazzo del decadimento β nucleare

Tanto per infierire sul problema teorico degli elettroni nel nucleo, c’era un tipo di decadimento nucleare che si conosceva da qualche decennio: il decadimento beta (β).
In tale decadimento un nucleo era in grado di trasformarsi nel nucleo dell’elemento successivo nella tavola periodica, emettendo radiazione beta, che è un gergo sofisticato per dire “elettroni“. Questo decadimento era davvero una bella gatta da pelare per almeno due motivi:

  • Sembrava rafforzare l’idea che gli elettroni dovessero essere contenuti nel nucleo, perché da qualche parte dovevano spuntare fuori questi elettroni beta! Ma ciò era, come detto sopra, in contrasto con il fatto che la lunghezza d’onda di un elettrone avente l’energia tipica dei decadimenti β era molto maggiore delle dimensioni nucleari.
  • Gli elettroni, a parità di nucleo che decade, venivano emessi con tantissime energie diverse, da una minima energia fino a una massima energia. Se l’energia messa a disposizione dal nucleo è sempre la stessa, perché gli elettroni non assumono solo quel valore specifico di energia? Niels Bohr arrivò a dire che le interazioni nucleari non conservavano l’energia!

Il primo azzardo: un’analogia

La genialità di Fermi risiedeva nella semplicità dei suoi ragionamenti, anche se tale semplicità era solo apparente, perché il risultato di un’approfondita analisi concettuale svolta quando nessuno stava guardando.

Fermi nel 1933 conosceva solo un tipo di interazione spiegabile con una teoria delle alte energie: l’elettrodinamica quantistica a cui abbiamo accennato sopra. Questa teoria faceva uso del concetto di creazione e distruzione del fotone nei processi.
Il colpo da maestro di Fermi fu quello di ragionare per analogia: spinto dalla convinzione che gli elettroni non potevano vivere dentro il nucleo, convinzione rafforzata dalla recente scoperta del neutrone, arrivò ad affermare che:

L’elettrone viene creato durante il processo di interazione all’interno del nucleo, dopodiché non può che propagarsi libero, fuori dal nucleo.

Si trattava, questa, della prima applicazione del concetto di creazione e distruzione di particelle, applicato a particelle che non fossero il fotone. Prima si pensava che le particelle come l’elettrone dovessero esistere sempre e che non potessero apparire e scomparire nei processi. Il passo compiuto da Fermi fu di proporzioni gigantesche.

Fermi riconobbe subito che un processo fisico del genere avrebbe dovuto garantire la conservazione della carica, e sfruttando il fatto sperimentale che il nucleo si trasformava in un nucleo con un protone in più, riconobbe che il decadimento beta non era altro che il decadimento del neutrone. Il protone rimane nel nucleo, e l’elettrone viene rilasciato libero. La reazione del processo è:

Il decadimento del neutrone.
Questo processo conserva la carica elettrica: all’inizio abbiamo carica zero, e alla fine abbiamo carica +1-1=0.

Una teoria che conserva la carica elettrica ha proprio la struttura matematica dell’elettrodinamica quantistica. Fermi si affidò di nuovo a un’analogia e scrisse l’interazione come un accoppiamento tra correnti cariche, proprio come nell’elettrodinamica:

Le analogie tra elettrodinamica e teoria di Fermi

Tuttavia questa forma dell’interazione restituiva di nuovo una distribuzione di energia a un singolo valore per l’elettrone uscente. L’analogia con l’elettrodinamica era troppo bella e semplice per essere vera? Non si riesce proprio a salvare il principio di conservazione dell’energia?

Il secondo azzardo: la particella fantasma

Come mai l’energia dell’elettrone assume più valori fino all’energia massima disponibile? Si dimostra matematicamente che questo in realtà è proprio ciò che succede quando il decadimento non produce solo due corpi, ma tre! Se il neutrone decade in protone ed elettrone, chi è la terza particella misteriosa prodotta?

Fermi, su suggerimento di Pauli, decise di fare un passo in più dove molti avrebbero mollato. Ci troviamo di fronte al primo caso in cui una particella viene teorizzata prima di essere scoperta: il neutrino. Il suo identikit è il seguente:

  • È neutro, per non intaccare la conservazione della carica nell’interazione di corrente.
  • È molto leggero, più leggero dell’elettrone (questo serve per giustificare l’energia degli elettroni).
  • Anche se il nome è simile a quello del neutrone (fu Fermi a battezzarlo), il neutrino non ha nulla a che vedere con il neutrone, non farti fregare!


La reazione completa è quindi:

La reazione corretta per il decadimento beta del neutrone. Assieme all’elettrone viene emesso anche un neutrino.

A questo punto basta aggiungere la corrente del neutrino e l’analogia con l’elettrodinamica è salva!

Rappresentazione schematica delle due teorie. A sinistra un vertice di interazione tra protone e fotone (rappresentato da γ). A destra il decadimento del neutrone (ispirato, nella sua struttura, dallo schema di sinistra).

Questa interazione era in grado di spiegare con successo lo spettro energetico degli elettroni nel decadimento beta, con notevole precisione per l’epoca. Fu un trionfo!

Il punto fondamentale è che il neutrino non fu mai rivelato prima degli anni ’50!

Enrico Fermi (1901-1954).

Questo per via del fatto che Fermi inconsapevolmente non aveva solo teorizzato il decadimento del neutrone, ma un nuovo tipo di forza della natura: l’interazione debole! Il neutrino interagisce solo tramite la forza debole, che, come suggerisce il nome, è più difficile da rivelare sperimentalmente.

Il travaglio del capolavoro

È difficile sovrastimare la portata del lavoro di Fermi, in quanto inconsapevolmente aveva teorizzato per primo, in una forma a bassa energia, una delle quattro forze fondamentali della natura. Fu inoltre il primo a usare il concetto di creazione e distruzione delle particelle che non fossero fotoni, e il primo a teorizzare una particella ancora da rivelare sperimentalmente.

Oggi questo tipo di pratica è all’ordine del giorno, ma all’epoca di Fermi era un modo di lavorare rivoluzionario.

Fermi pubblicò la propria teoria nel dicembre del 1933 con l’umile nome “Tentativo di una teoria dei raggi beta“, nonostante fosse ben più di un tentativo!
Per capire la portata di questo “tentativo” basti pensare che il lavoro fu rifiutato dalla rivista “Nature” in quanto:

“Contiene speculazioni teoriche troppo distanti dalla realtà per essere di interesse al lettore.”

Insomma il lavoro del fisico italiano era troppo all’avanguardia per essere considerato, nonostante spiegasse bene i risultati sperimentali.
Fermi prese molto male questo rifiuto, ma pubblicò comunque l’articolo nelle riviste italiane e tedesche, dove invece fu accolto con grande clamore.
La teoria di Fermi fu apprezzata sempre di più negli anni, ma venne compresa e completata solo tra gli anni ’50 e ’60, ed oggi è riconosciuta come una delle più grandi intuizioni del ventesimo secolo.

L’eredità di un gigante

Oggi la teoria di Fermi è inglobata all’interno della teoria unificata elettro-debole, che contiene cioè sia l’elettrodinamica sia l’interazione debole. Tale unificazione avvenne però solo negli anni ’60, e in questo senso Fermi può essere pensato come il precursore non solo dell’interazione debole, ma anche dell’unificazione elettrodebole, perché intuì per primo la forte analogia con l’elettrodinamica.
Oggi sappiamo che esistono dei mediatori della forza elettrodebole che sono bosoni proprio come il fotone è un bosone mediatore della forza elettromagnetica.

Il decadimento beta nella teoria elettrodebole moderna. Confronta questo disegno con quello sopra: c’è un bosone mediatore W in più. L’analogia con l’elettrodinamica, che Fermi fu il primo a intuire, è finalmente completa.

Fermi avrebbe potuto teorizzare, in linea di principio, anche questo bosone mediatore, e completare l’analogia unificando le due teorie. La sua attitudine umile e la sua volontà di spiegare i risultati sperimentali (che riguardavano la fisica delle basse energie, in cui la mediazione del bosone non produce effetti misurabili), lo spinse a non fare il passo più lungo della gamba. Ma la gamba di un gigante è comunque la più lunga che ci sia.


PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.

Questa immagine ha l'attributo alt vuoto; il nome del file è cover_view_2.png
Questa immagine ha l'attributo alt vuoto; il nome del file è amazon_btn.jpg

Fisica e matematica: non sempre gli esperti sono i migliori insegnanti

 Quante volte ci è capitato di sentire questa frase? Eppure tutti noi ci siamo trovati in una situazione simile almeno una volta nella nostra vita: l’eccessivo distacco emotivo ed intellettuale tra noi ed il nostro professore andava a ledere la buona riuscita dell’insegnamento. Il risultato? Ci siamo sentiti inadeguati, forse stupidi, o comunque non degni del suo servizio. In realtà non era una nostra sensazione, ma un problema serio che vale la pena discutere.

A tal fine è interessante riportare una citazione di C.S. Lewis:

Succede spesso che due studenti siano in grado di aiutarsi a vicenda con più efficacia del loro professore nel risolvere alcuni dubbi. Quando portavi il problema al prof, come ricordiamo tutti, era abbastanza probabile che ti spiegasse le cose che già avevi capito, che aggiungesse un gran carico di informazioni che non volevi, senza però dire nulla a proposito della questione che ti stava dando problemi.

[…] Il compagno di studi, invece, può aiutare più del professore, perché sa meno cose. Inoltre il dubbio che vogliamo chiarire riguarda un problema che il nostro compagno ha incontrato di recente, mentre l’esperto l’ha incontrato così tanto tempo fa che se ne è ormai dimenticato. L’esperto vede la materia nella sua interezza, e non può più avere una concezione di quali possano essere le difficoltà dello studente.

Se poi aggiungiamo che in Italia l’età media degli insegnanti è la più alta d’Europa, la frittata è fatta: il gap generazionale instaura quel timore reverenziale che spesso rende impossibile la comunicazione tra studente e professore, a ogni livello: liceo e università.

I ragazzi di Via Panisperna, Roma 1934. Da sinistra a destra: Oscar D’Agostino, Emilio Segré, Edoardo Amaldi, Franco Rasetti, Enrico Fermi.

Un confronto può essere fatto con il gruppo di ricerca italiano più geniale di sempre: i ragazzi di via Panisperna. L’età media del gruppo era di 28 anni, e il loro professore, il premio nobel Enrico Fermi, aveva solo 7 anni in più dello studente più giovane. Enrico seppe insegnare così bene ai suoi studenti soprattutto perché aveva affrontato le loro stesse difficoltà pochi anni prima, e seguiva un approccio giovanile, energico, moderno. Quel gruppo portò la ricerca italiana alla vetta mondiale, e da lì fu poi una lenta discesa. Oggi gli orizzonti sono ben più ristretti di allora.

Nella mia carriera da studente ho sempre cercato di mettermi a disposizione per poter aiutare gli altri a chiarire qualche dubbio. Ho tratto molto più beneficio dalle discussioni con i miei colleghi che da quelle con alcuni miei professori, proprio per i motivi sopracitati. Sono convinto che la strada della ricostruzione della didattica italiana nelle materie scientifiche debba passare da qui: è il momento di rendere disponibile per tutti un nuovo approccio didattico.



PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.