Propongo una personalissima riflessione che, in quanto tale, va presa con le pinze ed è aperta alla discussione. La riflessione riguarda il sistema odierno dell’editoria scientifica.
L’articolo originale del 1905.
Nel 1905 (118 anni fa) veniva pubblicato “Sull’elettrodinamica dei corpi in movimento“, articolo con cui Einstein ha iniziato una vera e propria rivoluzione non solo nella fisica, ma anche nella cultura generale.
La rivista da cui venne pubblicato era una delle più prestigiose nel panorama tedesco ed europeo: la “Annalen der Physik“, e tra gli editori c’era nientemeno che il celebre Max Planck.
Fu proprio Planck uno dei primi garanti della qualità del lavoro di Einstein sulla relatività. Nello stesso anno Planck aveva accettato di pubblicare un altro lavoro di Einstein, quello sull’effetto fotoelettrico, nonostante per lui l’idea dei “quanti di luce” fosse un po’ indigesta [1]. Invece l’articolo sulla relatività fu presentato nel giugno 1905 e pubblicato il settembre successivo, e già in novembre Planck espresse pubblicamente il suo apprezzamento [2].
Oggi questa scala temporale di eventi sarebbe altamente improbabile, dobbiamo infatti ricordare che Einstein all’epoca lavorava in un ufficio brevetti e faceva il fisico solo “part-time”, ovvero non aveva nessun prestigio accademico che gli garantisse pubblicazione immediata. Solo la grande qualità del suo lavoro e la lungimiranza degli editori potevano fare la differenza.
Perché questo discorso sia così importante lo si capisce bene dal fatto che uno degli aspetti fondamentali del metodo scientifico è proprio la riproducibilità dei risultati, la quale passa per un’attenta revisione del lavoro di un ricercatore da parte di un altro collega dello stesso campo. Questa revisione è nota come “revisione tra pari”, in inglese “peer review“.
Possiamo “fidarci” della Scienza e dei suoi costrutti proprio grazie a questo processo di revisione: non importa chi tu sia, se hai detto una evidente castroneria io devo rigettare il tuo risultato. Spesso questo sistema funziona molto bene, e viene garantita una buona scrematura dei lavori in modo tale che rimangano solo le idee migliori.
A volte funziona un po’ meno bene: la revisione può risultare un po’ troppo soggettiva, può dipendere dalla luna storta di chi la fa, o semplicemente può capitare che la rivista tratti temi con una filosofia diversa da quelli perseguiti nell’articolo.
Per fare un esempio, l’articolo-capolavoro di Enrico Fermi “Tentativo di una teoria sull’emissione dei raggi beta” fu rifiutato da Nature nel 1934 perché secondo i gusti dell’editore conteneva troppe speculazioni.
All’epoca però non era inusuale che tanti articoli passassero con una revisione minima, se non assente. Che poi sopravvivessero o meno il test del tempo lo avrebbero detto gli altri colleghi negli anni, nei dibattiti alle conferenze ad esempio. In ogni modo, la revisione tra pari era comunque presente ed importantissima. Avveniva però spesso grazie all’influenza di una illustre personalità (l’editore) che si incaricava di decidere se fosse interessante pubblicare o meno. Una “de facto” peer review, senza troppa scrupolosità.
La rivista in un certo senso rappresentava anche quello che potrebbe essere definito “archivio delle proposte”, ruolo che oggi è ricoperto da siti come Arxiv, PubMed etc., i quali sono dei database in cui vengono caricate le versioni “bozze” (chiamati preprint) degli articoli da proporre alle riviste. Oggi, per via dell’enorme volume di articoli proposti dalle accademie [3] il processo di peer review diventa più che mai fondamentale per garantire la corretta scrematura.
Funziona così: l’editore della rivista incarica uno (o più) revisori di studiare l’articolo, affidando a loro la decisione (in sua vece) se pubblicare o meno il lavoro.
Se il livello è, come nei campi della Fisica, altissimo di per sé, la scrematura diventa ancora più spietata. La rivista non può pubblicare tutti i lavori (indipendentemente dalla qualità dei lavori), dovrà quindi inevitabilmente rigettare anche qualche ottimo articolo. Il motivo? Possono essercene diversi, alcuni ragionevoli, altri un po’ meno:
l’articolo non è conforme agli interessi della rivista;
l’articolo ha un contenuto simile a uno già pubblicato, con piccole variazioni non degne di pubblicazione;
l’articolo non è conforme alle credenze di chi fa la revisione (l’ho sentito dire!);
l’articolo va in una direzione sconosciuta a cui nessuno è interessato (i fondi vanno in altre direzioni);
l’articolo è troppo speculativo, troppo filosofico, o in generale contiene troppe supposizioni personali.
La lista potrebbe andare avanti, figure inserite male, tabelle non chiare, chi più ne ha ne metta: quanti più motivi possibili pur di non pubblicare il 100% degli articoli che arrivano in revisione. Non importa chi tu sia, il tuo articolo può comunque essere rigettato a volte per motivi che sfuggono il tuo controllo.
Questa circostanza è una naturale conseguenza dell’incredibile volume di articoli prodotti ogni mese, non è una cosa né giusta né sbagliata, va accettata in virtù del metodo scientifico. Di sicuro la scrematura riesce spesso ad eliminare gli articoli davvero terribili.
Tuttavia viene da riflettere: la scrematura sopracitata rischierebbe forse di eliminare anche gli articoli più rivoluzionari?
Questa opinione è condivisa da Lorraine Daston in una sua intervista [4].
Analizziamo l’articolo di Einstein “Sull’elettrodinamica dei corpi in movimento“:
Quello evidenziato in giallo è un eccezionale esempio di chiarezza espositiva ed attenzione pedagogica nei confronti del lettore. Secondo la Daston un revisore per una rivista prestigiosa di oggi smetterebbe di leggere già da qui. Lo stile di Einstein era notoriamente un po’ verboso, speculativo, filosofico. A posteriori è la ciliegina sulla torta di un capolavoro scientifico, ma oggi potrebbe essere potenzialmente oggetto di “taglia quella parte o non te lo pubblicheranno mai”.
Inoltre salta subito all’occhio un altro fatto: l’articolo di Einstein non ha bibliografia. Albert non cita nessuno. Un peccato veniale che oggi potrebbe portare all’esclusione dell’articolo (o, più ragionevolmente, a un marcato sollecito di aggiungerla).
In nessun modo questa riflessione vuole intaccare la illuminante produzione scientifica di Einstein, ma credo che possa stimolare una discussione sui potenziali lati negativi della professionalizzazione della scienza. L’edificazione di questi sistemi editoriali è una risposta all’ingente numero di preprint (a sua volta dovuto alla ignobile politica del “publish or perish“), dunque la domanda è: dobbiamo in qualche modo ripensare tutta questa infrastruttura?
Bibliografia
[1] Seelig Carl, Albert Einstein: A documentary biography, Translated to English by Mervyn Savil [2] Hoffmann Banesh and Dukas, Helen, Albert Einstein Creator & Rebel, 1973, New York: A Plume Book, pp. 83-84. [3] Bornmann, L., Haunschild, R. & Mutz, R. Growth rates of modern science. Humanit Soc Sci Commun8, 224 (2021). [4] Loncar Samuel, Does Science Need History? A conversation with Lorraine Daston, Meanings of Science Project MRB Interviews 2022.
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.
Matteo Parriciatu
Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’Università di Pisa, fa ricerca sulle simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.
È membro della Società Italiana di Fisica.
È autore del libro “L’apprendista teorico” (2021).
Bruno Pontecorvo (Marina di Pisa 1913- Dubna 1993).
La storia della scienza è cosparsa di scandali riguardanti la negazione di premi importanti a scienziati meritevoli per le più disparate ragioni.
Nel caso di Bruno Pontecorvo (a cui fu negato il Nobel per la Fisica del 1988) le ragioni erano prettamente politiche. In questo articolo dimostriamo perché questo debba ancora oggi risuonare come un vero e proprio scandalo scientifico.
Il “cucciolo” di via Panisperna
Nato a Marina di Pisa nel 1913, Bruno era una persona timida e la sua natura si distingueva da quella degli altri componenti dei gruppi di ricerca poiché, oltre a mostrare grandi doti come fisico sperimentale e teorico, era evidente in lui il profilo di abile fenomenologo, ossia una grande capacità di approfondire applicazioni e ipotesi di lavoro [1].
“A questa opinione soprattutto, io credo, devo la mia timidezza, un complesso di inferiorità che ha pesato su di me per quasi tutta la vita”
Bruno Pontecorvo
Pontecorvo si riferiva alla seguente opinione che secondo lui i suoi genitori avevano sui loro figli: “il fratello Guido era considerato il più intelligente, Paolo il più serio, Giuliana la più colta e lui, Bruno, il più buono ma il più limitato, come dimostravano i suoi occhi, buoni ma non intelligenti.”
Si può dire che Pontecorvo usufruì dell’istruzione universitaria più eccellente che ci fosse: fu ammesso al corso di Fisica sotto la guida di Enrico Fermi e Franco Rasetti nel 1931, all’età di 18 anni, entrando di diritto nel celebre gruppo dei ragazzi di via Panisperna (fu soprannominato “il cucciolo” per la sua giovane età).
Collaborò quindi alla ricerca sul bombardamento dei nuclei usando neutroni come proiettili, e nel 1934 si accorse assieme ad Edoardo Amaldi che la radioattività indotta da bombardamento di neutroni era circa cento volte più intensa se i neutroni attraversavano prima un filtro di paraffina (Fermi spiegò che questo era per via dell’idrogeno contenuto nel materiale, il cui effetto rallentava i neutroni, aumentando la loro efficacia nel bombardamento). Questa scoperta segnò uno step epocale per la ricerca sull’energia nucleare e valse il Nobel del 1938 ad Enrico Fermi, che ne spiegò il funzionamento.
Dopo il periodo romano, la sua vita fu molto movimentata e ricca di eventi di interesse storico (ricordiamo che Pontecorvo era ebreo).
Nel 1936 grazie a una raccomandazione di Fermi, collaborò a Parigi con Frédéric e Irène Joliot-Curie (rispettivamente genero e figlia di Pierre e Marie Curie e vincitori nel 1935 del premio Nobel per la scoperta della radioattività artificiale). Fu nell’effervescente ambiente parigino che iniziò a interessarsi di politica. In particolare si iscrisse al PCI nel 1939.
Dopo l’invasione della Francia da parte dei tedeschi, Pontecorvo scappò da Parigi in bicicletta e con un rocambolesco viaggio fatto di varie tappe in treno, raggiunse Lisbona. Da qui si imbarcò per gli Stati Uniti.
Nei primi anni ’40 lavorò per una compagnia petrolifera in Oklahoma, dove viveva con la famiglia. Qui applicò per la prima volta la tecnica dei neutroni lenti scoperta dai ragazzi di via Panisperna e inventò la tecnica del “carotaggio neutronico dei pozzi di petrolio“.
Nel 1943 si trasferì in Canada per lavorare in un laboratorio che si occupava di raggi cosmici. Fu qui che iniziò il suo studio dei neutrini alle alte energie.
Dopo aver lavorato in inghilterra, scappò in Russia con la famiglia nell’estate del 1950 senza avvertire nessuno. Per superare la cortina di ferro i Pontecorvo si divisero: moglie e figli su un’automobile, Bruno nascosto nel bagagliaio di un’altra. Nell’URSS continuò le sue importanti ricerche di fisica delle particelle in un laboratorio di Dubna.
Cosa si capiva, all’epoca, dei neutrini
Per poter dire che “capiamo” tutto di una particella dobbiamo essere in grado di affermare quali siano i suoi numeri quantici, e di solito ci si concentra su questi tre:
Carica elettrica
Spin
Massa
Dei neutrini conosciamo con precisione solo i primi due: sono elettricamente neutri (infatti non interagiscono con la forza elettromagnetica) ed hanno spin 1/2, mentre sorprendentemente non sappiamo ancora con precisione il valore della loro massa. Sappiamo solo che non può essere più grande di un numero molto piccolo, per via delle evidenze sperimentali. All’epoca di Pontecorvo si supponeva che non avessero massa.
Dallo studio dei raggi cosmici (ed in particolare del decadimento del muone) Pontecorvo iniziò a intuire una similitudine tra quanto osservato e una teoria del suo vecchio Maestro: la teoria del decadimento di Enrico Fermi (clicca qui se vuoi saperne di più). In una lettera a Giancarlo Wick del 1947 scrisse:
Deep River, 8 maggio 1947
Caro Giancarlo (…) se ne deduce una similarità tra processi beta e processi di assorbimento ed emissione di muoni, che, assumendo non si tratti di una coincidenza, sembra di carattere fondamentale.
Bruno Pontecorvo
La scoperta di questa analogia fu uno degli step fondamentali che condusse all’introduzione di una nuova forza della natura: la teoria di Fermi passò dall’essere una semplice teoria fenomenologica ad una interazione fondamentale che si andava a sommare alle due già esistenti all’epoca: gravità ed elettromagnetismo.
La questione del neutrino rimaneva invece un vero mistero, specialmente la questione se avesse una massa o meno. È di fondamentale importanza riuscire a determinare la massa di una particella. Nel Modello Standard la massa è spesso l’unico numero quantico che permette di distinguere tra due particelle che hanno gli altri numeri quantici uguali.
Ad esempio il muone e l’elettrone sono due particelle elementari con la stessa carica elettrica e lo stesso spin, ma il muone è circa 200 volte più pesante dell’elettrone ed è proprio ciò che ci permette di distinguerli nella maggior parte dei casi. Allo stesso modo il tau è la terza “sorella” di muone ed elettrone (fu scoperta nel 1975), in quanto ha stessa carica e stesso spin, ma massa pari a circa 18 volte quella del muone. Queste tre particelle furono raggruppate in un trio chiamato “leptoni carichi”.
Elettrone, Muone e Tau: le tre particelle “sorelle” del Modello Standard costituiscono la famiglia dei leptoni carichi.
Per spiegare i risultati sperimentali degli anni ’30 e ’50, si associò a ciascun leptone carico (elettrone, muone e tau) un neutrino di tipo corrispondente. Infatti si dimostrò che in ciascun processo di interazione debole di un leptone carico compariva sempre un neutrino, di conseguenza:
All’elettrone venne associato un neutrino-elettronico:
Al muone venne associato un neutrino-muonico:
Al tau venne associato un neutrino-tau:
Quindi anche i neutrini sono considerati dei leptoni, solo che hanno carica elettrica nulla. Assieme ai leptoni carichi costituiscono i 6 leptoni del Modello Standard.
Fu proprio Bruno Pontecorvo a suggerire questo raggruppamento in famiglie di “sapore”: sapore elettronico, sapore muonico e sapore tauonico. Ipotizzò questa teoria già nel 1947, ma la pubblicò con una dimostrazione rigorosa solo nel 1957.
La distinzione tra leptoni carichi e leptoni neutrini. Nell’immagine i leptoni dello stesso colore appartengono allo stesso “sapore”.
La cosa importante da capire è che siamo in grado di distinguere un neutrino da un neutrino o da un neutrino : basta guardare qual è il leptone carico coinvolto nelle interazioni (rare) di questi neutrini!
Il modo in cui siamo in grado di dire quale dei tre neutrini stiamo considerando: basta guardare i leptoni carichi che escono fuori dalle interazioni del neutrino con la materia.
In questo senso si parla di conservazione del sapore leptonico: un neutrino di sapore “muonico” è sempre associato, in un’interazione debole, a un muone. Se c’era un sapore elettronico all’inizio, dovrà esserci un sapore elettronico anche alla fine.
Purtroppo, l’acceleratore di particelle di Dubna non era abbastanza potente per verificare le teorie di Pontecorvo sul sapore leptonico. Soltanto pochi anni dopo, agli inizi degli anni Sessanta, gli americani Leon Ledermann, Melvin Schwartz e Jack Steinberger confermarono sperimentalmente le ipotesi del fisico italiano.
Questa scoperta valse ai tre fisici il premio Nobel per la Fisica nel 1988 per “il metodo del fascio di neutrini e la dimostrazione della struttura doppia dei leptoni attraverso la scoperta del neutrino muone”, suscitando lo scalpore di una parte della comunità scientifica internazionale per l’esclusione del fisico teorico italiano che per primo effettuò la previsioneparecchi anni prima.
Le oscillazioni di sapore
Pontecorvo continuò il suo studio pionieristico dei neutrini e, in collaborazione con il fisico teorico Vladimir Gribov, nel 1969 presenta in dettaglio il formalismo matematico della teoria delle oscillazioni, che fu proposto come soluzione al problema dei neutrini solari sorto negli esperimenti del 1968. Pontecorvo sosteneva che i neutrini dovessero avere una massa, seppur piccola, e che questo fosse la spiegazione per il problema dei neutrini solari.
La spiegazione di Pontecorvo si rivelò corretta: alla fine del secolo scorso si scoprì che i neutrini sono in grado di cambiare sapore leptonico durante il loro viaggio tra due punti dello spazio, e fu proprio questo fatto ad evidenziare che i neutrini dovevano avere una massa: senza una massa non è possibile questa oscillazione tra sapori!
Ciò che stupisce è che rispetto alle altre particelle i neutrini hanno una massa così piccola che è difficile da misurare. Gli esperimenti ci consentono solo di porre dei limiti superiori sempre più piccoli. Per dare un’idea, l’elettrone ha una massa di mezzo milione di elettronvolt, mentre si stima che quella dei neutrini sia inferiore a un solo elettronvolt. Se l’elettrone è considerato la particella carica più leggera del Modello Standard, i neutrini sono davvero dei pesi piuma.
L’oscillazione rompe la conservazione del sapore leptonico!
Ad esempio da un processo debole che coinvolge un elettrone (rivelabile) sappiamo che sbucherà fuori un , il quale, dopo una certa distanza, si tramuterà in un , il quale interagirà facendo comparire un muone, che sarà a sua volta rivelabile e ci permetterà di dire che questa oscillazione è effettivamente avvenuta!
Per spiegare questo effetto vengono introdotti gli “stati di massa” dei neutrini, chiamati a cui vengono associate le masse . Ciascun stato di massa “contiene” al suo interno i tre sapori dei neutrini in proporzioni che possono essere studiate sperimentalmente. Graficamente abbiamo quindi tre neutrini ciascuno contenente al suo interno il mixing di sapori:
Gli autostati di massa dei neutrini con al loro interno i mixing dei sapori. Celeste: , Marroncino: , Grigio: .
Questo mixing avviene nel senso quanto-meccanico di sovrapposizione di stati: ciascuno stato di massa è una sovrapposizione delle funzioni d’onda dei sapori leptonici .
Ad esempio dalla figura leggiamo che sperimentalmente è stato verificato che lo stato contiene per la maggior parte il sapore elettronico (indicato in blu), mentre il sapore tau è presente solo in minima parte.
Essendo tutto ciò un effetto quanto-meccanico, a ogni oscillazione tra sapori è associata una certa probabilità che sarà tanto più elevata quanto più grande è il mixing tra sapori negli stati di massa. Questa probabilità è verificabile sperimentalmente: basta chiedersi “se nel punto di partenza ho neutrini di tipo , quanti neutrini di tipo mi ritroverò a una certa distanza dal punto di partenza?”
Ad esempio la probabilità che un neutrino si trasformi in un neutrino è data dalla seguente formula:
Vengono chiamate “oscillazioni” perché la probabilità dipende da un seno al quadrato, il quale rappresenta graficamente un’oscillazione nelle variabili .
in cui è un parametro del Modello Standard che è stato misurato sperimentalmente (e definisce il grado di mixing dei due sapori in questo caso). D’altra parte riguarda la differenza tra i quadrati delle masse di e , mentre è la distanza a cui hanno viaggiato i neutrini prima di essere rivelati, ed è la loro energia. Nota bene che se questi neutrini avessero la stessa massa, e cioè , non si potrebbero avere oscillazioni (la probabilità sarebbe nulla perché il seno di zero fa zero).
Ad esempio è molto più probabile che un si trasformi in un quando l’argomento del seno è vicino al punto in cui il seno ha un massimo, e cioè in prossimità di (o in radianti ), e cioè quando
Da questa formula è possibile capire a che valore del rapporto si è più sensibili per rivelare un’oscillazione da in .Si può quindi ottenere una stima di .Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.
Studiando l’andamento dell’oscillazione con si può quindi ricavare proprio da questa formula.
La differenza tra le masse dei neutrini e è minuscola, ma comunque calcolabile dai dati sperimentali. Allo stesso modo è stata calcolata la differenza tra le masse quadre di e , e da ciò si può ricavare la differenza tra le masse quadre di e . Conosciamo solo queste , ma non i valori singoli di , che frustrazione, eh?
Misurando il numero di eventi di neutrini di un certo sapore ad alcuni valori del rapporto si possono ricavare i valori sperimentali di e . Questo è proprio ciò che si fa da qualche decina di anni: la teoria delle oscillazioni è verificata con un alto grado di accuratezza.
I Nobel dei neutrini
La Fisica dei neutrini inaugurata da Pontecorvo ha portato a ben quattro premi Nobel, ma nessuno è stato vinto da lui. Tre di questi furono però assegnati solo dopo la morte di Pontecorvo (1993), il più recente risale al 2015. L’unico che sarebbe doveroso reclamare per la memoria del fisico teorico italiano sarebbe quello del 1988, inspiegabilmente assegnato ad altri se non per questioni politiche.
Pontecorvo rimane uno dei fisici con il numero di previsioni azzeccate più alto e allo stesso tempo un numero di riconoscimenti piuttosto irrisorio (vinse comunque il premio Lenin nel 1963).
Ciò che fa restare stupiti è la precocità delle sue idee: il campo dei neutrini è particolarmente infelice perché essendo questi così poco interagenti, la loro rivelazione può aversi solo grazie a esperimenti particolarmente costosi e avanzati, spesso traslati di almeno 30-40 anni nel futuro rispetto alla loro teorizzazione. Pontecorvo elaborò negli anni ’60 quasi tutta la fisica dei neutrini che utilizziamo ancora oggi e che ha trovato conferma solo negli ultimi 30 anni.
Se mai inventassero un Nobel postumo, uno dei primi a riceverlo dovrebbe essere Pontecorvo. [1] Fonte principale: “Il fisico del neutrino”- Jacopo De Tullio.
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.
Matteo Parriciatu
Dopo la laurea in Fisica (2020) e la laurea specialistica in Fisica Teorica (2023) all’Università di Pisa, studia simmetrie di sapore dei leptoni e teorie oltre il Modello Standard, interessandosi anche di Relatività Generale.
È autore del libro “L’apprendista teorico” (2021).
Gli ultimi anni della vita di Einstein furono decisamente poco memorabili (scientificamente parlando). Il più grande fisico del XX secolo fu un po’ vittima dei suoi enormi successi giovanili, i quali lo condussero verso un isolamento intellettuale sempre più marcato.
Einstein sognava di unificare gravità ed elettromagnetismo in un unica, elegante “teoria del tutto”. Ovviamente nella sua epoca non si conoscevano ancora le forze nucleari debole e forte.
Uno dei motivi di questo isolamento era che Einstein rigettava la formulazione convenzionale della meccanica quantistica, che secondo lui era una teoria incompleta, esteticamente “sgraziata” e complicata. Purtroppo il 99% della ricerca in fisica fondamentale dagli anni 20′ in poi si basava invece proprio sulla meccanica quantistica, quindi Einstein aveva ben pochi alleati su questo fronte.
Un altro motivo era dovuto a una sua ossessione: aveva il sogno di unificare due forze fondamentali, gravità ed elettromagnetismo. Queste due forze erano descritte da quelle che allora erano due teorie classiche di campo molto mature (classiche nel senso che non erano “quantizzate”. La quantizzazione dell’elettromagnetismo fu accuratamente ignorata da Einstein…)
Questa sua ossessione si fondava sul credere che la Natura avesse in serbo una teoria “elegante”, scritta con una matematica “bellissima” che lui era intenzionato a scoprire.
Effettivamente le teorie classiche di gravità ed elettromagnetismo erano due teorie, per certi versi, abbastanza simili (almeno nei temi).
Infatti la Relatività Generale di Einstein e l’Elettrodinamica classica possono essere entrambe costruite richiedendo che le loro equazioni rimangano invariate dopo che si eseguono certi tipi di trasformazioni sui loro campi fondamentali.
La ridondanza elettromagnetica
Il potenziale elettromagnetico quadri-dimensionale con cui viene formulata l’elettrodinamica (che chiamiamo ) presenta al suo interno un eccesso di informazioni. Che significa? Significa che per formulare l’elettromagnetismo è sufficiente un numero inferiore di parametri teorici rispetto a quelli forniti dalla formulazione 4-dimensionale della teoria (che con successo concilia l’elettromagnetismo di Maxwell con la relatività speciale).
Da un certo potenziale elettromagnetico sono ottenibili, tramite una specifica trasformazione, una serie di altri potenziali elettromagnetici che tuttavia lasciano invariate le leggi di Maxwellscritte con il potenziale originale. Le conclusioni fisiche sono le stesse.
Questo eccesso di informazioni si traduce nella seguente affermazione: il potenziale quadri-dimensionale può essere “traslato” nello spazio-tempo di una certa quantità, e la conseguenza è che l’elettromagnetismo rimane invariato.
Le equazioni non cambiano, la Fisica è la stessa.
Il motivo di ciò fu spiegato dalla teoria quantistica dei campi: quello che succede è che il fotone (la particella mediatrice dell’interazione elettromagnetica) ha massa nulla, e questo fa tutta la differenza del mondo in relatività speciale, perché può quindi muoversi alla velocità della luce (non è un grande sorpresa per te che la luce si muova alla velocità della luce).
I parametri che partecipano alla Fisica dell’elettromagnetismo si chiamano “stati di polarizzazione” (avrai sentito parlare degli occhiali polarizzati, ecco quel “polarizzato” si riferisce alla volontà di sfruttare le polarizzazioni della luce a proprio piacimento). La polarizzazione è per convenzione la direzione di oscillazione della campo elettrico di un’onda elettromagnetica (chiamata comunemente “luce”).
Dal punto di vista teorico, gli stati di polarizzazione possono essere studiati mettendoci nel sistema di riferimento in cui la particella mediatrice è ferma. Questi stati di polarizzazione hanno a che fare con la seguente domanda: che succede se ruoto il campo della particella nel suo sistema di riposo? Il modo in cui il campo risponde alle rotazioni ci dà un’indicazione sui suoi stati di polarizzazione.
La quantità di moto di un oggetto fermo è nulla (per definizione di oggetto fermo), quindi se ruotiamo i nostri assi cartesiani la quantità di moto rimane la stessa (cioè nulla). Che furbata, eh? Beh questa libertà di ruotare le tre dimensioni si traduce in tre possibili stati di polarizzazione della particella.
Una rotazione attorno ad un asse è specificata da due componenti su un piano. In figura stiamo ruotando attorno all’asse . Immagina che l’asse sia la direzione di propagazione del fotone.
Il problema con il fotone è che avendo massa nulla si muove alla velocità della luce e quindi per via della relatività speciale non c’è modo di mettersi in un sistema di riferimento in cui il fotone è fermo: per ogni osservatore la velocità della luce è la stessa! Non riusciremo mai ad andare abbastanza veloci da vedere un fotone fermo! Il valore della velocità della luce non dipende in alcun modo dalla velocità di chi la misura.
Il meglio che possiamo fare è puntare il nostro asse cartesiano nella direzione di propagazione del fotone e studiare le rotazioni dei suoi stati attorno a questo asse. Le rotazioni attorno a un asse avvengono in un piano, il quale, essendo bidimensionale, è rappresentato da due parametri invece che tre. Quindi il fotone è specificato da solo due possibili stati di polarizzazione: solo due stati su tre partecipano alla Fisica dell’elettromagnetismo.
Che ce ne facciamo del terzo parametro che non utilizziamo? Ecco cosa intendevo con “eccesso di informazioni”. In soldoni, quella libertà viene tradotta dicendo che se aggiungiamo (o sottraiamo) al potenziale elettromagnetico una certa quantità arbitraria (la derivata di una funzione che chiamiamo ), le leggi della Fisica non cambiano. A scopo illustrativo questa è la trasformazione di cui parlo:
Il potenziale viene trasformato sottraendolo alla derivata di una funzione . In gergo si parla di “trasformazioni di gauge”.
Dalla richiesta che la fisica non cambi se al potenziale elettromagnetico aggiungiamo quella funzione arbitraria , discende la struttura matematica (con tanto di conseguenze fisiche) dell’elettromagnetismo.
Questo concetto è molto elegante: dalla richiesta che ci sia una certa ridondanza nella descrizione dei campi della teoria, discendono le equazioni che descrivono la realtà fisica.
So che risulta astratto da capire, ma tra tutte le forme possibili che possono assumere le leggi della fisica, richiedere che rimangano invariate dopo una trasformazione dei “blocchetti” di cui sono composte vincola parecchio il numero di forme possibili in cui possono presentarsi, assieme alle conseguenze fisiche che predicono. È in questo senso che diciamo “da questa richiesta derivano le leggi della Fisica” .
Questa eleganza stregò (e continua a stregare) i fisici teorici dell’epoca. Einstein fu tra i più colpiti. Lo colpì soprattutto il fatto che la sua teoria della Relatività Generale (la migliore teoria che abbiamo ancora oggi sulla gravità classica) si basava su un principio molto simile.
Le leggi della gravità di Einstein discendono dalla richiesta che le leggi stesse rimangano invariate se si esegue una trasformazione di coordinate. In sostanza, la Fisica non deve dipendere da che tipo di “unità di misura” stai usando, o non deve dipendere dal fatto che il tuo laboratorio risulti ruotato in una certa direzione rispetto al centro della galassia (per esempio).
A grandi distanze dalla sorgente del campo gravitazionale, che chiamiamo , la trasformazione di coordinate del campo (la quale viene indicata con il simbolo ) ha la seguente forma:
Magari non sarai familiare con la notazione degli indici spazio-temporali , ma il punto della faccenda è notare la somiglianza (chiudendo un occhio) con la trasformazione del potenziale elettromagnetico:
Elettrodinamica (sopra) e gravità (sotto) a confronto. Entrambe queste trasformazioni hanno la proprietà di lasciare invariate le leggi della Fisica.
Secondo Einstein, questa somiglianza era una chiara indicazione che doveva esistere una teoria più fondamentale in grado di racchiudere gravità ed elettromagnetismo in un unico, elegantissimo linguaggio matematico.
Risulta interessante il fatto che non fu lui ad arrivare per primo ad un possibile tentativo di unificazione. La teoria di Kaluza-Klein nacque praticamente subito dopo la Relatività Generale, ed Einstein ne rimase estasiato.
Il primo tentativo di unificazione
La Kaluza-Klein si basava sul postulato che allo spaziotempo (già 4-dimensionale) dovesse essere aggiunta un’ulteriore dimensione, portando il totale a cinque. Questa dimensione sarebbe tuttavia troppo piccola per potere avere riscontri sperimentali, e la sua utlilità consiste unicamente nel fatto che in questo modo è possibile unificare gravità ed elettromagnetismo in un’unica elegante equazione di partenza.
La quinta dimensione nella teoria di Kaluza-Klein.
Tutti noi per disegnare un punto su un foglio ruotiamo leggermente la punta della penna per tracciare dei piccoli cerchi concentrici attorno a un punto fisso. Secondo la teoria Kaluza-Klein la quinta dimensione si nasconde nel bordo di ogni cerchio che circonda ciascun punto dello spaziotempo. Questi cerchi hanno un raggio piccolissimo, molto più piccolo di qualsiasi scala subnucleare, questo è il motivo per cui non si osservano effetti fisici di tutto ciò.
Sfortunatamente la teoria della quinta dimensione ha serie difficoltà teorico-fenomenologiche: ad esempio ignora completamente l’esistenza delle altre interazioni fondamentali come la forza debole, della quale oggi sappiamo che a una certa scala di energia si unisce alla forza elettromagnetica per formare l’interazione elettrodebole. Chiaramente Kaluza e Klein, avendo formulato la teoria nei primi anni ’20 , conoscevano solo la gravità e l’elettromagnetismo, per cui a detta loro (e anche di Einstein) la teoria era molto promettente.
Furono proprio le scoperte delle altre due forze fondamentali (quelle nucleari debole e forte) a far cadere nel dimenticatoio la Kaluza-Klein per qualche decennio. La teoria quantistica dei campi produceva risultati a un ritmo elevatissimo, spazzando via come un’onda tutte le teorie classiche di campo.
Einstein, che si assicurava di non utilizzare le teorie quantistiche di campo nei suoi lavori, lavorò alla Kaluza-Klein fino agli inizi degli anni ’40. Il suo obbiettivo era di ottenere, dalle soluzioni delle equazioni di campo della teoria a cinque dimensioni, dei campi che descrivevano delle particelle cariche in grado di interagire elettromagneticamente e gravitazionalmente.
Il suo obbiettivo era anche quello di derivare in qualche modo anche la meccanica quantistica a partire dalla sua teoria classica (non quantizzata). Tutto questo era sempre in linea con il suo intuito che la teoria quantistica non fosse completa, e che dovesse derivare da qualcosa di classico e molto più profondo.
Una volta introdotta l’ipotesi ondulatoria di De Broglie, il fisico Klein (uno degli ideatori della Kaluza-Klein) era stato in grado di spiegare anche la discretizzazione della carica elettrica delle particelle, proprio grazie alla quinta dimensione. Einstein evitò con cura di utilizzare l’ipotesi di De Broglie, e non menzionò mai il risultato di Klein. Insomma, se non si era capito, Einstein non apprezzava la teoria quantistica.
In ogni caso, Einstein concluse che la teoria di Kaluza-Klein non era in grado di spiegare un fatto empirico importantissimo: la gravità è estremamente più debole dell’elettromagnetismo. Questo spinse Einstein ad abbandonare per sempre la teoria dopo il 1941.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.
Continuò quindi a lavorare, assieme a pochissimi altri, a teorie matematiche molto astratte e con pochi risvolti empirici. L’obbiettivo era sempre quello di unificare elettromagnetismo e gravità.
Non che fosse in torto nel perseguire questa sua ricerca, dato che l’obbiettivo delle teorie di grande unificazione che studiamo oggi è proprio quello di conciliare gravità e teorie quantistiche di campo (quindi non solo gravità ed elettromagnetismo, ma gravità e le altre tre interazioni fondamentali. Per una breve esposizione delle quattro interazioni, rimando al mio articolo).
Tuttavia fu proprio il suo ostentato rifiuto delle teorie quantistiche di campo a isolarlo sempre di più dal panorama scientifico internazionale. Anche se avesse fatto in tempo ad assistere alla sua nascita, Einstein non avrebbe mai approvato il nostro Modello Standard: in tale modello lavoriamo con teorie quantistiche basate solo sulla relatività speciale, ignorando completamente la gravità e lasciandola da parte in un settore chiamato “Relatività Generale”. Invece secondo lui la gravità doveva avere un ruolo di primaria importanza negli sforzi dei fisici teorici:
Cosa sarebbe la Fisica senza la gravitazione?
Albert Einstein
Lavorò alla grande unificazione fino all’ultimo dei suoi giorni, facendo fede sulla sua convinzione (appartenente a un pensiero illuminista oggi superato) che una singola mente umana è in grado di scoprire ogni mistero dell’universo.
Sono comunque sicuro che a lui piacesse parecchio ciò che faceva, e non poteva esserci una fine più lieta per il più grande fisico del secolo scorso: morire “smarrito nella matematica”.
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.
Matteo Parriciatu
Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei Neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale. È autore del libro “L’apprendista teorico” (2021).
Nel 1932 James Chadwick scoprì una nuova particella, era elettricamente neutra e aveva circa la stessa massa del protone. Essendo la prima particella neutra scoperta, venne battezzata “neutrone” per ovvi motivi.
Werner Heisenberg (1901-1976), premio Nobel per la Fisica 1932.
Meno ovvia era invece la natura intrinseca di questa particella, specialmente in un epoca dicotomica come quella, anni in cui protone ed elettrone erano lo yin e lo yang della fisica particellare. Tutto doveva essere composto di pochissimi costituenti elementari: il protone e l’elettrone rappresentavano l’unità di carica positiva e negativa per antonomasia.
Quindi ogni altra particella di qualsiasi carica doveva essere una composizione di protoni ed elettroni. Ah, se solo i fisici di quegli anni avessero potuto immaginare il gigantesco zoo di particelle che sarebbe apparso solo 20 anni dopo!
Sempre nel 1932 il fisico teorico Werner Heisenberg (lo stesso del famoso principio di indeterminazione) fu uno dei primi a lavorare su una interpretazione teorica del neutrone. Il suo obbiettivo era una teoria delle interazioni nucleari (materia su cui si sapeva ancora pochissimo e le idee erano molto confuse). Si cercava di rispondere a domande come: cosa compone i nuclei? Da cosa sono tenuti assieme? Come si possono modificare o trasformare?
Addirittura prima del 1932 si credeva che i nuclei fossero composti da protoni ed elettroni (i secondi avevano lo scopo di neutralizzare parte della carica del nucleo), cosa che non poteva essere più distante dalla realtà.
Fu Heisenberg a introdurre un po’ di ordine: sfruttò subito la scoperta del neutrone per inserirlo all’interno dei nuclei. In questo modo non servivano gli elettroni dentro il nucleo: invece di mettere il doppio dei protoni era sufficiente che ce ne fosse solo la metà che corrisponde alla carica elettrica nucleare, la restante parte della massa che serviva a raggiungere l’accordo con gli esperimenti era garantita dalla presenza di alcuni neutroni.
Si spiega più semplicemente guardando questo esempio:
Lo stesso nucleo descritto prima e dopo la scoperta del neutrone. Prima del 1932, al fine di spiegare la massa misurata sperimentalmente era necessario introdurre il doppio dei protoni. Ma per compensare la carica elettrica in eccesso si doveva postulare la presenza di elettroni nel nucleo.
In ogni caso Heisenberg aveva anche l’obbiettivo di provare a interpretare la natura del neutrone utilizzando lo “yin e lo yang”. D’altronde questa particella aveva lo stesso spin e circa la stessa massa del protone, saranno mica così diversi? Immaginò quindi che il neutrone potesse essere composto da un protone e da una specie di “elettrone con spin nullo”. In questo modo carica positiva più carica negativa fa zero, e lo spin (che è 1/2 per il protone) sommato con lo spin zero di quella specie di elettrone ipotetico, faceva correttamente 1/2.
Questa teoria fu abbandonata quasi subito, ma l’elettrone e il suo spin rimasero comunque la principale fonte di ispirazione per il vero guizzo creativo di Heisenberg.
Anzitutto il fisico si soffermò su un aspetto peculiare:
Le masse di protone e neutrone sono quasi uguali: differiscono solo dello 0.14%.
In particolare, Heisenberg notò che se in un esperimento la strumentazione di laboratorio non fosse abbastanza sensibile da distinguere questa differenza in massa, e se fossimo in grado di “spegnere” ogni tipo di interazione elettromagnetica, non saremmo nemmeno in grado di distinguere un protone da un neutrone!
Anzi, Heisenberg fece un passo ancora più lungo: la piccolissima differenza in massa tra protone e neutrone può essere ricondotta all’elettromagnetismo: il protone, essendo carico elettricamente, riceve dei contributi elettromagnetici che abbassano leggermente la sua massa rispetto a quella del neutrone (così si pensava all’epoca).
Come anticipato, Heisenberg prese ispirazione dal problema dello spin di un elettrone. Già dagli anni ’20 si sapeva che lo spin di un elettrone era una quantità speciale che poteva assumere solo due valori distinti, per convenzione e .
Una rappresentazione grafica dei due possibili valori di spin dell’elettrone.
Lo spin era un numero quantico aggiuntivo che serviva a distinguere i possibili stati occupabili dagli elettroni negli orbitali atomici, e aveva a che fare con il comportamento degli elettroni in un campo magnetico.
In particolare si osservava che sotto l’azione di un campo magnetico gli atomi di un gas sviluppavano dei livelli energetici (sovrapposti a quelli già presenti) che prima non c’erano, segno che gli elettroni avevano interagito, tramite il loro spin, con questo campo magnetico: in base ai due possibili valori dello spin degli elettroni si ottenevano due nuovi livelli energetici molto vicini tra loro (vedi Effetto Zeeman).
In sostanza è come se una certa variabile nascosta (lo spin dell’elettrone) fosse venuta allo scoperto solo durante l’interazione elettromagnetica con il campo esterno. Un fisico, per spiegare la separazione dei livelli energetici, avrebbe dovuto anzi postulare l’esistenza di questo nuovo numero quantico, e assegnargli precisamente due valori possibili.
Detto ciò, ad Heisenberg bastò tenere a mente la celebre equazione per l’energia a riposo di una particella, dovuta ad Einstein ( ) per fare un collegamento molto interessante: la piccola differenza in massa () tra protone e neutrone si traduce in una certa differenza in energia:
A suo dire, questa differenza in energia era dovuta all’interazione elettromagnetica, allo stesso modo in cui la differenza in energia di due livelli atomici nell’effetto Zeeman era dovuta all’interazione con il campo magnetico.
Nel caso dell’effetto Zeeman, il tutto era spiegabile con l’introduzione di un nuovo numero quantico, lo spin. Prima dell’accensione del campo magnetico, il livello energetico è lo stesso, dopo l’accensione, il livello si separa in due livelli.
Protone e neutrone potevano essere pensati come lo stessolivello energetico, la cui separazione è indotta (secondo Heisenberg) dalle interazioni elettromagnetiche!
L’analogia è evidenziata in questa figura:
Analogia tra effetto Zeeman e la teoria di Heisenberg su protone e neutrone.
Doveva allora esserci un nuovo numero quantico interno in grado di distinguere protone e neutrone durante i normali esperimenti, proprio come lo spin.
I fisici dell’epoca chiamarono isospin questo nuovo numero quantico, proprio per via dell’analogia con lo spin. In questo modo protone e neutrone non erano altro che due stati diversi della stessa particella, la quale fu battezzata nucleone. Per convenzione, al neutrone venne assegnato isospin e al protone .
Heisenberg sfruttò l’isospin per costruire una delle prime teorie sull’interazione nucleare. Il fisico tedesco sapeva bene che la forza nucleare doveva essere ben diversa da quella elettromagnetica fino ad allora conosciuta. Doveva essere una forza attrattiva, certo, se no il nucleo come fa a stare assieme? Però il tipo di attrazione non poteva essere simile a quello elettromagnetico. Ciò era evidenziato da fatti sperimentali: proprio in quegli anni venivano condotti degli studi sulle energie di legame dei nuclei, e si scoprì che queste non crescevano come sarebbero cresciute se l’interazione nei nuclei fosse stata elettromagnetica.
La differenza tra il comportamento nucleare e quello elettromagnetico.
Inoltre, i dati sperimentali suggerivano che la carica elettrica del protone non influiva quasi per niente sui livelli energetici del nucleo. Quindi secondo Heisenberg i nucleoni contenuti all’interno dei nuclei dovevano interagire in maniera molto speciale, non tramite forze di tipo puramente coulombiano, ma tramite quelle che chiamò forze di scambio.
Queste forze di scambio potevano essere parametrizzate tramite degli operatori di isospin, del tutto simili agli operatori di spin della meccanica quantistica, i quali governavano le interazioni spin-obita e spin-spin tra i vari costituenti dell’atomo.
In questo formalismo lo stato quantistico di protone o neutrone poteva essere indicato con un vettore a due componenti:
Ma in realtà i nomi “protone” e “neutrone” divengono dei segnaposto per parlare di due stati della stessa particella: stato “isospin in alto” e stato “isospin in basso” (nota come ciò si traduce nella posizione del numero nella componente alta e bassa del vettore).
Nella teoria delle forze di scambio nucleare non è possibile distinguere tra protone e neutrone, cioè la teoria, globalmente, “non distingue” tra la carica elettrica del protone e quella del neutrone. Vengono visti come due facce della stessa medaglia, e sono interscambiabili senza che cambi nulla.
In questo senso si parla di simmetria di isospin delle forze nucleari
Per capire meglio come funziona questa teoria occorre fare un ripasso di algebra lineare in due dimensioni.
Un vettore può essere rappresentato sul piano cartesiano come una freccia uscente dall’origine:
La rappresentazione cartesiana del vettore (1,1). Le sue componenti sono v1=1 sull’asse x, e v2=1 sull’asse y.
Ad esempio per costruire un vettore di componenti , cioè sull’asse , e sull’asse y, parto dall’origine e mi sposto di sull’asse , poi mi sposto di sull’asse . Il punto in cui arrivo è la testa del vettore. Collegando la testa con la coda (cioè l’origine) ottengo una linea diagonale che chiamo “vettore”. Un vettore può essere trasformato da una matrice usando la seguente ricetta di composizione:
Il risultato della trasformazione di un vettore è un nuovo vettore le cui componenti possono essere ottenute dalla ricetta contenuta nella matrice.
Il vettore trasformato ha le sue componenti che nascono mischiando le componenti del vettore di partenza, secondo una particolare ricetta descritta dalla matrice-operatore. Anche il non fare niente è una trasformazione: prende il nome di matrice identità, la sua azione mi fa ottenere di nuovo il vettore di partenza. Puoi verificare anche tu con la ricetta data sopra che il seguente calcolo lascia invariato il vettore di partenza:
La matrice identità lascia il vettore invariato.Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.
Infatti in questo caso l’operatore è tale che , e sostituendo nella ricetta di sopra otteniamo proprio che il vettore rimane invariato.
Per passare da uno stato all’altro del nucleone, cioè da protone a neutrone, si utilizzano gli operatori di salita e di discesa chiamati e , le quali sono matrici che agiscono sui vettori proprio come abbiamo visto sopra.
Puoi fare il conto anche tu e verificare che:
Trasformazione di un protone in un neutroneTrasformazione di un neutrone in un protone
In generale lo stato di un nucleone è parametrizzato dalla sovrapposizione degli stati di protone e neutrone:
Lo stato più generico di un nucleone. e sono parametri costanti.
Nella teoria di Heisenberg l’interazione tra due nucleoni deve tenere conto dei loro possibili stati di isospin. In particolare in un processo generico deve conservarsi l’isospin totale dei due nucleoni. La richiesta di questa conservazione permetteva di fare alcune previsioni su alcuni nuclei leggeri per mezzo di calcoli piuttosto semplici.
Alla fine la simmetria di isospin serviva a questo, era una semplificazione per i calcoli: tra tutte le possibili interazioni tra i nucleoni sono permesse solo quelle che conservano l’isospin totale, mentre vanno scartate tutte le altre.
Una simmetria imperfetta
La teoria dell’isospin di Heisenberg fu un buon colpo di genio, ma si rivelò piuttosto insoddisfacente a lungo andare. La verità è che a livello subnucleare protone e neutrone hanno una massa ben distinta! Ciò non è dovuto solo all’interazione elettromagnetica, ma anche alla composizione in quark di protone e neutrone (inutile dire che all’epoca di Heisenberg non si conoscevano i quark).
Se avessero masse uguali allora la simmetria di isospin sarebbe perfetta, quindi l’isospin sarebbe un numero quantico al pari dello spin degli elettroni. Questa differenza nella massa fa sì che la simmetria sia imperfetta, cioè consente di fare previsioni corrette solo entro un certo grado di approssimazione.
Nonostante ciò, l’idea delle simmetrie interne (come l’isospin) cambiò per sempre il modo di fare fisica delle particelle. Le simmetrie imperfette furono utilizzate per raggruppare alcuni gruppi di particelle che sbucavano fuori dagli esperimenti sui raggi cosmici e dagli acceleratori degli anni ’50 e ’60. In questo contesto le particelle di massa molto simile venivano catalogate come stati di una stessa particella con numeri quantici diversi (se ti incuriosisce: la via dell’ottetto).
Le simmetrie imperfette servirono ad ispirare Gell-Mann e altri fisici nella costruzione di una simmetria perfetta, che è quella della cromodinamica quantistica e che riguarda i quark. Ma di questo parleremo magari in un altro articolo…
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.
Matteo Parriciatu
Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale. È autore del libro “L’apprendista teorico” (2021).
Per capire l’entità del contributo di Enrico Fermi in ciò che servì ad ispirare una delle scoperte più importanti dell’umanità (la teoria dei semiconduttori), è necessario fare qualche passo indietro e considerare il contesto storico-scientifico dell’epoca.
Negli anni ’20 del secolo scorso si sapeva molto poco sulle strutture fondamentali della materia. Le teorie dell’atomo erano giovanissime e l’unico metodo di indagine consisteva nell’osservare l’assorbimento luminoso di alcuni gas della tavola periodica.
Ludwig Boltzmann (1844-1906), uno dei padri fondatori della fisica statistica.
Proprio sui gas si sapeva dire un po’ di più, essendo una collezione di atomi che potevano essere trattati (in certe condizioni di densità e temperatura) come un grosso insieme di biglie microscopiche su cui, tramite la fisica statistica di Maxwell, Boltzmann e Gibbs, si potevano fare previsioni termodinamiche verificabili sperimentalmente.
Una particolarità interessante della teoria statistica di Maxwell e Boltzmann era il contenuto minimale di ipotesi sulla natura fisica di queste “biglie microscopiche”. Stiamo parlando di una teoria formulata nella seconda metà del secolo XIX, un periodo in cui non era ancora riconosciuta l’esistenza dell’atomo!
Trattandosi tuttavia di atomi, nemmeno la teoria di Maxwell e Boltzmann uscì indenne dalla rivoluzione della teoria dei quanti, iniziata con Planck nel 1900.
La teoria dei quanti funzionò sia da completamento che da antidoto per la vecchia fisica statistica. Da antidoto perché aiutò ad indagare meglio alcuni problemi matematici della teoria di Maxwell e Boltzmann, i quali conducevano a calcoli errati nella trattazione di particelle tra loro indistinguibili, e davano dei risultati impossibili per alcune quantità come l’entropia dei gas a basse temperature.
Un problema statistico dell’entropia
Queste difficoltà erano dovute al fatto che la fisica statistica si basa essenzialmente sul “contare, per tutte le particelle, tutte le possibili configurazioni microscopiche che conducono alla stessa situazione fisica del gas“, come illustrato in figura:
Lo schema concettuale che sta alla base della teoria statistica dei gas.
Pressione, volume, temperatura, sono tutte quantità macroscopiche misurabili sperimentalmente. In fisica statistica ci immaginiamo di conoscere le posizioni e velocità di tutte le particelle del gas in ciascuna configurazione possibile ammessa dalle condizioni ambientali (cosa non possibile da un punto di vista computazionale, ma che facciamo finta di poter fare comunque).
Siccome non sappiamo in quale configurazione microscopica precisa si trovi il gas in ciascun istante di tempo (non è misurabile sperimentalmente), immaginiamo di avere copie del nostro gas e di fare delle estrazioni per contare quante volte esce una certa configurazione piuttosto che un’altra. La distribuzione di queste estrazioni definisce alcune quantità macroscopiche associate alla specifica configurazione microscopica estratta un numero di volte. Le quantità macroscopiche che misuriamo sperimentalmente possono quindi essere pensate come la media di tutte le pesate con la probabilità di estrazione .
La misura sperimentale di ci dà quindi informazioni sulla distribuzione delle configurazioni microscopiche del nostro gas.
Immaginando il gas in equilibrio termico a una certa energia interna, il numero di configurazioni del gas corrispondenti a tale energia possono essere contate, dal punto di vista teorico, sommando tutte le possibili accoppiate di posizione-velocità nelle tre dimensioni spaziali, e ciò deve essere fatto per tutte le particelle del gas.
Siccome il numero di possibili accoppiate è virtualmente infinito, i padri fondatori della fisica statistica immaginarono di dividere lo spazio dei possibili valori di posizione e velocità in cellette elementari di dimensione finita che chiamiamo . In questo modo due stati dinamici specificati da , e , che caschino nella stessa celletta di questo spazio sono considerati essere lo stesso stato dinamico. È come se ammettessimo, in un certo senso, di non sapere distinguere tra , e , nel caso appartengano alla stessa cella, è un’approssimazione.
La suddivisione in cellette dello spazio di posizioni e velocità per le particelle. Secondo questa suddivisione due set di posizioni e velocità che appartengono alla stessa celletta non sono distinguibili (qui non distinguiamo il rosa dal celeste), mentre sono distinguibili da quella in verde, dato che appartiene a un’altra celletta.
Dal punto di vista statistico, l’entropia del gas è pensabile come una misura di quanti stati dinamici microscopici sono associabili a un certo stato termodinamico macroscopico, una misura della nostra “ignoranza” sull’effettiva configurazione microscopica del gas.
Il problema era che la dimensione della celletta elementare era del tutto arbitraria, e ciò influiva pesantemente sul conteggio delle configurazioni. Essendo il numero delle configurazioni direttamente collegato alla definizione statistica di entropia, una scelta di troppo piccola conduceva a valori infiniti per l’entropia del gas. Questa indeterminazione sulla scelta di impediva inoltre di calcolare, statisticamente, il valore della costante dell’entropia alla temperatura dello zero assoluto.
Il problema della costante dell’entropia stava molto a cuore ai fisici dell’epoca. Nella termodinamica ottocentesca ci si interessava solo alle differenze di entropia, e quindi era di scarso interesse pratico domandarsi quale fosse il valore assoluto dell’entropia a una determinata temperatura come , e in ogni caso questa costante spariva quando si faceva la differenza tra due stati termodinamici e . Tuttavia con l’arrivo del teorema di Nernst e quindi del terzo principio della termodinamica (il quale postula che l’entropia allo zero assoluto sia esattamente zero) si rivelò essenziale determinare il valore di questa costante.
Un altro problema fastidioso era quello che riguardava il conteggio di particelle indistinguibili: quando si contavano tutte le configurazioni possibili di tutte le particelle del gas si finiva per contare più volte la stessa configurazione per via del fatto che non è possibile distinguere una particella dall’altra. Per via di ciò si arrivava a dei paradossi che riguardavano l’entropia di mescolamento dei gas. Di questo problema si interessò Gibbs, il quale propose di dividere i conteggi per il fattore combinatorico dove è il numero di particelle e con “!” si intende il fattoriale . Tuttavia anche questa soluzione non risolveva tutti i problemi…
La teoria dei quanti sistemò i problemi dell’entropia. Si dimostrò che la dimensione delle cellette elementari doveva essere pari alla costante di Planck : la natura discreta della teoria quantistica si sposava bene con l’ipotesi delle cellette elementari della fisica statistica.
Il punto è che gli effetti quantistici delle particelle non sono più trascurabili a basse temperature. In fisica statistica esiste una quantità chiamata lunghezza d’onda termica di De Broglie, la quale ha la seguente espressione per un gas perfetto monoatomico:
La lunghezza termica delle particelle di un gas, dove è la costante di Planck, la massa delle particelle, la costante di Boltzmann che converte da dimensioni di energia a dimensioni di temperatura tramite , e la temperatura del gas.
Questa lunghezza d’onda deriva dalla formulazione ondulatoria di De Broglie per le particelle quantistiche. Secondo De Broglie, a ogni particella avente quantità di moto è associabile una lunghezza d’onda . Se come si prende la quantità di moto termica delle particelle del gas si ottiene la riportata sopra. A temperature normali questa lunghezza d’onda è molto più piccola della distanza media tra gli atomi di un gas. Vediamo però che al diminuire di , la relazione di inversa proporzionalità aiuta a far crescere questa lunghezza d’onda. Per temperature sufficientemente basse la lunghezza d’onda diventa comparabile con le distanze inter-atomiche del gas.
Man mano che si abbassa la temperatura del sistema, aumenta la lunghezza d’onda di De Broglie e dominano le interferenze quantistiche tra le funzioni d’onda delle particelle. Nel caso in figura sono mostrati dei bosoni.
Quindi, per via delle loro proprietà quantistiche, le particelle iniziano ad interferire tra loro come tante onde, e questo succede quando la loro lunghezza d’onda diventa almeno comparabile con la distanza tra una particella e l’altra, a temperature molto basse.
Siccome parliamo di funzioni d’onda che creano interferenze, l’indistinguibilità delle particelle gioca un ruolo centrale in questo processo quantistico, e ciò sta alla base di tutte le difficoltà teoriche della vecchia fisica statistica, la quale non teneva conto di queste proprietà quantistiche. Fino alla prima metà degli anni ’20, questa sottigliezza quantistica non era ancora stata compresa in profondità.
Statistica quantistica: la strada di Fermi
Enrico Fermi (1901-1954). Premio Nobel per la Fisica nel 1938.
Ancora fresco di laurea, Fermi divenne particolarmente ossessionato dal problema della costante dell’entropia, pubblicando diversi articoli tra il 1924 e il 1926.
Aveva intuito che il problema risiedesse nella natura quantistica delle particelle, in particolare dal punto di vista della loro indistinguibilità, ma mancava ancora qualche pezzo del puzzle.
Il pezzo mancante fu messo a disposizione da Pauli con la formulazione del principio di esclusione:non possiamo avere due elettroni con tutti i numeri quantici uguali tra loro. Gli elettroni sono particelle indistinguibili, quindi Fermi si ispirò al loro comportamento per provare a quantizzare un gas di particelle a temperature sufficientemente basse.
Possiamo immaginarci un Fermi che lavora assiduamente all’alba (il suo momento preferito per studiare e lavorare su nuovi articoli) in qualche fredda mattina di Firenze, nell’inverno del 1925-26, sforzandosi di sfruttare il principio di Pauli per ottenere la costante corretta dell’entropia allo zero assoluto.
La prima pagina dell’articolo di Fermi, presentato all’accademia dei Lincei nel febbraio del 1926.
Nel suo articolo “Sulla quantizzazione del gas perfetto monoatomico” uscito nel febbraio del 1926, Fermi ipotizzò che un gas ideale si comportasse proprio come gli elettroni del principio di Pauli e cambiò completamente il modo di contare le configurazioni possibili in fisica statistica: in ciascuno stato dinamico possono esserci zero o al massimo una sola particella, mai due nello stesso stato. Immaginò poi che il gas potesse essere caratterizzato da determinati livelli energetici discreti, proprio come si faceva nella quantizzazione dell’atomo di idrogeno. Questa spaziatura tra i livelli energetici era tanto più rilevante per la fisica del problema quanto più era bassa la temperatura del gas, essenzialmente per il motivo enunciato sopra. Ad alte temperature gli effetti quantistici devono essere trascurabili e si ritorna alla termodinamica dell’ottocento.
La conseguenza di questo nuovo modo di contare era che ciascuno stato era occupato da un numero medio di particelle in funzione dell’energia dello stato, secondo la seguente espressione:
Il numero di nepero (o Eulero), l’energia dello stato, la temperatura , la costante di Boltzmann . Il parametro è noto come “potenziale chimico” e allo zero assoluto corrisponde all’energia di Fermi: .
Usando questa informazione, Fermi calcolò l’espressione della costante dell’entropia, la quale coincideva con il valore sperimentale dedotto da Sackur e Tetrode nel 1912. La sua teoria era un successo!
Tuttavia, come confermato anche da alcuni studiosi (Belloni, Perez et al), Fermi non si interessò delle radici quantistiche di questa nuova statistica, cioè non provò a collegare il principio di Pauli con la natura ondulatoria della materia. Inoltre non esisteva, al tempo, un gas capace di comportarsi come gli elettroni dell’articolo di Fermi. La soluzione di Fermi voleva andare nella direzione della statistica quantistica, ma con un approccio molto cauto sulle ipotesi alla base. Fermi utilizzò la sua intuizione per dare una nuova soluzione a dei problemi annosi di fisica statistica (già risolti recentemente da Bose e Einstein con la loro statistica) e dedusse una statistica completamente nuova.
Tuttavia, al contrario di quanto si dice solitamente in giro, Fermi non applicò direttamente questa nuova statistica al problema degli elettroni nei metalli (cosa che fu fatta da altri e che condusse alla teoria dei semiconduttori).
La statistica di Fermi-Dirac
La distribuzione trovata da Fermi è dipendente dalla temperatura. Abbiamo già anticipato che gli effetti quantistici diventano preponderanti a temperature vicine allo zero assoluto. In questo caso il principio di Pauli emerge direttamente dalla forma analitica della distribuzione, riportata in figura:
La formula di Fermi al variare della temperatura.
Man mano che la temperatura del gas di elettroni si avvicina a , la distribuzione di Fermi si avvicina sempre di più alla “funzione gradino”
La funzione gradino, cioè il limite a basse temperature della formula di Fermi.
Allo zero assoluto, gli elettroni occupano i livelli energetici riempiendoli dal più basso fino a un’energia chiamata “energia di Fermi”, indicata con . Puoi notare come a il numero medio di occupazione dello stato a energia sia esattamente : non può esserci più di un elettrone per stato, è il principio di esclusione di Pauli in tutta la sua gloria. Nota anche che non ci sono elettroni che occupano stati a energia maggiore di quella di Fermi.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.
Questo comportamento è essenzialmente verificato anche per temperature più alte di , basta solo che sia dove è detta “temperatura di Fermi”, ed è pari a . Nelle situazioni di interesse fisico (come nei metalli), la condizione è praticamente sempre soddisfatta, essendo di solito dell’ordine di alcune centinaia di migliaia di gradi kelvin.
I gas di elettroni sono fortemente influenzati dal principio di Pauli: è un po’ come se ci fosse una forza “repulsiva” tra gli elettroni, la quale gli impedisce di occupare lo stesso stato energetico. Questa è anche un’interpretazione euristica del fatto che la pressione di un gas di Fermi sia più elevata di un gas classico: è difficile comprimere un gas di elettroni perché non vogliono mai “occupare lo stesso punto spaziale”.
Come mai questa statistica è chiamata “Fermi-Dirac” e non solo “Fermi”? È noto che Dirac pubblicò la stessa formula alla fine dell’estate del 1926, mentre Fermi l’aveva presentata nella primavera dello stesso anno. Dirac, su sollecito scritto da parte del fisico italiano, ammise di aver letto il lavoro di Fermi, ma sostenne di averlo completamente scordato.
In difesa di Dirac va detto che il suo lavoro (“On the Theory of Quantum Mechanics“) è molto più generale di quello presentato da Fermi, il quale si era invece proposto di risolvere un problema particolare (quello dell’entropia) che c’entrava poco con i postulati della meccanica quantistica.
Dirac giustificò in maniera elegante il principio di esclusione di Pauli notando che la meccanica quantistica era il luogo naturale per trattare i sistemi di particelle indistinguibili, grazie al formalismo delle funzioni d’onda.
La chiave del ragionamento di Dirac si trova proprio nel fatto che le particelle elementari possono essere considerate indistinguibili. La conseguenza quanto-meccanicistica è che se consideriamo due particelle non interagenti tra loro, e che possono occupare gli stati e , la funzione d’onda che le descrive collettivamente è data dal prodotto delle due funzioni d’onda
in cui e sono le posizioni delle due particelle. Se scambiamo le due particelle, e cioè le portiamo dallo stato allo stato e viceversa, otteniamo la funzione d’onda modificata
Ma se assumiamo che le particelle siano indistinguibili, la densità di probabilità deve restare la stessa (ricordiamo che è data dal modulo al quadrato della funzione d’onda):
Quindi al massimo possiamo avere che è diversa da per un fattore
in cui è un numero tale che in modo da soddisfare (verifica pure!).
Se ri-scambiamo le due particelle, torniamo punto e a capo, e cioè deve essere
ovvero , la quale ha soluzione . Se stiamo parlando di particelle con funzioni d’onda antisimmetriche (cioè lo scambio delle particelle produce un segno meno moltiplicativo nella funzione d’onda totale). Una conseguenza è che se parliamo dello stesso stato allora lo scambio delle particelle produce la seguente relazione
la quale implica identicamente , cioè non esiste uno stato quantistico in cui queste particelle hanno gli stessi numeri quantici. Questa è la giustificazione quanto-meccanicistica del principio di Pauli, e condusse Dirac a ricavare la stessa formula di Fermi per la statistica degli elettroni.
La lettera in cui Fermi richiamò l’attenzione di Dirac sul suo articolo del febbraio precedente.
Fermi si limitò all’applicazione del principio di esclusione su un problema specifico, senza provare a darne un’interpretazione quanto-meccanicistica.
In ogni caso, Dirac riconobbe comunque l’importanza del lavoro di Fermi, e propose di chiamare la nuova statistica “Fermi-Dirac”, mettendo il nome di Fermi al primo posto.
Oggi le particelle (come gli elettroni) che obbediscono alla statistica di Fermi-Dirac sono note come “fermioni”, sempre in onore di Fermi. I fermioni sono tutte quelle particelle caratterizzate da uno spin semi-intero. Per un teorema rigorosamente dimostrabile in teoria quantistica dei campi, tutte le particelle a spin semi-intero obbediscono alla statistica di Fermi-Dirac, mentre quelle a spin intero (note come “bosoni“) obbediscono alla statistica di Bose-Einstein (sono le particelle con dopo uno scambio).
Alle basse temperature i bosoni possono occupare tutti lo stesso stato a energia più bassa, mentre i fermioni sono forzati ad occupare stati a energia crescente fino all’energia di Fermi (nella figura sono presenti al massimo due fermioni per via del numero quantico di spin, il quale assume due valori possibili se lo spin è 1/2).
Alle alte temperature (dove gli effetti quantistici sono meno preponderanti) sia fermioni che bosoni tornano ad obbedire alla statistica di Maxwell-Boltzmann e Gibbs.
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.
Matteo Parriciatu
Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale. È autore del libro “L’apprendista teorico” (2021).
Non che io sia così intelligente, semplicemente studio i problemi più a lungo
Albert Einstein
Questa citazione è una tra le più famose di Einstein e secondo me evidenzia un punto cruciale del suo modo di lavorare, che lo ha portato a rivoluzionare importanti concetti che altri fisici suoi contemporanei mettevano sotto al tappeto.
Come molti problemi che dobbiamo affrontare nel nostro percorso di studi, quelli che Einstein decise di studiare erano scomodi, fuori dalla zona comfort, non sempre ben posti.
Albert Einstein (1879-1955).
Hai presente quella spiacevole sensazione di inadeguatezza quando ci viene chiesto di risolvere un problema che apparentemente è al di sopra delle nostre capacità? Quella sensazione di avere un muro mentale che ci impedisce anche solo di iniziare a impostare il problema? Ma soprattutto, quel senso di fallimento nel soddisfare le aspettative che abbiamo di noi stessi, e di sentirsi fuori posto: “se non so risolvere questo problema, cosa ci sto a fare qui?”.
Tutte queste emozioni negative sono il pane quotidiano dei ricercatori. Infatti, per definizione, il ricercatore è colui che prova a risolvere problemi mai risolti da nessuno, e nel fare ciò finisce per sbattere continuamente contro quel muro mentale, per cercare di avanzare anche solo di uno 0.1%.
Noto che viene poco enfatizzato il fatto che i ricercatori sono comunque prima di tutto studenti. Questo è un fatto molto importante, perché non stai facendo ricerca se non ti metti a studiare cose che vanno al di là delle tue capacità. Per questo motivo il modus operandi del ricercatore dovrebbe essere preso come modello per gli studenti più giovani.
Gli anni febbrili di Einstein
Dal 1907 al 1915 Einstein lavorò incessantemente alla teoria della Relatività Generale, andando a sbattere la testa contro difficoltà teoriche e matematiche che all’epoca rappresentavano l’apice della Fisica Teorica.
In questo processo Einstein dovette imparare quasi da zero il linguaggio matematico più adatto per formulare le sue idee (la geometria di Riemann e il formalismo di Minkowski per lo spaziotempo), e l’impresa si dimostrò così eccezionale che dovette collaborare continuamente con due amici matematici, Marcel Grossmann e Michele Besso.
Le difficoltà però non erano solo matematiche. Einstein cambiò più di qualche volta le principali strutture concettuali con cui desiderava conciliare la gravità di Newton con la sua relatività ristretta, e fino all’ultimo momento non fu mai esattamente convinto di quali fossero i reali fondamenti teorici.
Nelle pagine di Janssen non c’è la moderna figura mitologica dell’Einstein “tutto d’un pezzo”, al quale bastò immaginarsi “una persona in caduta libera” per formulare la nuova teoria della gravitazione. Invece viene fuori l’Einstein ricercatore, pieno di dubbi e ripensamenti, ma che faceva di queste tre qualità principali le sue armi di battaglia:
Lungimiranza. Einstein era di sicuro un visionario perché era capace di sintetizzare tutte le difficoltà teoriche in pochissimi punti cardine: se doveva esistere una teoria della gravità compatibile con la relatività, allora doveva rispettare un principio di covarianza delle leggi della fisica sotto qualsiasi trasformazione di coordinate. La visione di Einstein era ben delineata: credeva ciecamente nel principio di Galileo e sapeva che in un modo o nell’altro la teoria corretta doveva racchiuderlo in una nuova veste.
Umiltà intellettuale. La storia è cosparsa di ricercatori che hanno dedicato gran parte della loro carriera a teorie che si dimostravano fallaci e inconcludenti. Il loro principale nemico era il proprio ego, che non gli permetteva di ammettere di essere stati nel torto tutto il tempo. Al contrario, Einstein era capace anche di pubblicare un articolo al mese in cui nel successivo smontava la maggior parte delle cose dette nel precedente. Continuò a ripetere questo processo di “avanzamento-smentita” per almeno 3 anni, dal 1913 al 1915.
Perseveranza. Einstein era un lavoratore incallito, disposto a dedicare tutto il tempo che riteneva necessario per la risoluzione di un problema. Laddove i suoi colleghi mollavano, lui continuava. Aveva capito che la mente è in grado di fare avanzamenti importanti solo quando le si dà tempo sufficiente.
La famosa foto della scrivania di Einstein nel suo ufficio a Princeton.
Gli ultimi anni di gestazione della Relatività Generale furono intensissimi, specialmente l’ultimo anno in cui Einstein si ritrovò a rivaleggiare con nientemeno che David Hilbert (il più grande matematico del suo tempo), il quale aveva fiutato la possibilità di trovare le equazioni corrette prima di Einstein. Proprio a questo punto (inverno del 1915) il lavoro di Einstein divenne febbrile: si lasciò assorbire completamente dal proprio obbiettivo, dimenticandosi persino di scrivere agli amici. Oggi il suo stato mentale sarebbe probabilmente classificato in psicologia come “flusso”.
Spesso sono così assorbito dal lavoro che mi dimentico di pranzare.
Albert Einstein in una lettera a suo figlio Hans, 1915.
Lo stato mentale di “flusso” è comune a tantissimi artisti, ed è spesso descritto come uno degli stati di coscienza più sereni dell’esistenza, in quanto il cervello ha piena libertà espressiva e lavora all’unisono con emozioni e corpo.
In ogni caso, ciò che condusse Einstein a risolvere il problema più difficile della sua carriera fu un mix di qualità da cui tutti possiamo trarre ispirazione per migliorare il nostro problem solving in generale.
In fondo, i principali nemici di Einstein erano quelli che accomunano tutti i noi: dubbio, insicurezza, ripensamento, il non sentirsi all’altezza. Queste sanguisughe emotive tolgono energia preziosa che invece occorrerebbe investire nel cercare di risolvere il problema in sé.
Come vanno approcciati gli argomenti più rognosi
La mente è capace di produrre i più grandi successi, ma anche di condizionare i più grandi fallimenti. Dipende tutto da come la si usa, e forse la nostra società dedica troppo poco tempo all’educazione sul suo corretto utilizzo. Come sosteneva David J. Schwartz, professore alla Georgia State University, davanti a un problema molto rognoso le persone solitamente scelgono di investire le energie mentali in uno tra due modi:
Distruttivo. La maggior parte delle energie mentali vengono spese per ricercare tutte le buone ragioni per cui non siamo in grado di risolvere il problema che ci è stato posto di fronte.
Creativo. La maggior parte delle energie mentali vengono spese cercando di capire come possiamo fare anche solamente un piccolo avanzamento verso la soluzione.
Questo è ciò che ho imparato anche nella mia esperienza universitaria. È capitato spesso agli esami che tra due persone ugualmente preparate solo la più intraprendente delle due riuscisse a strappare un voto più alto, tentando di rispondere alla “domanda bonus” dell’esame. Questo perché, a differenza del collega, riusciva a investire le proprie energie mentali concentrandosi solo sul problema, senza ascoltare le sanguisughe emotive. Mentre uno dei due cercava la soluzione, l’altro cercava delle scuse per autoconvincersi di non essere in grado.
Una pagina degli appunti di Einstein sulla sua teoria della gravitazione.
Io stesso mi sono accorto di aver fatto questo errore specialmente il primo anno di università. Nel momento in cui mi sono accorto di questo cattivo approccio mentale ho cercato di non ripeterlo più, e i risultati sono arrivati subito.
In generale nel momento in cui dobbiamo studiare qualsiasi argomento particolarmente rognoso, mal posto o semplicemente noioso, l’approccio corretto è quello creativo: bisogna cercare di trovare la volontà di concentrarsi solo sull’argomento, aprendo una bolla intellettuale in cui eliminiamo tutte le interferenze della nostra vita. Occorre mettere via smartphone e social media ed entrare dentro la materia.
Ho notato che il modo più rapido che ho di farmi piacere qualcosa è leggere ciò che ha entusiasmato altre persone di quell’argomento. Spesso non ci piace qualcosa solo perché ne sappiamo troppo poco, o perché chi ce l’ha presentata non è riuscito a trasmetterci il motivo per cui dovremmo studiarla. Internet è un posto fantastico proprio per questo motivo: con pochi click puoi avere accesse alla vita e alle opinioni di migliaia di persone che hanno studiato la nostra stessa cosa.
Sii come Einstein, immergiti dentro al tuo lavoro. Solo dopo esserti immerso saprai se quell’argomento ti piace o meno. Se stai risolvendo un problema: cerca soluzioni, non scuse. Se proprio non trovi nessun indizio per riuscire a risolverlo: informati su come le persone hanno risolto problemi simili, e magari torna sul libro per approfondire il capitolo riguardante quel problema. L’approccio attivo batte sempre l’approccio passivo.
Un’altra cosa che ha funzionato nel mio caso quando mi sono confrontato con argomenti piuttosto noiosi o problemi apparentemente insormontabili è quella di “renderli memorabili”. Mi convincevo che quello che stavo facendo era davvero importante, e davo un tono solenne alla mia impostazione del problema, fingendomi un ricercatore. Spesso sono arrivato anche a scrivere degli articoli in PDF in cui proponevo la mia soluzione: l’atto di scrivere quei PDF mi motivava a concentrarmi solennemente sul problema. Questo piccolo accorgimento riusciva a fregare il cervello, spazzare via quell’apatia che crea il mindset distruttivo per lasciare spazio alla creatività. Anche quando stai risolvendo esercizi apparentemente banali o che i tuoi colleghi ritengono semplici (triviali), continua comunque a darti quell’aria solenne per motivarti ad andare avanti. Prima o poi gli altri si lasceranno ingoiare dall’apatia e presto smetteranno di confrontarsi con i problemi più complessi.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.
Infine, un’ultima nota sul concetto di “esaurimento”, o come va di moda dire oggi “burnout“.
Risolvere problemi o studiare materie molto complesse porta via tanta energia. Nonostante ci siano comunque tanti modi di ottimizzare l’energia giornaliera, ad esempio eliminando le distrazioni, pianificando le cose da fare, ed eliminando la mentalità distruttiva (cioè non sprecare energia mentale per trovare scuse o motivi per cui fallirai in ciò che stai per fare), in ogni caso è facile arrivare a un punto in cui si è semplicemente esaurita tutta l’energia.
Cosa possiamo fare quando ci sentiamo completamente esausti riguardo lo studio, nonostante ci siamo riposati e ricaricati in altri modi? Mi è rimasto impresso il suggerimento del monaco benedettino David Steindl-Rast, secondo il quale: il rimedio all’esaurimento non è smettere di fare ciò che stiamo facendo, ma iniziare a farlo mettendoci tutto ciò che abbiamo, anima e corpo, il 100% della nostra dedizione e concentrazione.
Secondo Steindl-Rast, l’energia che cercavamo era già dentro di noi, soppressa dal fatto che non stavamo lavorando al 100% della nostra concentrazione, ma magari al 60-70%. Quante volte ci siamo dedicati a un argomento, o a un problema, avendo però la testa rivolta verso altri argomenti o altri problemi? O magari avendo la testa occupata dalle sanguisughe emotive? Questo multitasking mentale comporta un consumo energetico molto più elevato del “dedicarsi al 100%”.
Sii come Einstein, dedicati a un argomento o un problema alla volta, organizzandoti il tempo. Pensa in grande e solennemente, non togliere importanza al lavoro che fai. Solo questo è in grado di scacciare l’apatia e le sanguisughe emotive che ti trattengono dall’imparare cose nuove o dal risolvere i problemi più complessi.
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.
Fin da quando ho iniziato il mio percorso nella Fisica sono stato affascinato tanto dalla materia quanto dalle personalità che l’hanno costruita. Anzi, ripensandoci devo ammettere che traevo ispirazione dalle azioni quotidiane, dalle abitudini o dai modi di ragionare dei grandi fisici del passato. Non che volessi “emularli” , semplicemente li ammiravo così tanto da voler portare dei pezzi di loro dentro di me, per sentirli più vicini, per guidarmi nelle decisioni e nella motivazione.
Una parte che trovo estremamente interessante della storia di ogni fisico è il suo metodo di studio, e non di quando era già grande e formato, ma di quando era giusto agli inizi.
Un filo conduttore che ho notato è il seguente:per capire a fondo una materia, devi farla tua. Per fare ciò servono due step fondamentali:
Bisogna essere autodidatti per una buona percentuale del tempo. Il professore ha il ruolo di mostrare la via più proficua e fornire gli schemi per aiutarti a non perderti, il resto devi coltivarlo da solo usando dei libri adeguati allo scopo.
Dopo aver letto il libro devi estrapolare le tue visioni e i tuoi schemi per poi riorganizzarli come preferisciin forma scritta, su diari o quadernini personali.
Il diario di Feynman: “The Calculus”, in italiano “Il calcolo infinitesimale”.
Uno dei più grandi che seguiva questo metodo era Richard Feynman, celebre fisico teorico americano (Nobel 1965). Ne sono venuto a conoscenza perché sono incappato di recente in un articolo di Physics Today in cui è stato riesumato da un archivio il “diario degli appunti” di quando Feynman decise di imparare il calcolo infinitesimale da autodidatta quando era ancora al liceo.
Il giovane Feynman decise che il curriculum di matematica liceale (che arrivava a stento alla trigonometria) non era abbastanza per chi volesse iniziare ad interessarsi di Fisica. Per sua fortuna il matematico Edgar Thompson decise di scrivere una serie di libri con l’intento di rendere più accessibili alcune tecniche matematiche che all’epoca erano ancora trattate in maniera piuttosto “aulica”. Feynman trovò particolarmente utile il libro di Thompson “Il calcolo infinitesimale reso facile” del 1923, su cui decise di basare tutta la sua preparazione (introduttiva) alla matematica universitaria.
Trovo giusto rimarcare un attimo l’importanza dell’opera di personaggi come Thompson: se Feynman non avesse potuto sviluppare da solo certe attitudini grazie a libri così accessibili, avrebbe magari avuto più dubbi nel suo percorso, e chissà magari non avremmo mai sentito parlare dei “diagrammi di Feynman”.
Cosa possiamo imparare?
Ci sono poche immagini condivise in rete sul diario di Feynman. Tuttavia da quel poco che abbiamo possiamo comunque trarre alcuni spunti interessanti, oltre ad evidenziare alcuni tratti fondamentali che per Feynman diventeranno caratteristici del suo metodo di lavoro.
L’importanza della schematicitià
La cosa che mi ha sorpreso di più di questo diario è anzitutto la presenza di un indice.
L’indice del diario di Feynman. I capitoli sono organizzati in una maniera molto simile a quella del libro di Thompson.
Uno degli ingredienti fondamentali per imparare una materia nuova e complessa è infatti quello di riuscire a organizzare le informazioni in maniera che siano rapidamente accessibili. L’indice è probabilmente il modo migliore per visualizzare graficamente tutti gli aspetti di una materia, e non parlo dell’indice di un libro, ma dell’indice dei propri appunti. Nel mio caso, se i tuoi appunti non hanno un indice è più facile provare un senso di confusione generale quando scorri le pagine. Questo piccolo dettaglio può trasformare una “confusa raccolta” in un serio “arsenale di conoscenze”. Feynman conservò tutta la vita questa propensione per la schematicità. James Gleick riporta un aneddoto di quando Feynman era ancora studente a Princeton:
[…] Aprì un quaderno degli appunti. Il titolo era “DIARIO DELLE COSE CHE NON SO”. […] Lavorava per settimane per disassemblare ogni branca della Fisica, semplificandone le parti e mettendo tutto assieme, cercando nel mentre inconsistenze e punti spigolosi. Provava a trovare il cuore essenziale di ogni argomento.
James Gleick
Qui non siamo solo davanti a un esercizio “di umiltà” che consiste nel cercare di perfezionare le proprie lacune, ma a una ricerca sistematica, ottimizzata.
Quando Feynman aveva finito il lavoro, si ritrovava con un diario degli appunti di cui andava particolarmente orgoglioso.
James Gleick
La schematicità di questo lavoro permetteva a Feynman di accedere rapidamente a tutti gli argomenti che lui riteneva più importanti, nella grafia e nello stile di presentazione che a lui era più congeniale: il suo.
Da questa lezione possiamo imparare l’importanza della rielaborazione e della schematicità: non solo bisogna far proprio un argomento, ma bisogna organizzare le proprie note in modo che siano accessibili con il minor sforzo possibile, solo così si può andare avanti con una mente abbastanza lucida, pronta ad imparare cose ancora più difficili.
Prendersi un po’ più sul serio
Il secondo aspetto su cui voglio soffermarmi riguarda queste due pagine di appunti:
L’argomento riguarda l’analisi matematica ordinaria: l’angolo iperbolico e le funzioni iperboliche, ma non è questa la cosa interessante, bensì è l’utilizzo di intermezzi stilistici del tipo: “come abbiamo visto”, “se dividiamo…” tutti rivolti al plurale, proprio come farebbe un professore che sta spiegando un argomento in un’aula. Feynman si prendeva sul serio. Questo prendersi sul serio lo portava a redigere gli appunti con uno stile che poteva essere letto da tutti, aumentandone la facilità di lettura e senza sacrificare la rigorosa riorganizzazione delle informazioni. Ricordiamo: Feynman era appena un adolescente mentre scriveva questo diario, non stiamo parlando di uno studente universitario che si suppone abbia già consolidato certi metodi di studio. Qui sta la precoce genialità di Feynman.
Il diario degli appunti di Enrico Fermi.
Se si vogliono scrivere degli appunti che ci potrebbero essere utili in futuro, bisogna farlo prendendosi sul serio, scrivendo come se dovessimo esporre in un’aula con persone che su quell’argomento non sanno nulla. Se non si fa ciò, si rischia di ritrovarsi con degli appunti illeggibili presi distrattamente qualche anno prima, con il risultato di aver sprecato ore di studio senza poter riacquisire in maniera rapida le conoscenze dimenticate.
Anche uno dei più grandi fisici del novecento, Enrico Fermi, usò la tecnica del diario degli appunti fin da quando era al liceo. Proprio come Feynman, Fermi era ossessivo nel redigere i propri appunti, dedicandovi una meticolosa attenzione, fin dalla stesura dell’indice:
L’indice di un quaderno di Fermi.
Come testimoniarono i suoi colleghi e amici, Fermi riutilizzava spesso i propri quadernini anche in età adulta, proprio perché gli consentivano l’accesso immediato a numerose branche del sapere, diventando quasi “un’estensione” del proprio cervello. Di nuovo, la loro efficacia stava probabilmente nel fatto di essere stati scritti in uno stile a lui più congeniale, usando schemi con cui aveva maggiore confidenza. Qualcuno disse che Fermi aveva fatto sua tutta la Fisica, tanto da definirlo “l’ultimo uomo che sapeva tutto“.
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.
Matteo Parriciatu
Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale. È autore del libro “L’apprendista teorico” (2021).
Ci sono svariati motivi per cui la Scienza, pur essendo una disciplina di matrice umana e quindi predisposta all’errore, riesce sempre a raddrizzarsi. Il motivo più cruciale è la spietatezza del giudizio tra pari: l’oggettività e il metodo scientifico non guardano in faccia nessuno.
Naturalmente per garantire il continuo raddrizzamento servono grandi personalità, che devono essere la base di ogni comunità scientifica. E non parlo di “grandi personalità” solo dal punto di vista accademico, servono grandi capacità relazionali e grande onestà intellettuale, anche a costo di dire qualcosa di molto scomodo. La scienza inizia a morire quando inizia a prendere piede il pensiero di gregge, dal quale nessuno ha il coraggio di discostarsi. A capo del gregge servono dei pastori, pochi fari nella notte, ma sempre accesi e messi nei punti giusti.
In questo contesto, qualche tempo fa sono incappato in una storia condivisa da Freeman Dyson, che è stato uno dei più importanti fisici teorici del secondo novecento. Credo che questa storia riassuma perfettamente lo stato esistenziale del ricercatore: la ricerca è un mondo appassionante in tutti i sensi, passione emotiva e passione in senso latino, “patire, soffrire”.
Un po’ di contesto storico
Un tipico processo di elettrodinamica quantistica, un fotone virtuale viene scambiato tra due elettroni.
Alla fine degli anni ’40 si era raggiunta una soddisfacente descrizione dei processi atomici. L’unica forza fondamentale del mondo quantistico allora compresa, l’elettrodinamica quantistica, aveva come ingredienti i campi fermionici come elettroni, protoni e neutroni, e il campo elettromagnetico (rappresentato dal suo quanto di eccitazione, il fotone). Come descritto in un precedente articolo, essendo il mediatore di un’interazione a raggio d’azione infinito, il fotone ha massa nulla. Un principio di simmetria, assieme alle nozioni dell’elettrodinamica classica, ci guidano a scrivere l’interazione elettrodinamica, come spiegato in un precedente articolo, con la seguente struttura:
L’accoppiamento tra campi fermionici ψ e il campo elettromagnetico Aμ. L’intensità dell’interazione è specificata dalla carica dell’elettrone in unità fondamentali (unità di c=ℏ=1). Freeman Dyson (1923-2020)
A partire da questa struttura, si è in grado di calcolare tutti i processi elettromagnetici possibili, e verificare l’accuratezza della teoria confrontando i valori ottenuti con i dati sperimentali. Questa era l’occupazione di Freeman Dyson e il suo gruppo di studenti. Dyson, allora un giovanissimo professore di Fisica Teorica alla Cornell, era riuscito con il suo gruppo ad ottenere uno spettacolare accordo tra le previsioni teoriche e i dati sperimentali: l’elettrodinamica era una teoria in grado di fare previsioni molto accurate.
Dopo questi successi, nel 1951 il gruppo di Dyson era alla ricerca di altri problemi da conquistare. Uno particolarmente promettente era il problema di studiare cosa tenesse assieme i nuclei: l’interazione nucleare. All’epoca la Fisica Nucleare era una scienza prettamente empirica: i modelli teorici erano pochi, confusi e dallo scarso potere predittivo. Quello che era certo, almeno alla scala di energia che si esplorava all’epoca, è che il mediatore della forza nucleare doveva essere massivo (per sapere perché leggi qua) perché al di fuori del nucleo la forza nucleare cessava di esistere. Se il mediatore dell’elettrodinamica era il fotone, il mediatore dell’interazione nucleare fu individuato nel pione. L’obbiettivo era quindi fare degli esperimenti in cui si facevano collidere pioni con altre particelle nucleari, per studiarne l’interazione.
Dyson e il suo gruppo, avendo avuto così tanto successo con il modello dell’elettrodinamica, decisero che la struttura migliore per l’interazione doveva essere molto simile:
L’accoppiamento tra i campi fermionici ψ e il campo del pione ϕ. L’intensità dell’interazione è specificata dalla costante “g” , che ha un valore molto più elevato della costante di accoppiamento elettromagnetica “e”. Un protone ed un neutrone interagiscono scambiandosi un pione neutro. Nota la somiglianza con il diagramma dell’elettrodinamica.
Questa teoria era conosciuta come “teoria del pione pseudoscalare” , e il gruppo di Dyson ci lavorò a tempo pieno per due anni. Dopo uno sforzo di proporzioni eroiche, nel 1953 riuscirono a produrre delle predizioni teoriche in accettabile accordo con i dati disponibili all’epoca. La carriera di alcuni studenti di Dyson dipendeva dal successo di questa teoria, dato che erano per la maggior parte dottorandi o post-doc.
I dati sperimentali con cui confrontavano le loro previsioni teoriche erano stati raccolti da uno dei migliori fisici del novecento, nonché uno dei padri fondatori della ricerca nucleare: Enrico Fermi, professore a Chicago e al tempo uno dei leader nella costruzione del Ciclotrone con cui si studiavano le interazioni nucleari. Fermi era anche uno dei migliori fisici teorici della sua generazione, quindi Dyson pensò fosse il caso di andare a trovarlo per discutere sul successo del proprio lavoro, prima di pubblicarlo.
Enrico Fermi (1901-1954), premio Nobel per la Fisica 1938.
L’incontro con Fermi
Nella primavera del ’53, Dyson si diresse a Chicago per andare a trovare Fermi nel suo ufficio, portando con sé una pila di fogli con alcuni grafici che riproducevano i dati sperimentali calcolati dal suo gruppo.
Fermi aveva la nomea di incutere una certa soggezione, di certo non solo per la sua fama di grande scienziato, ma anche per l’acutezza del suo giudizio. Quindi è facile immaginarsi che Dyson si sentisse un po’ teso per quell’incontro. La sua tensione si trasformò presto in soggezione quando vide che Fermi diede solo un rapido sguardo ai fogli che gli aveva portato, per poi invitarlo a sedersi e chiedergli con un tono amichevole come stessero sua moglie e suo figlio neonato.
Dopo qualche chiacchiera, improvvisamente Fermi rilasciò il suo giudizio nella maniera più calma e schietta possibile
Ci sono due modi di fare i calcoli in Fisica Teorica. Il primo modo, che io preferisco, è di avere un chiaro schema mentale del processo fisico che vuoi calcolare. L’altro modo è di avere un preciso ed auto-consistente formalismo matematico. Voi non avete nessuno dei due.
Dyson rimase ammutolito, anche se la parte più orgogliosa di lui era comunque incredula. Quindi cercò di capire cosa non andasse, secondo Fermi, con la teoria del pione pseudoscalare.
Fermi aveva un intuito fisico eccezionale su cui fondò letteralmente una scuola di pensiero in grado di far fruttare ben 8 premi Nobel per la Fisica tra i suoi studenti.
La teoria del pione pseudoscalare, secondo il suo intuito, non poteva essere corretta perché a differenza dell’elettrodinamica l’interazione era molto più intensa e nei calcoli era necessario mascherare alcune divergenze senza avere un chiaro schema fisico di quello che stesse succedendo.
Inoltre, quando Dyson gli chiese, ancora orgogliosamente, come mai secondo lui i dati fossero comunque in accordo con le sue previsioni nonostante la teoria fosse inadeguata, Fermi gli fece notare che il numero di parametri utilizzato (quattro) era troppo alto, e che con un numero così elevato fosse possibile raggiungere un raccordo tra le previsioni teoriche e qualunque dato sperimentale.
In sostanza Fermi demolì, con estrema calma e schiettezza, gli ultimi due anni di lavoro dell’intero gruppo di Dyson, composto da dottorandi e post-doc la cui carriera in quel momento dipendeva dal successo di quella teoria.
La storia diede ragione a Fermi. La teoria del pione pseudoscalare non era quella corretta, al modello delle forze nucleari mancava un pezzo fondamentale del puzzle: i quark, teorizzati da Gell-Mann il decennio successivo, quando Fermi era già morto.
Dopo quell’incontro traumatico, Dyson e il suo gruppo pubblicarono comunque il lavoro, ma abbandonarono completamente quel campo di ricerca. Negli anni successivi, ripensando a quell’evento, Dyson espresse di essere grato eternamente a Fermi per quello “schiaffo” morale, perché la sua teoria non avrebbe portato nessun frutto e avrebbe fatto sprecare preziosi anni di ricerca a lui e al suo gruppo.
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.
Matteo Parriciatu
Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale. È autore del libro “L’apprendista teorico” (2021).
Se consideriamo i più importanti avanzamenti scientifici del XIX secolo, la teoria elettromagnetica di James Clerk Maxwell è seconda solo al lavoro di Darwin “l’origine delle specie”.
Tuttavia questa importanza non fu riconosciuta subito, e non parlo di qualche anno. Rimasi sorpreso quando scoprii che ci vollero circa 30 anni affinché le equazioni di Maxwell fossero capite a pieno, e che addirittura per i primi 20 anni furono praticamente ignorate. Dopo un po’ di ricerche, ho individuato due motivi principali per spiegare ciò:
James Clerk Maxwell (1831-1879)
Il carico concettuale della teoria di Maxwell.
La modestia di Maxwell.
Il tangibile e l’intangibile
La teoria di Maxwell, pubblicata per la prima volta nel 1865, risulta ancora oggi un po’ indigesta per la maggior parte dei neofiti, figuriamoci per i fisici del 1800! Immaginiamo il contesto culturale di questi fisici: l’universo newtoniano era composto da oggetti tangibili, in grado di interagire “a distanza” l’uno con l’altro in maniera misteriosa. Nonostante l’azione a distanza, le quantità misurabili erano tangibili, e questo era quello che contava! Prima Faraday e poi Maxwell introdussero il giochino astratto dei “campi” intangibili che si estendono nello spazio e producono perturbazioni locali nel moto dei corpi. Per i fisici dell’epoca si trattava giusto di un giochino, un utensile fantasioso per schematizzare un meccanismo che funzionava bene anche senza.
Un disegno originale di Maxwell sulle linee di forza e le superfici equipotenziali.
Infatti i fisici classici ragionavano in termini meccanicistici perché erano figli del loro tempo, a cavallo tra la prima e la seconda rivoluzione industriale. Per loro i “campi” erano la manifestazione di strutture meccaniche composte da una moltitudine di piccoli vortici in grado di trasmettere gli stress meccanici tra cariche e correnti.
Maxwell era un visionario, ma pur sempre un fisico del 1800, per cui i campi da esso descritti avevano come fine ultimo quello di inserirsi nel contesto della teoria dei vortici. Il risultato era di una difficoltà paurosa e fu un po’ come darsi la zappa sui piedi.
Questo fu uno dei principali freni alla comprensione della teoria: per i suoi contemporanei era dannatamente complicata, difficile da visualizzare e senza nessun vantaggio rispetto al framework newtoniano.
Nel framework newtoniano il campo elettrico e il campo magnetico venivano descritti come due entità ben distinte, e la loro azione sui corpi veniva descritta con le leggi empiriche di Faraday, Lenz e Gauss, usando il concetto misterioso di forza a distanza.
Maxwell invece fece uno dei più grandi passi avanti nella Storia del Pensiero: l’interazione si propagava alla velocità della luce attraverso un certo mezzo (l’etere) sotto forma di onda elettromagnetica, e cioè di una nuova entità fisica che vede campo elettrico e campo magnetico come due facce della stessa medaglia.
Nessuno era pronto per capire la portata di questa grande unificazione. Nessuno l’aveva richiesta, e nessuno era volenteroso di imparare la matematica necessaria.
Infatti un altro problema fu che Maxwell non scrisse le sue equazioni nella forma elegante che conosciamo oggi (grazie al lavoro di Heaviside)
Sinistra: le equazioni di Maxwell originali. Destra: le equazioni di Maxwell in notazione di Heaviside.
bensì scrisse delle equazioni vettoriali componente per componente, per un totale di 20 equazioni, e con una notazione un po’ buffa. Pensa che disastro dover fare una peer review di un lavoro simile!
Quando la modestia è controproducente
È riportato che durante una conferenza Maxwell riservò alla sua teoria elettromagnetica giusto una breve menzione:
“[…] Un’altra teoria dell’elettricità che io preferisco rinnega l’azione a distanza e attribuisce l’azione elettrica alle tensioni e pressioni di un mezzo che pervade l’universo. Queste tensioni sono dello stesso tipo di quelle familiari agli ingegneri, e il mezzo è lo stesso in cui si pensa che avvenga la propagazione della luce.”
James Clerk Maxwell
Tutto qui? Tutto qui. Quando Newton scoprì le leggi della gravitazione le annunciò al mondo con un sonoro “Ora dimostrerò la struttura del sistema del Mondo”, mentre Maxwell si limita a citare il proprio lavoro con la frase “un’altra teoria che io preferisco…”
La sua modestia spinse i fisici dell’epoca a non prendere sul serio la teoria, ritardandone la comprensione per almeno 20 anni, fino ai lavori di Hertz, Lorentz e Einstein, i quali crebbero già in un contesto più amichevole al concetto di campo, per cui ai loro occhi sembrava quasi ovvio che il mondo dovesse parlare il linguaggio della teoria di Maxwell.
La transizione concettuale
La teoria di Maxwell diventa semplice e intellegibile solo quando si esegue una transizione concettuale: gli oggetti primari non sono più i modelli meccanici: le forze sono solo un ingrediente secondario, il campo elettromagnetico è l’ingrediente primario!
Ciò che è misurabile non è direttamente il campo elettromagnetico, ma una sua particolare espressione matematica: ad esempio il modulo quadro del campo rappresenta la sua energia, che è una quantità misurabile. Le quantità misurabili, a differenza della teoria di Newton, diventano una manifestazione secondaria di ciò che si nasconde dietro, il quale è molto più profondo.
Questo innovativo modo di pensare è stato replicato per tutto il XX secolo: oggi abbiamo ridotto all’osso le equazioni di Maxwell, capendole dal punto di vista della relatività di Einstein. Dalle 20 equazioni originali, passando per le 4 equazioni di Heaviside, arriviamo alla forma elegantissima di oggi, la quale le condensa tutte in due righe:
Le equazioni di Maxwell nell’elettrodinamica relativistica.
Questo è stato fatto grazie a un altro salto concettuale: il potenziale vettore del campo elettromagnetico, un tempo considerato solo come uno strumento astratto, si è rivelato come l’unico modo per trasportare l’elettromagnetismo nel reame della teoria classica dei campi. Questa necessità ha spalancato le porte alla formulazione dell’elettrodinamica quantistica e di tutta l’infrastruttura delle teorie di gauge moderne.
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.