Si sente spesso dire che la Fisica non cambia se si inverte la freccia del tempo. Ne ho anche parlato di recente in un articolo sulla gravità.
La nostra esperienza quotidiana però è ben diversa: un cubetto di ghiaccio si scioglie se esposto a una temperatura più alta, e anche abbassando di nuovo la temperatura l’acqua si solidificherà, ma non riassumerà mai la forma iniziale. Fatti analoghi a questo, da millenni, ci hanno convinto che esista una direzione ben definita del tempo, un passato realizzato e un futuro da realizzarsi. La morte ne è solo l’esempio emotivamente più eclatante.
Come conciliare le due cose?
Come possiamo dire che le leggi della fisica sono in gran parte soddisfatte sia dalle equazioni con il tempo normale, sia dalle equazioni con il tempo invertito (), ma poi rimangiarci tutto e dire che in realtà il mondo funziona in una sola direzione e mai in quella opposta?
Il problema è il calcolo
Immagina una scatola che contiene N particelle che interagiscono tra loro in maniera molto complicata. In linea di principio, tramite la Fisica saremmo in grado di calcolare posizioni e velocità di tutte le particelle a ogni istante di tempo (ricorda: 3 coordinate spaziali per ciascuna dato che viviamo in un mondo tridimensionale, e 3 coordinate per la velocità per lo stesso motivo).
Ad esempio siamo interessati a questo problema: tracciando una linea immaginaria che divide in due parti la scatola, vorremmo capire quante particelle staranno a destra e a sinistra di questa linea in un certo intervallo di tempo in cui ci mettiamo ad osservare la scatola.
In totale quindi abbiamo da calcolare coordinate di cui vogliamo sapere l’andamento nel tempo per poter predire dove si troverà ciascuna particella. Ognuna di queste coordinate potrebbe essere dipendente da qualsiasi altra per via delle interazioni tra le particelle, e il problema diventa immediatamente molto complesso dal punto di vista del calcolo numerico.
Come rimedio possiamo fare delle assunzioni ragionevoli. Si tratta di buonsenso. Si preferisce ottenere la massima resa con il minimo sforzo (essendo il mondo dannatamente complesso di per sé).
Anzitutto semplifichiamo il problema, per capirci meglio. Trattiamo solo 2 particelle interagenti (distinguibili tra loro).
Due particelle interagenti in una scatola. Le particelle sono distinguibili tra loro (di colore diverso).
La domanda che ci facciamo è: se osserviamo la scatola per un tempo , quanto spesso vedremo le particelle a sinistra o a destra della linea immaginaria?
Facciamo un’altra assunzione ragionevole: supponiamo che queste 2 particelle interagiscano poco, così da non turbarsi troppo a vicenda. Concentriamoci sul numero di particelle in un lato della scatola.
In un determinato lato ci potranno essere al massimo due particelle, e al minimo nessuna (, ). Può anche esserci una sola particella per lato, e dato che sono distinguibili questo può avvenire in due modi: la blu a sinistra, la arancione a destra, o viceversa.
In totale abbiamo quattro configurazioni possibili, mostrate in figura.
Dal punto di vista del numero, entrambe le configurazioni “arancione a destra e blu a sinistra, e viceversa” conducono alla stessa risposta: una sola particella in un determinato lato, . In Fisica questa proprietà è nota come degenerazione degli stati: lo stato a particelle per lato ha degenerazione pari a 2, la indichiamo col simbolo .
Siccome assumiamo che interagiscano poco, e che la scatola sia perfettamente simmetrica tra destra e sinistra, ciascuna avrà una uguale probabilità di trovarsi in uno dei due lati, ovvero (o il ).
Il fatto che si influenzano pochino ci permette di dire che la probabilità per ciascuna configurazione mostrata in figura sarà il prodotto delle singole probabilità, cioè .
Tuttavia la configurazione a una particella per lato compare due volte (degenerazione), quindi la probabilità per questa particolare configurazione è data da .
Ci sono più modi equivalenti di ottenere lo stesso stato macroscopico (), quindi è più probabile degli stati a e .
La degenerazione controlla quanto è grande la probabilità di un certo stato macroscopico.
Per fissare le idee, in generale per esprimere la probabilità di avere particelle in uno dei due lati è:
in cui, come abbiamo detto, e .
Facciamo ora un bel salto: passiamo da particelle a particelle. La probabilità di avere particelle in un lato, e nell’altro, è una generalizzazione della formula precedente:
dove adesso la degenerazione è data da:
Nota che quei punti esclamativi non sono estetici, è un’operazione chiamata “fattoriale” (, e così via. Una particolarità buffa è che per definizione ).
Ora chiediamoci: qual è la configurazione che ha la più alta probabilità di verificarsi? Il buonsenso ti avrà suggerito bene: particelle a destra ed particelle a sinistra. Se tutto è all’equilibrio, lo stato in cui metà delle particelle occupano ciascun lato è ovviamente quello che osserveremo di più nel lasso di tempo in cui stiamo monitorando la scatola.
Il punto però è il seguente: la quotidianità, la vita e l’universo stesso, sono sistemi che in generale sono fuori dall’equilibrio. Ciascun processo della nostra esistenza consiste in una transizione da uno stato fuori equilibrio a uno stato con maggiore equilibrio, in un processo che va all’infinito.
Qual è la probabilità che tutte le N particelle stiano in un solo dei due lati della scatola? Sicuramente sarà più piccola, ma perché? Semplicemente ci sono meno modi di realizzarla rispetto alle altre, in particolare c’è un solo modo! Ricorda infatti che è la degenerazione che fa aumentare la probabilità.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare
Quanto sarà piccola questa probabilità? Qual è la probabilità per la configurazione a ? Poniamo nella formula data sopra:
Se è un numero molto grande, questa probabilità è insignificante. Questa è la chiave di tutto il discorso. Anche solo per la probabilità è minuscola , figuriamoci per un numero di Avogadro! ().
Immaginiamo quindi che il sistema sia inizialmente fuori dall’equilibrio, cioè che la scatola sia divisa in due parti da una paratia che teniamo abbassata. Una volta alzata la paratia, le particelle saranno libere di distribuirsi alla ricerca di un nuovo equilibrio, distribuendosi in parti eguali a sinistra e a destra.
Spontaneamente, le particelle passano da sinistra verso destra. Passato (figura sopra), e futuro (figura sotto) sono ben distinti. Nella tua vita non vedrai mai accadere il contrario.
Occhio però: non sono le leggi fondamentali della Fisica a proibirlo, queste funzionano perfettamente anche al contrario nel tempo. Lo stato con tutte le particelle a sinistra appartiene anche lui all’insieme degli stati “esplorabili” dal sistema.
Per questo motivo la configurazione in cui tutte le particelle stanno a sinistra può ricapitare, ovviamente. Tuttavia la probabilità che ciò accada è pari a come abbiamo visto, cioè estremamente piccola.
In questo senso c’è una distinzione netta tra uno stato iniziale e uno stato finale, una direzione del tempo ben distinta: le particelle non si distribuiranno praticamente mai più nella configurazione iniziale (che corrisponderebbe a un’inversione di quell’illusione che chiamiamo freccia del tempo).
Quel “praticamente” non vuol dire “impossibile”, vuole solo dire una “probabilità così piccola da essere considerabile come impossibile”.
In ciò sta la distinzione tra reversibilità delle leggi del moto e la vita reale: nel grande numero di componenti del sistema che costituisce l’universo, in questo fatto del “contare le configurazioni”, che da noi è stato chiamato per millenni, ingenuamente, “freccia del tempo”.
Bibliografia
Coniglio, A. “Reversibilità e freccia del tempo” Giornale di Fisica Vol. LXI, N.2 Lebowitz, J.L., Physica A, 194 (1993)
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.
Matteo Parriciatu
Dopo la laurea in Fisica (2020) e la magistrale in Fisica Teorica (2023) all’Università di Pisa, fa ricerca sulle simmetrie di sapore dei leptoni e teorie oltre il Modello Standard.
È membro della Società Italiana di Fisica.
È autore del libro “L’apprendista teorico” (2021).
Per capire l’entità del contributo di Enrico Fermi in ciò che servì ad ispirare una delle scoperte più importanti dell’umanità (la teoria dei semiconduttori), è necessario fare qualche passo indietro e considerare il contesto storico-scientifico dell’epoca.
Negli anni ’20 del secolo scorso si sapeva molto poco sulle strutture fondamentali della materia. Le teorie dell’atomo erano giovanissime e l’unico metodo di indagine consisteva nell’osservare l’assorbimento luminoso di alcuni gas della tavola periodica.
Ludwig Boltzmann (1844-1906), uno dei padri fondatori della fisica statistica.
Proprio sui gas si sapeva dire un po’ di più, essendo una collezione di atomi che potevano essere trattati (in certe condizioni di densità e temperatura) come un grosso insieme di biglie microscopiche su cui, tramite la fisica statistica di Maxwell, Boltzmann e Gibbs, si potevano fare previsioni termodinamiche verificabili sperimentalmente.
Una particolarità interessante della teoria statistica di Maxwell e Boltzmann era il contenuto minimale di ipotesi sulla natura fisica di queste “biglie microscopiche”. Stiamo parlando di una teoria formulata nella seconda metà del secolo XIX, un periodo in cui non era ancora riconosciuta l’esistenza dell’atomo!
Trattandosi tuttavia di atomi, nemmeno la teoria di Maxwell e Boltzmann uscì indenne dalla rivoluzione della teoria dei quanti, iniziata con Planck nel 1900.
La teoria dei quanti funzionò sia da completamento che da antidoto per la vecchia fisica statistica. Da antidoto perché aiutò ad indagare meglio alcuni problemi matematici della teoria di Maxwell e Boltzmann, i quali conducevano a calcoli errati nella trattazione di particelle tra loro indistinguibili, e davano dei risultati impossibili per alcune quantità come l’entropia dei gas a basse temperature.
Un problema statistico dell’entropia
Queste difficoltà erano dovute al fatto che la fisica statistica si basa essenzialmente sul “contare, per tutte le particelle, tutte le possibili configurazioni microscopiche che conducono alla stessa situazione fisica del gas“, come illustrato in figura:
Lo schema concettuale che sta alla base della teoria statistica dei gas.
Pressione, volume, temperatura, sono tutte quantità macroscopiche misurabili sperimentalmente. In fisica statistica ci immaginiamo di conoscere le posizioni e velocità di tutte le particelle del gas in ciascuna configurazione possibile ammessa dalle condizioni ambientali (cosa non possibile da un punto di vista computazionale, ma che facciamo finta di poter fare comunque).
Siccome non sappiamo in quale configurazione microscopica precisa si trovi il gas in ciascun istante di tempo (non è misurabile sperimentalmente), immaginiamo di avere copie del nostro gas e di fare delle estrazioni per contare quante volte esce una certa configurazione piuttosto che un’altra. La distribuzione di queste estrazioni definisce alcune quantità macroscopiche associate alla specifica configurazione microscopica estratta un numero di volte. Le quantità macroscopiche che misuriamo sperimentalmente possono quindi essere pensate come la media di tutte le pesate con la probabilità di estrazione .
La misura sperimentale di ci dà quindi informazioni sulla distribuzione delle configurazioni microscopiche del nostro gas.
Immaginando il gas in equilibrio termico a una certa energia interna, il numero di configurazioni del gas corrispondenti a tale energia possono essere contate, dal punto di vista teorico, sommando tutte le possibili accoppiate di posizione-velocità nelle tre dimensioni spaziali, e ciò deve essere fatto per tutte le particelle del gas.
Siccome il numero di possibili accoppiate è virtualmente infinito, i padri fondatori della fisica statistica immaginarono di dividere lo spazio dei possibili valori di posizione e velocità in cellette elementari di dimensione finita che chiamiamo . In questo modo due stati dinamici specificati da , e , che caschino nella stessa celletta di questo spazio sono considerati essere lo stesso stato dinamico. È come se ammettessimo, in un certo senso, di non sapere distinguere tra , e , nel caso appartengano alla stessa cella, è un’approssimazione.
La suddivisione in cellette dello spazio di posizioni e velocità per le particelle. Secondo questa suddivisione due set di posizioni e velocità che appartengono alla stessa celletta non sono distinguibili (qui non distinguiamo il rosa dal celeste), mentre sono distinguibili da quella in verde, dato che appartiene a un’altra celletta.
Dal punto di vista statistico, l’entropia del gas è pensabile come una misura di quanti stati dinamici microscopici sono associabili a un certo stato termodinamico macroscopico, una misura della nostra “ignoranza” sull’effettiva configurazione microscopica del gas.
Il problema era che la dimensione della celletta elementare era del tutto arbitraria, e ciò influiva pesantemente sul conteggio delle configurazioni. Essendo il numero delle configurazioni direttamente collegato alla definizione statistica di entropia, una scelta di troppo piccola conduceva a valori infiniti per l’entropia del gas. Questa indeterminazione sulla scelta di impediva inoltre di calcolare, statisticamente, il valore della costante dell’entropia alla temperatura dello zero assoluto.
Il problema della costante dell’entropia stava molto a cuore ai fisici dell’epoca. Nella termodinamica ottocentesca ci si interessava solo alle differenze di entropia, e quindi era di scarso interesse pratico domandarsi quale fosse il valore assoluto dell’entropia a una determinata temperatura come , e in ogni caso questa costante spariva quando si faceva la differenza tra due stati termodinamici e . Tuttavia con l’arrivo del teorema di Nernst e quindi del terzo principio della termodinamica (il quale postula che l’entropia allo zero assoluto sia esattamente zero) si rivelò essenziale determinare il valore di questa costante.
Un altro problema fastidioso era quello che riguardava il conteggio di particelle indistinguibili: quando si contavano tutte le configurazioni possibili di tutte le particelle del gas si finiva per contare più volte la stessa configurazione per via del fatto che non è possibile distinguere una particella dall’altra. Per via di ciò si arrivava a dei paradossi che riguardavano l’entropia di mescolamento dei gas. Di questo problema si interessò Gibbs, il quale propose di dividere i conteggi per il fattore combinatorico dove è il numero di particelle e con “!” si intende il fattoriale . Tuttavia anche questa soluzione non risolveva tutti i problemi…
La teoria dei quanti sistemò i problemi dell’entropia. Si dimostrò che la dimensione delle cellette elementari doveva essere pari alla costante di Planck : la natura discreta della teoria quantistica si sposava bene con l’ipotesi delle cellette elementari della fisica statistica.
Il punto è che gli effetti quantistici delle particelle non sono più trascurabili a basse temperature. In fisica statistica esiste una quantità chiamata lunghezza d’onda termica di De Broglie, la quale ha la seguente espressione per un gas perfetto monoatomico:
La lunghezza termica delle particelle di un gas, dove è la costante di Planck, la massa delle particelle, la costante di Boltzmann che converte da dimensioni di energia a dimensioni di temperatura tramite , e la temperatura del gas.
Questa lunghezza d’onda deriva dalla formulazione ondulatoria di De Broglie per le particelle quantistiche. Secondo De Broglie, a ogni particella avente quantità di moto è associabile una lunghezza d’onda . Se come si prende la quantità di moto termica delle particelle del gas si ottiene la riportata sopra. A temperature normali questa lunghezza d’onda è molto più piccola della distanza media tra gli atomi di un gas. Vediamo però che al diminuire di , la relazione di inversa proporzionalità aiuta a far crescere questa lunghezza d’onda. Per temperature sufficientemente basse la lunghezza d’onda diventa comparabile con le distanze inter-atomiche del gas.
Man mano che si abbassa la temperatura del sistema, aumenta la lunghezza d’onda di De Broglie e dominano le interferenze quantistiche tra le funzioni d’onda delle particelle. Nel caso in figura sono mostrati dei bosoni.
Quindi, per via delle loro proprietà quantistiche, le particelle iniziano ad interferire tra loro come tante onde, e questo succede quando la loro lunghezza d’onda diventa almeno comparabile con la distanza tra una particella e l’altra, a temperature molto basse.
Siccome parliamo di funzioni d’onda che creano interferenze, l’indistinguibilità delle particelle gioca un ruolo centrale in questo processo quantistico, e ciò sta alla base di tutte le difficoltà teoriche della vecchia fisica statistica, la quale non teneva conto di queste proprietà quantistiche. Fino alla prima metà degli anni ’20, questa sottigliezza quantistica non era ancora stata compresa in profondità.
Statistica quantistica: la strada di Fermi
Enrico Fermi (1901-1954). Premio Nobel per la Fisica nel 1938.
Ancora fresco di laurea, Fermi divenne particolarmente ossessionato dal problema della costante dell’entropia, pubblicando diversi articoli tra il 1924 e il 1926.
Aveva intuito che il problema risiedesse nella natura quantistica delle particelle, in particolare dal punto di vista della loro indistinguibilità, ma mancava ancora qualche pezzo del puzzle.
Il pezzo mancante fu messo a disposizione da Pauli con la formulazione del principio di esclusione:non possiamo avere due elettroni con tutti i numeri quantici uguali tra loro. Gli elettroni sono particelle indistinguibili, quindi Fermi si ispirò al loro comportamento per provare a quantizzare un gas di particelle a temperature sufficientemente basse.
Possiamo immaginarci un Fermi che lavora assiduamente all’alba (il suo momento preferito per studiare e lavorare su nuovi articoli) in qualche fredda mattina di Firenze, nell’inverno del 1925-26, sforzandosi di sfruttare il principio di Pauli per ottenere la costante corretta dell’entropia allo zero assoluto.
La prima pagina dell’articolo di Fermi, presentato all’accademia dei Lincei nel febbraio del 1926.
Nel suo articolo “Sulla quantizzazione del gas perfetto monoatomico” uscito nel febbraio del 1926, Fermi ipotizzò che un gas ideale si comportasse proprio come gli elettroni del principio di Pauli e cambiò completamente il modo di contare le configurazioni possibili in fisica statistica: in ciascuno stato dinamico possono esserci zero o al massimo una sola particella, mai due nello stesso stato. Immaginò poi che il gas potesse essere caratterizzato da determinati livelli energetici discreti, proprio come si faceva nella quantizzazione dell’atomo di idrogeno. Questa spaziatura tra i livelli energetici era tanto più rilevante per la fisica del problema quanto più era bassa la temperatura del gas, essenzialmente per il motivo enunciato sopra. Ad alte temperature gli effetti quantistici devono essere trascurabili e si ritorna alla termodinamica dell’ottocento.
La conseguenza di questo nuovo modo di contare era che ciascuno stato era occupato da un numero medio di particelle in funzione dell’energia dello stato, secondo la seguente espressione:
Il numero di nepero (o Eulero), l’energia dello stato, la temperatura , la costante di Boltzmann . Il parametro è noto come “potenziale chimico” e allo zero assoluto corrisponde all’energia di Fermi: .
Usando questa informazione, Fermi calcolò l’espressione della costante dell’entropia, la quale coincideva con il valore sperimentale dedotto da Sackur e Tetrode nel 1912. La sua teoria era un successo!
Tuttavia, come confermato anche da alcuni studiosi (Belloni, Perez et al), Fermi non si interessò delle radici quantistiche di questa nuova statistica, cioè non provò a collegare il principio di Pauli con la natura ondulatoria della materia. Inoltre non esisteva, al tempo, un gas capace di comportarsi come gli elettroni dell’articolo di Fermi. La soluzione di Fermi voleva andare nella direzione della statistica quantistica, ma con un approccio molto cauto sulle ipotesi alla base. Fermi utilizzò la sua intuizione per dare una nuova soluzione a dei problemi annosi di fisica statistica (già risolti recentemente da Bose e Einstein con la loro statistica) e dedusse una statistica completamente nuova.
Tuttavia, al contrario di quanto si dice solitamente in giro, Fermi non applicò direttamente questa nuova statistica al problema degli elettroni nei metalli (cosa che fu fatta da altri e che condusse alla teoria dei semiconduttori).
La statistica di Fermi-Dirac
La distribuzione trovata da Fermi è dipendente dalla temperatura. Abbiamo già anticipato che gli effetti quantistici diventano preponderanti a temperature vicine allo zero assoluto. In questo caso il principio di Pauli emerge direttamente dalla forma analitica della distribuzione, riportata in figura:
La formula di Fermi al variare della temperatura.
Man mano che la temperatura del gas di elettroni si avvicina a , la distribuzione di Fermi si avvicina sempre di più alla “funzione gradino”
La funzione gradino, cioè il limite a basse temperature della formula di Fermi.
Allo zero assoluto, gli elettroni occupano i livelli energetici riempiendoli dal più basso fino a un’energia chiamata “energia di Fermi”, indicata con . Puoi notare come a il numero medio di occupazione dello stato a energia sia esattamente : non può esserci più di un elettrone per stato, è il principio di esclusione di Pauli in tutta la sua gloria. Nota anche che non ci sono elettroni che occupano stati a energia maggiore di quella di Fermi.
Se ti interessa la Fisica, iscriviti alla newsletter mensile! Ho pensato di scrivere una guida-concettuale di orientamento per aiutarti a capire da dove studiare.
Questo comportamento è essenzialmente verificato anche per temperature più alte di , basta solo che sia dove è detta “temperatura di Fermi”, ed è pari a . Nelle situazioni di interesse fisico (come nei metalli), la condizione è praticamente sempre soddisfatta, essendo di solito dell’ordine di alcune centinaia di migliaia di gradi kelvin.
I gas di elettroni sono fortemente influenzati dal principio di Pauli: è un po’ come se ci fosse una forza “repulsiva” tra gli elettroni, la quale gli impedisce di occupare lo stesso stato energetico. Questa è anche un’interpretazione euristica del fatto che la pressione di un gas di Fermi sia più elevata di un gas classico: è difficile comprimere un gas di elettroni perché non vogliono mai “occupare lo stesso punto spaziale”.
Come mai questa statistica è chiamata “Fermi-Dirac” e non solo “Fermi”? È noto che Dirac pubblicò la stessa formula alla fine dell’estate del 1926, mentre Fermi l’aveva presentata nella primavera dello stesso anno. Dirac, su sollecito scritto da parte del fisico italiano, ammise di aver letto il lavoro di Fermi, ma sostenne di averlo completamente scordato.
In difesa di Dirac va detto che il suo lavoro (“On the Theory of Quantum Mechanics“) è molto più generale di quello presentato da Fermi, il quale si era invece proposto di risolvere un problema particolare (quello dell’entropia) che c’entrava poco con i postulati della meccanica quantistica.
Dirac giustificò in maniera elegante il principio di esclusione di Pauli notando che la meccanica quantistica era il luogo naturale per trattare i sistemi di particelle indistinguibili, grazie al formalismo delle funzioni d’onda.
La chiave del ragionamento di Dirac si trova proprio nel fatto che le particelle elementari possono essere considerate indistinguibili. La conseguenza quanto-meccanicistica è che se consideriamo due particelle non interagenti tra loro, e che possono occupare gli stati e , la funzione d’onda che le descrive collettivamente è data dal prodotto delle due funzioni d’onda
in cui e sono le posizioni delle due particelle. Se scambiamo le due particelle, e cioè le portiamo dallo stato allo stato e viceversa, otteniamo la funzione d’onda modificata
Ma se assumiamo che le particelle siano indistinguibili, la densità di probabilità deve restare la stessa (ricordiamo che è data dal modulo al quadrato della funzione d’onda):
Quindi al massimo possiamo avere che è diversa da per un fattore
in cui è un numero tale che in modo da soddisfare (verifica pure!).
Se ri-scambiamo le due particelle, torniamo punto e a capo, e cioè deve essere
ovvero , la quale ha soluzione . Se stiamo parlando di particelle con funzioni d’onda antisimmetriche (cioè lo scambio delle particelle produce un segno meno moltiplicativo nella funzione d’onda totale). Una conseguenza è che se parliamo dello stesso stato allora lo scambio delle particelle produce la seguente relazione
la quale implica identicamente , cioè non esiste uno stato quantistico in cui queste particelle hanno gli stessi numeri quantici. Questa è la giustificazione quanto-meccanicistica del principio di Pauli, e condusse Dirac a ricavare la stessa formula di Fermi per la statistica degli elettroni.
La lettera in cui Fermi richiamò l’attenzione di Dirac sul suo articolo del febbraio precedente.
Fermi si limitò all’applicazione del principio di esclusione su un problema specifico, senza provare a darne un’interpretazione quanto-meccanicistica.
In ogni caso, Dirac riconobbe comunque l’importanza del lavoro di Fermi, e propose di chiamare la nuova statistica “Fermi-Dirac”, mettendo il nome di Fermi al primo posto.
Oggi le particelle (come gli elettroni) che obbediscono alla statistica di Fermi-Dirac sono note come “fermioni”, sempre in onore di Fermi. I fermioni sono tutte quelle particelle caratterizzate da uno spin semi-intero. Per un teorema rigorosamente dimostrabile in teoria quantistica dei campi, tutte le particelle a spin semi-intero obbediscono alla statistica di Fermi-Dirac, mentre quelle a spin intero (note come “bosoni“) obbediscono alla statistica di Bose-Einstein (sono le particelle con dopo uno scambio).
Alle basse temperature i bosoni possono occupare tutti lo stesso stato a energia più bassa, mentre i fermioni sono forzati ad occupare stati a energia crescente fino all’energia di Fermi (nella figura sono presenti al massimo due fermioni per via del numero quantico di spin, il quale assume due valori possibili se lo spin è 1/2).
Alle alte temperature (dove gli effetti quantistici sono meno preponderanti) sia fermioni che bosoni tornano ad obbedire alla statistica di Maxwell-Boltzmann e Gibbs.
PS. ho scritto un libro di testo che rappresenta proprio ciò che avrei desiderato leggere all’inizio dei miei studi di Fisica teorica, per renderla accessibile agli amatori e insegnare le tecniche matematiche necessarie a una sua comprensione universitaria. Si chiama “L’apprendista teorico” , dai un’occhiata per vedere di cosa si tratta. Il libro è acquistabile su Amazon.
Matteo Parriciatu
Dopo aver conseguito la laurea in Fisica nel 2020, studia Fisica Teorica all’Università di Pisa specializzandosi in simmetrie di sapore dei neutrini, teorie oltre il Modello Standard e interessandosi di Relatività Generale. È autore del libro “L’apprendista teorico” (2021).
Compendio sullo stato attuale della ricerca sui sistemi a temperatura assoluta negativa: include trattazione sistema di spin a due livelli, l’esperimento di Purcell & Pound, e una discussione concettuale sul concetto di temperatura statistica VS temperatura termodinamica.
Nell’ambito dei fenomeni elettrostatici, viene discussa l’applicazione di un campo elettrico ad un gas studiandone la polarizzazione elettronica e la polarizzazione per orientamento. Viene derivata la funzione di Langevin partendo da una distribuzione di Boltzmann nel caso della polarizzazione per orientamento.