Visualizzazione post con etichetta Gibbs. Mostra tutti i post
Visualizzazione post con etichetta Gibbs. Mostra tutti i post

domenica 6 novembre 2022

Diagrammi di fase

 

Un diagramma di fase è una rappresentazione grafica degli stati fisici di una sostanza in diverse condizioni, solitamente di temperatura e pressione, ma si possono considerare altre variabili di stato. Un tipico diagramma di fase ha la pressione sull'asse y e la temperatura sull'asse x. Quando attraversiamo le linee o le curve del diagramma di fase, si verifica un cambiamento di fase. Inoltre, due stati della sostanza coesistono in equilibrio sulle linee o curve. Ecco un esempio di diagramma di fase per un sistema monocomponente generico:

Figura 1. Diagramma di fase generico

Le etichette sul grafico rappresentano gli stati stabili di un sistema in equilibrio. Le linee rappresentano le combinazioni di pressioni e temperature alle quali possono esistere due fasi in equilibrio. In altre parole, queste linee definiscono i punti di cambiamento di fase. La linea rossa divide le fasi solida e gassosa, rappresenta la sublimazione (da solido a gas) e il brinamento (da gas a solido). La linea verde divide le fasi solida e liquida e rappresenta la fusione (da solido a liquido) e la solidificazione (da liquido a solido). Il blu divide le fasi liquida e gassosa, rappresenta l’evaporazione (da liquido a gas) e la condensazione (da gas a liquido). Ci sono anche due punti importanti nel diagramma, il punto triplo e il punto critico. Il punto triplo rappresenta la combinazione di pressione e temperatura che facilita tutte le fasi della materia all'equilibrio. Il punto critico determina l'insieme di particolari condizioni di massima temperatura e massima pressione in corrispondenza delle quali una sostanza può esistere come miscela bifase gas-liquido. Oltre tale punto non si parla più di gas e liquido, bensì di fluido supercritico.

Nella maggior parte delle sostanze, la temperatura e la pressione relative al punto triplo si trovano al di sotto della temperatura e pressione standard e la pressione per il punto critico è al di sopra della pressione standard. Pertanto, alla pressione standard, all'aumentare della temperatura, la maggior parte delle sostanze cambia da solida a liquida in gas, e, alla temperatura standard, all'aumentare della pressione, la maggior parte delle sostanze cambia da gas a liquido a solido.


Figura 2a: Diagramma di fase per la CO
2

Normalmente la linea della fase solido/liquido ha una pendenza positiva verso destra (come nel diagramma per l'anidride carbonica). Tuttavia, per altre sostanze, in particolare l'acqua, la linea è inclinata verso sinistra, come mostra il diagramma per l'acqua. Ciò indica che la fase liquida è più densa della fase solida. Questo fenomeno è causato dalla struttura cristallina della fase solida. Nelle forme solide dell'acqua e di alcune altre sostanze, le molecole cristallizzano in un reticolo con uno spazio medio maggiore tra le molecole, risultando così un solido con una densità inferiore rispetto al liquido. A causa di questo fenomeno, si può sciogliere il ghiaccio semplicemente applicando pressione e non aggiungendo calore.


Figura 2b: Diagramma di fase per l’H
2O

Muoversi all’interno del diagramma di fase fornisce informazioni sulle fasi della sostanza presa in esame. Lo spostamento lungo una linea di temperatura costante rivela le densità relative delle fasi. Quando ci si sposta dalla parte inferiore del diagramma verso l'alto, la densità relativa aumenta. Muoversi lungo una linea di pressione costante rivela le energie relative delle fasi. Quando ci si sposta da sinistra a destra del diagramma, aumentano le energie relative.

I diagrammi di fase e i sistemi che descrivono sono spesso classificati e denominati in base al numero (in latino) di componenti del sistema illustrato nella tabella 1. Chiaramente, all'aumentare del numero di componenti, aumenta anche il numero di sistemi possibili (tabella 2).


Tabella 1. Classificazione dei diagrammi di fase e dei sistemi
Fonte: Massalski (1998)


Tabella 2. Possibile numero di sistemi (
n = numero di elementi (diciamo 90); m = numero di elementi in un sistema).

La tabella mostra che anche se si scelgono solo quattro componenti da un gruppo di, diciamo, 90 elementi, il numero possibile di combinazioni raggiunge milioni, il che ci dice che i diagrammi di fase dei sistemi quaternari sono molto lontani dall'essere determinati, a meno che possano essere calcolati tramite un programma utilizzando stime delle energie libere.

La classificazione e i limiti dei cambiamenti di fase sono descritti dalla regola delle fasi, proposta dal chimico americano J. Willard Gibbs nel 1876 e basata su una rigorosa relazione termodinamica. La regola delle fasi in un sistema con 2 variabili non composizionali (P e T) è comunemente data nella forma P + F = C + 2. La lettera P si riferisce al numero di fasi presenti all'interno del sistema, C è il numero minimo di componenti chimici indipendenti necessari per descrivere la composizione di tutte le fasi del sistema. Il termine F, chiamato varianza, o grado di libertà, descrive il numero minimo di variabili che devono essere fissate per definire una particolare condizione del sistema.

"I diagrammi di fase sono l'inizio della saggezza, non la sua fine". Questa famosa citazione di Sir William Hume-Rothery è una linea guida perfetta per qualsiasi lavoro di scienza e tecnologia dei materiali. I diagrammi di fase sono la mappa migliore per comprendere le condizioni per la formazione o la trasformazione di fase in qualsiasi sistema materiale causata da variazioni di temperatura, composizione, pressione o qualsiasi altra variabile di stato importante. Ecco perché è possibile utilizzare i diagrammi di fase come punto di partenza per la progettazione dei materiali e l'ottimizzazione del processo manipolando la composizione e le variabili di elaborazione per ottenere la microstruttura desiderata. Ciò vale per tutti i tipi di materiali, come leghe, ceramiche, semiconduttori, calcestruzzo, ecc., e per una moltitudine di processi, come fusione, colata, crescita dei cristalli, giunzione, trattamento termico/trasformazione di fase, ossidazione, deposizione di vapore e così via.

La figura 3 mostra il diagramma di fase del ferro puro. Si tratta di un sistema unario, costruito da un singolo componente. Gli assi sono le variabili di stato temperatura T e pressione P, la pressione è mostrata in scala logaritmica per rivelare la regione della fase gassosa insieme alla parte ad alta pressione. Tutte le aree nel diagramma hanno un significato, come si vede dall'esempio seguente. Consideriamo il punto di stato a 1000 K e 103 bar, indicato dal mirino in Fig. 3. Cioè, mettiamo una certa quantità di Fe puro in una scatola chiusa e fissiamo la temperatura e la pressione a questi valori. Ora, gli atomi di Fe possono organizzarsi in varie fasi, come Gas, Liquido, BCC (reticolo cubico compatto), FCC (reticolo cubico a facce centrate) o HCP (reticolo esagonale compatto). Ogni fase ha un valore unico di energia di Gibbs, G (T, P), in quel dato punto di stato. La fase con il valore più basso di energia G di Gibbs è la “vincitrice”; è la fase stabile nella condizione data. In questo caso, è la fase BCC (α). In altre parole, questa è la regione monofase stabile della fase BCC (α) e in qualsiasi punto dello stato in questa regione il valore di energia di Gibbs di qualsiasi fase concorrente è superiore a quello della fase BCC (α). La stessa regola di concorrenza si applica a tutti i punti di stato nell'intero diagramma di fase in Fig. 3 che compone le regioni monofase di Gas, Liquido, BCC (δ), FCC (γ), BCC (α) e HCP. Se si sceglie di utilizzare altre variabili di stato diverse da T e P, altre funzioni termodinamiche invece dell'energia di Gibbs devono essere ridotte al minimo per trovare il campo stabile di ciascuna fase.


Fig. 3: Diagramma di fase del ferro puro. Un punto di stato (103 bar, 1000 K) è contrassegnato dal mirino

La linea di confine tra le regioni BCC (α) e FCC è definita dall'uguaglianza dei valori energetici di Gibbs, G BCC (T, P) = G FCC (T, P). Tale linea non solo rivela la dipendenza dalla pressione della temperatura di trasformazione di fase BCC (α)/FCC, ma forma anche la regione a due fasi BCC (α) + FCC nel diagramma di fase. Tutte queste regioni a due fasi in Fig. 3 sono linee unidimensionali a causa della scelta delle variabili di stato, T e P, per tracciare questo diagramma. La regione trifase BCC (α) + FCC + HCP si verifica solo in un punto di stato unico, 757 K e 105,019 bar nel diagramma di fase. Pertanto, questo è un equilibrio invariante, il punto triplo. I gradi di libertà sono zero ad un equilibrio invariante secondo la regola della fase di Gibbs. Ciò significa che non è possibile modificare alcuna variabile di stato (T o P) senza perdere una fase dall'equilibrio. Al contrario, l'equilibrio a due fasi BCC (α) + FCC in Fig. 3 è monovariante, ha un grado di libertà. Una variabile può essere modificata, almeno in modo infinitesimale, e regolando l'altra lungo la relativa linea T–P si può mantenere l'equilibrio BCC (α) + FCC. Quando si tracciano i diagrammi di fase con la scelta di diverse variabili di stato come assi (es. entalpia anziché temperatura) la topologia delle regioni bifase e trifase può cambiare in modo che non siano più monodimensionali o zero-dimensionali.

La rilevanza geofisica del diagramma di fase del ferro è che aiuta a spiegare perché il nucleo interno della nostra terra è solido. Ciò è caratteristico, perché la temperatura aumenta fino al centro della terra in modo che il nucleo esterno, composto principalmente da una lega ferro-nichel, è liquido. Tuttavia, scendendo più in basso, la lega si solidifica al confine con il nucleo interno, anche se la temperatura continua ad aumentare. Ciò è dovuto al continuo aumento della pressione, che si traduce in un drammatico aumento della temperatura di fusione, mostrato per il Fe puro in Fig.3. La pressione al confine è di circa 330 GPa, o 3,3 × 106 bar, appena fuori dal campo di Fig.3, e la temperatura di fusione della lega ricca di Fe a questa pressione è stimata in 5600 K. L'ulteriore aumento della pressione solidifica la lega.

L'importanza industriale dell'acciaio deriva fondamentalmente da una particolarità del diagramma di fase in Fig. 3, la presenza di due regioni separate di BCC, una ad alta temperatura BCC (δ), e una a bassa temperatura, BCC (α). Normalmente i cristalli FCC più densamente impacchettati dovrebbero essere stabili fino a temperatura ambiente. Tuttavia, i cristalli di ferro BCC meno densamente impacchettati subiscono un ordinamento magnetico, che diminuisce significativamente i valori di G BCC (T), rendendo nuovamente stabile la fase BCC a temperature più basse. Ciò si traduce nel verificarsi della transizione di fase γ/α del ferro, che può essere modificata e adattata mediante l'aggiunta di carbonio e altri elementi di lega nell'acciaio. La corretta progettazione di questa transizione di fase allo stato solido γ/α costituisce la base per il controllo della varietà di microstrutture nell’acciaio, dalla struttura come colata al trattamento termico o alla lavorazione termomeccanica. Senza la transizione FCC (γ)/BCC (α) in Fig. 3 a pressione ambiente l'uomo non potrebbe produrre acciaio.

Tutte le fasi nella Figura 4 hanno la stessa composizione, quella del biossido di silicio, SiO2. Le fasi coesite, quarzo α, quarzo β, tridimite e cristobalite sono fasi solide composte da biossido di silicio; ognuno ha la propria disposizione atomica e un insieme distintivo di proprietà fisiche e chimiche. La forma più comune di quarzo (che si trova nelle sabbie e nei graniti delle spiagge) è il quarzo α. La regione fusa anidra rossa è costituita da biossido di silicio liquido.


Figura 4: Diagramma di fase del biossido di silicio

Diverse porzioni del sistema di biossido di silicio possono essere esaminate in termini della regola di fase. Nel punto A esiste un'unica fase solida: quarzo α. Sostituendo i valori appropriati nella regola di fase P + F = C + 2 si ottiene 1 + F = 1 + 2, quindi F = 2. Per il punto A (o qualsiasi punto in cui una sola fase è stabile) il sistema è bivariante: cioè esistono due gradi di libertà. Pertanto, le due variabili (pressione e temperatura) possono essere modificate indipendentemente e lo stesso insieme di fase continua ad esistere.

Il punto B si trova sulla curva di confine tra i campi di stabilità del quarzo α e del quarzo β. In tutti i punti lungo questa curva, queste due fasi coesistono. Sostituendo i valori nella regola di fase (2 + F = 1 + 2) si otterrà una varianza pari a 1. Ciò indica che una variabile indipendente può essere modificata in modo tale da mantenere la stessa coppia di fasi. Una seconda variabile deve essere modificata per conformarsi alla prima in modo che l'assemblaggio di fase rimanga sul confine tra quarzo α e β. Lo stesso risultato vale per le altre curve limite in questo sistema.

Il punto C si trova in un punto triplo, condizione in cui si intersecano tre campi di stabilità. La regola di fase (3 + F = 1 + 2) indica che la varianza è 0. Il punto C è quindi un punto invariante; una variazione di pressione o di temperatura comporta la perdita di una o più fasi. La regola delle fasi rivela inoltre che non più di tre fasi possono coesistere stabilmente in un sistema a un componente perché fasi aggiuntive porterebbero a una varianza negativa.

Tutti gli altri diagrammi di fase P-T unari o monocomponenti possono essere compresi seguendo gli esempi forniti. Le regole e la topologia risultanti sono identiche se il componente è un elemento o una sostanza pura, definita come un composto che non può cambiare composizione.

Esistono molti altri composti stechiometrici solidi con un intervallo di soluzione solida trascurabile o una deviazione stechiometrica trascurabile, che formano una sostanza solida pura. Alla fusione, tuttavia, la composizione spesso non viene mantenuta. È ad esempio il caso del carburo di silicio, SiC, un importante composto semiconduttore e anche un importante materiale ceramico. Riscaldando SiC a 1 bar sopra 2830 °C si ottiene una fase liquida ricca di silicio con solo il 19% di C e in aggiunta una certa quantità di grafite, bilanciando così l'originale 50% di SiC. Cioè, il cristallo di SiC monofase si decompone in un liquido e grafite, con un processo chiamato di fusione incongruente. Questo è un equilibrio a tre fasi, non una semplice fusione a due fasi. Nel diagramma di fase P-T del SiC a 1 bar la regione monofase del SiC solido termina a 2830°C, oltre uno spazio vuoto si forma la regione bifase liquido + grafite. Il calcolo mostra che è necessaria una temperatura di 3600°C (e una pressione di almeno 8 bar per evitare l'evaporazione) per ottenere "SiC" liquido monofase con 50% di C. Questo ampio gap di 790 K, liquido + grafite, nel "diagramma di fase P-T di SiC" si verifica perché, tecnicamente parlando, è una sezione nel diagramma di fase P-T-x del sistema binario Si-C a 50% costante di C.


Figura 5: Diagramma di fase del carburo di silicio in ragione della percentuale di Si e C

Pertanto, il composto SiC non può essere ben rappresentato da un diagramma di fase P-T unario, a differenza del composto H2O. Affinché la topologia semplice di Fig. 1, osservata per qualsiasi elemento, prevalga anche per un composto, è necessario che questo composto esista in tutte le fasi in tutte le condizioni (in tutti i punti di stato) come monofase stabile, realizzando tutte le transizioni di fase congruenti. In caso contrario, la topologia del diagramma di fase P-T sarà più complessa. L'importante distinzione tra proprietà e diagramma di fase, tuttavia, è generalmente valida e deve essere tenuta presente anche per sistemi multicomponente.

venerdì 3 dicembre 2021

Di demoni, entropia, chimica e informazione

"Teaching thermal physics
is as easy as a song:
You think you make it simpler
when you make it slightly wrong."


(Mark Zemansky)

 

La Seconda legge della termodinamica e l’entropia - La prima definizione della seconda legge della termodinamica era stata formulata nel 1850 dal fisico tedesco Rudolph Clausius, il quale dimostrò l'impossibilità del passaggio spontaneo del calore da un corpo freddo a un corpo caldo. Nel 1865 Clausius introdusse il concetto di entropia, una proprietà termodinamica che prevede che alcuni processi spontanei siano irreversibili o impossibili. Per definirlo, si basò sulle interazioni tra le molecole di un gas, descritte da un modello puramente probabilistico delle loro collisioni. Osservando che il calore tendeva a indebolire il legame tra le particelle e ad accrescere le distanze medie tra di loro, introducendo questa nuova grandezza espresse il grado di dispersione delle molecole e quindi l'effetto del calore come tendenza ad aumentare il disordine. In questa ottica, è facile spiegare i passaggi di stato di una sostanza a pressione costante: all’aumento della temperatura, che è una misura macroscopica del moto delle particelle, cioè della loro energia cinetica, cresce il loro grado di libertà e i loro vincoli si allentano. Così un solido diventa un liquido e poi un gas.  

 


L’entropia S è perciò una proprietà fisica di un sistema termodinamico, correlata al suo grado di ordine. Una variazione dell’ordine è una variazione del numero di modi in cui possono essere disposte le particelle che costituiscono il sistema ed è un fattore determinante nella previsione della direzione in cui avviene una trasformazione spontanea. In generale, ogni processo spontaneo aumenta il grado di disordine del sistema, cioè tutti i sistemi tendono spontaneamente a un aumento del proprio disordine. Più formalmente, possiamo dire che la variazione di entropia ∆S di un sistema isolato durante un processo spontaneo è sempre maggiore o uguale a zero:


L'entropia predice la direzione dei processi spontanei e determina se sono irreversibili o impossibili, anche se obbediscono al requisito fondamentale di conservazione dell'energia come espresso nella prima legge della termodinamica (l'energia totale di un sistema isolato è costante; l'energia può essere trasformata da una forma all'altra, ma non può essere né creata né distrutta).

 


La seconda legge può essere formulata anche dicendo che l'entropia dei sistemi isolati lasciati all'evoluzione spontanea non può diminuire, in quanto essi giungono sempre ad uno stato di equilibrio termodinamico, dove l'entropia è massima. Se tutti i processi nel sistema sono reversibili, l'entropia è costante e la sua variazione è nulla. Un aumento dell'entropia spiega l'irreversibilità dei processi naturali macroscopici, spesso citata nel concetto di freccia del tempo (le leggi che governano lo scorrere del tempo in meccanica quantistica sono molto più complesse, e, la fisica quantistica ammette anche sovrapposizioni tra processi in cui il tempo può scorrere in avanti o all’indietro, per cui la freccia del tempo termodinamica diventa indefinita: con valori di entropia bassi, il tempo può procedere anche dal futuro al passato).

 

La prospettiva dell'entropia statistica fu introdotta nel 1870 dal fisico austriaco Ludwig Boltzmann, che stabilì un nuovo campo della fisica che forniva il collegamento descrittivo tra l'osservazione macroscopica della natura e la visione microscopica basata sul trattamento rigoroso di un grande insieme di microstati che costituiscono i sistemi termodinamici. Boltzmann definì l'entropia come una misura del numero di possibili stati microscopici (microstati) di un sistema in equilibrio termodinamico, coerente con le sue proprietà termodinamiche macroscopiche, che costituiscono il macrostato del sistema. Un'illustrazione utile è l'esempio di un campione di gas in un contenitore. I parametri facilmente misurabili volume, pressione e temperatura del gas descrivono la sua condizione macroscopica (stato). A livello microscopico, il gas è costituito da un grande numero di atomi o molecole in movimento libero, che si scontrano casualmente tra loro e con le pareti del contenitore (microstati). Le collisioni con le pareti producono la pressione macroscopica del gas, che illustra la connessione tra fenomeni microscopici e macroscopici.

 


Un microstato del sistema è una descrizione delle posizioni e dei momenti di tutte le sue particelle. Il gran numero di particelle del gas fornisce un numero infinito di possibili microstati per il campione, ma collettivamente esiste una configurazione media ben definita, che vediamo come macrostato del sistema, in cui ogni singolo contributo di microstato è trascurabile. L'insieme dei microstati comprende una distribuzione statistica di probabilità per ogni microstato, e il gruppo di configurazioni più probabili fornisce lo stato macroscopico. Pertanto, il sistema può essere descritto nel suo insieme solo da alcuni parametri macroscopici, chiamati variabili termodinamiche: l'energia totale E, il volume V, la pressione P, la temperatura T e così via. Tuttavia, questa descrizione è relativamente semplice solo quando il sistema è in uno stato di equilibrio.

L'equilibrio può essere illustrato con un semplice esempio di una goccia di colorante gettata in un bicchiere d'acqua. Il colorante si diffonde in modo complicato, difficile da prevedere con precisione. Tuttavia, dopo che è trascorso un tempo sufficiente, il sistema raggiunge un colore uniforme, uno stato molto più facile da descrivere e spiegare.

 

Nel 1873 Boltzmann formulò una semplice relazione tra l'entropia e il numero di possibili microstati di un sistema, che indicò con il simbolo W. L'entropia S è proporzionale al logaritmo naturale di questo numero:

 

dove:

 

k è la costante di Boltzmann, il fattore di proporzionalità che mette in relazione l'energia cinetica media delle particelle in un gas con la sua temperatura termodinamica. La costante di Boltzmann ha dimensioni di un'energia divisa per la temperatura assoluta, le stesse dell'entropia;

 

ln W è il logaritmo naturale di W, in cui W è la Wahrscheinlichkeit, la probabilità (termodinamica), cioè il numero di stati in cui il sistema può trovarsi. Più precisamente, W indica il numero di possibili microstati corrispondenti allo stato macroscopico di un sistema: il numero di "vie" (microscopiche, non osservabili) nello stato termodinamico (osservabile) di un sistema, che si può comprendere assegnando posizioni e momenti differenti alle varie particelle (atomi o molecole). Poiché W è un numero naturale (1,2, 3...), l’entropia vale zero o oppure è positiva (ln 1 = 0, ln W ≥ 0).

 

In pratica, l’equazione di Boltzmann (riprodotta anche sulla sua lapide funeraria) stabilisce un legame di proporzionalità tra l’entropia e la quantità di possibili interazioni dei componenti del sistema (che dipende dal loro numero, dal tipo delle loro relazioni, dalla loro energia, dalle dimensioni del sistema, ecc.). 

 

L'entropia di Boltzmann descrive il sistema quando tutti i microstati accessibili sono ugualmente probabili. È la configurazione corrispondente al massimo di entropia all'equilibrio. La casualità o il disordine sono massimi, così come la mancanza di distinzione (o informazione) di ogni microstato.

 


Disordine e reazioni chimiche - Possiamo affermare che in un sistema composto da oggetti differenti è molto più probabile realizzare uno stato disordinato anziché uno stato ordinato: tale probabilità, inoltre, aumenta con l’aumentare del numero degli oggetti che compongono il sistema. Prendiamo alcuni esempi dalla chimica:

Se, nel corso di una reazione, una molecola si scinde, dando luogo a molecole più piccole, aumenta il grado di disordine; nella decomposizione termica (endotermica) del tetrossido di diazoto (N2O4) si ottengono due molecole di diossido di azoto (NO2):



Naturalmente avviene il contrario nelle reazioni in cui molecole più piccole si combinano tra di loro per dare molecole più grandi, per cui aumenta l’ordine del sistema, ma la probabilità è contraria allo svolgersi della reazione: nella difficoltosa sintesi (endotermica) dell’ammoniaca (NH3) a partire da idrogeno (H2) e azoto (N2) si passa da un sistema con quattro molecole a uno, più ordinato ma meno probabile, con due: 




Se, in una reazione, a partire da reagenti allo stato solido oppure liquido, si formano prodotti tutti o in parte allo stato aeriforme, il grado di disordine aumenta: nella decomposizione termica di una molecola di carbonato di calcio (CaCO3) allo stato solido, si formano una molecola di ossido di calcio (CaO), solido, e una molecola di diossido di carbonio (CO2), allo stato gassoso, dando luogo a un sistema più disordinato:



Il fattore probabilistico è invece sfavorevole in una reazione in cui il numero di molecole allo stato gassoso diminuisce, per cui il sistema è più ordinato; ciò avviene ad esempio nella formazione di ossido di mercurio (HgO), allo stato solido, a partire da mercurio (Hg), liquido, e ossigeno (O2), gassoso:




Entropia e informazione - In altri termini, come vedremo, l’entropia dipende dall’informazione ricavabile dal sistema: in teoria dell'informazione, l'entropia di una variabile casuale è il livello medio di "informazione", "sorpresa" o "incertezza" inerente ai possibili esiti della variabile. Il concetto di entropia dell'informazione fu introdotto da Claude Shannon nel suo articolo del 1948 "A Mathematical Theory of Communication", ed è indicato anche come entropia di Shannon. Quando l'entropia è zero bit non c'è alcuna incertezza, nessuna libertà di scelta, nessuna informazione. Altri valori danno entropie diverse, tra zero e un bit. L’entropia dell'informazione di un sistema è, dato il macrostato, la quantità di informazione "mancante" necessaria per determinare un microstato. Secondo il fisico e statistico Edwin Thompson Jaynes (1957), l'entropia termodinamica, come spiegato dalla meccanica statistica, dovrebbe essere vista come un'applicazione della teoria dell'informazione. L'entropia termodinamica è interpretata come proporzionale alla quantità di ulteriori informazioni necessarie per definire il dettaglio dello stato  microscopico del sistema, che rimane non comunicato da una descrizione unicamente in termini di variabili macroscopiche della termodinamica classica, con la costante di proporzionalità che è proprio la costante di Boltzmann. 



Secondo Shannon, l'entropia H di una sorgente X è riferita all'informazione media contenuta in ogni messaggio emesso. Se la sorgente X è una variabile aleatoria discreta espressa con base di numerazione b (2 nel caso di codice binario), N il numero degli eventi, il valore atteso si riduce ad una media dell'informazione di ogni evento xi pesata con la propria probabilità P(xi):

il cui dominio è 0 ≤ H(X) ≤ logb N. Matematicamente H può anche essere vista come un'informazione media, perché quando un certo messaggio si verifica con probabilità P(xi), si otterrà la quantità di informazioni − logb P(xi) detta contenuto informativo o autoinformazione


Se si generalizza l'entropia termodinamica come fece il chimico americano J. Willard Gibbs, si vede chiaramente come essa sia simile all'entropia dell'informazione di Claude Shannon. L’entropia di Gibbs vale:



in cui kb è la costante di Boltzmann e la seconda parte del membro, adimensionale come il lnW di Boltzmann, è la sommatoria delle probabilità termodinamiche pi espresse in percentuale moltiplicata per il loro logaritmo naturale. Questa definizione rimane significativa anche quando il sistema è lontano dall'equilibrio. Se tutti i microstati sono equiprobabili, l'entropia termodinamica statistica si riduce alla forma data da Boltzmann.

 

È facile vedere l’equivalenza di forma delle due espressioni (anche se sono dimensionalmente disuguali: energia/temperatura assoluta contro unità di informazione). Più i microstati sono coerenti con il macrostato osservato, maggiore è l'entropia di Shannon e Gibbs. Il concetto si applica sia agli stati di non equilibrio che agli stati di equilibrio. Ne consegue ciò che affermò prima di Shannon il chimico Gilbert Lewis: "Guadagno di entropia significa sempre perdita di informazione, e niente di più". Lo stato di equilibrio è il macrostato a cui mancano più informazioni sui microstati sottostanti.

 

Il demone di Maxwell - Anche quando un sistema è completamente isolato dalle influenze esterne, il suo microstato è in continua evoluzione. Ad esempio, le particelle di un gas sono in continuo movimento, e quindi occupano una posizione diversa in ogni momento; anche i loro momenti cambiano continuamente mentre si scontrano tra loro o con le pareti del contenitore. Supponiamo di preparare artificialmente il sistema in uno stato di equilibrio altamente ordinato. Ad esempio, immaginiamo di dividere un contenitore con una partizione e posizionare un gas su un lato della partizione, con il vuoto sull'altro lato. Se rimuoviamo la partizione e osserviamo il successivo comportamento del gas, troveremo che il suo microstato si evolve secondo uno schema caotico e imprevedibile, e che in media questi microstati corrispondono a un macrostato più disordinato di prima. È possibile, ma estremamente improbabile, che le molecole di gas rimbalzino l'una sull'altra in modo tale da rimanere in una metà del contenitore. È estremamente probabile che il gas si diffonda per riempire uniformemente il contenitore, che è il nuovo macrostato di equilibrio del sistema.

 

Il demone di Maxwell è un esperimento mentale che ipoteticamente violerebbe la seconda legge della termodinamica. Fu proposto dal grande fisico scozzese James Clerk Maxwell in una lettera al collega Peter Guthrie Tait l'11 dicembre 1867. Apparve di nuovo in una lettera al fisico e chimico John William Strutt nel 1871, prima di essere presentato al pubblico nel libro di Maxwell del 1872 sulla termodinamica intitolato Theory of Heat (Teoria del calore). La sua descrizione dell'esperimento era la seguente:

 

“... se concepiamo un essere le cui facoltà sono così acute da poter seguire ogni molecola nel suo corso, un tale essere, i cui attributi sono essenzialmente finiti come i nostri, sarebbe in grado di fare ciò che è impossibile per noi. Infatti, abbiamo visto che le molecole in un recipiente pieno d'aria a temperatura uniforme si muovono con velocità per nulla uniformi, sebbene la velocità media di un gran numero di esse, scelte arbitrariamente, sia quasi esattamente uniforme. Supponiamo ora che un tale recipiente sia diviso in due porzioni, A e B, da una divisione in cui vi sia un piccolo foro, e che quell’essere, che può vedere le singole molecole, apra e chiuda questo foro, in modo da permettere solo alle molecole più veloci di passare da A a B, e solo alle molecole più lente di passare da B ad A. Egli così, senza dispendio di lavoro, aumenterà la temperatura di B e abbasserà quella di A, in contraddizione con la seconda legge di termodinamica”.

 

In altre parole, Maxwell immaginò un contenitore diviso in due parti, A e B. Entrambe le parti sono riempite con lo stesso gas a temperature uguali e poste l'una accanto all'altra. Osservando le molecole su entrambi i lati, un essere immaginario custodisce una botola tra le due parti. Quando una molecola di A più veloce della media si avvicina verso la botola, l’essere la apre e la molecola passerà da A a B. Allo stesso modo, quando una molecola di B più lenta della media si avvicina verso la botola, l’essere la fa passare da B ad A. La velocità media delle molecole in B sarà aumentata mentre in A avranno mediamente rallentato. Poiché la velocità molecolare media corrisponde alla temperatura, la temperatura diminuisce in A e aumenta in B. Poiché la temperatura cinetica di un gas dipende dalle velocità delle sue molecole costituenti, le azioni del demone fanno sì che una camera si riscaldi e l'altra si raffreddi. Ciò diminuirebbe l'entropia totale dei due gas, senza applicare alcun lavoro, violando così la seconda legge della termodinamica.

 


L’essere deve permettere alle molecole di passare in entrambe le direzioni per produrre solo una differenza di temperatura; il passaggio unidirezionale solo di molecole più veloci della media da A a B causerà lo sviluppo di temperatura e pressione più elevate sul lato B.

Nei suoi scritti, Maxwell descrisse l'entità che apre la porta tra le camere come un "essere finito". William Thomson (Lord Kelvin) fu il primo ad usare la parola "demone" per il concetto di Maxwell sulla rivista Nature nel 1874, intendendolo come un δαίμων (daimon) della mitologia greca, un essere soprannaturale a metà strada tra l’umano e il divino, non un essere malevolo nell’accezione cristiana. Fu da allora che l’essere senziente e acuto divenne un demone, quando non un diavoletto, come accade in Italia, travisando il senso originario del nome.


Il demone di Maxwell suscitò un forte dibattito nella filosofia della scienza e nella fisica teorica, che continua fino ai giorni nostri, stimolando il lavoro sulla relazione tra termodinamica e teoria dell'informazione. La maggior parte degli scienziati sostiene, su basi teoriche, che nessun dispositivo pratico può violare la seconda legge in questo modo. Altri ricercatori hanno realizzato esperimenti con forme del demone di Maxwell, anche se in una certa misura differiscono tutti dall'esperimento mentale e nessuno ha dimostrato di violare la seconda legge.

 

Diversi fisici hanno presentato calcoli che mostrano che, se si fa un'analisi più completa dell'intero sistema, compreso il demone, la seconda legge della termodinamica non sarà effettivamente violata. L'essenza dell'argomento fisico è mostrare che il demone genera più entropia scegliendo e spostando le molecole di quanta ne possa mai eliminare. Ci vorrebbe più lavoro termodinamico per misurare la velocità delle molecole e consentire loro di passare selettivamente attraverso l'apertura tra A e B rispetto alla quantità di energia guadagnata dalla differenza di temperatura.

 

Nel 1929 l’ungherese Leó Szilárd, e, negli anni ‘50, il francese Léon Brillouin, sottolinearono che un demone di Maxwell nella vita reale avrebbe bisogno di alcuni strumenti per misurare la velocità molecolare e che l'atto di acquisire informazioni richiederebbe un dispendio di energia. Poiché il demone e il gas interagiscono, dobbiamo considerare assieme l'entropia del gas e del demone. Il dispendio di energia da parte del demone provocherà un aumento dell'entropia del demone, che sarà maggiore dell'abbassamento dell'entropia nel gas.

 

Il fisico dell’IBM Rolf Landauer sollevò un’obiezione a questo argomento. Nel 1961 scoprì il principio che porta il suo nome, secondo cui, in qualsiasi operazione logicamente irreversibile che manipola l'informazione (come la cancellazione di un bit di memoria) l'entropia aumenta e una quantità associata di energia viene dissipata sotto forma di calore. Egli sapeva che alcuni processi di misurazione possono non aumentare l'entropia termodinamica perché sono termodinamicamente reversibili. Suggerì che queste misurazioni "reversibili" potrebbero essere utilizzate per ordinare le molecole, violando la seconda legge. Tuttavia, a causa della connessione tra l'entropia termodinamica e l'entropia dell'informazione, ciò significa anche che la misurazione registrata non deve essere cancellata. In altre parole, per determinare se far passare una molecola, il demone deve acquisire una informazione sullo stato della molecola e scartarla o conservarla. Scartare l’informazione porta all'immediato aumento dell'entropia, ma il demone non può conservarla a tempo indeterminato. Nel 1982, il fisico e teorico dell’informazione Charles Bennett dimostrò che, per quanto ben acuto, alla fine il demone finirà lo spazio di archiviazione delle informazioni e dovrà iniziare a cancellare le informazioni che ha raccolto in precedenza. La cancellazione delle informazioni è un processo termodinamicamente irreversibile che aumenta l'entropia di un sistema. Bennett giunse quindi alla stessa conclusione di Szilard, ma con argomentazioni diverse.

 



I filosofi della scienza dell’università di Pittsburg, John Earman e John D. Norton hanno sostenuto nel 1998-99 che le spiegazioni di Szilárd e Landauer del demone di Maxwell si basano sull’assunto che la seconda legge della termodinamica non può essere violata dal demone, e derivano ulteriori proprietà del demone da questa ipotesi, inclusa la necessità di consumare energia quando si cancellano informazioni, ecc. Invocare queste proprietà derivate per difendere la seconda legge dall'argomento del demone sarebbe quindi un ragionamento circolare:

 

“La strategia che dovrebbe essere perseguita dall'abile demone è aspettare uno stato improbabile. Se è consentito un sufficiente tempo di attesa, una violazione spontanea della Seconda Legge è (quasi) sicuro che si verificherà, senza bisogno di un demone per l'elaborazione delle informazioni; a maggior ragione, nulla del costo termodinamico della cancellazione di memoria può impedire la violazione. Forse allora l'obiettivo del gioco non è proteggere la Seconda Legge contro violazioni dirette, ma piuttosto proteggerla da violazioni abbellite, in cui il lavoro viene continuamente estratto da un sistema macroscopico. La nostra idea, per ripeterlo ancora una volta, è che tale protezione dalla violazione può essere offerta solo se il Demone è assimilato a un sistema termico canonico e che la prova non utilizza né beneficia di concetti teorici dell'informazione. E se il Demone non è così assimilato, allora dobbiamo ancora vedere una dimostrazione che deve fallire nei suoi sforzi per violare la Seconda Legge”.

 

Bennett, nel 2003, riconobbe la validità dell'argomentazione di Earman e Norton, pur sostenendo che il principio di Landauer ha ancora un notevole potere pedagogico ed esplicativo, specialmente nel contesto di altre idee influenti nella fisica del XIX e XX secolo.

 

Il dibattito sul demone di Maxwell continua, anche in campi apparentemente lontani dalla termodinamica e dalla fisica. Ad esempio, nel 2018, un neurologo di Harvard, Ya Wen, ha pubblicato un articolo chiedendosi se i mitocondri non siano il demone di Maxwell all'opera in natura. L'idea è che i mitocondri producano energia dall'elaborazione delle informazioni, o meglio, convertano le informazioni in energia: “I sistemi viventi utilizzano l'informazione e l'energia per mantenere uno stato altamente ordinato e un'entropia stabile. È possibile che il cambiamento dello stato dell'informazione possa influenzare lo stato dell'energia e viceversa. Lo squilibrio informazione-energia potrebbe essere la causa fondamentale delle malattie. Se consideriamo che l'informazione e l'energia sono due aspetti diversi della stessa cosa, allora dovrebbero essere intercambiabili. Pertanto, lo squilibrio informazione-energia potrebbe essere corretto. (…) I mitocondri ci forniscono un modello eccellente per conoscere la relazione tra informazione ed energia. Lo sviluppo della teoria della conversione informazione-energia aprirà una nuova era nella biologia: la biologia teorica che richiede il lavoro di squadra di biologi e fisici”.

 

In effetti, recenti applicazioni della teoria dell’informazione alla medicina e alla biologia hanno riconosciuto il possibile ruolo di strutture di memorizzazione delle informazioni non tradizionali, inclusi lipidi e gradienti ionici, nonché la trasmissione di informazioni tramite flusso molecolare attraverso le membrane cellulari. Rimangono molte sfide affascinanti, inclusa la definizione delle dinamiche di informazione intercellulare degli organismi multicellulari e il ruolo nelle malattie dell'archiviazione disordinata delle informazioni e del loro flusso.