sabato 16 ottobre 2021

TSP: di commessi viaggiatori e ottimizzazione

Supponiamo che venga assegnato il seguente problema. Viene mostrato un insieme di n punti sul piano, che chiameremo città. Viene chiesto di iniziare da una qualsiasi delle città e tracciare una linea ininterrotta che attraversi ciascuna delle altre città esattamente una volta e torni al punto di partenza. Tale linea è chiamata circuito e un esempio di soluzione per 20 città è mostrato nella figura. Tutto quello che bisogna fare è trovare il circuito più breve possibile.


Questo è un esempio del problema del commesso viaggiatore, o TSP (Traveling Salesman Problem). Le origini del problema non sono chiare. Un manuale per venditori ambulanti del 1832 lo menziona e include esempi di tour attraverso la Germania e la Svizzera, ma non contiene alcuna trattazione matematica. Una prima trattazione relativa a problemi simili a questo si deve all’irlandese William R. Hamilton (sì, quello dei quaternioni, il vandalo del ponte di Dublino) e al britannico Thomas P. Kirkman.

L’Icosian Game di Hamilton è un rompicapo ricreativo basato sulla ricerca di un circuito hamiltoniano lungo gli spigoli di un dodecaedro, cioè un percorso tale che ogni vertice venga visitato una sola volta, nessuno spigolo sia percorso due volte e il punto finale sia lo stesso del punto iniziale (ma ovviamente senza il vincolo del percorso più breve). Il puzzle fu distribuito commercialmente come un pannello di legno con fori ai 20 nodi di un grafo dodecaedrico e pedine numerate. Hamilton lo vendette a un produttore di giochi londinese nel 1859 per 25 sterline (circa 3.220 sterline di oggi). Fu un affare per Hamilton, perché il gioco, giudicato troppo facile, fu un insuccesso in tutte le versioni in cui venne proposto.

 


Il problema combinatorio di Kirkman, il quale passò alla storia più per questo rompicapo del 1850 che per i suoi grandi contributi alla teoria dei gruppi, è noto come Fifteen Schoolgirls Problem:

"Quindici fanciulle di una scuola escono affiancate tre alla volta per sette giorni di seguito: è necessario sistemarle ogni giorno in modo che due non camminino mai fianco a fianco più di una volta”.

 

Il problema del commesso viaggiatore vero e proprio fu formulato per la prima volta in forma generale nel 1930 dal geometra e topologo austriaco Karl Menger in un articolo in cui proponeva una nuova definizione della lunghezza di un arco:

 

“La lunghezza di un arco può essere definita come il minimo limite superiore dell'insieme di tutti i numeri che si potrebbero ottenere prendendo ogni insieme finito di punti della curva e determinando la lunghezza del grafo poligonale più corto che unisce tutti i punti. (…) Lo chiamiamo problema del messaggero (poiché in pratica questa questione dovrebbe essere risolta da ogni postino, comunque anche da molti viaggiatori): il compito è trovare, per un numero finito di punti di cui si conoscono le distanze a coppie, il percorso più breve che collega i punti. Naturalmente, questo problema è risolvibile con un numero finito di prove. Non sono note regole che spingerebbero il numero di prove al di sotto del numero di permutazioni dei punti dati. La regola che si debba andare prima dal punto di partenza al punto più vicino, poi al punto più vicino a questo, ecc., in genere non comporta il percorso più breve”.

Il TSP appartiene alla branca della matematica che chiamiamo ottimizzazione: vogliamo ottimizzare (massimizzare o minimizzare) una quantità, e vogliamo che la soluzione ci arrivi sotto forma di numeri interi. Il modo apparentemente facile per risolvere questo problema è guardare ogni possibile circuito e calcolarne la lunghezza, con un metodo chiamato ricerca esaustiva: provare tutte le possibili combinazioni di percorsi, e prendere infine il più corto. Questo metodo, purtroppo, funziona solamente quando abbiamo a che fare con un insieme assai piccolo di città. Il numero di circuiti distinti quando ci sono n città è (n − 1)! / 2. Il divisore due nel denominatore significa che un singolo circuito può essere percorso in entrambe le direzioni. Si noti nella tabella quanto velocemente il numero di circuiti aumenta con n:


La difficoltà di risoluzione che cresce di pari passo con il numero di città è conseguenza di un concetto molto più ampio e complicato: il problema è quel che, in teoria della complessità, si definisce NP-difficile. Ciò significa che non è possibile trovare una soluzione esatta, se non con un algoritmo troppo lento perché possa essere utilizzato per casi realisticamente utili. Se un moderno computer ad alta velocità calcola, siamo generosi, un miliardo di circuiti al secondo, ci vorrebbero 1046 anni per trovare la risposta sicura per un circuito di 50 città. (Per fare un confronto, l'età attuale dell'universo è stimata a circa 1,3×1010  anni.) Passare al supercomputer più veloce esistente non aiuterebbe molto.

Di fronte all’impossibilità di risolvere un problema efficacemente, i matematici vanno alla ricerca di una soluzione approssimata, con un nuovo obiettivo: trovare un algoritmo che funzioni per tutte le possibili disposizioni di città e che dia la migliore approssimazione possibile in un tempo ragionevole, ma nemmeno questo è così tanto facile. La complessità del TSP sembra rimanere elevata anche se si cerca di modificare il problema, ad esempio dividendo le città in sottoinsiemi da studiare separatamente.

Un esempio noto di algoritmi per problemi di ottimizzazione discreta e combinatoria è dato dalla famiglia Branch and Bound (BB, B&B): non è la sola strategia, ma casomai parlerò delle altre un’altra volta. Gli algoritmi Branch and Bound sono detti di enumerazione implicita perché si comportano esattamente come un algoritmo di enumerazione, cioè "provano" tutte le soluzioni possibili fino a trovare quella ottima (o quella corretta), ma ne scartano alcune dimostrando a priori la loro non ottimalità. Un algoritmo BB (“dirama e collega”) consiste in un'enumerazione delle soluzioni candidate mediante ricerca nell'insieme di tutte le possibili configurazioni del sistema: l'insieme delle soluzioni candidate è considerato come un albero con l'insieme completo alla radice.

L'algoritmo esplora i rami di questo albero, che rappresentano sottoinsiemi dell'insieme delle soluzioni. Prima di enumerare le soluzioni candidate di un ramo, il ramo viene verificato rispetto ai limiti stimati superiore e inferiore sulla soluzione ottima z* e viene scartato se non può produrre una soluzione migliore di quella trovata fino a quel momento dall'algoritmo. L'algoritmo dipende dalla stima efficiente dei limiti inferiore e superiore di regioni/rami dello spazio di ricerca. Se non sono disponibili limiti, l'algoritmo degenera in una ricerca esaustiva.


Il metodo è stato proposto per la prima volta da Ailsa Land e Alison Doig nel 1960 per la programmazione discreta, ed è diventato lo strumento più comunemente usato per risolvere problemi di ottimizzazione NP-difficili. Il nome "branch and bound" è apparso per la prima volta nel 1963 in un lavoro proprio sul problema del commesso viaggiatore.

Un algoritmo in grado di attaccare il problema, derivato dalla famiglia BB, fu sviluppato nel 1976 da Nicos Christofides, un matematico di Cipro allora professore all’Imperial College di Londra, Christofides dimostrò che il suo metodo crea, nel peggiore dei casi, un percorso che è al massimo il 50% più lungo del percorso ottimo. Sembrava naturale poter fare di meglio. Tuttavia, per anni i ricercatori hanno cercato di batterlo, e per anni hanno fallito, al punto che in molti hanno iniziato a dubitare della possibilità di poter migliorarlo.

Solo recentemente (maggio 2021) tre matematici dell’Università di Washington (Nathan Klein, Anna Karlin e Shayan Oveis Gharan) hanno mostrano come trovare una migliore approssimazione. Il miglioramento? 10−36, un fattore piccolissimo, un miliardesimo di quadriliardesimo. Tuttavia, seppur quasi impercettibile, questo progresso abbatte un muro psicologico: ora si sa che un avanzamento è possibile. Questa notizia ha risvegliato l’interesse di molti ricercatori, che ora si dicono determinati a migliorare ancora la soluzione.

Questo problema è solo di interesse accademico? Direi di no, perché le stesse difficoltà (molte possibili soluzioni da testare e una moltitudine di vincoli contrastanti che rendono difficile trovare la migliore) sorgono in molti importanti problemi del mondo reale. Questi includono la pianificazione del traffico aereo, il riconoscimento di schemi, il cablaggio di circuiti, lo studio delle reti neuronali, l'impacchettamento di oggetti di varie dimensioni e forme in uno spazio fisico o (matematicamente in modo simile) di messaggi codificati in un canale di comunicazione e una vasta moltitudine di altri.

Questi sono tutti esempi di quelli che vengono chiamati problemi di ottimizzazione combinatoria (OC), che tipicamente, anche se non sempre, derivano dalla teoria dei grafi. L'ottimizzazione si occupa di problemi formalizzabili come minimizzazione o massimizzazione di una funzione (detta funzione obiettivo, z) sottoposta a dei vincoli. Un problema di minimizzazione è sempre riconducibile ad un problema di massimizzazione, e viceversa. Non è qui il caso di discutere questo tipo di problemi, ma ciò che dovrebbe essere chiaro è che essi hanno la proprietà che il numero di possibili soluzioni (ad esempio, il numero di possibili circuiti nel TSP) cresce in modo esplosivo man mano che il numero n di variabili di input (il numero di città nel TSP) aumenta. La caratteristica fondamentale di tali problemi è quella di avere insiemi ammissibili discreti, a differenza ad esempio della Programmazione Lineare, in cui l’insieme ammissibile è continuo. Ciò comporta che le metodologie necessarie per affrontare problemi di Ottimizzazione Combinatoria sono spesso diverse da quelle utilizzate per risolvere problemi nel continuo. In generale, il processo di soluzione di un qualsiasi problema di ottimizzazione può essere considerato come composto di due parti distinte:
- produrre una soluzione ottima z*;
- produrre una valutazione che dimostri l’ottimalità di z*.

Trovare la soluzione migliore quando n diventa grande può o non può essere possibile in un tempo ragionevole, e spesso ci si deve accontentare di trovare una delle tante soluzioni "quasi ottimali" o molto buone, se è impossibile trovare le migliori. In molti algoritmi enumerativi per problemi “difficili” capita sovente che l’algoritmo determini la soluzione ottima in tempo relativamente breve, ma sia poi ancora necessario un grandissimo sforzo computazionale per dimostrare che tale soluzione è davvero ottima. In altri termini, la difficoltà del problema risiede non tanto nel costruire una soluzione ottima, quando nel verificarne l’ottimalità, ossia nel determinare il valore ottimo della funzione obiettivo. Alle tecniche utili a determinare questo valore, o una sua approssimazione accurata, è dedicata una parte rilevante della ricerca attuale, volta a sviluppare algoritmi “efficienti” per problemi di OC. Per ragioni sia algoritmiche che teoriche, questo tipo di problemi è diventato di enorme interesse per gli scienziati di quasi tutte le discipline.

mercoledì 13 ottobre 2021

Through The Glass Darkly. I misteri del vetro


Perché il vetro è rigido? 

Perché un solido cristallino (in cui gli atomi o le molecole costituenti si trovano in una disposizione ordinata e regolare) è rigido? Può essere sorprendente apprendere che è stato solo nel ventesimo secolo che abbiamo potuto dare a livello profondo la risposta a questa domanda.

Perché il vetro di una finestra, di una bottiglia, di una beuta (che non hanno una struttura cristallina: gli atomi giacciono in quelle che sembrano posizioni casuali) è rigido? Questa è una domanda ancora più difficile, e si potrebbe essere ancora più sorpresi nell’apprendere che non siamo ancora in grado di rispondere a questa domanda a un livello profondo.

Naturalmente, il livello di soddisfazione di una spiegazione dipende dai punti di vista: una risposta che soddisfa un chimico può non soddisfare un fisico (e viceversa). Per essere onesti, a un certo livello abbiamo compreso la natura dello stato solido tra la metà del diciannovesimo secolo e l’inizio del ventesimo, quando la termodinamica moderna e la meccanica statistica furono sviluppate da Gibbs, Boltzmann e altri. Queste discipline si occupano del problema di studiare il comportamento di sistemi composti da molte particelle, non determinando la traiettoria delle singole particelle ma utilizzando metodi statistici e probabilistici.

L'idea di base è nota. Atomi e molecole a distanza ravvicinata si attraggono, ma non sono mai isolati dal resto del mondo; di conseguenza, le particelle costituenti un sistema hanno sempre un'energia cinetica casuale (calore) che misuriamo come temperatura. A temperature più alte vince il disordine indotto da movimenti termici casuali, e abbiamo un gas o un liquido. A temperature più basse, vincono le forze attrattive e il sistema assume uno stato ordinato a bassa energia, un solido cristallino. Le forze intermolecolari esistenti tra le particelle costituenti il solido sono molto forti, perciò esse non possono muoversi liberamente, potendo vibrare solo intorno alle loro posizioni medie. Nei liquidi i legami si allentano a causa dell’agitazione termica, e le particelle, pur conservando qualche sorta di legame, sono in grado di fluire le une rispetto alle altre. Nei gas le particelle, a causa dell’elevata energia cinetica, si muovono liberamente, se si escludono eventuali urti meccanici. Liquidi e solidi cristallini sono due diverse fasi della materia, e il passaggio dall'uno all'altro, non a caso, è chiamato transizione di fase.


Forse il risultato più interessante della meccanica statistica consiste nell'aver capito fino a fondo come sia possibile l'emergenza di comportamenti collettivi: mentre per pochi atomi di acqua non possiamo dire se essi formano un solido o un liquido e quale sia la temperatura di transizione, queste affermazioni assumono una natura ben precisa solo nel caso in cui consideriamo un gran numero di atomi (più precisamente nel caso in cui il numero di atomi tenda ad infinito). Le transizioni di fase nascono quindi come effetto del comportamento collettivo di molti componenti.

Ma ci sono problemi più profondi, che entrano in gioco perché ci sono caratteristiche che accompagnano lo stato ordinato che non sono così facili da spiegare. Una di queste è quella che il premio Nobel per la fisica del 1977 Philip Anderson (1923-2020) chiamava rigidità generalizzata: quando si fa pressione sugli atomi di un solido cristallino ad un'estremità, la forza si propaga in maniera più o meno uniforme in tutto il cristallo in modo che l'intero solido si muove come un singola entità:

“Siamo così abituati alla rigidità dei corpi solidi che è difficile rendersi conto che tale azione a distanza non è incorporata nelle leggi della natura È strettamente una conseguenza del fatto che l'energia è ridotta al minimo quando la simmetria è rotta allo stesso modo in tutto il campione. La generalizzazione di questo concetto a tutti i casi di rottura della simmetria è ciò che chiamo rigidità generalizzata. È responsabile della maggior parte delle proprietà uniche degli stati ordinati: ferromagnetismo, superconduttività, superfluidità, ecc.”

La rigidità dei solidi è qualcosa che tutti diamo per scontato. Perché è un mistero? Ebbene, le forze interatomiche sono a corto raggio e tipicamente si estendono solo per circa 10-8 cm, mentre quando si preme su un solido ad un'estremità, la forza che si applica viene trasmessa in modo perfettamente uniforme un miliardo o più volte oltre la portata della forza interatomica. Perché succede? Cosa è cambiato dallo stato liquido, dove sono presenti esattamente le stesse forze? O, almeno, perché il solido non si accartoccia o non si piega? 

Questo fenomeno non è unico per i solidi; la trasmissione di forze su lunghe distanze si verifica anche, ad esempio, nei cristalli liquidi (LC). Questa proprietà, infatti, è molto diffusa in senso generale: si verifica ogni qualvolta si passa ad uno stato ordinato che possiede una simmetria (la cui forma può non essere sempre ovvia) che differisce dallo stato disordinato termicamente. Senza rigidità generalizzata, non solo i solidi non sarebbero "solidi", ma i magneti non sarebbero magnetici, le supercorrenti non fluirebbero nei superconduttori e noi non saremmo qui ad osservare tutto questo. Tutti questi effetti hanno cause soggiacenti simili, ma una profonda comprensione basata su un piccolo insieme di principi unificanti non è emersa fino a dopo la Seconda Guerra mondiale.

A prima vista la spiegazione non sembra così complicata. Se tutti gli atomi si posizionano alla stessa distanza dai loro vicini più prossimi, cioè formano un cristallo, allora hanno creato uno stato energetico molto basso. Deformare questo stato richiederebbe un grande apporto di energia, come sa chiunque abbia mai provato a piegare, strappare o deformare un solido. Questa risposta è corretta e va bene finché funziona. Ma è insoddisfacente a più livelli. Per prima cosa, non riesce a spiegare perché il vetro, che non è un cristallo, è rigido. Né spiega la forte discontinuità nel comportamento di rigidità alla transizione di fase liquido‒cristallo. Qualche millesimo di grado sopra la transizione, non c'è rigidità; appena sotto, c'è. Non avrebbe più senso un graduale cambiamento di rigidità man mano che la temperatura si abbassa? Ma non è ciò che succede.

Quindi c'è molto che questa semplice risposta lascia inspiegato, e ci sono molti fenomeni interessanti che non può prevedere da sola. Sono necessari principi e concetti aggiuntivi e più approfonditi.

La rigidità generalizzata è uno dei tanti esempi che rientrano nella categoria di comportamento emergente: quando si ha un sistema di molti "agenti" interagenti, siano essi particelle fisiche che esercitano forze reciproche, o specie interagenti in un ecosistema, o acquirenti e venditori nel mercato azionario, sorgono nuovi tipi di comportamento che per la maggior parte non sono prevedibili o non si manifestano a livello del singolo. Nel caso appena discusso, accade qualcosa di nuovo quando gli atomi si riorganizzano per formare un cristallo; la capacità di trasmettere forze su grandi distanze non è presente nelle interazioni fisiche fondamentali, in questo caso le forze interatomiche, che alla fine danno luogo a questo effetto. La rigidità deve in qualche modo derivare dalle proprietà collettive di tutte le particelle e le forze: ciò che chiamiamo ordine a lungo raggio (meglio: a lungo raggio sulla scala della forza interatomica fondamentale) e rottura della simmetria.

Ma torniamo ai vetri. Secondo la definizione standard, un vetro (o solido vetroso) è un solido formato dal rapido raffreddamento dopo opportuno riscaldamento di certi composti, soprattutto di silicati. Tuttavia, il termine "vetro" è spesso utilizzato in un senso più ampio, per descrivere qualsiasi solido non cristallino (amorfo) che mostra una transizione vetrosa quando viene riscaldato verso lo stato liquido.

Il vetro è un solido amorfo. Come in altri solidi amorfi, la struttura atomica di un vetro manca della periodicità a lungo raggio osservata nei solidi cristallini. Microscopicamente, mentre un solido cristallino ha atomi in una disposizione periodica quasi perfetta, un policristallo, come molte ceramiche, è un solido composto da regioni cristalline orientate casualmente, chiamate cristalliti, un solido amorfo come il vetro non ha invece disposizione periodica.


Il problema è che, per quanto ne sappiamo, non c'è transizione di fase (che in fisica ha un significato molto specifico) dal liquido al vetro, nessuna simmetria evidente rotta e nessun ordine ovvio a lungo raggio. Un vetro è un liquido che diventa sempre più viscoso e lento man mano che si raffredda, fino a quando alla fine smette di scorrere nei tempi umani. A proposito, la diceria sulle finestre delle cattedrali europee millenarie che sono più spesse in basso che in alto a causa del flusso vetroso nel corso di un periodo millenario non è vera. Se vediamo una finestra con questa caratteristica, ha qualche altra causa più prosaica. Il flusso nel vetro della finestra a temperatura ambiente avverrebbe su scale temporali molto più lunghe dell'età dell'universo. Il vetro è davvero rigido.

Una precisazione importante: quando si parla di disordine nei vetri, non si parla di quello che si vede nei liquidi o nei gas, dove in ogni momento gli atomi si trovano in posizioni casuali. In quei sistemi a temperatura più elevata, il disordine deriva dall'agitazione termica e gli atomi (o qualunque unità individuale costituisca il sistema) stanno rapidamente agitandosi e cambiando posto. Ciò ci consente di fare uno studio statistico, che a sua volta ci consente di comprendere il sistema matematicamente e fisicamente. I vetri, d'altra parte, sono congelati, in “quenched disorder", in uno stato disordinato a bassa temperatura, e quindi non possiamo applicare lo stesso apparato di strumenti matematici e fisici che possiamo applicare allo stato liquido o gassoso. E, allo stesso modo, a causa della mancanza di qualsiasi tipo di ordinamento ovvio, non possiamo applicare lo stesso insieme di strumenti che utilizziamo per comprendere lo stato solido cristallino.

Allora perché il vetro è rigido? Al momento ci sono molte teorie e ipotesi, ma nessuna è universalmente accettata. Il problema è che un vetro è un tipo di sistema disordinato: gli atomi in un vetro si trovano in posizioni casuali. Ma gran parte della nostra attuale comprensione dei sistemi di materia condensata (solidi cristallini, ferromagneti, cristalli liquidi, superconduttori e così via) si applica a sistemi ordinati con simmetrie ben note, che consentono profonde semplificazioni matematiche e intuizioni fisiche. Quindi non sono solo le nostre idee sulla rigidità che i vetri sfidano. Sempre secondo Anderson, "Il problema irrisolto più profondo e interessante nella teoria dello stato solido è probabilmente la teoria della natura del vetro e della transizione vetrosa". Eppure, qualche passo in avanti si sta facendo.

Il vetro ideale

La cristallizzazione è un passaggio dalla fase liquida, in cui le molecole sono disordinate e scorrono liberamente, alla fase cristallina, in cui le molecole sono bloccate in uno schema regolare e ripetuto, potendo solamente vibrare intorno a una posizione d’equilibrio. L'acqua si congela in ghiaccio a zero gradi Celsius, ad esempio, perché le molecole di H2O smettono di oscillare quel tanto che basta a quella temperatura per avvertire le forze reciproche e organizzarsi in una struttura più ordinata.


Altri liquidi, una volta raffreddati, diventano più facilmente vetro. La silice (SiO2, biossido di silicio), ad esempio, il vetro delle finestre, inizia come un liquido fuso ben al di sopra dei 1.000 gradi Celsius; mentre si raffredda, le sue molecole disordinate perdono energia, avvicinandosi un po' l'una all'altra, il che rende il liquido sempre più viscoso. Alla fine, le molecole smettono di muoversi del tutto. In questa graduale transizione vetrosa, le molecole non si riorganizzano. Semplicemente si fermano.

Il motivo esatto per cui il liquido in raffreddamento si indurisce rimane sconosciuto. Se le molecole nel vetro fossero semplicemente troppo fredde per fluire, dovrebbe essere ancora possibile compattarle in nuove disposizioni. Ma nel vetro non si compattano; le sue molecole sono disordinate, eppure il vetro è rigido. Liquido e vetro hanno la stessa struttura, ma si comportano in modo diverso: capire perché è la domanda principale.

Un indizio arrivò nel 1948, quando un giovane chimico di nome Walter Kauzmann notò quella che divenne nota come la crisi dell'entropia, un paradosso del vetro che i ricercatori successivi pensarono potesse essere risolto da un “vetro ideale”.

Kauzmann sapeva che più lentamente si raffredda un liquido, più è possibile raffreddarlo prima che si trasformi in vetro. E il vetro a formazione più lenta finisce per essere più denso e più stabile, perché le sue molecole hanno potuto muoversi più a lungo (mentre il liquido era ancora viscoso) e trovare disposizioni più compatte e a bassa energia. Le misurazioni hanno indicato una corrispondente riduzione dell'entropia, o disordine, del vetro formato più lentamente: ci sarebbero meno modi in cui le sue molecole potrebbero essere disposte con la stessa bassa energia.

Estrapolando la tendenza, Kauzmann si rese conto che se si potesse raffreddare un liquido abbastanza lentamente, si potrebbe raffreddarlo fino a una temperatura, ora nota come temperatura di Kauzmann, prima che si indurisca completamente. A quella temperatura, il vetro risultante avrebbe un'entropia bassa quanto quella di un cristallo. Ma i cristalli sono strutture precise e ordinate. Come potrebbe il vetro, disordinato per definizione, possedere uguale ordine?

Nessun vetro ordinario poteva farlo, il che implicava che qualcosa di speciale doveva accadere alla temperatura di Kauzmann. La crisi sarebbe evitata se un liquido, una volta raggiunta quella temperatura, raggiungesse lo stato di vetro ideale: l’impacchettamento casuale di molecole più denso possibile. Un tale stato mostrerebbe un "ordine amorfo a lungo raggio", in cui ogni molecola sente e influenza la posizione di ogni altra, così che per muoversi, devono muoversi come una cosa sola. L'ordine nascosto a lungo raggio di questo stato ipotetico potrebbe rivaleggiare con l'ordine più ovvio di un cristallo. È proprio quello il motivo per cui si pensa che debba esistere un vetro ideale.

Secondo questa teoria, avanzata per la prima volta da Julian Gibbs e Edmund Di Marzio nel 1958, il vetro ideale è un vero stato della materia, come le fasi liquida e cristallina. La transizione a questa fase necessita semplicemente di troppo tempo, richiedendo un processo di raffreddamento troppo lento perché possa essere visto a scala umana. La transizione ideale al vetro è "mascherata" dal liquido che diventa così viscoso che tutto si ferma.

Dobbiamo cercare per speculum in aenigmate: non potremo mai vedere un vetro ideale, ma in teoria possiamo provare a creare modelli accurati di ciò che vi succede. 

Un aiuto inaspettato è arrivato dagli esperimenti. Non c'è mai stata alcuna speranza di formare un vetro ideale raffreddando un liquido, il metodo di fabbricazione del vetro che abbiamo usato per millenni. Dovremmo raffreddare un liquido in modo incredibilmente lento (forse anche infinitamente lento) per evitare che si indurisca prima di raggiungere la temperatura di Kauzmann. Ma, nel 2007, Mark Ediger, un fisico dell’Università del Wisconsin, ha sviluppato un nuovo metodo di lavorazione del vetro. Ediger e la sua squadra hanno scoperto che potevano creare "vetri ultra stabili" che esistono in uno stato a metà tra l'ordinario e l'ideale. Usando un metodo chiamato deposizione da vapore, hanno fatto cadere le molecole una per una su una superficie come se stessero giocando a Tetris, permettendo a ogni molecola di stabilirsi nella sua sede più aderente nel vetro in formazione prima che la molecola successiva scendesse. Il vetro risultante era più denso, più stabile e con meno entropia di tutti i vetri della storia umana. Secondo Ediger, "Questi materiali hanno le proprietà che ci si aspetterebbe prendendo un liquido e raffreddandolo per un milione di anni".


Un'altra proprietà del vetro ultra-stabile potrebbe rivelare la via più promettente verso il vetro ideale. Due gruppi, uno dei quali guidato da Miguel Ramos a Madrid, hanno identificato questa proprietà nel 2014, quando hanno scoperto che il vetro ultra-stabile si discosta da una caratteristica comune a tutto il vetro ordinario.

I fisici sanno da decenni che il vetro ultra-freddo ha un'elevata capacità termica, la quantità di calore da fornire a una sostanza per aumentare la sua temperatura di un kelvin (K). Dire che una sostanza ha un'alta capacità termica significa che riesce ad assorbire tanto calore innalzando di poco la propria temperatura. Il vetro può assorbire molto più calore di un cristallo vicino allo zero assoluto, con una capacità termica direttamente proporzionale alla temperatura.

Teorici, tra cui Phil Anderson, suggerirono una spiegazione nei primi anni '70. Sostennero che il vetro contiene molti "sistemi a due livelli", piccoli gruppi di atomi o molecole che possono scivolare avanti e indietro tra due configurazioni alternative, ugualmente stabili. Si può immaginare un intero gruppo di atomi che si spostano da una configurazione a una configurazione leggermente diversa che semplicemente non esiste in un solido cristallino.

Sebbene gli atomi o le molecole siano troppo impacchettati dai loro vicini per fare molte commutazioni da soli, a temperatura ambiente il calore attiva i sistemi a due livelli, fornendo agli atomi l'energia di cui hanno bisogno per muoversi. Questa attività diminuisce man mano che la temperatura del vetro scende. Ma, vicino allo zero assoluto, gli effetti quantistici diventano importanti: i gruppi di atomi nel vetro possono passare tra le configurazioni alternative per effetto tunnel, passando attraverso qualsiasi ostacolo, occupando persino entrambi i livelli del sistema contemporaneamente. Il processo assorbe molto calore, producendo l'elevata capacità termica caratteristica del vetro.

Diversi anni dopo che Ediger aveva scoperto come realizzare il vetro ultra-stabile, il gruppo di Hellman a Berkeley e quello di Ramos a Madrid hanno iniziato a studiare in modo indipendente se potesse discostarsi da quella capacità termica universale vicina allo zero assoluto. Nei rispettivi esperimenti, hanno sondato le proprietà a bassa temperatura del silicio ultra-stabile e dell'indometacina ultra-stabile (una sostanza utilizzata anche come farmaco antinfiammatorio). Come previsto, hanno scoperto che entrambi i vetri avevano una capacità termica molto più bassa del solito vicino allo zero assoluto, in linea con quella di un cristallo. Ciò ha suggerito che il vetro ultra-stabile ha meno sistemi a due livelli tra cui eseguire il tunneling. Le molecole sono in configurazioni particolarmente aderenti, con pochi concorrenti.


Se la capacità termica eccezionalmente bassa del vetro ultra-stabile deriva davvero dall'avere meno sistemi a due livelli, allora il vetro ideale corrisponde naturalmente allo stato senza alcun sistema a due livelli. Il vetro ideale è il punto finale, ma quando le molecole cercano di avvicinarsi l'una all'altra, si bloccano; l'aumento della viscosità impedisce al sistema di raggiungere lo stato desiderato.

Di recente, sono state utilizzate simulazioni al computer innovative per testare queste idee. La simulazione del vetro ultra-stabile su un computer era impraticabile a causa dello straordinario tempo richiesto alle molecole simulate per raggrupparsi. Tre anni fa, però, il fisico dell’Università di Montpellier Ludovic Berthier ha trovato un ingegnoso sistema che gli ha permesso di accelerare il processo di un fattore di mille miliardi.  Il suo algoritmo sceglie due particelle a caso e scambia le loro posizioni. Queste riorganizzazioni aiutano il liquido simulato a rimanere sciolto, consentendo alle molecole di stabilirsi in modo aderente.

In un articolo su Physical Review Letters, Berthier e tre coautori hanno riferito che più stabile è il vetro simulato, meno sistemi a due livelli possiede. Come per le misurazioni della capacità termica di Hellman e Ramos, le simulazioni al computer suggeriscono che i sistemi a due livelli (configurazioni concorrenti di gruppi di molecole) sono la fonte dell'entropia del vetro. Meno stati alternativi ci sono, più stabilità e ordine a lungo raggio ha un solido amorfo e più è vicino al vetro ideale.

lunedì 4 ottobre 2021

Gilbert N. Lewis e l’acqua pesante

 



Produrre l’acqua pesante

Dopo la scoperta del deuterio (D) da parte di Harold Urey, la sua limitatissima disponibilità in forma pura rendeva praticamente impossibile misurarne le proprietà chimiche. Anche se la sua concentrazione fosse stata aumentata di cento volte (a circa il 2%) non ci aspettava che mostrasse differenze chimiche apprezzabili rispetto al normale idrogeno. Per caratterizzare chimicamente l’idrogeno pesante era necessario sintetizzare suoi composti con quasi tutti gli atomi di idrogeno significativi sostituiti da deuterio. Iniziò la gara per ottenere per primi l’acqua pesante, D2O.


La distillazione dell’idrogeno liquido era un metodo abbastanza complicato per purificare il deuterio, e Edward Washburn del National Bureau of Standards suggerì che l’elettrolisi dell’acqua distillata avrebbe funzionato forse meglio. Quando l’acqua viene sottoposta a elettrolisi (quando i terminali di una batteria sono inseriti nell’acqua), si forma idrogeno gassoso a uno dei poli. Una percentuale più piccola di idrogeno pesante rispetto a quello leggero passa nella fase gassosa, concentrando in tal modo l’acqua pesante in fase liquida. Washburn pubblicò il suo metodo elettrolitico, anche se i primi test avevano prodotto solo pochissima acqua pesante, con una piccola percentuale di deuterio. Aveva comunque ragione: gli isotopi dell'idrogeno vengono separati con relativa facilità mediante elettrolisi.



Nel luglio 1932 Washburn e Urey pubblicarono risultati qualitativi relativi alla concentrazione di deuterio mediante l'elettrolisi dell'acqua. In seguito all’articolo di Birge e Menzel e a quello di Urey, che avevano stimato una concentrazione del deuterio molto più elevata rispetto alle prime ipotesi (1/4500 atomi invece di 1/30.000), Gilbert N. Lewis (1875-1946), uno dei più grandi chimici del Novecento, decise allora di entrare nella gara per essere il primo a ottenere acqua pesante pura. Una volta ottenuta, l’avrebbe potuta utilizzare per sintetizzare un buon numero di composti con D al posto di H e studiarne le proprietà. Abbandonò un suo programma di ricerca teorica e contattò Ronald T. Macdonald, invitandolo a diventare un suo assistente di ricerca. Macdonald aveva completato la sua tesi di dottorato all'inizio del 1931 e non aveva ancora trovato lavoro; perciò, era rimasto a Berkeley in qualità di professore assistente. Macdonald iniziò a collaborare con Lewis nel gennaio 1932, inizialmente per realizzare una ricerca sulla separazione degli isotopi del litio.

Alla fine di febbraio 1933, Lewis e Macdonald avevano isolato 0,5 cc al 31% di D2O utilizzando il metodo elettrolitico. A metà marzo 1933, avevano preparato un secondo campione da 0,5 cc contenente il 66% di D2O. Un’ulteriore arricchimento con il metodo elettrolitico fu realizzato per produrre acqua con un contenuto di deuterio superiore al 99%. Disponendo di una quantità di acqua con un contenuto di deuterio nell'intervallo 30-99%, Lewis e Macdonald procedettero a misurare alcune delle proprietà fisiche del D2O. Le prime proprietà studiate furono il punto di congelamento, il punto di ebollizione alla pressione di 1 atmosfera e la densità e la pressione di vapore in funzione della temperatura. I dati sulla pressione di vapore confermarono la precedente scoperta di Lewis e Cornish che la pressione di vapore di D2O è inferiore a quella di H2O. 

Un altro metodo di concentrazione studiato da Lewis era la distillazione frazionata dell'acqua. La ricerca di Lewis per un arricchimento del deuterio mediante la distillazione dell'acqua era condotta in collaborazione con Robert E. Cornish utilizzando un alambicco a colonna da 6 m che era stato recentemente migliorato. Lewis e Cornish conclusero che nella distillazione dell'acqua non solo il deuterio era stato arricchito nella fase liquida, ma anche il 18O. 

Risultati simili a quelli ottenuti da Lewis e Cornish furono ottenuti indipendentemente da Washburn e altri presso il National Bureau of Standards. Il lavoro di Washburn fu comunicato e pubblicato prima della comunicazione di Lewis e Cornish. Gli esperimenti di distillazione del Bureau e di Berkeley furono comunicati a una settimana l'uno dall'altro, rispettivamente il 15 maggio 1933 e il 22 maggio 1933.

Fu subito evidente al gruppo di Berkeley che, sebbene il fattore di frazionamento della distillazione fosse molto più piccolo di quello della separazione elettrolitica, il processo di distillazione era reversibile e l'efficienza poteva essere facilmente moltiplicata in una colonna di distillazione. 

Le colonne di distillazione sono molto efficaci nel separare le sostanze quando il rapporto tra la loro altezza e il loro diametro è il più grande possibile e sono riempite di piccole particelle inerti - ora si usano comunemente perline di vetro - sulle quali il materiale che viene distillato può condensare. Le colonne più alte e più strette danno la più alta purezza, ma non possono gestire molto materiale. Si usa allora separare le colonne in fasi: all’inizio si usano le colonne più larghe per ottenere una separazione iniziale, poi si sposta il prodotto concentrato in colonne più strette che aumentano ulteriormente la purezza.  

Queste considerazioni portarono alla decisione di costruire un impianto di distillazione a Berkeley per l'arricchimento primario del deuterio mediante distillazione dell'acqua a circa 60°C. Il compito fu assunto da Merle Randall, collega di Lewis a Berkeley e suo ex studente (e coautore del fondamentale Thermodynamics and free energy of chemical substances nel 1923). L'impianto del laboratorio era costituito da due colonne alte 22 m ciascuna. La colonna primaria aveva un diametro di 30 cm; la colonna del secondo stadio aveva un diametro di 5 cm. Di queste colonne Lewis disse che “A causa di circostanze che sono troppo note per dilungarsi, la colonna [più larga] doveva essere riempita non con il materiale di riempimento migliore, ma con il più economico reperibile”. Entrambe le colonne furono allora riempite con torniture di alluminio di scarto. Il materiale di riempimento non era molto adatto e fu scelto a causa dei limiti di fondi. In alcuni lavori successivi fu sostituito da piccoli anelli di ottone fabbricati originariamente per farne occhielli per scarpe. La colonna di 30 cm era un tubo di acciaio scartato dalla centrale elettrica dell'Università. L'intera costruzione della prima fase dell'impianto comprensiva dell'acquisto dei materiali, della costruzione, dell'installazione e delle operazioni preliminari fu realizzata in 20 giorni. L'impianto entrò in funzione l'8 giugno 1933. Aveva un'alimentazione alla torre primaria di 1 litro di acqua ordinaria al minuto. L'acqua arricchita del primo stadio era utilizzata come alimentazione per la colonna del secondo stadio. Il materiale in uscita dall'impianto di distillazione era ulteriormente arricchito da Lewis e Macdonald nell’impianto elettrolitico. 

Sebbene l'impianto di distillazione dell'acqua non avesse funzionato secondo le aspettative a causa della scarsa qualità del riempimento, Lewis e Macdonald presto produssero D2O nell'ordine di 1 grammo alla settimana con purezza maggiore del 99%. Usarono parte del materiale nella loro ricerca, ma furono estremamente generosi nel metterne a disposizione degli scienziati di tutto il mondo. Nella primavera del 1933 Lewis fornì campioni di deuterio per la ricerca nucleare a Lawrence a Berkeley, Lauritsen al Caltech e Rutherford a Cambridge (Inghilterra).

L'impianto di distillazione dell'acqua fu successivamente migliorato da Randall e fu utilizzato a intermittenza per produrre acqua arricchita con 18O per gli studi sui traccianti, condotti, tra gli altri, da Axel R. Olson e Samuel C. Ruben. Dopo che Lewis aveva concluso la ricerca sull’acqua pesante a metà del 1934, lui e Macdonald tornarono alla sfida di separare gli isotopi del litio. 

Non solo Lewis e Macdonald avevano raggiunto il loro obiettivo di preparare quantità di grammi di isotopi stabili arricchiti per lo studio delle loro proprietà chimiche e fisiche, ma contribuirono all'uso di metodi chimici per la loro separazione. Nella loro produzione di D2O dimostrarono gli effetti del fattore di arricchimento del processo di moltiplicazione degli stadi sull'entità della separazione e sulla quantità di materiale separato prodotto. Durante la Seconda guerra mondiale, il ruolo più importante dell'acqua pesante sarebbe stato nel campo della fisica dei reattori. È interessante notare che la Du Pont Company avrebbe scelto nel 1943 di produrre acqua pesante in quantità di tre tonnellate al mese per il progetto Manhattan proprio mediante un arricchimento primario mediante distillazione dell'acqua seguita da elettrolisi. 

Proprietà dell'acqua pesante

Non appena Lewis e Macdonald ebbero accumulato una quantità sufficiente di D2O quasi pura, iniziarono a misurare alcune delle sue proprietà fisiche. Per ottenere i risultati più accurati in un tempo minimo, Lewis chiese l'assistenza di un certo numero di studenti laureati nel Dipartimento. Thomas C. Doody studiò la conduttanza elettrica di soluzioni ioniche con un ponte di precisione Jones e Bradshaw, sotto la guida di Randall. Foody costruì una cella di microconduttività e misurò la mobilità relativa di KCl in H2O e in D2O, HCl(H2O) e DCl(D2O). William Maroney aveva un ponte capacitivo per misurazioni di costanti dielettriche e misurò la costante dielettrica di D2O rispetto a H2O. Daniel B. Luten, Jr., che seguiva le velocità delle reazioni chimiche in soluzione misurando l'indice di rifrazione, determinò l'indice di rifrazione di D2O in funzione della lunghezza d'onda. La determinazione simultanea della densità e dell'indice di rifrazione di un campione di acqua fornì un'analisi isotopica sia per 2H che per 18O. Lewis e Macdonald misurarono il peso specifico, la tensione di vapore e la viscosità di D2O in funzione della temperatura.

Nell'agosto 1933, Wesley T. Hanson, Jr., che era al suo primo anno come studente laureato a Berkeley, misurò la pressione di vapore del deuterio. Philip W. Schutz misurò le costanti di dissociazione di un certo numero di acidi e basi deboli nell'acqua pesante e le pressioni di vapore di un certo numero di composti di deuterio. 

Le prime indagini del laboratorio di Lewis sulle proprietà fisiche dell'acqua pesante furono molto importanti e utili per il suo lavoro, per altri operatori sul campo e per la caratterizzazione delle differenze tra acqua leggera e pesante. La differenza di densità è entro lo 0,5%, interamente dovuta alla differenza di peso molecolare. Il volume molare di H2O risultò dello 0,4% inferiore a D2O a 25°C. Le costanti dielettriche e gli indici di rifrazione di H2O e D2O, che dipendono dalla configurazione elettronica, dalla carica nucleare e dalla geometria molecolare, risultarono quasi identici.

Le misurazioni di Lewis delle proprietà fisiche e chimiche dell'acqua pesante e di altri composti di deuterio furono tutte effettuate su campioni inferiori a 1 ml di liquido. I ricercatori riconobbero che i loro campioni e le soluzioni avevano impurità che erano difficili da rimuovere. Alcune impurità provenivano dai recipienti di misurazione e potevano essere rimosse solo sciacquando con una quantità maggiore della disponibilità mondiale di acqua pesante in quel momento. Lo stile di Lewis era di non fare la misurazione definitiva. Lo lasciò fare ad altri. In questo lavoro come in altri suoi lavori, voleva una misurazione abbastanza buona per rispondere alle sue domande. La compilazione di Kirshenbaum delle proprietà fisiche dell'acqua pesante fornì un compendio completo e una valutazione delle determinazioni delle proprietà fisiche dell'acqua pesante fino alla fine degli anni '40. Un confronto riassuntivo è riportato nella tabella.

La seconda tabella mostra i valori oggi accettati di alcune grandezze fisiche per l’acqua distillata e quella pesante:


Effetto isotopico della pressione di vapore

Per effetto isotopico si intende la variazione di alcune caratteristiche di un elemento (come densità e spettro) in funzione della massa degli isotopi coinvolti. La deuterazione di un legame idrogeno sostituendo l’idrogeno leggero (H) con il deuterio (D) può causare cambiamenti geometrici nel legame idrogeno. La misurazione di Lewis e Macdonald della tensione di vapore di D2O in funzione della temperatura mostrò un coefficiente di temperatura molto grande per il logaritmo del rapporto di pressione di vapore (lnPH2O/PD2O). Tale effetto fu attribuito da Lewis al legame idrogeno in acqua. L'energia del punto zero associata al legame idrogeno è principalmente responsabile dell'effetto isotopico della pressione di vapore. 

Nella misurazione del fattore di frazionamento dell'isotopo dell'idrogeno nella distillazione dell'acqua, Lewis e Cornish furono sorpresi di scoprire che esso era circa la metà di quello che ci si poteva aspettare dai dati di Lewis e Macdonald sulle pressioni di vapore di H2O pura e D2O. Essi riconobbero che nelle soluzioni diluite di D2O in H2O il deuterio è presente sotto forma di HDO (acqua semipesante). Assumendo una distribuzione statistica di idrogeno leggero e deuterio tra le specie H2O, HDO e D2O si arrivò empiricamente alla regola della media geometrica, ln (PH2O/PHDO) ≃ 1/2 ln (PH2O/PD2O). 



All'epoca non esisteva alcuna teoria molecolare dell'effetto isotopico della fase condensata. Infatti, è stata l'assenza di una tale teoria, in particolare rispetto allo stato liquido, che rese questi studi interessanti per Lewis. Nella sua conferenza al Congresso Internazionale IUPAC di Madrid nel 1934, Lewis affermò: "D'altra parte, sono spesso proprio questi casi che sfidano l'analisi della fisica matematica che sono di maggior interesse per i chimici". La sfida durò circa 30 anni. Negli anni ‘60 l'analisi degli effetti isotopici della pressione di vapore attraverso la meccanica statistica dei sistemi interagenti ha fornito interessanti informazioni sulle forze intermolecolari, l'accoppiamento delle forze intermolecolari con quelle intramolecolari, l’ingombro sterico nei solidi e nei liquidi e la struttura dei fluidi monoatomici e poliatomici. 

Biologia dell'acqua pesante

Uno stile di lavoro caratteristico di Lewis nelle ricerche sull'acqua pesante era quello di lavorare con un piccolo numero di assistenti. Qualche volta, però preferiva svolgere da solo degli esperimenti esplorativi. Nella ricerca sull'acqua pesante questi esperimenti furono progettati per testare un'ipotesi avanzata da Lewis che il D2O non avrebbe sostenuto la vita e sarebbe risultato letale per gli organismi superiori. Questa era la prima ricerca sperimentale di Gilbert N. Lewis nelle scienze biologiche. I suoi primi esperimenti furono sui semi di tabacco (una scelta interessante, dato che era un fumatore accanito). Lewis scoprì che essi germinano in quattro giorni in acqua normale, e non germinano in tre settimane in D2O. Se i semi venivano poi prelevati dalla D2O e posti in acqua normale, la germinazione avveniva in modo anomalo dopo una settimana. "I germogli erano estremamente sottili e questa crescita malaticcia si è conclusa dopo poche settimane". D'altra parte, i semi posti in 50% di D2O mostravano uno sviluppo normale, anche se a un ritmo più lento rispetto a H2O. Lewis scoprì poi che il lievito non fermentava né si sviluppava la muffa nei terreni con l'H2O sostituita da D2O. Sulla base di queste osservazioni preliminari fu portato a prevedere che i microrganismi non sarebbero cresciuti in D2O, in particolare dopo che tutto l'idrogeno scambiabile era stato sostituito dal deuterio. Dimostrò che il D2O era letale per i platelminti. I platelminti esposti a D2O per meno di 4 ore e poi tornati a H2O avevano invece una ragionevole possibilità di sopravvivenza. 

Lewis tentò un test inconcludente sull'effetto dell'acqua pesante su un topo. Ecco come andò, con la sua testimonianza (di Lewis, non del topo):

“Infine, volli testare l'effetto dell'acqua pesante su un animale a sangue caldo. A questo scopo ottenni tre topolini bianchi di rispettabile stirpe, del peso di circa dieci grammi l'uno, e li tenni in laboratorio per parecchi giorni mentre osservavo le loro normali abitudini. Poi, dopo che tutti erano stati privati dell'acqua durante la notte, a due dei topi diedi acqua normale mentre al terzo fu data acqua pesante (...) Tuttavia, l'esperimento è stato molto costoso e mi dispiace che, poiché fu fatto solo per accertare se l'acqua pesante sarebbe stata letale, non ci fu alcuna preparazione per un attento studio clinico degli effetti prodotti.

La risposta alla domanda principale è stata decisiva (...) Il topo è sopravvissuto e il giorno dopo sembrava perfettamente normale. Tuttavia, durante l'esperimento ha mostrato evidenti segni di intossicazione. Mentre i topi di controllo passavano il loro tempo mangiando e dormendo, lui non fece né l'uno né l'altro, ma divenne molto attivo e passava gran parte del tempo, per qualche misteriosa ragione, a leccare le pareti di vetro della sua gabbia. Più beveva dell'acqua pesante, più aveva sete, e probabilmente avrebbe bevuto molto di più se la nostra scorta di acqua pesante non si fosse esaurita. I sintomi di disagio che mostrava sembravano più pronunciati dopo ogni dose, ma non si accumulavano con le dosi successive, il che mi porta a sospettare che l'acqua pesante venisse rapidamente eliminata dal topo. Questo avrebbe potuto essere accertato se fosse stata fatta una preparazione adeguata”

Tutto ciò che si può dedurre da quell'esperimento è che un topo di 10 g superò in astuzia il grande Gilbert N. Lewis. Il topo aveva consumato la scorta mondiale di acqua pesante e non faceva altro che correre intorno alla sua gabbia, leccando le pareti e urinando nella sua lettiera di paglia. All'interno del dipartimento di chimica di Berkeley, il fatto divenne noto come "il topo che mise in ridicolo G. N. Lewis". Da tutto questo lavoro biologico, Lewis concluse che l'acqua pesante non era di per sé tossica, ma che suppliva la privazione dell'acqua normale e causava cambiamenti nei ritmi delle funzioni biologiche in modo tale che la vita non sarebbe stata supportata.



L'acqua pesante a buon mercato per la ricerca biologica sperimentale divenne disponibile a metà degli anni '50, quando fu realizzato un vasto programma sperimentale da J.J. Katz presso l'Argonne National Laboratory. I ricercatori riuscirono a coltivare alghe verdi in pura D2O. La morfologia delle alghe fatte crescere in acqua pesante differisce significativamente da quelle coltivate in H2O. Katz sfruttò le alghe cresciute in D2O per preparare un’ampia quantità di composti di deuterio attraverso la biosintesi.

Senza dubbio, la sostituzione dell’idrogeno leggero con il deuterio modifica la velocità delle reazioni biochimiche, gli equilibri e quindi il pH (pD) delle soluzioni fisiologiche, la viscosità del mezzo, la struttura degli acidi nucleici, ecc. 

Per concludere

Tra il febbraio 1933 e il luglio 1934 Lewis pubblicò 26 dei 200 articoli sul deuterio. In base al criterio del numero di pubblicazioni fu il periodo più produttivo della sua carriera. Sotto ogni aspetto, Lewis fornì contributi fondamentali allo sviluppo della chimica degli isotopi negli anni '30. Questi includono la preparazione della D2O pura, il lavoro sulla separazione degli isotopi per distillazione, elettrolisi e scambio chimico, lo studio dell'effetto del deuterio sulle pressioni di vapore nelle reazioni protolitiche, nelle quali si ha passaggio di uno ione idrogeno da un acido a una base, l'effetto del deuterio sulle costanti di ionizzazione degli elettroliti deboli e alcuni esperimenti pionieristici sulla biologia dell'acqua pesante e le reazioni nucleari del deuterone. In tutte queste ricerche, Lewis era guidato dall'applicazione di argomenti qualitativi riguardanti il ​​ruolo dell'energia di punto zero sulle proprietà chimiche e fisiche delle sostanze e, soprattutto, da una insaziabile e mutevole curiosità.


sabato 25 settembre 2021

Harold Urey e la scoperta del deuterio

 


Isotopia

La teoria atomica di John Dalton del 1803 aveva unito l’idea antica dell’atomo con il concetto di Antoine Lavoisier di elemento chimico: ogni elemento corrispondeva a un diverso tipo di atomo, e atomi diversi avevano pesi atomici differenti. Più di un secolo dopo Dalton, divenne evidente che un particolare elemento poteva presentare atomi con proprietà chimiche simili ma pesi atomici diversi, cioè era costituito da isotopi diversi. Il nuovo campo della chimica nucleare riguardava l’identificazione e la separazione degli isotopi; pochi anni più tardi, gli scienziati di Berkeley sarebbero stati i primi a trasformare l’isotopo di un elemento nell’isotopo di un elemento del tutto nuovo. Un moderno dizionario (qui il Treccani) potrebbe spiegare il concetto in questo modo: “iṡòtopo s. m. [dall’ingl. isotope (comp. di iso- e gr. τόπος «luogo»)]: In chimica fisica, nome con cui vengono indicati atomi appartenenti allo stesso elemento, con uguale numero di protoni e uguali proprietà chimiche ma che, possedendo un diverso numero di neutroni, hanno differente peso atomico, cioè massa diversa, e sono quindi fisicamente diversi tra loro”. Questa spiegazione sembra incomprensibile se vista dagli anni ‘20 del Novecento: il nome “isotopo” fu proposto da Frederick Soddy nel 1913, ma il neutrone non fu scoperto che nel 1932 da James Chadwick. Soddy definì i diversi isotopi semplicemente come atomi che presentano pesi atomici diversi ma sono identici chimicamente.

Molti elementi si presentano in più forme isotopiche. Dei 92 elementi naturalmente presenti sulla Terra, solo 21 sono monotopici. Il resto è composto da più isotopi, molti dei quali sono stabili o decadono in tempi così straordinariamente lunghi da poter essere considerati effettivamente stabili per applicazioni appropriate. Ad esempio, il cloro che si trova in natura, che ha un peso atomico misurato di circa 35,5, è una miscela di due isotopi, 35Cl con peso atomico 35 e 37Cl con peso atomico 37, in un rapporto rispettivamente di circa 3 a 1. Per altri elementi, come ad esempio l’idrogeno, il cui isotopo più abbondante 1H costituisce quasi tutta la sostanza presente in natura (99,98%), era difficile determinare persino se esistessero altri isotopi. Le differenze chimiche tra gli isotopi dello stesso elemento sono solitamente piccole, perché il numero di protoni è chimicamente molto più importante di quello dei neutroni. Per il cloro, ad esempio, l’aumento relativo del peso atomico da 35Cl a 37Cl è solo di circa il 5%, e le conseguenze chimiche di tale piccola differenza sono solitamente insignificanti. Ma, per l’idrogeno, la differenza tra il peso atomico dell’isotopo più abbondante, con peso atomico 1, e quello di un (allora ipotetico) isotopo con peso atomico 2 sarebbe del 100% e ci si aspettava che l’effetto chimico sarebbe stato significativo. Per l’idrogeno, scoprire un nuovo isotopo sarebbe stato quasi come scoprire un nuovo elemento. Soddy, infatti, non pensava che l’isotopo più pesante dell’idrogeno si adattasse alla sua definizione di isotopo. Dopo la scoperta del neutrone, gli isotopi furono definiti come specie atomiche aventi lo stesso numero di protoni nei loro nuclei ma diverso numero di neutroni. Ma Soddy si atteneva all'inseparabilità chimica come criterio per gli isotopi e quindi rifiutò di riconoscere il deuterio come isotopo dell'idrogeno. Per Soddy, il deuterio era una specie di idrogeno, con diverso peso atomico, ma non un isotopo dell'idrogeno.

Ci furono diverse congetture sull’esistenza di un isotopo più pesante dell’idrogeno a partire dal 1928. Si dice che il grande chimico termodinamico Gilbert N. Lewis fosse interessato all’esistenza di un tale possibile isotopo già alla fine degli anni ‘20. Durante una conferenza a Berkeley, Raymond Birge, presidente del dipartimento di fisica, fece cenno al fatto che stava ottenendo valori contraddittori per il peso atomico dell’idrogeno a seconda della sua origine. Disse che l’idrogeno preparato dall’acqua in una cella elettrolitica che era stata usata nel dipartimento di fisica per anni sembrava più pesante che l’idrogeno di altre fonti. Lewis si chiese se potesse esistere un isotopo pesante dell’idrogeno che era stato concentrato nel tempo dai ripetuti processi di distillazione. Chiese a Simon Freed, che all’epoca era un docente a Berkeley, di confrontare la densità dell’acqua della distilleria di Birge con quella di normale acqua distillata. Quando Freed chiese a Lewis con quale accuratezza dovesse misurare la densità, Lewis rispose: “Oh, quattro decimali dovrebbero bastare”. Non era per nulla abbastanza. Se Freed avesse proseguito fino a cinque decimali, avrebbe potuto trovare la prova dell’esistenza dell’idrogeno pesante.

Ferdinand G. Brickwedde, uno dei collaboratori di Urey nella scoperta dell’idrogeno pesante, descrisse con questo aneddoto l’interesse di quegli anni per gli isotopi dell’idrogeno:

"Ricordo una conversazione nel 1929 con Urey e Joel Hildebrand, uno stimato professore di chimica a Berkeley, durante una corsa in taxi tra il loro hotel e il centro conferenze per un incontro scientifico a cui stavamo partecipando a Washington. Quando Urey chiese a Hildebrand cosa ci fosse di nuovo nella ricerca a Berkeley, Hildebrand rispose che William Giauque e Herrick Johnston avevano appena scoperto che l'ossigeno ha isotopi con peso atomico 17 e 18 [oltre all’isotopo più comune con peso atomico 16], e che l'isotopo di peso 18 era più abbondante. Il loro articolo sarebbe apparso a breve sul Journal of the American Chemical Society. Poi Hildebrand aggiunse: "Non avrebbero potuto trovare isotopi in un elemento più importante". Urey rispose: "No, a meno che non sia l’idrogeno".”

La scoperta del deuterio da parte di Urey è una storia dell'uso fruttuoso dei primi modelli nucleari e termodinamici. Ma è anche una storia di opportunità perse ed errori, alcuni particolarmente interessanti per il ruolo cruciale e positivo che hanno avuto nella scoperta. Uno sguardo alla natura del lavoro teorico e sperimentale che ha portato alla scoperta dell'idrogeno di massa 2 rivela molto sul modo in cui la fisica e la chimica venivano fatte quasi un secolo fa.

Urey

Era il giorno del Ringraziamento del 1931 quando Harold Clayton Urey (1893-1981) trovò la prova definitiva di un isotopo pesante dell'idrogeno. Egli arrivò tardi a pranzo, dove lo attendevano la moglie e alcuni ospiti. Si scusò dicendo “Bene, Frieda, ce l’abbiamo fatta”

Urey era nato in una fattoria dell'Indiana nel 1893 e durante l'infanzia si trasferì con la sua famiglia in una fattoria nel Montana. Dopo essersi diplomato al liceo, insegnò per tre anni nelle scuole pubbliche; poi entrò alla Montana State University per studiare zoologia e chimica. Aveva pochi soldi, e durante l'anno accademico dormiva e studiava in una tenda. In estate lavorava per posare binari ferroviari nel nord-ovest. Urey si laureò nel 1917: c'era bisogno di chimici nello sforzo bellico e subito trovò lavoro a Filadelfia in una fabbrica di esplosivi. Dopo la guerra, insegnò chimica per due anni alla Montana State University e nel 1921 entrò all'Università della California a Berkeley come studente di dottorato in chimica, lavorando sotto la guida di Gilbert N. Lewis. Già da studente, Urey era un pioniere nel calcolo delle proprietà termodinamiche ricavate dai dati spettroscopici. Conseguì il dottorato di ricerca nel 1923 e trascorse l'anno accademico successivo all’'Istituto di Fisica di Niels Bohr a Copenaghen. Dopo Copenaghen, Urey entrò a far parte della Johns Hopkins University. Mentre era alla Hopkins, fu coautore con Arthur E. Ruark del classico Atoms, Molecules and Quanta, che fu il primo libro di testo completo sulla struttura atomica scritto in inglese.

Il lavoro di Urey collegava chimica e fisica. Nel 1929 fu nominato professore associato di chimica alla Columbia University e dal 1933 al 1940 fu il fondatore e redattore del Journal of Chemical Physics, pubblicazione dell'American Institute of Physics. Nel 1934, solo tre anni dopo la scoperta del deuterio, Urey ricevette il premio Nobel per la chimica.

Nel 1913, Arthur B. Lamb e Richard Edwin Lee, lavorando alla New York University, avevano pubblicato una misurazione molto precisa della densità dell'acqua pura. Le loro misurazioni erano sensibili a 2 x 10-7 g/cm3. Vari campioni di acqua, che erano stati accuratamente preparati utilizzando le migliori tecniche di purificazione e controlli di temperatura, variavano in densità fino a 8 x 10-7 g/cm3. I due conclusero che l'acqua pura non possiede una densità unica. Oggi sappiamo che l'acqua varia nella composizione isotopica e che campioni di acqua con composizioni isotopiche diverse hanno pressioni di vapore diverse, rendendo la distillazione un processo di frazionamento. L'indagine Lamb-Lee è interessante perché fu il primo studio riportato in cui una differenza isotopica nelle proprietà era chiaramente evidente. L'esistenza degli isotopi fu proposta indipendentemente da Frederick Soddy, in Inghilterra, e da Kasimir Fajans, in Germania, nel 1913: meno di due decenni dopo, al momento della scoperta del deuterio, gli isotopi erano un attivo campo di ricerca, che avviò il rapido sviluppo della fisica nucleare.  Si cercavano risposte a domande sull’esistenza degli isotopi e cosa determinasse il loro numero, le loro abbondanze relative e masse.

Urey, insieme ad altri, costruì grafici degli isotopi conosciuti per mostrare le relazioni che influiscono sulla loro esistenza. In figura c’è uno dei grafici di Urey. All'epoca, il neutrone non era stato scoperto: lo sarebbe stato l'anno dopo il deuterio. Il grafico si basava sulla teoria che i nuclei atomici fossero composti da protoni, tracciati qui in ordinate, ed elettroni nucleari, tracciati in ascisse: il numero di protoni era il numero di massa nucleare e il numero di elettroni nucleari era il numero di protoni meno il numero atomico dell'elemento. Nel diagramma di Urey, i cerchi pieni rappresentano i nuclei da 1H a 30Si che erano noti prima del 1931. I cerchi aperti rappresentano nuclei sconosciuti prima del 1931. Lo schema di linee sfalsate del grafico, quando esteso fino a 1H, suggeriva a Urey che gli atomi 2H, 3H e 5He potevano esistere perché erano necessari per completare la struttura.


Urey aveva appeso una copia di questo grafico a una parete del suo laboratorio. L'isotopo elio-5 non esiste e la linea sfalsata non fornisce un posto per l'isotopo elio-3, che è stato scoperto in seguito. Il diagramma ora è solo di interesse storico, ma è stato un incentivo per Urey a cercare un isotopo pesante dell'idrogeno.

Esperimenti e calcoli

Nel 1931, l'anno della scoperta del deuterio, Raymond T. Birge, professore di fisica a Berkeley, e Donald H. Menzel, professore di astrofisica al Lick Observatory, pubblicarono una lettera all'editore di Physical Review. sulle abbondanze relative degli isotopi dell'ossigeno in relazione ai due sistemi di pesi atomici allora in uso: il sistema fisico e il sistema chimico. I pesi atomici nel sistema fisico erano determinati con lo spettrografo di massa e erano basati imponendo il peso atomico dell'isotopo 16O esattamente a 16. Nel sistema chimico, i pesi atomici erano determinati con tecniche di massa e i valori erano basati imponendo a 16 il peso atomico della miscela naturale degli isotopi di ossigeno, 16O, 17O e 18O. Quindi i pesi atomici di un singolo isotopo o elemento sulle due scale dovevano differire, dovendo essere maggiori con il sistema fisico. 

Tuttavia, nel 1931, i pesi atomici dell'idrogeno sulle due scale erano gli stessi all'interno degli errori sperimentali dichiarati. Il valore chimico era 1,00777 + 0,00002. Il valore spettrografico di massa, determinato da Francis William Aston del Cavendish Laboratory a Cambridge (Nobel per la chimica nel 1922 per i suoi lavori in spettrografia), era di 1,00778 + 0,00015. Birge e Menzel sottolinearono che la quasi coincidenza di questi due pesi atomici portava alla conclusione che l'idrogeno normale è una miscela di isotopi: 1H ad alta concentrazione e un isotopo pesante a bassa concentrazione. Il peso atomico non era più alto sulla scala fisica perché le tecniche di spettroscopia di massa individuavano solo l'isotopo leggero. All'isotopo pesante diedero il simbolo 2H, forse per la prima volta in letteratura. Supponendo che il peso atomico dell'idrogeno pesante fosse 2, Birge e Menzel calcolarono la sua abbondanza relativa dalla presunta equivalenza dei pesi atomici dell'idrogeno sulla scala fisica e la normale miscela di isotopi dell'idrogeno sulla scala chimica. Ottennero 1/4500 per l'abbondanza di 2H rispetto a 1H.

Un paio di giorni dopo aver ricevuto il numero del 1° luglio 1931 della Physical Review, Urey propose e pianificò un'indagine per determinare se un isotopo pesante dell'idrogeno esisteva davvero. Urey e George Murphy, lavorando alla Columbia University, identificarono l'idrogeno e il suo isotopo spettroscopicamente, usando le linee della serie Balmer, che descrivono le righe dello spettro dell'atomo di idrogeno. La serie di Balmer è caratterizzata dalle transizioni elettroniche da n ≥ 3 a n = 2. Questi passaggi sono indicati ciascuno da una lettera greca: la transizione 3→2 è associata alla lettera α, la 4→2 alla β e così via. Poiché storicamente queste righe sono state le prime ad essere identificate, il loro nome è formato dalla lettera H, il simbolo dell'idrogeno, seguita dalla lettera greca associata alla transizione.


Lo spettro atomico era ottenuto con una lampada di Wood a scarica elettrica fatta funzionare nel cosiddetto stadio nero, la configurazione di corrente e pressione che eccita maggiormente lo spettro atomico dell'idrogeno rispetto al suo spettro molecolare. Le lunghezze d'onda del vuoto delle righe dell’idrogeno pesante furono calcolate utilizzando la formula della serie di Balmer:

dove R è la costante di Rydberg per l’idrogeno, uguale a 1,097 x 107 m-1; p = 2 e n = 3, 4, 5, ...


Le linee α di Balmer dell'idrogeno leggero e di quello pesante erano separate da 1,8 Å, le linee β da 1,3 Å e le linee γ da 1,2 Å. Le concentrazioni di 2H relative a 1H furono determinate confrontando i tempi necessari per produrre linee di 1H e 2H di uguale densità fotografica. I tempi di esposizione per H-β e H-γ erano di circa 1 secondo.


Urey e Murphy trovarono linee molto deboli nelle posizioni calcolate per 2H-β, 2H-γ e 2H -δ, a causa della bassa concentrazione di deuterio nell'idrogeno normale. C'era la possibilità che le nuove righe provenissero da impurità, o che fossero righe fantasma derivanti dal relativamente intenso spettro di Balmer dell'idrogeno.

Urey decise di non precipitarsi alla stampa per rivendicare la priorità in questa scoperta; pensò fosse meglio rimandare la pubblicazione fino a quando non avesse avuto prove conclusive che le "nuove" righe spettrali attribuite all'isotopo pesante fossero autentiche e non impurità o righe fantasma. Questa sicurezza poteva essere ottenuta aumentando la concentrazione di 2H nell'idrogeno che riempiva la lampada di Wood, cercando un aumento di intensità delle linee di Balmer di 2H rispetto a quelle dell'idrogeno leggero.

Attraverso calcoli di meccanica statistica e basandosi sulla teoria di Peter Debye dei solidi (l'equivalente nello stato solido della legge di Planck sulla radiazione di corpo nero), Urey pensò che la distillazione dell’idrogeno liquido avrebbe arricchito la concentrazione dell’isotopo pesante. Egli si aspettava che l’idrogeno normale sarebbe evaporato più rapidamente, lasciando un eccesso dell’isotopo pesante nella fase liquida. Ma per ottenere una piccola quantità di idrogeno pesante liquido, calcolò che avrebbe dovuto partire con una quantità di idrogeno liquido di almeno 5-6 litri, che doveva evaporare più del 99,9% per dare almeno 2 cm3 da analizzare.

Urey contattò Brickwedde presso il National Bureau of Standards di Washington, invitandolo a unirsi alla ricerca.  All'epoca, nel 1931, c'erano solo due laboratori negli Stati Uniti in cui l'idrogeno liquido era disponibile in quantità di 5 o 6 litri. Uno era il National Bureau of Standards e l'altro era il laboratorio di William Francis Giauque all'Università della California a Berkeley. Distillando idrogeno liquido, Brickwedde preparò i campioni in cui poter identificare l'isotopo pesante. Il primo dei campioni inaspettatamente non ne mostrava una concentrazione più elevata. Si rifecero le distillazioni, e questa volta i campioni mostrarono aumenti di 6 o 7 volte nelle intensità delle linee di Balmer del deuterio. Su questa base, si sarebbe potuto concludere che le righe nel normale spettro dell'idrogeno attribuite all’idrogeno pesante erano davvero righe di 2H, ma la prova conclusiva fu la scoperta che l'immagine fotografica della linea di Balmer 2H-α, quella più intensa, era un doppietto parzialmente diviso, come previsto dalla teoria per lo spettro della serie di Balmer. La presenza di picchi satellite indica infatti la presenza di isotopi minoritari dei vari elementi. 

I due fisici della Columbia cercarono anche l’isotopo H-3 (trizio), ma senza esito. Sebbene “nessuna prova per H3 è stata finora trovata, (...) si può tuttavia ancora pensare che questa specie nucleare esista”. Questo isotopo radioattivo con due neutroni e massa 3 sarebbe stato prodotto nel 1934 da Rutherford.

Dalle misurazioni delle intensità relative delle linee della serie di Balmer, Urey stimò che c'era un atomo pesante per 4500 atomi leggeri nell'idrogeno normale. Misure successive mostrarono che il valore era più vicino a 1/7000 (oggi si indica 1/6420).

In seguito, fu chiaro perché il primo idrogeno distillato inviato a Urey non mostrava l'aumento previsto della concentrazione di 2H, e forse persino una piccola diminuzione. La spiegazione arrivò con la scoperta del metodo elettrolitico per separare 1H e 2H, suggerito da Edward W. Washburn, capo chimico del National Bureau of Standards, e verificato sperimentalmente da Washburn e Urey subito dopo la pubblicazione dell’articolo dell'aprile 1932.

Quando Urey considerò metodi diversi per concentrare 2H, incluse il metodo elettrolitico e ne discusse con Victor LaMer, un collega della Columbia e un'autorità mondiale in elettrochimica, che però lo dissuase, pensando che le differenze nelle concentrazioni di equilibrio degli isotopi agli elettrodi di una cella a temperatura ambiente erano molto piccole e quindi un frazionamento degli isotopi sarebbe stato trascurabile.

Washburn vedeva la situazione in modo diverso. Indicò la grande differenza relativa nei pesi atomici degli isotopi dell'idrogeno, molto più grande per gli isotopi dell'idrogeno che per gli isotopi di qualsiasi altro elemento. Quindi, pensava Washburn, gli isotopi dell'idrogeno potevano comportarsi in modo diverso da quelli degli altri elementi.

Washburn aveva ragione: gli isotopi dell'idrogeno vengono separati con relativa facilità mediante elettrolisi, ma ciò fu compreso solo dopo la scoperta dell’isotopo pesante.

L'idrogeno che era stato liquefatto e distillato per Urey era generato elettroliticamente. Prima di preparare il primo campione per Urey, il generatore elettrolitico fu completamente smontato, pulito e riempito con una soluzione di idrossido di sodio appena preparata. Poiché 2H si concentra nell'elettrolita nel generatore, il primo idrogeno gassoso ad essere scaricato ne era carente. La sua concentrazione nell'idrogeno sviluppato era circa un sesto di quella nell'elettrolita, e quindi circa un sesto della concentrazione normale nell'idrogeno. Man mano che l’elettrolisi progrediva veniva aggiunta acqua per sostituire quella consumata. La concentrazione di normale nell'elettrolita aumentava fino al punto in cui la velocità con cui 2H lasciava il generatore bilanciava la velocità con cui era arrivato nell'acqua aggiunta. Quindi, dopo che il generatore elettrolitico era stato in uso per un po' di tempo, c'era un equilibrio dinamico; perciò l'idrogeno preparato dal generatore per il secondo e terzo campione per Urey aveva approssimativamente la normale concentrazione di 2H. 

Urey diede il nome di “deuterio” (D) all’isotopo di massa 2. Non si usava dare il nome agli isotopi, ma l’isotopo pesante dell’idrogeno, che ci aspettava fosse abbastanza diverso chimicamente dall’idrogeno leggero a causa della sua massa doppia, sarebbe stato un’eccezione (per fortuna non fu chiamato deuzio, in analogia con pròzio e trizio!).

Dopo la scoperta del deuterio, Urey affrontò un problema molto pratico nel comunicarlo, caratteristico dello stato della ricerca prima della Seconda guerra mondiale. La ricerca di Urey alla Columbia, e quella al National Bureau of Standards furono condotte senza il sostegno di alcun sussidio governativo per la ricerca. Si diceva che le ricerche in quel periodo si facessero con spago e ceralacca; fu infatti compiuta per lo più con apparecchi fatti in casa. La politica del governo degli Stati Uniti di sovvenzioni a sostegno della ricerca risale a un'epoca successiva, dopo la Seconda Guerra mondiale.

Prima della guerra era un problema reperire fondi per le trasferte alle riunioni scientifiche. Fu solo a fatica che Brickwedde e Urey riuscirono a raccogliere i fondi necessari per recarsi alla riunione dell'American Physical Society del dicembre 1931 alla Tulane University, dove avevano in programma di presentare il documento che riportava la scoperta del deuterio. Nei mesi successivi pubblicarono maggiori dettagli in una lettera all'editore e un articolo completo sulla Physical Review.

Errori fortunati

Quattro anni dopo la scoperta del deuterio, Francis Aston riportò un errore nel suo precedente valore spettrografico di massa di 1,00778 per il peso atomico di 1H sulla scala fisica, il valore usato da Birge e Menzel nel loro articolo del 1931. Il valore rivisto sulla scala fisica era 1,00813, che corrisponde a 1,0078 sulla scala chimica, in accordo con il valore allora attuale per il peso atomico dell'idrogeno (1,00777) sulla scala chimica. Non c'era quindi bisogno o posto per un isotopo pesante dell'idrogeno. La conclusione di Birge e Menzel era pertanto sbagliata. In effetti, sulla base del valore rivisto di Aston, Birge e Menzel sarebbero stati obbligati a concludere che, semmai, esisteva un isotopo dell'idrogeno più leggero, non più pesante.

La previsione di Birge e Menzel di un isotopo pesante dell'idrogeno si basava su due valori errati per il peso atomico dell'idrogeno, vale a dire il valore spettrografico di massa di Aston e il valore chimico, che avrebbe dovuto essere anche maggiore. L'errore sperimentale nella determinazione dei pesi atomici superava la differenza dei pesi atomici sulle due scale.

Urey non ne era a conoscenza quando progettava il suo esperimento. Non lo fu fino al 1935, quando il suo discorso di accettazione del premio Nobel fu la prova che Aston aveva pubblicato il suo valore rivisto. Urey aggiunse quanto segue alla sua lectio di ricevimento del Nobel:

“Addendum - Da quando è stata scritta [questa lezione Nobel], Aston ha rivisto il suo peso atomico spettrografico di massa dell'idrogeno da 1,0078 a 1,0081. Con questa massa per l'idrogeno, l'argomento di Birge e Menzel non è valido. Tuttavia, preferisco lasciare che l'argomento di questo paragrafo resti, anche se ora sembra errato, perché questa previsione è stata importante nella scoperta del deuterio. Senza di esso è probabile che non lo avremmo ricercato e la scoperta del deuterio potrebbe essere stata ritardata di molto tempo”.

Questo fatto, un’importante scoperta basata su dati non corretti, è più comune di quanto si è soliti pensare: Gilbert Lewis fece notare una volta che Dalton aveva basato la sua teoria atomica del 1803 sulla proporzione definita tra gli elementi, e che i dati sperimentali che lo avevano convinto della natura generale della legge riguardavano gli ossidi di azoto. Ebbene, alcuni dei suoi esperimenti su questi composti erano completamente sbagliati e indicavano una forte predisposizione verso la conclusione che poi raggiunse. Adesso parleremmo di bias cognitivo. 

Inutile dire che Urey e i suoi colleghi erano molto contenti che fosse stato commesso un errore di questo tipo. Aston disse che non sapeva quale fosse la morale di tutto questo. Difficilmente consigliava alle persone di sbagliare intenzionalmente, e pensava che, forse, l'unica cosa da fare era continuare a lavorare.

Dopo la scoperta

I premi Nobel per la fisica e la chimica vengono assegnati per il lavoro, sperimentale o teorico, che ha apportato un cambiamento significativo nel lavoro in corso e nel pensiero scientifico. L'annuncio che Urey era stato scelto come vincitore del 1934 in chimica arrivò meno di tre anni dopo la scoperta del deuterio. Questo premio insolitamente precoce seguiva una spettacolare corsa nella ricerca relativa al deuterio. Nel primo biennio successivo alla scoperta, furono pubblicati più di cento articoli di ricerca relativi al deuterio e ai suoi composti chimici, compresa l'acqua pesante. E ce ne furono più di cento in più nell'anno successivo, il 1934.

L'uso del deuterio come tracciante ha permesso di seguire il corso delle reazioni chimiche che coinvolgono l'idrogeno. Ciò è stato particolarmente fruttuoso nelle indagini su processi fisiologici complessi e nella chimica medica.

Inoltre, la scoperta dell'idrogeno pesante ha fornito un nuovo proiettile, il deuterone, o deutone (nucleo del deuterio), per esperimenti di bombardamento nucleare. Il deuterone si è dimostrato notevolmente efficiente nel disintegrare un certo numero di nuclei leggeri in modi nuovi. Poiché il deuterone, con un protone e un neutrone, è il nucleo più semplice, gli studi della sua struttura e della sua interazione protone-neutrone hanno assunto un'importanza fondamentale per la fisica nucleare. 

Dopo la scoperta del deuterio, Urey presiedette la Federazione universitaria per la democrazia e la libertà intellettuale. Sostenne la causa repubblicana durante la guerra civile spagnola, fu uno dei primi oppositori del nazismo tedesco e aiutò gli scienziati rifugiati, incluso Enrico Fermi, aiutandoli a trovare lavoro negli Stati Uniti e a adattarsi alla vita in un nuovo paese.

Quando scoppiò la Seconda guerra mondiale in Europa nel 1939, Urey era riconosciuto come un esperto mondiale di separazione degli isotopi. Fino ad allora la separazione aveva coinvolto solo gli elementi leggeri. Nel 1939 e nel 1940, Urey pubblicò due articoli sulla separazione degli isotopi più pesanti. Urey coordinò tutti la ricerca americana sulla separazione degli isotopi, compreso lo sforzo per produrre acqua pesante, che poteva utilizzata come moderatore di neutroni nei reattori nucleari.

Nel maggio 1941, Urey fu nominato membro del Committee on Uranium, che sovrintendeva al progetto sull'uranio come parte del Comitato di Ricerca della Difesa Nazionale (NDRC). Lo stesso anno guidò una missione diplomatica in Inghilterra per stabilire una cooperazione per lo sviluppo della bomba atomica. Nel maggio 1943, mentre il Progetto Manhattan prendeva slancio, divenne capo dei Substitute Alloy Materials Laboratories (SAM Laboratories) alla Columbia, responsabili dello studio e produzione dell'acqua pesante e di quasi tutti i processi di arricchimento degli isotopi.

Dopo la guerra, Urey non continuò le sue ricerche prebelliche sugli isotopi. Tuttavia, applicando le conoscenze acquisite con l'idrogeno e l'ossigeno, aprì la strada alla ricerca paleoclimatica. In seguito, Urey contribuì a sviluppare il campo della cosmochimica e a lui si deve il conio del termine. Il suo lavoro sull'ossigeno-18 lo portò a sviluppare teorie sull'abbondanza degli elementi chimici sulla Terra e sulla loro abbondanza ed evoluzione nelle stelle. Urey ipotizzò che l'atmosfera terrestre primitiva fosse composta da ammoniaca, metano e idrogeno. Uno dei suoi studenti laureati a Chicago, Stanley L. Miller, mostrò nell'esperimento Miller-Urey (1952) che, se una tale miscela viene esposta a scintille elettriche e all'acqua, può interagire per produrre amminoacidi, comunemente considerati i mattoni della vita.


Nel 1958 raggiunse l'età pensionabile all'Università di Chicago, ma accettò un posto di professore presso la nuova Università della California a San Diego (UCSD) e si trasferì a La Jolla. Successivamente fu nominato professore emerito dal 1970 al 1981. 

Alla fine degli anni '50 e all'inizio degli anni '60, la scienza spaziale divenne un argomento di ricerca sulla scia del lancio dello Sputnik. Urey contribuì a persuadere la NASA a rendere prioritarie le sonde senza equipaggio da inviare sulla Luna. Quando l’Apollo 11 restituì campioni di roccia lunare, Urey li esaminò: essi supportavano la sua tesi secondo cui la Luna e la Terra hanno un'origine comune. Mentre era alla UCSD, Urey pubblicò 105 articoli scientifici, 47 dei quali su argomenti lunari. Morì a La Jolla il 5 gennaio 1981.