lunedì 25 ottobre 2021

Di mappe e territori

 


Tutte le mappe sono false

In matematica, il termine mappa è spesso usato come sinonimo di funzione, che è una relazione tra due insiemi, chiamati dominio e codominio, che associa a ogni elemento del dominio uno e un solo elemento del codominio. Mappare vuol dire allora stabilire una corrispondenza biunivoca tra elementi di due insiemi diversi (o dello stesso insieme), secondo leggi diverse. In cartografia, questa corrispondenza si realizza tra insiemi di punti (quelli sulla superficie terrestre e quelli sul piano, che è il foglio su cui si disegna la mappa). Le leggi che associano questi insiemi di punti sono delle trasformazioni geometriche, matematiche o empiriche i cui risultati sono le cosiddette proiezioni cartografiche. Purtroppo, ciò comporta un certo margine di errore, inevitabile per qualsiasi tipo di proiezione si adotti. La rappresentazione della superficie terrestre sul piano genera sempre delle deformazioni, come era noto fin dall’antichità, poiché è una conseguenza di diversi risultati contenuti negli Sphaerica di Menelao di Alessandria (70 ca. – 140 ca.) sulla geometria dei triangoli tracciati sulla superficie di una sfera, come ad esempio il fatto che la somma degli angoli in un triangolo sferico è sempre maggiore di 180°. 


Trasformare delle coordinate geografiche in coordinate cartesiane è sempre un atto disonesto. La dimostrazione formale fu fornita da Eulero nel 1777, in Sulla mappatura delle Superfici Sferiche sul Piano, che chiamava perfetta una mappa f da una regione S della sfera al piano euclideo se valgono le seguenti due condizioni:

(1) f manda meridiani e paralleli a due campi di linee che formano reciprocamente gli stessi angoli;
(2) f conserva le distanze infinitesimamente lungo i meridiani e i paralleli.

Quindi, una mappa perfetta manda i meridiani e i paralleli a due campi di linee ortogonali. Inoltre, essa conserva globalmente l'elemento della lunghezza lungo i meridiani e i paralleli. Si noti che, sul globo sferico, i meridiani sono geodetiche, ma i paralleli non lo sono. Il fatto che le distanze siano conservate infinitesimamente lungo i meridiani implica immediatamente che le distanze tra i punti su queste linee debbano essere preservate. Ne consegue anche, sebbene non così immediatamente, che in una mappa perfetta anche le distanze tra i punti sui paralleli debbano essere preservate. L'idea della dimostrazione di Eulero fu di tradurre queste condizioni geometriche in un sistema di equazioni differenziali alle derivate parziali e mostrare che questo sistema non ha soluzione:

“Così è dimostrato attraverso il calcolo che una perfetta mappatura della Sfera sul piano non è possibile. Essendo quindi esclusa una rappresentazione perfettamente esatta, siamo obbligati ad ammettere rappresentazioni non simili, in modo che la figura sferica differisce in qualche modo dalla sua immagine sul piano. Per quanto riguarda la divergenza tra l'immagine e la realtà, possiamo fare varie ipotesi, e secondo l'assunzione che si assume come base, possiamo realizzare l'immagine più adatta a questo o quello scopo. In questo modo, le esigenze che l'immagine deve soddisfare possono variare in modi molto diversi”.



Un’ulteriore conferma alle dimostrazioni di Eulero arrivò da Gauss con l’opera Disquisitiones generales circa superficies curvas, vera pietra miliare nella storia della geometria differenziale, che Gauss pubblicò nel 1828. Riflettendo su cosa significasse definire le superfici, scoprì che la curvatura è una loro caratteristica intrinseca, perché è interamente determinata dalle misurazioni nella superficie e non coinvolge in alcun modo una terza dimensione normale ad essa. Così le superfici non andavano più considerate come immerse nello spazio tridimensionale, ma piuttosto “non come contorni di corpi, ma come corpi di cui una dimensione è infinitamente piccola”, una specie di velo “flessibile ma inestensibile”. La maggior parte delle superfici ha una curvatura non nulla, maggiore o minore di 0. Al contrario, se la superficie è un piano, la sua curvatura è nulla in tutti i suoi punti.

Gauss studiò anche quando una superficie può essere mappata su un'altra in modo tale che le distanze non siano alterate, e dimostrò che una condizione necessaria affinché ciò accada è che le curvature nei punti corrispondenti siano le stesse. Ad esempio, il cilindro e il piano sono localmente isometrici; sebbene curva, la superficie laterale del cilindro ha una curvatura zero nel senso di Gauss, proprio come il piano, ed è per questo che è possibile stampare con un tamburo rotante (la geometria intrinseca del cilindro è piatta, in quanto su di essa valgono tutti gli assiomi del piano euclideo). Una sfera (con curvatura positiva) e il piano (con curvatura nulla), invece, hanno sempre curvature diverse e non possono essere fra loro isometriche.

Visto che l’errore è sempre presente, si sceglie la proiezione che lo minimizza per il nostro scopo. Esistono infatti diverse leggi proiettive, in grado di privilegiare il mantenimento delle proporzioni tra le superfici, o tra le distanze, o conservare gli angoli tra direzioni. Un altro importante fattore di distorsione è la scala, cioè il rapporto tra distanze sulla mappa e distanze sul terreno. In genere, tanto più grande è la scala, tanto maggiore è l’errore. 



 Il paradosso della mappa in scala 1.1

L’ideale sarebbe una mappa in scala 1:1, ma anche in questo caso sorgono problemi. Il notissimo paradosso di Borges relativo alla Mappa dell’Impero, contenuto in Storia universale dell’infamia (1961), e contenuto nel frammento Del rigore della scienza, ci permette di evidenziarli. Come sua abitudine, l’autore argentino attribuisce la citazione a un libro che in realtà non esiste: 

“(…) In quell'Impero, l'Arte della Cartografia giunse a una tal Perfezione che la Mappa di una sola Provincia occupava tutta una Città, e la mappa dell'impero tutta una Provincia. Col tempo, queste Mappe smisurate non bastarono più. I Collegi dei Cartografi fecero una Mappa dell'Impero che aveva l’Immensità dell'Impero e coincideva perfettamente con esso. Ma le Generazioni Seguenti, meno portate allo Studio della cartografia, pensarono che questa Mappa enorme fosse inutile e non senza Empietà la abbandonarono alle Inclemenze del Sole e degl'Inverni. Nei deserti dell'Ovest rimangono lacere Rovine della Mappa, abitate da Animali e Mendichi; in tutto il Paese non c’è altra reliquia delle Discipline Geografiche. (Suárez Miranda, Viajes de varones prudentes, libro IV, cap. XIV, Lérida, 1658)”. 

Umberto Eco, nel Secondo diario minimo (1992), esaminò con finta serietà la possibilità teorica di tale mappa e, attraverso speculazioni sulla sua possibile natura (mappa opaca stesa sul territorio, mappa sospesa, mappa trasparente, permeabile, stesa e orientabile), sul suo ripiegamento e dispiegamento, giunse a concludere, sulla base del paradosso di Russell (l’insieme di tutti gli insiemi che non appartengono a se stessi appartiene a se stesso se, e solo se, non appartiene a se stesso), che tale mappa non potrebbe rappresentare l’insieme territorio + mappa.

Il logico e divulgatore Piergiorgio Odifreddi è stato più conciliante, affermando che l’ipotesi di una mappa perfetta di un territorio disegnata su una sua parte non implica comunque una contraddizione, perché esiste almeno un punto del territorio che coincide con la sua immagine sulla mappa. Il teorema del punto fisso di Banach-Caccioppoli garantisce infatti che una qualsiasi contrazione definita su uno spazio metrico ammette almeno un punto fisso, dove l'immagine sulla mappa coincide con il punto stesso. Il che vuol dire che una mappa, anche in scala 1:1, è sempre infedele, tranne che in quel solo punto.

Odifreddi dice inoltre che “Una delle ossessioni di Borges, apparentata all'autoriferimento e apparentemente paradossale, è la cosiddetta mappa di Royce, che egli ha citato almeno tre volte”. In effetti Borges cita esplicitamente il paradosso del filosofo idealista americano Josiah Royce in un passo del saggio Magie parziali del “Don Chisciotte”, contenuto in Altre inquisizioni (Feltrinelli, 1963, ma l’originale è del 1960): 

“Le invenzioni della filosofia non sono meno fantastiche di quelle dell’arte: Josiah Royce, nel primo volume dell’opera The world and the individual (1899), ha formulato la seguente: ‘Immaginiamo che una porzione del suolo d'Inghilterra sia stata livellata perfettamente, e che in essa un cartografo tracci una mappa d’Inghilterra. L’opera è perfetta. Non c’è particolare del suolo d’Inghilterra, per minimo che sia, che non sia registrato nella mappa; tutto ha lì la sua corrispondenza. La mappa, in tal caso, deve contenere una mappa della mappa, che deve contenere una mappa della mappa della mappa, e così all'infinito’.” 

 

Il paradosso di Bonini

Charles P. Bonini, professore emerito di Scienze gestionali alla Stanford Graduate School of Business, è stato esperto, ricercatore e insegnante delle applicazioni delle tecniche quantitative e statistiche ai problemi decisionali. Queste tecniche includono analisi delle decisioni, modelli di ottimizzazione, sistemi di elaborazione, teoria delle code, simulazione e data mining. È stato autore e coautore di numerosi libri di testo. 

Nel 1963 propose quello che è noto come il Paradosso di Bonini che illustra la difficoltà di costruire modelli o simulazioni che colgano completamente il funzionamento di sistemi complessi (come il cervello umano).

Nel dibattito scientifico moderno, il paradosso è stato articolato nel 1971 da John M. Dutton e William H. Starbuck: "Quando un modello di un sistema complesso diventa più completo, diventa meno comprensibile. In alternativa, quando un modello diventa più realistico, diventa anche altrettanto difficile da capire quanto i processi del mondo reale che rappresenta”.

Questo stesso paradosso era stato accennato nel 1942 da un “cattivo pensiero” del filosofo-poeta Paul Valéry: "Ce qui est simple est toujours faux. Ce qui ne l'est pas est inutilisable" (Ciò che è semplice, è sempre falso. Ciò che non lo è, è inutilizzabile.)

Inoltre, lo stesso argomento fu discusso dall’agronomo, matematico, ecologo e filosofo della scienza Richard Levins nell’articolo per l’American Scientist "The Strategy of Model Building in Population Biology" (1966), dove affermava che i modelli complessi hanno "troppi parametri da misurare, portando a equazioni analiticamente insolubili che supererebbero la capacità dei nostri computer, ma i risultati non avrebbero alcun significato per noi anche se potessero essere risolti”.

Il paradosso di Bonini può essere visto come un caso di relazione mappa-territorio: mappe più semplici sono rappresentazioni meno accurate ma più utili del territorio. 

Devo dire che mi è subito affiorato alla mente il ricordo della frequenza ai corsi di aggiornamento sulla costruzione delle mappe concettuali (quelle vere, non dei semplici diagrammi spacciati per esse), dove veniva chiesto di programmare delle attività didattiche interdisciplinari e di costruire la mappa dei contenuti della propria materia da integrare con quelle elaborate dai colleghi. Il risultato di tale volenterosa attività erano dei lenzuoli incomprensibili a tutti i partecipanti. Il bello è che in seguito questa prassi fu utilizzata obbligatoriamente nelle progettazione delle cosiddette Unità Formative a livello di istituto, che andavano declinate anche come competenze, in ossequio ai dettami del vangelo predicato da Bertagna e fatto proprio dall’allora ministra Moratti. Ero bravissimo a preparare tali mostruose e rizomatiche piovre, ma mentivo sapendo di mentire. 



La mappa non è il territorio

L’originale matematico, ingegnere e filosofo polacco-americano Alfred Korzybski (1879-1950) osservò che "la mappa non è il territorio" e che "la parola non è la cosa", sintetizzando la sua visione che un'astrazione derivata da qualcosa, o una reazione ad essa, non è la cosa stessa. Korzybski sosteneva che molte persone confondono le mappe con i territori, cioè confondono i modelli della realtà con la realtà stessa. 

Korzybski voleva criticare le ambiguità del linguaggio e fondare una nuova dottrina di (quasi) tutto che chiamava Semantica generale (un’idea che purtroppo sedusse anche gente psico-cosa tipo L. Ron Hubbard, quello di Scientology, per dire), ma la sua frase rimase nella storia del pensiero.

Korzybski sosteneva che gli esseri umani sono limitati in ciò che conoscono dalla struttura del loro sistema nervoso e dalla struttura delle loro lingue. Gli uomini non possono sperimentare il mondo direttamente, ma solo attraverso le loro "astrazioni" (impressioni non verbali o "spunti" derivati ​​dal sistema nervoso e indicatori verbali espressi e derivati ​​dal linguaggio). Questi a volte ci ingannano su quale sia la verità. La nostra comprensione a volte manca di somiglianza di struttura con ciò che sta realmente accadendo. In termini più astratti, la proposizione di Korzybski asserisce che sempre quando c'è pensiero o percezione oppure comunicazione sulla percezione vi è una trasformazione, una codificazione, tra la cosa comunicata e la sua comunicazione. Soprattutto, la relazione tra la comunicazione e la cosa comunicata tende ad avere la natura di una classificazione, di un'assegnazione della cosa a una classe. Dare un nome è sempre un classificare e tracciare una mappa è essenzialmente lo stesso che dare un nome. Bisogna anche dire che onestamente riconobbe che “Una mappa non è il territorio che rappresenta, ma, se corretta, ha una struttura simile al territorio, il che spiega la sua utilità”.

L'espressione comparve per la prima volta in stampa in "A Non-Aristotelian System and Its Necessity for Rigor in Mathematics and Physics", resoconto di una conferenza che Korzybski tenne a una riunione della American Association for the Advancement of Science a New Orleans il 28 dicembre 1931. Il documento fu ristampato in Science and Sanity (1933). In questo libro, Korzybski riconosceva il suo debito nei confronti del matematico Eric Temple Bell, la cui epigrammatica asserzione "la mappa non è la cosa mappata", comparve nel saggio Numerology nello stesso anno. Il libro di Temple Bell era un serio tentativo di smontare ogni velleità di intravvedere significati simbolici nei numeri e dedicava un capitolo intero a criticare l’idea di alcuni matematici suoi contemporanei che “Il cosmo è matematica pura e la matematica pura è il Cosmo”, giungendo a contestare persino l’idea di isomorfismo se riferita alla relazione tra matematica pura e realtà esterna.




Il territorio non è il territorio

Gregory Bateson, in Verso un'ecologia della mente (1972), nel capitolo "Forma, sostanza e differenza" (basato sulla conferenza per il diciannovesimo Annual Korzybski Memorial, tenuta il 9 gennaio 1970), sostenne in modo radicale l’impossibilità di sapere cosa sia un territorio reale. Qualsiasi comprensione di qualsiasi territorio si basa su uno o più canali sensoriali che riportano in modo adeguato ma imperfetto:

“Diciamo che la mappa è diversa dal territorio; ma che cos’è il territorio? Da un punto di vista operativo, qualcuno (...) è andato a ricavare certe rappresentazioni che poi sono state riportate sulla carta. Ciò che si trova sulla carta topografica è una rappresentazione di ciò che si trovava nella rappresentazione retinica dell’uomo che ha tracciato la mappa; e se a questo punto si ripete la domanda, ciò che si trova è un regresso all’infinito, una serie infinita di mappe: il territorio non entra mai in scena. Il territorio è la Ding an sich [la cosa in sé], e con esso non c’è nulla da fare, poiché il procedimento di rappresentazione lo eliminerà sempre, cosicché il mondo mentale è costituito solo da mappe di mappe, ad infinitum”.

“Tutti i ’fenomeni’ sono letteralmente ’apparenze’. Oppure si può andare nel verso opposto della catena. Io ricevo vari generi di mappe, che chiamo dati o informazioni; e, quando le ricevo, agisco. Ma le mie azioni, le mie contrazioni muscolari, sono trasformate [informazioni] di differenze nel materiale d’ingresso, e io ricevo dati che sono a loro volta trasformate delle mie azioni. Si ottiene così un quadro del mondo mentale che in qualche modo si è affrancato dal nostro quadro tradizionale del mondo fisico”. (...)

“Torniamo alla mappa e al territorio e chiediamoci: "Quali sono le parti del territorio che sono riportate sulla mappa?". Sappiamo che il territorio non si trasferisce sulla mappa: questo è il punto centrale su cui qui siamo tutti d’accordo. Ora, se il territorio fosse uniforme, nulla verrebbe riportato sulla mappa se non i suoi confini, che sono i punti ove la sua uniformità cessa di contro a una più vasta matrice. Ciò che si trasferisce sulla mappa, di fatto, è la differenza, si tratti di una differenza di quota, o di vegetazione, o di struttura demografica, o di superficie, o insomma di qualunque tipo. Le differenze sono le cose che vengono riportate sulla mappa.

Ma che cos’è una differenza? Una differenza è un concetto molto peculiare e oscuro. Non è certo né una cosa né un evento. Questo pezzo di carta differisce dal legno di questo leggio; vi sono tra essi molte differenze, di colore, di grana, di forma, eccetera. Ma se cominciamo a porci domande sulla localizzazione di quelle differenze, cominciano le difficoltà. Ovviamente la differenza tra la carta e il legno non è nella carta; ovviamente non è neppure nel legno; ovviamente non è nello spazio che li separa; e non è ovviamente nel tempo che li separa. (Una differenza che si produce nel corso del tempo è ciò che chiamiamo ’cambiamento’). Dunque, una differenza è un’entità astratta”. (...)

“Nelle scienze fisiche gli effetti, in generale, sono causati da condizioni o eventi piuttosto concreti: urti, forze e così via. Ma quando si entra nel mondo della comunicazione, dell’organizzazione, eccetera, ci si lascia alle spalle l’intero mondo in cui gli effetti sono prodotti da forze, urti e scambi di energia. Si entra in un mondo in cui gli ’effetti’ (e non sono sicuro che si debba usare la stessa parola) sono prodotti da differenze. Cioè essi sono prodotti da quel tipo di ‘cosa’ che viene trasferita dal territorio alla mappa. Questa è la differenza”.

Altrove, in quello stesso volume, Bateson ha sostenuto che l'utilità di una mappa non è necessariamente una questione di veridicità letterale, ma di avere una struttura analoga, per lo scopo in questione, al territorio. 

Jean Baudrillard in Simulacri e simulazione (1981) sosteneva che il processo di mascheramento della mappa è ormai giunto alle sue estreme conseguenze: lo sviluppo dei media offusca il confine tra mappa e territorio, consentendo la simulazione delle idee codificate in segnali elettronici. Oramai è la mappa che precede il territorio, o addirittura lo sostituisce. Adesso si direbbe che viviamo in un’epoca di post-verità, che è come dire di menzogna (occhio: non sta parlando di scienza, ma di media).

Un'analogia specifica che Jean Baudrillard usa è proprio il racconto della mappa dell’impero. Nell'interpretazione di Baudrillard, il territorio non precede più la mappa né sopravvive alla mappa. È la mappa che precede il territorio. Le persone vivono nella mappa, ossia nella simulazione della realtà in cui la gente dell’impero passa la vita, garantendo che il loro posto nella rappresentazione sia adeguatamente circoscritto e dettagliato dai cartografi che hanno creato la mappa. Di contro la realtà si sgretola per il disuso, infatti ciò che non si usa si atrofizza e ciò che si atrofizza si perde. La transizione da segni che nascondono qualcosa a segni che nascondono che non c’è nulla è la svolta decisiva. 

“L'astrazione oggi non è più quella della mappa, del doppio, dello specchio o del concetto. La simulazione non è più quella di un territorio, di un essere referenziale o di una sostanza. È la generazione per modelli di un reale senza origine né realtà: un iperreale. Il territorio non precede più la mappa, né le sopravvive. Ormai è la mappa che precede il territorio - precessione dei simulacri - è la mappa che genera il territorio e, se dovessimo far rivivere la favola oggi, sarebbero i brandelli del territorio che stanno lentamente morendo sulla mappa. È il reale, e non la mappa, di cui vestigia sussistono qua e là, nei deserti che non sono più quelli dell'Impero, ma i nostri. Il deserto del reale stesso. (…)

Ma non si tratta più né di mappe né di territorio. Qualcosa è scomparso: la grande differenza tra loro, che era il fascino dell'astrazione. Perché è la differenza che forma la poesia della mappa e il fascino del territorio, la magia del concetto e il fascino del reale. Questo immaginario rappresentativo, che culmina ed è al tempo stesso inghiottito dal folle progetto del cartografo di una coestensività ideale tra mappa e territorio, scompare con la simulazione, il cui funzionamento è nucleare e genetico, e non più speculare e discorsivo. (…) Il reale è prodotto da unità miniaturizzate, da matrici, banchi di memoria e modelli di comando - e con questi può essere riprodotto un numero indefinito di volte. Non deve più essere razionale, poiché non è più misurato rispetto a qualche istanza ideale o negativa. Non è altro che operativo. Infatti, poiché non è più avvolto da un immaginario, non è più affatto reale. È un iperreale: il prodotto di una sintesi irradiante di modelli combinatori in un iperspazio senza atmosfera. In questo passaggio ad uno spazio la cui curvatura non è più quella del reale, né quella della verità, l'età della simulazione inizia così con una liquidazione di tutti i referenti (...) nei sistemi di segni, che sono un materiale più duttile che il significato, in quanto si prestano a tutti i sistemi di equivalenza, a tutte le opposizioni binarie e a tutta l'algebra combinatoria. 

(…) Mai più il reale dovrà essere prodotto: questa è la funzione vitale del modello in un sistema di morte, anzi di risurrezione anticipata che non lascia più alcuna possibilità anche in caso di morte. Un iperreale ormai al riparo dall'immaginario, e da ogni distinzione tra reale e immaginario, che lascia spazio solo alla ricorrenza orbitale dei modelli e alla generazione simulata della differenza”.


Che fare?

Forse aveva ragione Lewis Carroll, che, per non sbagliare, disegnò per i protagonisti de La caccia allo Snark una mappa dell’Oceano completamente vuota? Assolutamente no. La mappa non è il territorio, e forse tutti i modelli sono falsi. Ma proprio perché consci di questo, senza derive di nichilismo epistemologico (Ignoramus et ignorabimus), possiamo dedicarci a scoprire, con tutti i nostri limiti, il mondo che ci circonda. Sono i suoi limiti epistemologici, ontologici, semplicemente logici, che fanno grande l'impresa scientifica, compreso il difficile compito di costruire mappe e modelli che siano esplicativi, predittivi, coerenti con il contesto e altre mappe. È scienza: funziona, anche se ci sarà sempre un mistico fallito, un complottista, un teorete, un terrapiattista o un prete a sparare cazzate.

sabato 16 ottobre 2021

TSP: di commessi viaggiatori e ottimizzazione

Supponiamo che venga assegnato il seguente problema. Viene mostrato un insieme di n punti sul piano, che chiameremo città. Viene chiesto di iniziare da una qualsiasi delle città e tracciare una linea ininterrotta che attraversi ciascuna delle altre città esattamente una volta e torni al punto di partenza. Tale linea è chiamata circuito e un esempio di soluzione per 20 città è mostrato nella figura. Tutto quello che bisogna fare è trovare il circuito più breve possibile.


Questo è un esempio del problema del commesso viaggiatore, o TSP (Traveling Salesman Problem). Le origini del problema non sono chiare. Un manuale per venditori ambulanti del 1832 lo menziona e include esempi di tour attraverso la Germania e la Svizzera, ma non contiene alcuna trattazione matematica. Una prima trattazione relativa a problemi simili a questo si deve all’irlandese William R. Hamilton (sì, quello dei quaternioni, il vandalo del ponte di Dublino) e al britannico Thomas P. Kirkman.

L’Icosian Game di Hamilton è un rompicapo ricreativo basato sulla ricerca di un circuito hamiltoniano lungo gli spigoli di un dodecaedro, cioè un percorso tale che ogni vertice venga visitato una sola volta, nessuno spigolo sia percorso due volte e il punto finale sia lo stesso del punto iniziale (ma ovviamente senza il vincolo del percorso più breve). Il puzzle fu distribuito commercialmente come un pannello di legno con fori ai 20 nodi di un grafo dodecaedrico e pedine numerate. Hamilton lo vendette a un produttore di giochi londinese nel 1859 per 25 sterline (circa 3.220 sterline di oggi). Fu un affare per Hamilton, perché il gioco, giudicato troppo facile, fu un insuccesso in tutte le versioni in cui venne proposto.

 


Il problema combinatorio di Kirkman, il quale passò alla storia più per questo rompicapo del 1850 che per i suoi grandi contributi alla teoria dei gruppi, è noto come Fifteen Schoolgirls Problem:

"Quindici fanciulle di una scuola escono affiancate tre alla volta per sette giorni di seguito: è necessario sistemarle ogni giorno in modo che due non camminino mai fianco a fianco più di una volta”.

 

Il problema del commesso viaggiatore vero e proprio fu formulato per la prima volta in forma generale nel 1930 dal geometra e topologo austriaco Karl Menger in un articolo in cui proponeva una nuova definizione della lunghezza di un arco:

 

“La lunghezza di un arco può essere definita come il minimo limite superiore dell'insieme di tutti i numeri che si potrebbero ottenere prendendo ogni insieme finito di punti della curva e determinando la lunghezza del grafo poligonale più corto che unisce tutti i punti. (…) Lo chiamiamo problema del messaggero (poiché in pratica questa questione dovrebbe essere risolta da ogni postino, comunque anche da molti viaggiatori): il compito è trovare, per un numero finito di punti di cui si conoscono le distanze a coppie, il percorso più breve che collega i punti. Naturalmente, questo problema è risolvibile con un numero finito di prove. Non sono note regole che spingerebbero il numero di prove al di sotto del numero di permutazioni dei punti dati. La regola che si debba andare prima dal punto di partenza al punto più vicino, poi al punto più vicino a questo, ecc., in genere non comporta il percorso più breve”.

Il TSP appartiene alla branca della matematica che chiamiamo ottimizzazione: vogliamo ottimizzare (massimizzare o minimizzare) una quantità, e vogliamo che la soluzione ci arrivi sotto forma di numeri interi. Il modo apparentemente facile per risolvere questo problema è guardare ogni possibile circuito e calcolarne la lunghezza, con un metodo chiamato ricerca esaustiva: provare tutte le possibili combinazioni di percorsi, e prendere infine il più corto. Questo metodo, purtroppo, funziona solamente quando abbiamo a che fare con un insieme assai piccolo di città. Il numero di circuiti distinti quando ci sono n città è (n − 1)! / 2. Il divisore due nel denominatore significa che un singolo circuito può essere percorso in entrambe le direzioni. Si noti nella tabella quanto velocemente il numero di circuiti aumenta con n:


La difficoltà di risoluzione che cresce di pari passo con il numero di città è conseguenza di un concetto molto più ampio e complicato: il problema è quel che, in teoria della complessità, si definisce NP-difficile. Ciò significa che non è possibile trovare una soluzione esatta, se non con un algoritmo troppo lento perché possa essere utilizzato per casi realisticamente utili. Se un moderno computer ad alta velocità calcola, siamo generosi, un miliardo di circuiti al secondo, ci vorrebbero 1046 anni per trovare la risposta sicura per un circuito di 50 città. (Per fare un confronto, l'età attuale dell'universo è stimata a circa 1,3×1010  anni.) Passare al supercomputer più veloce esistente non aiuterebbe molto.

Di fronte all’impossibilità di risolvere un problema efficacemente, i matematici vanno alla ricerca di una soluzione approssimata, con un nuovo obiettivo: trovare un algoritmo che funzioni per tutte le possibili disposizioni di città e che dia la migliore approssimazione possibile in un tempo ragionevole, ma nemmeno questo è così tanto facile. La complessità del TSP sembra rimanere elevata anche se si cerca di modificare il problema, ad esempio dividendo le città in sottoinsiemi da studiare separatamente.

Un esempio noto di algoritmi per problemi di ottimizzazione discreta e combinatoria è dato dalla famiglia Branch and Bound (BB, B&B): non è la sola strategia, ma casomai parlerò delle altre un’altra volta. Gli algoritmi Branch and Bound sono detti di enumerazione implicita perché si comportano esattamente come un algoritmo di enumerazione, cioè "provano" tutte le soluzioni possibili fino a trovare quella ottima (o quella corretta), ma ne scartano alcune dimostrando a priori la loro non ottimalità. Un algoritmo BB (“dirama e collega”) consiste in un'enumerazione delle soluzioni candidate mediante ricerca nell'insieme di tutte le possibili configurazioni del sistema: l'insieme delle soluzioni candidate è considerato come un albero con l'insieme completo alla radice.

L'algoritmo esplora i rami di questo albero, che rappresentano sottoinsiemi dell'insieme delle soluzioni. Prima di enumerare le soluzioni candidate di un ramo, il ramo viene verificato rispetto ai limiti stimati superiore e inferiore sulla soluzione ottima z* e viene scartato se non può produrre una soluzione migliore di quella trovata fino a quel momento dall'algoritmo. L'algoritmo dipende dalla stima efficiente dei limiti inferiore e superiore di regioni/rami dello spazio di ricerca. Se non sono disponibili limiti, l'algoritmo degenera in una ricerca esaustiva.


Il metodo è stato proposto per la prima volta da Ailsa Land e Alison Doig nel 1960 per la programmazione discreta, ed è diventato lo strumento più comunemente usato per risolvere problemi di ottimizzazione NP-difficili. Il nome "branch and bound" è apparso per la prima volta nel 1963 in un lavoro proprio sul problema del commesso viaggiatore.

Un algoritmo in grado di attaccare il problema, derivato dalla famiglia BB, fu sviluppato nel 1976 da Nicos Christofides, un matematico di Cipro allora professore all’Imperial College di Londra, Christofides dimostrò che il suo metodo crea, nel peggiore dei casi, un percorso che è al massimo il 50% più lungo del percorso ottimo. Sembrava naturale poter fare di meglio. Tuttavia, per anni i ricercatori hanno cercato di batterlo, e per anni hanno fallito, al punto che in molti hanno iniziato a dubitare della possibilità di poter migliorarlo.

Solo recentemente (maggio 2021) tre matematici dell’Università di Washington (Nathan Klein, Anna Karlin e Shayan Oveis Gharan) hanno mostrano come trovare una migliore approssimazione. Il miglioramento? 10−36, un fattore piccolissimo, un miliardesimo di quadriliardesimo. Tuttavia, seppur quasi impercettibile, questo progresso abbatte un muro psicologico: ora si sa che un avanzamento è possibile. Questa notizia ha risvegliato l’interesse di molti ricercatori, che ora si dicono determinati a migliorare ancora la soluzione.

Questo problema è solo di interesse accademico? Direi di no, perché le stesse difficoltà (molte possibili soluzioni da testare e una moltitudine di vincoli contrastanti che rendono difficile trovare la migliore) sorgono in molti importanti problemi del mondo reale. Questi includono la pianificazione del traffico aereo, il riconoscimento di schemi, il cablaggio di circuiti, lo studio delle reti neuronali, l'impacchettamento di oggetti di varie dimensioni e forme in uno spazio fisico o (matematicamente in modo simile) di messaggi codificati in un canale di comunicazione e una vasta moltitudine di altri.

Questi sono tutti esempi di quelli che vengono chiamati problemi di ottimizzazione combinatoria (OC), che tipicamente, anche se non sempre, derivano dalla teoria dei grafi. L'ottimizzazione si occupa di problemi formalizzabili come minimizzazione o massimizzazione di una funzione (detta funzione obiettivo, z) sottoposta a dei vincoli. Un problema di minimizzazione è sempre riconducibile ad un problema di massimizzazione, e viceversa. Non è qui il caso di discutere questo tipo di problemi, ma ciò che dovrebbe essere chiaro è che essi hanno la proprietà che il numero di possibili soluzioni (ad esempio, il numero di possibili circuiti nel TSP) cresce in modo esplosivo man mano che il numero n di variabili di input (il numero di città nel TSP) aumenta. La caratteristica fondamentale di tali problemi è quella di avere insiemi ammissibili discreti, a differenza ad esempio della Programmazione Lineare, in cui l’insieme ammissibile è continuo. Ciò comporta che le metodologie necessarie per affrontare problemi di Ottimizzazione Combinatoria sono spesso diverse da quelle utilizzate per risolvere problemi nel continuo. In generale, il processo di soluzione di un qualsiasi problema di ottimizzazione può essere considerato come composto di due parti distinte:
- produrre una soluzione ottima z*;
- produrre una valutazione che dimostri l’ottimalità di z*.

Trovare la soluzione migliore quando n diventa grande può o non può essere possibile in un tempo ragionevole, e spesso ci si deve accontentare di trovare una delle tante soluzioni "quasi ottimali" o molto buone, se è impossibile trovare le migliori. In molti algoritmi enumerativi per problemi “difficili” capita sovente che l’algoritmo determini la soluzione ottima in tempo relativamente breve, ma sia poi ancora necessario un grandissimo sforzo computazionale per dimostrare che tale soluzione è davvero ottima. In altri termini, la difficoltà del problema risiede non tanto nel costruire una soluzione ottima, quando nel verificarne l’ottimalità, ossia nel determinare il valore ottimo della funzione obiettivo. Alle tecniche utili a determinare questo valore, o una sua approssimazione accurata, è dedicata una parte rilevante della ricerca attuale, volta a sviluppare algoritmi “efficienti” per problemi di OC. Per ragioni sia algoritmiche che teoriche, questo tipo di problemi è diventato di enorme interesse per gli scienziati di quasi tutte le discipline.

mercoledì 13 ottobre 2021

Through The Glass Darkly. I misteri del vetro


Perché il vetro è rigido? 

Perché un solido cristallino (in cui gli atomi o le molecole costituenti si trovano in una disposizione ordinata e regolare) è rigido? Può essere sorprendente apprendere che è stato solo nel ventesimo secolo che abbiamo potuto dare a livello profondo la risposta a questa domanda.

Perché il vetro di una finestra, di una bottiglia, di una beuta (che non hanno una struttura cristallina: gli atomi giacciono in quelle che sembrano posizioni casuali) è rigido? Questa è una domanda ancora più difficile, e si potrebbe essere ancora più sorpresi nell’apprendere che non siamo ancora in grado di rispondere a questa domanda a un livello profondo.

Naturalmente, il livello di soddisfazione di una spiegazione dipende dai punti di vista: una risposta che soddisfa un chimico può non soddisfare un fisico (e viceversa). Per essere onesti, a un certo livello abbiamo compreso la natura dello stato solido tra la metà del diciannovesimo secolo e l’inizio del ventesimo, quando la termodinamica moderna e la meccanica statistica furono sviluppate da Gibbs, Boltzmann e altri. Queste discipline si occupano del problema di studiare il comportamento di sistemi composti da molte particelle, non determinando la traiettoria delle singole particelle ma utilizzando metodi statistici e probabilistici.

L'idea di base è nota. Atomi e molecole a distanza ravvicinata si attraggono, ma non sono mai isolati dal resto del mondo; di conseguenza, le particelle costituenti un sistema hanno sempre un'energia cinetica casuale (calore) che misuriamo come temperatura. A temperature più alte vince il disordine indotto da movimenti termici casuali, e abbiamo un gas o un liquido. A temperature più basse, vincono le forze attrattive e il sistema assume uno stato ordinato a bassa energia, un solido cristallino. Le forze intermolecolari esistenti tra le particelle costituenti il solido sono molto forti, perciò esse non possono muoversi liberamente, potendo vibrare solo intorno alle loro posizioni medie. Nei liquidi i legami si allentano a causa dell’agitazione termica, e le particelle, pur conservando qualche sorta di legame, sono in grado di fluire le une rispetto alle altre. Nei gas le particelle, a causa dell’elevata energia cinetica, si muovono liberamente, se si escludono eventuali urti meccanici. Liquidi e solidi cristallini sono due diverse fasi della materia, e il passaggio dall'uno all'altro, non a caso, è chiamato transizione di fase.


Forse il risultato più interessante della meccanica statistica consiste nell'aver capito fino a fondo come sia possibile l'emergenza di comportamenti collettivi: mentre per pochi atomi di acqua non possiamo dire se essi formano un solido o un liquido e quale sia la temperatura di transizione, queste affermazioni assumono una natura ben precisa solo nel caso in cui consideriamo un gran numero di atomi (più precisamente nel caso in cui il numero di atomi tenda ad infinito). Le transizioni di fase nascono quindi come effetto del comportamento collettivo di molti componenti.

Ma ci sono problemi più profondi, che entrano in gioco perché ci sono caratteristiche che accompagnano lo stato ordinato che non sono così facili da spiegare. Una di queste è quella che il premio Nobel per la fisica del 1977 Philip Anderson (1923-2020) chiamava rigidità generalizzata: quando si fa pressione sugli atomi di un solido cristallino ad un'estremità, la forza si propaga in maniera più o meno uniforme in tutto il cristallo in modo che l'intero solido si muove come un singola entità:

“Siamo così abituati alla rigidità dei corpi solidi che è difficile rendersi conto che tale azione a distanza non è incorporata nelle leggi della natura È strettamente una conseguenza del fatto che l'energia è ridotta al minimo quando la simmetria è rotta allo stesso modo in tutto il campione. La generalizzazione di questo concetto a tutti i casi di rottura della simmetria è ciò che chiamo rigidità generalizzata. È responsabile della maggior parte delle proprietà uniche degli stati ordinati: ferromagnetismo, superconduttività, superfluidità, ecc.”

La rigidità dei solidi è qualcosa che tutti diamo per scontato. Perché è un mistero? Ebbene, le forze interatomiche sono a corto raggio e tipicamente si estendono solo per circa 10-8 cm, mentre quando si preme su un solido ad un'estremità, la forza che si applica viene trasmessa in modo perfettamente uniforme un miliardo o più volte oltre la portata della forza interatomica. Perché succede? Cosa è cambiato dallo stato liquido, dove sono presenti esattamente le stesse forze? O, almeno, perché il solido non si accartoccia o non si piega? 

Questo fenomeno non è unico per i solidi; la trasmissione di forze su lunghe distanze si verifica anche, ad esempio, nei cristalli liquidi (LC). Questa proprietà, infatti, è molto diffusa in senso generale: si verifica ogni qualvolta si passa ad uno stato ordinato che possiede una simmetria (la cui forma può non essere sempre ovvia) che differisce dallo stato disordinato termicamente. Senza rigidità generalizzata, non solo i solidi non sarebbero "solidi", ma i magneti non sarebbero magnetici, le supercorrenti non fluirebbero nei superconduttori e noi non saremmo qui ad osservare tutto questo. Tutti questi effetti hanno cause soggiacenti simili, ma una profonda comprensione basata su un piccolo insieme di principi unificanti non è emersa fino a dopo la Seconda Guerra mondiale.

A prima vista la spiegazione non sembra così complicata. Se tutti gli atomi si posizionano alla stessa distanza dai loro vicini più prossimi, cioè formano un cristallo, allora hanno creato uno stato energetico molto basso. Deformare questo stato richiederebbe un grande apporto di energia, come sa chiunque abbia mai provato a piegare, strappare o deformare un solido. Questa risposta è corretta e va bene finché funziona. Ma è insoddisfacente a più livelli. Per prima cosa, non riesce a spiegare perché il vetro, che non è un cristallo, è rigido. Né spiega la forte discontinuità nel comportamento di rigidità alla transizione di fase liquido‒cristallo. Qualche millesimo di grado sopra la transizione, non c'è rigidità; appena sotto, c'è. Non avrebbe più senso un graduale cambiamento di rigidità man mano che la temperatura si abbassa? Ma non è ciò che succede.

Quindi c'è molto che questa semplice risposta lascia inspiegato, e ci sono molti fenomeni interessanti che non può prevedere da sola. Sono necessari principi e concetti aggiuntivi e più approfonditi.

La rigidità generalizzata è uno dei tanti esempi che rientrano nella categoria di comportamento emergente: quando si ha un sistema di molti "agenti" interagenti, siano essi particelle fisiche che esercitano forze reciproche, o specie interagenti in un ecosistema, o acquirenti e venditori nel mercato azionario, sorgono nuovi tipi di comportamento che per la maggior parte non sono prevedibili o non si manifestano a livello del singolo. Nel caso appena discusso, accade qualcosa di nuovo quando gli atomi si riorganizzano per formare un cristallo; la capacità di trasmettere forze su grandi distanze non è presente nelle interazioni fisiche fondamentali, in questo caso le forze interatomiche, che alla fine danno luogo a questo effetto. La rigidità deve in qualche modo derivare dalle proprietà collettive di tutte le particelle e le forze: ciò che chiamiamo ordine a lungo raggio (meglio: a lungo raggio sulla scala della forza interatomica fondamentale) e rottura della simmetria.

Ma torniamo ai vetri. Secondo la definizione standard, un vetro (o solido vetroso) è un solido formato dal rapido raffreddamento dopo opportuno riscaldamento di certi composti, soprattutto di silicati. Tuttavia, il termine "vetro" è spesso utilizzato in un senso più ampio, per descrivere qualsiasi solido non cristallino (amorfo) che mostra una transizione vetrosa quando viene riscaldato verso lo stato liquido.

Il vetro è un solido amorfo. Come in altri solidi amorfi, la struttura atomica di un vetro manca della periodicità a lungo raggio osservata nei solidi cristallini. Microscopicamente, mentre un solido cristallino ha atomi in una disposizione periodica quasi perfetta, un policristallo, come molte ceramiche, è un solido composto da regioni cristalline orientate casualmente, chiamate cristalliti, un solido amorfo come il vetro non ha invece disposizione periodica.


Il problema è che, per quanto ne sappiamo, non c'è transizione di fase (che in fisica ha un significato molto specifico) dal liquido al vetro, nessuna simmetria evidente rotta e nessun ordine ovvio a lungo raggio. Un vetro è un liquido che diventa sempre più viscoso e lento man mano che si raffredda, fino a quando alla fine smette di scorrere nei tempi umani. A proposito, la diceria sulle finestre delle cattedrali europee millenarie che sono più spesse in basso che in alto a causa del flusso vetroso nel corso di un periodo millenario non è vera. Se vediamo una finestra con questa caratteristica, ha qualche altra causa più prosaica. Il flusso nel vetro della finestra a temperatura ambiente avverrebbe su scale temporali molto più lunghe dell'età dell'universo. Il vetro è davvero rigido.

Una precisazione importante: quando si parla di disordine nei vetri, non si parla di quello che si vede nei liquidi o nei gas, dove in ogni momento gli atomi si trovano in posizioni casuali. In quei sistemi a temperatura più elevata, il disordine deriva dall'agitazione termica e gli atomi (o qualunque unità individuale costituisca il sistema) stanno rapidamente agitandosi e cambiando posto. Ciò ci consente di fare uno studio statistico, che a sua volta ci consente di comprendere il sistema matematicamente e fisicamente. I vetri, d'altra parte, sono congelati, in “quenched disorder", in uno stato disordinato a bassa temperatura, e quindi non possiamo applicare lo stesso apparato di strumenti matematici e fisici che possiamo applicare allo stato liquido o gassoso. E, allo stesso modo, a causa della mancanza di qualsiasi tipo di ordinamento ovvio, non possiamo applicare lo stesso insieme di strumenti che utilizziamo per comprendere lo stato solido cristallino.

Allora perché il vetro è rigido? Al momento ci sono molte teorie e ipotesi, ma nessuna è universalmente accettata. Il problema è che un vetro è un tipo di sistema disordinato: gli atomi in un vetro si trovano in posizioni casuali. Ma gran parte della nostra attuale comprensione dei sistemi di materia condensata (solidi cristallini, ferromagneti, cristalli liquidi, superconduttori e così via) si applica a sistemi ordinati con simmetrie ben note, che consentono profonde semplificazioni matematiche e intuizioni fisiche. Quindi non sono solo le nostre idee sulla rigidità che i vetri sfidano. Sempre secondo Anderson, "Il problema irrisolto più profondo e interessante nella teoria dello stato solido è probabilmente la teoria della natura del vetro e della transizione vetrosa". Eppure, qualche passo in avanti si sta facendo.

Il vetro ideale

La cristallizzazione è un passaggio dalla fase liquida, in cui le molecole sono disordinate e scorrono liberamente, alla fase cristallina, in cui le molecole sono bloccate in uno schema regolare e ripetuto, potendo solamente vibrare intorno a una posizione d’equilibrio. L'acqua si congela in ghiaccio a zero gradi Celsius, ad esempio, perché le molecole di H2O smettono di oscillare quel tanto che basta a quella temperatura per avvertire le forze reciproche e organizzarsi in una struttura più ordinata.


Altri liquidi, una volta raffreddati, diventano più facilmente vetro. La silice (SiO2, biossido di silicio), ad esempio, il vetro delle finestre, inizia come un liquido fuso ben al di sopra dei 1.000 gradi Celsius; mentre si raffredda, le sue molecole disordinate perdono energia, avvicinandosi un po' l'una all'altra, il che rende il liquido sempre più viscoso. Alla fine, le molecole smettono di muoversi del tutto. In questa graduale transizione vetrosa, le molecole non si riorganizzano. Semplicemente si fermano.

Il motivo esatto per cui il liquido in raffreddamento si indurisce rimane sconosciuto. Se le molecole nel vetro fossero semplicemente troppo fredde per fluire, dovrebbe essere ancora possibile compattarle in nuove disposizioni. Ma nel vetro non si compattano; le sue molecole sono disordinate, eppure il vetro è rigido. Liquido e vetro hanno la stessa struttura, ma si comportano in modo diverso: capire perché è la domanda principale.

Un indizio arrivò nel 1948, quando un giovane chimico di nome Walter Kauzmann notò quella che divenne nota come la crisi dell'entropia, un paradosso del vetro che i ricercatori successivi pensarono potesse essere risolto da un “vetro ideale”.

Kauzmann sapeva che più lentamente si raffredda un liquido, più è possibile raffreddarlo prima che si trasformi in vetro. E il vetro a formazione più lenta finisce per essere più denso e più stabile, perché le sue molecole hanno potuto muoversi più a lungo (mentre il liquido era ancora viscoso) e trovare disposizioni più compatte e a bassa energia. Le misurazioni hanno indicato una corrispondente riduzione dell'entropia, o disordine, del vetro formato più lentamente: ci sarebbero meno modi in cui le sue molecole potrebbero essere disposte con la stessa bassa energia.

Estrapolando la tendenza, Kauzmann si rese conto che se si potesse raffreddare un liquido abbastanza lentamente, si potrebbe raffreddarlo fino a una temperatura, ora nota come temperatura di Kauzmann, prima che si indurisca completamente. A quella temperatura, il vetro risultante avrebbe un'entropia bassa quanto quella di un cristallo. Ma i cristalli sono strutture precise e ordinate. Come potrebbe il vetro, disordinato per definizione, possedere uguale ordine?

Nessun vetro ordinario poteva farlo, il che implicava che qualcosa di speciale doveva accadere alla temperatura di Kauzmann. La crisi sarebbe evitata se un liquido, una volta raggiunta quella temperatura, raggiungesse lo stato di vetro ideale: l’impacchettamento casuale di molecole più denso possibile. Un tale stato mostrerebbe un "ordine amorfo a lungo raggio", in cui ogni molecola sente e influenza la posizione di ogni altra, così che per muoversi, devono muoversi come una cosa sola. L'ordine nascosto a lungo raggio di questo stato ipotetico potrebbe rivaleggiare con l'ordine più ovvio di un cristallo. È proprio quello il motivo per cui si pensa che debba esistere un vetro ideale.

Secondo questa teoria, avanzata per la prima volta da Julian Gibbs e Edmund Di Marzio nel 1958, il vetro ideale è un vero stato della materia, come le fasi liquida e cristallina. La transizione a questa fase necessita semplicemente di troppo tempo, richiedendo un processo di raffreddamento troppo lento perché possa essere visto a scala umana. La transizione ideale al vetro è "mascherata" dal liquido che diventa così viscoso che tutto si ferma.

Dobbiamo cercare per speculum in aenigmate: non potremo mai vedere un vetro ideale, ma in teoria possiamo provare a creare modelli accurati di ciò che vi succede. 

Un aiuto inaspettato è arrivato dagli esperimenti. Non c'è mai stata alcuna speranza di formare un vetro ideale raffreddando un liquido, il metodo di fabbricazione del vetro che abbiamo usato per millenni. Dovremmo raffreddare un liquido in modo incredibilmente lento (forse anche infinitamente lento) per evitare che si indurisca prima di raggiungere la temperatura di Kauzmann. Ma, nel 2007, Mark Ediger, un fisico dell’Università del Wisconsin, ha sviluppato un nuovo metodo di lavorazione del vetro. Ediger e la sua squadra hanno scoperto che potevano creare "vetri ultra stabili" che esistono in uno stato a metà tra l'ordinario e l'ideale. Usando un metodo chiamato deposizione da vapore, hanno fatto cadere le molecole una per una su una superficie come se stessero giocando a Tetris, permettendo a ogni molecola di stabilirsi nella sua sede più aderente nel vetro in formazione prima che la molecola successiva scendesse. Il vetro risultante era più denso, più stabile e con meno entropia di tutti i vetri della storia umana. Secondo Ediger, "Questi materiali hanno le proprietà che ci si aspetterebbe prendendo un liquido e raffreddandolo per un milione di anni".


Un'altra proprietà del vetro ultra-stabile potrebbe rivelare la via più promettente verso il vetro ideale. Due gruppi, uno dei quali guidato da Miguel Ramos a Madrid, hanno identificato questa proprietà nel 2014, quando hanno scoperto che il vetro ultra-stabile si discosta da una caratteristica comune a tutto il vetro ordinario.

I fisici sanno da decenni che il vetro ultra-freddo ha un'elevata capacità termica, la quantità di calore da fornire a una sostanza per aumentare la sua temperatura di un kelvin (K). Dire che una sostanza ha un'alta capacità termica significa che riesce ad assorbire tanto calore innalzando di poco la propria temperatura. Il vetro può assorbire molto più calore di un cristallo vicino allo zero assoluto, con una capacità termica direttamente proporzionale alla temperatura.

Teorici, tra cui Phil Anderson, suggerirono una spiegazione nei primi anni '70. Sostennero che il vetro contiene molti "sistemi a due livelli", piccoli gruppi di atomi o molecole che possono scivolare avanti e indietro tra due configurazioni alternative, ugualmente stabili. Si può immaginare un intero gruppo di atomi che si spostano da una configurazione a una configurazione leggermente diversa che semplicemente non esiste in un solido cristallino.

Sebbene gli atomi o le molecole siano troppo impacchettati dai loro vicini per fare molte commutazioni da soli, a temperatura ambiente il calore attiva i sistemi a due livelli, fornendo agli atomi l'energia di cui hanno bisogno per muoversi. Questa attività diminuisce man mano che la temperatura del vetro scende. Ma, vicino allo zero assoluto, gli effetti quantistici diventano importanti: i gruppi di atomi nel vetro possono passare tra le configurazioni alternative per effetto tunnel, passando attraverso qualsiasi ostacolo, occupando persino entrambi i livelli del sistema contemporaneamente. Il processo assorbe molto calore, producendo l'elevata capacità termica caratteristica del vetro.

Diversi anni dopo che Ediger aveva scoperto come realizzare il vetro ultra-stabile, il gruppo di Hellman a Berkeley e quello di Ramos a Madrid hanno iniziato a studiare in modo indipendente se potesse discostarsi da quella capacità termica universale vicina allo zero assoluto. Nei rispettivi esperimenti, hanno sondato le proprietà a bassa temperatura del silicio ultra-stabile e dell'indometacina ultra-stabile (una sostanza utilizzata anche come farmaco antinfiammatorio). Come previsto, hanno scoperto che entrambi i vetri avevano una capacità termica molto più bassa del solito vicino allo zero assoluto, in linea con quella di un cristallo. Ciò ha suggerito che il vetro ultra-stabile ha meno sistemi a due livelli tra cui eseguire il tunneling. Le molecole sono in configurazioni particolarmente aderenti, con pochi concorrenti.


Se la capacità termica eccezionalmente bassa del vetro ultra-stabile deriva davvero dall'avere meno sistemi a due livelli, allora il vetro ideale corrisponde naturalmente allo stato senza alcun sistema a due livelli. Il vetro ideale è il punto finale, ma quando le molecole cercano di avvicinarsi l'una all'altra, si bloccano; l'aumento della viscosità impedisce al sistema di raggiungere lo stato desiderato.

Di recente, sono state utilizzate simulazioni al computer innovative per testare queste idee. La simulazione del vetro ultra-stabile su un computer era impraticabile a causa dello straordinario tempo richiesto alle molecole simulate per raggrupparsi. Tre anni fa, però, il fisico dell’Università di Montpellier Ludovic Berthier ha trovato un ingegnoso sistema che gli ha permesso di accelerare il processo di un fattore di mille miliardi.  Il suo algoritmo sceglie due particelle a caso e scambia le loro posizioni. Queste riorganizzazioni aiutano il liquido simulato a rimanere sciolto, consentendo alle molecole di stabilirsi in modo aderente.

In un articolo su Physical Review Letters, Berthier e tre coautori hanno riferito che più stabile è il vetro simulato, meno sistemi a due livelli possiede. Come per le misurazioni della capacità termica di Hellman e Ramos, le simulazioni al computer suggeriscono che i sistemi a due livelli (configurazioni concorrenti di gruppi di molecole) sono la fonte dell'entropia del vetro. Meno stati alternativi ci sono, più stabilità e ordine a lungo raggio ha un solido amorfo e più è vicino al vetro ideale.

lunedì 4 ottobre 2021

Gilbert N. Lewis e l’acqua pesante

 



Produrre l’acqua pesante

Dopo la scoperta del deuterio (D) da parte di Harold Urey, la sua limitatissima disponibilità in forma pura rendeva praticamente impossibile misurarne le proprietà chimiche. Anche se la sua concentrazione fosse stata aumentata di cento volte (a circa il 2%) non ci aspettava che mostrasse differenze chimiche apprezzabili rispetto al normale idrogeno. Per caratterizzare chimicamente l’idrogeno pesante era necessario sintetizzare suoi composti con quasi tutti gli atomi di idrogeno significativi sostituiti da deuterio. Iniziò la gara per ottenere per primi l’acqua pesante, D2O.


La distillazione dell’idrogeno liquido era un metodo abbastanza complicato per purificare il deuterio, e Edward Washburn del National Bureau of Standards suggerì che l’elettrolisi dell’acqua distillata avrebbe funzionato forse meglio. Quando l’acqua viene sottoposta a elettrolisi (quando i terminali di una batteria sono inseriti nell’acqua), si forma idrogeno gassoso a uno dei poli. Una percentuale più piccola di idrogeno pesante rispetto a quello leggero passa nella fase gassosa, concentrando in tal modo l’acqua pesante in fase liquida. Washburn pubblicò il suo metodo elettrolitico, anche se i primi test avevano prodotto solo pochissima acqua pesante, con una piccola percentuale di deuterio. Aveva comunque ragione: gli isotopi dell'idrogeno vengono separati con relativa facilità mediante elettrolisi.



Nel luglio 1932 Washburn e Urey pubblicarono risultati qualitativi relativi alla concentrazione di deuterio mediante l'elettrolisi dell'acqua. In seguito all’articolo di Birge e Menzel e a quello di Urey, che avevano stimato una concentrazione del deuterio molto più elevata rispetto alle prime ipotesi (1/4500 atomi invece di 1/30.000), Gilbert N. Lewis (1875-1946), uno dei più grandi chimici del Novecento, decise allora di entrare nella gara per essere il primo a ottenere acqua pesante pura. Una volta ottenuta, l’avrebbe potuta utilizzare per sintetizzare un buon numero di composti con D al posto di H e studiarne le proprietà. Abbandonò un suo programma di ricerca teorica e contattò Ronald T. Macdonald, invitandolo a diventare un suo assistente di ricerca. Macdonald aveva completato la sua tesi di dottorato all'inizio del 1931 e non aveva ancora trovato lavoro; perciò, era rimasto a Berkeley in qualità di professore assistente. Macdonald iniziò a collaborare con Lewis nel gennaio 1932, inizialmente per realizzare una ricerca sulla separazione degli isotopi del litio.

Alla fine di febbraio 1933, Lewis e Macdonald avevano isolato 0,5 cc al 31% di D2O utilizzando il metodo elettrolitico. A metà marzo 1933, avevano preparato un secondo campione da 0,5 cc contenente il 66% di D2O. Un’ulteriore arricchimento con il metodo elettrolitico fu realizzato per produrre acqua con un contenuto di deuterio superiore al 99%. Disponendo di una quantità di acqua con un contenuto di deuterio nell'intervallo 30-99%, Lewis e Macdonald procedettero a misurare alcune delle proprietà fisiche del D2O. Le prime proprietà studiate furono il punto di congelamento, il punto di ebollizione alla pressione di 1 atmosfera e la densità e la pressione di vapore in funzione della temperatura. I dati sulla pressione di vapore confermarono la precedente scoperta di Lewis e Cornish che la pressione di vapore di D2O è inferiore a quella di H2O. 

Un altro metodo di concentrazione studiato da Lewis era la distillazione frazionata dell'acqua. La ricerca di Lewis per un arricchimento del deuterio mediante la distillazione dell'acqua era condotta in collaborazione con Robert E. Cornish utilizzando un alambicco a colonna da 6 m che era stato recentemente migliorato. Lewis e Cornish conclusero che nella distillazione dell'acqua non solo il deuterio era stato arricchito nella fase liquida, ma anche il 18O. 

Risultati simili a quelli ottenuti da Lewis e Cornish furono ottenuti indipendentemente da Washburn e altri presso il National Bureau of Standards. Il lavoro di Washburn fu comunicato e pubblicato prima della comunicazione di Lewis e Cornish. Gli esperimenti di distillazione del Bureau e di Berkeley furono comunicati a una settimana l'uno dall'altro, rispettivamente il 15 maggio 1933 e il 22 maggio 1933.

Fu subito evidente al gruppo di Berkeley che, sebbene il fattore di frazionamento della distillazione fosse molto più piccolo di quello della separazione elettrolitica, il processo di distillazione era reversibile e l'efficienza poteva essere facilmente moltiplicata in una colonna di distillazione. 

Le colonne di distillazione sono molto efficaci nel separare le sostanze quando il rapporto tra la loro altezza e il loro diametro è il più grande possibile e sono riempite di piccole particelle inerti - ora si usano comunemente perline di vetro - sulle quali il materiale che viene distillato può condensare. Le colonne più alte e più strette danno la più alta purezza, ma non possono gestire molto materiale. Si usa allora separare le colonne in fasi: all’inizio si usano le colonne più larghe per ottenere una separazione iniziale, poi si sposta il prodotto concentrato in colonne più strette che aumentano ulteriormente la purezza.  

Queste considerazioni portarono alla decisione di costruire un impianto di distillazione a Berkeley per l'arricchimento primario del deuterio mediante distillazione dell'acqua a circa 60°C. Il compito fu assunto da Merle Randall, collega di Lewis a Berkeley e suo ex studente (e coautore del fondamentale Thermodynamics and free energy of chemical substances nel 1923). L'impianto del laboratorio era costituito da due colonne alte 22 m ciascuna. La colonna primaria aveva un diametro di 30 cm; la colonna del secondo stadio aveva un diametro di 5 cm. Di queste colonne Lewis disse che “A causa di circostanze che sono troppo note per dilungarsi, la colonna [più larga] doveva essere riempita non con il materiale di riempimento migliore, ma con il più economico reperibile”. Entrambe le colonne furono allora riempite con torniture di alluminio di scarto. Il materiale di riempimento non era molto adatto e fu scelto a causa dei limiti di fondi. In alcuni lavori successivi fu sostituito da piccoli anelli di ottone fabbricati originariamente per farne occhielli per scarpe. La colonna di 30 cm era un tubo di acciaio scartato dalla centrale elettrica dell'Università. L'intera costruzione della prima fase dell'impianto comprensiva dell'acquisto dei materiali, della costruzione, dell'installazione e delle operazioni preliminari fu realizzata in 20 giorni. L'impianto entrò in funzione l'8 giugno 1933. Aveva un'alimentazione alla torre primaria di 1 litro di acqua ordinaria al minuto. L'acqua arricchita del primo stadio era utilizzata come alimentazione per la colonna del secondo stadio. Il materiale in uscita dall'impianto di distillazione era ulteriormente arricchito da Lewis e Macdonald nell’impianto elettrolitico. 

Sebbene l'impianto di distillazione dell'acqua non avesse funzionato secondo le aspettative a causa della scarsa qualità del riempimento, Lewis e Macdonald presto produssero D2O nell'ordine di 1 grammo alla settimana con purezza maggiore del 99%. Usarono parte del materiale nella loro ricerca, ma furono estremamente generosi nel metterne a disposizione degli scienziati di tutto il mondo. Nella primavera del 1933 Lewis fornì campioni di deuterio per la ricerca nucleare a Lawrence a Berkeley, Lauritsen al Caltech e Rutherford a Cambridge (Inghilterra).

L'impianto di distillazione dell'acqua fu successivamente migliorato da Randall e fu utilizzato a intermittenza per produrre acqua arricchita con 18O per gli studi sui traccianti, condotti, tra gli altri, da Axel R. Olson e Samuel C. Ruben. Dopo che Lewis aveva concluso la ricerca sull’acqua pesante a metà del 1934, lui e Macdonald tornarono alla sfida di separare gli isotopi del litio. 

Non solo Lewis e Macdonald avevano raggiunto il loro obiettivo di preparare quantità di grammi di isotopi stabili arricchiti per lo studio delle loro proprietà chimiche e fisiche, ma contribuirono all'uso di metodi chimici per la loro separazione. Nella loro produzione di D2O dimostrarono gli effetti del fattore di arricchimento del processo di moltiplicazione degli stadi sull'entità della separazione e sulla quantità di materiale separato prodotto. Durante la Seconda guerra mondiale, il ruolo più importante dell'acqua pesante sarebbe stato nel campo della fisica dei reattori. È interessante notare che la Du Pont Company avrebbe scelto nel 1943 di produrre acqua pesante in quantità di tre tonnellate al mese per il progetto Manhattan proprio mediante un arricchimento primario mediante distillazione dell'acqua seguita da elettrolisi. 

Proprietà dell'acqua pesante

Non appena Lewis e Macdonald ebbero accumulato una quantità sufficiente di D2O quasi pura, iniziarono a misurare alcune delle sue proprietà fisiche. Per ottenere i risultati più accurati in un tempo minimo, Lewis chiese l'assistenza di un certo numero di studenti laureati nel Dipartimento. Thomas C. Doody studiò la conduttanza elettrica di soluzioni ioniche con un ponte di precisione Jones e Bradshaw, sotto la guida di Randall. Foody costruì una cella di microconduttività e misurò la mobilità relativa di KCl in H2O e in D2O, HCl(H2O) e DCl(D2O). William Maroney aveva un ponte capacitivo per misurazioni di costanti dielettriche e misurò la costante dielettrica di D2O rispetto a H2O. Daniel B. Luten, Jr., che seguiva le velocità delle reazioni chimiche in soluzione misurando l'indice di rifrazione, determinò l'indice di rifrazione di D2O in funzione della lunghezza d'onda. La determinazione simultanea della densità e dell'indice di rifrazione di un campione di acqua fornì un'analisi isotopica sia per 2H che per 18O. Lewis e Macdonald misurarono il peso specifico, la tensione di vapore e la viscosità di D2O in funzione della temperatura.

Nell'agosto 1933, Wesley T. Hanson, Jr., che era al suo primo anno come studente laureato a Berkeley, misurò la pressione di vapore del deuterio. Philip W. Schutz misurò le costanti di dissociazione di un certo numero di acidi e basi deboli nell'acqua pesante e le pressioni di vapore di un certo numero di composti di deuterio. 

Le prime indagini del laboratorio di Lewis sulle proprietà fisiche dell'acqua pesante furono molto importanti e utili per il suo lavoro, per altri operatori sul campo e per la caratterizzazione delle differenze tra acqua leggera e pesante. La differenza di densità è entro lo 0,5%, interamente dovuta alla differenza di peso molecolare. Il volume molare di H2O risultò dello 0,4% inferiore a D2O a 25°C. Le costanti dielettriche e gli indici di rifrazione di H2O e D2O, che dipendono dalla configurazione elettronica, dalla carica nucleare e dalla geometria molecolare, risultarono quasi identici.

Le misurazioni di Lewis delle proprietà fisiche e chimiche dell'acqua pesante e di altri composti di deuterio furono tutte effettuate su campioni inferiori a 1 ml di liquido. I ricercatori riconobbero che i loro campioni e le soluzioni avevano impurità che erano difficili da rimuovere. Alcune impurità provenivano dai recipienti di misurazione e potevano essere rimosse solo sciacquando con una quantità maggiore della disponibilità mondiale di acqua pesante in quel momento. Lo stile di Lewis era di non fare la misurazione definitiva. Lo lasciò fare ad altri. In questo lavoro come in altri suoi lavori, voleva una misurazione abbastanza buona per rispondere alle sue domande. La compilazione di Kirshenbaum delle proprietà fisiche dell'acqua pesante fornì un compendio completo e una valutazione delle determinazioni delle proprietà fisiche dell'acqua pesante fino alla fine degli anni '40. Un confronto riassuntivo è riportato nella tabella.

La seconda tabella mostra i valori oggi accettati di alcune grandezze fisiche per l’acqua distillata e quella pesante:


Effetto isotopico della pressione di vapore

Per effetto isotopico si intende la variazione di alcune caratteristiche di un elemento (come densità e spettro) in funzione della massa degli isotopi coinvolti. La deuterazione di un legame idrogeno sostituendo l’idrogeno leggero (H) con il deuterio (D) può causare cambiamenti geometrici nel legame idrogeno. La misurazione di Lewis e Macdonald della tensione di vapore di D2O in funzione della temperatura mostrò un coefficiente di temperatura molto grande per il logaritmo del rapporto di pressione di vapore (lnPH2O/PD2O). Tale effetto fu attribuito da Lewis al legame idrogeno in acqua. L'energia del punto zero associata al legame idrogeno è principalmente responsabile dell'effetto isotopico della pressione di vapore. 

Nella misurazione del fattore di frazionamento dell'isotopo dell'idrogeno nella distillazione dell'acqua, Lewis e Cornish furono sorpresi di scoprire che esso era circa la metà di quello che ci si poteva aspettare dai dati di Lewis e Macdonald sulle pressioni di vapore di H2O pura e D2O. Essi riconobbero che nelle soluzioni diluite di D2O in H2O il deuterio è presente sotto forma di HDO (acqua semipesante). Assumendo una distribuzione statistica di idrogeno leggero e deuterio tra le specie H2O, HDO e D2O si arrivò empiricamente alla regola della media geometrica, ln (PH2O/PHDO) ≃ 1/2 ln (PH2O/PD2O). 



All'epoca non esisteva alcuna teoria molecolare dell'effetto isotopico della fase condensata. Infatti, è stata l'assenza di una tale teoria, in particolare rispetto allo stato liquido, che rese questi studi interessanti per Lewis. Nella sua conferenza al Congresso Internazionale IUPAC di Madrid nel 1934, Lewis affermò: "D'altra parte, sono spesso proprio questi casi che sfidano l'analisi della fisica matematica che sono di maggior interesse per i chimici". La sfida durò circa 30 anni. Negli anni ‘60 l'analisi degli effetti isotopici della pressione di vapore attraverso la meccanica statistica dei sistemi interagenti ha fornito interessanti informazioni sulle forze intermolecolari, l'accoppiamento delle forze intermolecolari con quelle intramolecolari, l’ingombro sterico nei solidi e nei liquidi e la struttura dei fluidi monoatomici e poliatomici. 

Biologia dell'acqua pesante

Uno stile di lavoro caratteristico di Lewis nelle ricerche sull'acqua pesante era quello di lavorare con un piccolo numero di assistenti. Qualche volta, però preferiva svolgere da solo degli esperimenti esplorativi. Nella ricerca sull'acqua pesante questi esperimenti furono progettati per testare un'ipotesi avanzata da Lewis che il D2O non avrebbe sostenuto la vita e sarebbe risultato letale per gli organismi superiori. Questa era la prima ricerca sperimentale di Gilbert N. Lewis nelle scienze biologiche. I suoi primi esperimenti furono sui semi di tabacco (una scelta interessante, dato che era un fumatore accanito). Lewis scoprì che essi germinano in quattro giorni in acqua normale, e non germinano in tre settimane in D2O. Se i semi venivano poi prelevati dalla D2O e posti in acqua normale, la germinazione avveniva in modo anomalo dopo una settimana. "I germogli erano estremamente sottili e questa crescita malaticcia si è conclusa dopo poche settimane". D'altra parte, i semi posti in 50% di D2O mostravano uno sviluppo normale, anche se a un ritmo più lento rispetto a H2O. Lewis scoprì poi che il lievito non fermentava né si sviluppava la muffa nei terreni con l'H2O sostituita da D2O. Sulla base di queste osservazioni preliminari fu portato a prevedere che i microrganismi non sarebbero cresciuti in D2O, in particolare dopo che tutto l'idrogeno scambiabile era stato sostituito dal deuterio. Dimostrò che il D2O era letale per i platelminti. I platelminti esposti a D2O per meno di 4 ore e poi tornati a H2O avevano invece una ragionevole possibilità di sopravvivenza. 

Lewis tentò un test inconcludente sull'effetto dell'acqua pesante su un topo. Ecco come andò, con la sua testimonianza (di Lewis, non del topo):

“Infine, volli testare l'effetto dell'acqua pesante su un animale a sangue caldo. A questo scopo ottenni tre topolini bianchi di rispettabile stirpe, del peso di circa dieci grammi l'uno, e li tenni in laboratorio per parecchi giorni mentre osservavo le loro normali abitudini. Poi, dopo che tutti erano stati privati dell'acqua durante la notte, a due dei topi diedi acqua normale mentre al terzo fu data acqua pesante (...) Tuttavia, l'esperimento è stato molto costoso e mi dispiace che, poiché fu fatto solo per accertare se l'acqua pesante sarebbe stata letale, non ci fu alcuna preparazione per un attento studio clinico degli effetti prodotti.

La risposta alla domanda principale è stata decisiva (...) Il topo è sopravvissuto e il giorno dopo sembrava perfettamente normale. Tuttavia, durante l'esperimento ha mostrato evidenti segni di intossicazione. Mentre i topi di controllo passavano il loro tempo mangiando e dormendo, lui non fece né l'uno né l'altro, ma divenne molto attivo e passava gran parte del tempo, per qualche misteriosa ragione, a leccare le pareti di vetro della sua gabbia. Più beveva dell'acqua pesante, più aveva sete, e probabilmente avrebbe bevuto molto di più se la nostra scorta di acqua pesante non si fosse esaurita. I sintomi di disagio che mostrava sembravano più pronunciati dopo ogni dose, ma non si accumulavano con le dosi successive, il che mi porta a sospettare che l'acqua pesante venisse rapidamente eliminata dal topo. Questo avrebbe potuto essere accertato se fosse stata fatta una preparazione adeguata”

Tutto ciò che si può dedurre da quell'esperimento è che un topo di 10 g superò in astuzia il grande Gilbert N. Lewis. Il topo aveva consumato la scorta mondiale di acqua pesante e non faceva altro che correre intorno alla sua gabbia, leccando le pareti e urinando nella sua lettiera di paglia. All'interno del dipartimento di chimica di Berkeley, il fatto divenne noto come "il topo che mise in ridicolo G. N. Lewis". Da tutto questo lavoro biologico, Lewis concluse che l'acqua pesante non era di per sé tossica, ma che suppliva la privazione dell'acqua normale e causava cambiamenti nei ritmi delle funzioni biologiche in modo tale che la vita non sarebbe stata supportata.



L'acqua pesante a buon mercato per la ricerca biologica sperimentale divenne disponibile a metà degli anni '50, quando fu realizzato un vasto programma sperimentale da J.J. Katz presso l'Argonne National Laboratory. I ricercatori riuscirono a coltivare alghe verdi in pura D2O. La morfologia delle alghe fatte crescere in acqua pesante differisce significativamente da quelle coltivate in H2O. Katz sfruttò le alghe cresciute in D2O per preparare un’ampia quantità di composti di deuterio attraverso la biosintesi.

Senza dubbio, la sostituzione dell’idrogeno leggero con il deuterio modifica la velocità delle reazioni biochimiche, gli equilibri e quindi il pH (pD) delle soluzioni fisiologiche, la viscosità del mezzo, la struttura degli acidi nucleici, ecc. 

Per concludere

Tra il febbraio 1933 e il luglio 1934 Lewis pubblicò 26 dei 200 articoli sul deuterio. In base al criterio del numero di pubblicazioni fu il periodo più produttivo della sua carriera. Sotto ogni aspetto, Lewis fornì contributi fondamentali allo sviluppo della chimica degli isotopi negli anni '30. Questi includono la preparazione della D2O pura, il lavoro sulla separazione degli isotopi per distillazione, elettrolisi e scambio chimico, lo studio dell'effetto del deuterio sulle pressioni di vapore nelle reazioni protolitiche, nelle quali si ha passaggio di uno ione idrogeno da un acido a una base, l'effetto del deuterio sulle costanti di ionizzazione degli elettroliti deboli e alcuni esperimenti pionieristici sulla biologia dell'acqua pesante e le reazioni nucleari del deuterone. In tutte queste ricerche, Lewis era guidato dall'applicazione di argomenti qualitativi riguardanti il ​​ruolo dell'energia di punto zero sulle proprietà chimiche e fisiche delle sostanze e, soprattutto, da una insaziabile e mutevole curiosità.