Visualizzazione post con etichetta emergenza. Mostra tutti i post
Visualizzazione post con etichetta emergenza. Mostra tutti i post

giovedì 18 novembre 2021

Cent’anni di scienza e filosofia della vita

 


La vita è spesso definita in base a un elenco di proprietà che distinguono i sistemi viventi da quelli non viventi. Sebbene vi sia una certa sovrapposizione, questi elenchi sono spesso diversi, a seconda degli interessi degli autori. Edward Trifonov ha raccolto nel 2011 più di 120 definizioni di vita, cercando un denominatore comune, ma questo approccio non è sembrato scientifico a molti: ogni tentativo di definizione è legato a una teoria da cui deriva il suo significato e non può essere ottenuto da pratiche combinatorie. 

 

Gli esseri viventi condividono una serie di proprietà che non sono presenti contemporaneamente nella materia inanimata, sebbene si possano trovare esempi di materia che esibisce l'una o l’altra, ma mai insieme. Le entità viventi metabolizzano, cioè ricavano energia chimica dalla degradazione di sostanze nutritive ricche di energia, dall’ambiente o dall’energia solare; convertono le molecole nutritive nei precursori di base delle macromolecole cellulari; utilizzano questi precursori per formare altre sostanze organiche con diversa natura e funzioni; formano e degradano biomolecole necessarie a funzioni specializzate delle cellule. 




Inoltre, crescono, si riproducono, interagiscono con il loro ambiente, hanno strutture organizzate complesse, variabilità ereditabile e hanno discendenze che possono evolversi nel tempo, producendo strutture funzionali nuove che forniscono una maggiore capacità di adattamento in ambienti mutevoli. La riproduzione coinvolge non solo la replicazione degli acidi nucleici che trasportano l'informazione genetica, ma anche la costruzione epigenetica dell'organismo attraverso meccanismi di metilazione di acidi nucleici e proteine che non coinvolgono il genotipo. 





Ciò che è vivo ha strutture organizzate e complesse che svolgono queste funzioni, oltre a percepire e rispondere agli stati interni e all'ambiente esterno e impegnarsi nel movimento all'interno di quell'ambiente. Va ricordato che i fenomeni evolutivi sono un aspetto inestricabile dei sistemi viventi; ogni tentativo di definire la vita in assenza di questa prospettiva diacronica è vano. 

 

La scuola inglese

 

Il dibattito moderno sul rapporto tra materia e vita si sviluppò durante il periodo in cui i biochimici stavano cercando di definire il loro campo come una disciplina separata dalla chimica o dalla fisiologia, intorno al 1930.

 

Lo scienziato e divulgatore britannico John B. S. Haldane in The Sciences and Philosophy (1929) si oppose alla riduzione dei fenomeni biologici a spiegazioni meccanicistiche, poiché vedeva la struttura degli organismi biologici e la loro azione diversi da ciò che si vedeva nei sistemi fisici. Le leggi della chimica e della fisica non erano abbastanza solide per spiegare la biologia. “È la vita che stiamo studiando in biologia, e non fenomeni che possono essere rappresentati da concezioni causali della fisica e della chimica”.

 

Il biologo sperimentale e statistico medico Lancelot Hogben, nel libro The Nature of Living Matter (1930), lamentava il disinteresse di molti biologi del suo tempo per il ruolo dell’ambiente nello sviluppo degli organismi e sosteneva una visione riduzionista. Per Hogben, la natura della scienza è che le sue risposte sono sempre incomplete ed essa non ha gli stessi obiettivi della filosofia. Hogben non vedeva la necessità di abbandonare la metodologia riduzionista che la biochimica stava sviluppando. 

 

Per Joseph H. Woodger (Biological Principles: A Critical Study, 1929) la risoluzione doveva giungere dal riconoscimento dell'importanza primaria dell'organizzazione biologica e dei suoi livelli: “per cellula quindi intendo un certo tipo di organizzazione biologica, non un'entità concreta”. Woodger esortava ad abbandonare l'uso della parola "vita" nel discorso scientifico sulla base del fatto che "organismo vivente" era ciò che doveva essere spiegato. Per Woodger la domanda sul come è nata la vita è al di fuori della scienza.

 

Forse il luogo in cui il problema della natura della vita venne affrontato con maggiore insistenza fu il Dipartimento di Biochimica dell'Università di Cambridge. Durante la prima metà del ventesimo secolo, sotto la guida del biochimico Sir Frederick Gowland Hopkins, il dipartimento stabilì gran parte del quadro concettuale e della metodologia, oltre a formare molti dei più noti esponenti del settore. Hopkins credeva che, sebbene gli esseri viventi non disubbidiscano a nessuna legge fisica o chimica, essi le sostanziano in modi che richiedono la comprensione dei fenomeni biologici, dei vincoli e dell'organizzazione funzionale.




Nel suo importante discorso alla British Association for the Advancement of Science tenuto nel 1913, Hopkins respinse sia il riduzionismo dei chimici organici che cercavano di dedurre in vitro ciò che doveva accadere in vivo, sia il cripto-vitalismo di molti fisiologi che osservavano il protoplasma delle cellule viventi come vivo in sé stesso e irriducibile all'analisi chimica. Ciò che Hopkins offriva invece era una visione della cellula come una macchina chimica, obbediente alle leggi della termodinamica e della chimica fisica in generale, ma con strutture e funzioni molecolari organizzate. La cellula vivente “non è un grumo di materia composto da un gruppo di molecole simili, ma un sistema altamente differenziato: la cellula, nella moderna concezione della chimica fisica, è un sistema di fasi coesistenti di diversa natura”. Capire come si era realizzata l'organizzazione era tanto importante quanto sapere come si erano verificate le reazioni chimiche. Per Hopkins la vita è “una proprietà della cellula nel suo insieme, perché dipende dall'organizzazione dei processi”. Hopkins era influenzato dalla filosofia di Alfred North Whitehead sviluppata in Process and reality (1929), che sosteneva che la realtà consiste di processi piuttosto che di oggetti materiali, e che i processi sono meglio definiti dalle loro relazioni con altri processi, rifiutando così la teoria secondo cui la realtà è fondamentalmente costituita da pezzi di materia che esistono indipendentemente l'uno dall'altro.

 

Un membro del dipartimento di Cambridge, il biochimico, storico della scienza e più tardi grande sinologo Joseph Needham, si impegnò attivamente nel divulgare le idee di Hopkins nella comunità intellettuale scrivendo della base filosofica della biochimica in Science, Religion and Reality (1925). Needham seguì Hopkins nell'affermare che la questione cruciale non era più il rapporto tra sostanza vivente e non vivente, ma anche tra mente e corpo, e la biochimica doveva affidare alla filosofia e alle allora nascenti neuroscienze quest'ultima questione, affinché potesse concentrarsi sul conoscere la materia vivente. Un altro membro del dipartimento di biochimica, Norman Pirie, nel 1937 argomentò che essa non poteva essere adeguatamente definita da un elenco di qualità e nemmeno di processi, poiché la vita "non può essere definita in termini di una variabile". Per il programma del gruppo di Hopkins c’era la sfida di capire come leggi fisiche e chimiche piuttosto semplici possano produrre la complessità dei sistemi viventi.

 

Durante gli anni '30 un gruppo informale, noto come Biotheoretical Gathering, si riuniva a Cambridge e comprendeva diversi membri del dipartimento di biochimica e un certo numero di altri scienziati di Cambridge e filosofi. Questo gruppo aveva l'obiettivo di costruire una biologia teorica e filosofica transdisciplinare, che aiutasse a gettare le basi per l’affermazione della biologia molecolare. Il programma di ricerca di Hopkins era ben consolidato e fu collegato al lavoro del Biotheoretical Gathering, influenzando John B. S. Haldane, che diede importanti contributi alla teoria degli enzimi e alla creazione della moderna sintesi evolutiva, il neodarwinismo. Haldane avrebbe svolto un ruolo importante nello spostare la preoccupazione dalla natura della vita alla sua origine come soggetto di studio scientifico. Haldane sospettava, insieme a Pirie, che una definizione di vita pienamente soddisfacente fosse impossibile, ma affermava che la definizione materiale era un obiettivo ragionevole per la scienza. Vedeva la vita come “un modello di processi chimici. Questo modello ha proprietà speciali. Genera uno schema simile, come fa una fiamma, ma si regola come una fiamma non fa”. L'uso della metafora della fiamma per l'attività metabolica cellulare implicava un processo di non equilibrio in un sistema aperto in grado di riprodursi, ma anche, al limite della metafora, di autoregolazione. In ciò, Haldane rifletteva la preoccupazione di capire come la materia e le leggi fisiche potessero portare a fenomeni biologici.

 

Cos'è la vita? di Schrödinger

 

Nel 1943 il grande fisico Erwin Schrödinger (sì, quello dell'equazione della funzione d'onda e del paradosso del gatto) tenne una serie di conferenze al Dublin Institute for Advanced Studies, che furono pubblicate come What is Life? nel 1944. Questo piccolo libro ebbe un grande impatto sullo sviluppo della biologia del ventesimo secolo, specialmente sui fondatori della biologia molecolare. Schrödinger si chiedeva come fosse possibile che ci fosse un ordine duraturo nelle molecole responsabile dell'ereditarietà, quando era ben noto che gli insiemi statistici di molecole diventavano rapidamente disordinati (con un aumento dell'entropia come previsto dalla seconda legge della termodinamica). Il problema dell'ereditarietà fu quindi riformulato a livello molecolare con la domanda “Come l'ordine può dar luogo all'ordine?” L'altro argomento principale che interessava Schrödinger era la termodinamica degli esseri viventi in generale, ovvero “Come possono generare ordine dal disordine attraverso il loro metabolismo?” 

 



Fu la risposta alla prima domanda che catturò l'attenzione dei fondatori della nuova biologia. Schrödinger sosteneva che il materiale molecolare doveva essere un solido "aperiodico" che aveva incorporato nella sua struttura un "codice in miniatura". Le idee di “'cristallo aperiodico” e di “codice” non erano in realtà originali (il DNA era stato scoperto dallo svizzero Friedrich Miescher nel 1869, ma il suo ruolo nella riproduzione e la forma elicoidale erano ancora sconosciuti), ma insistevano sull'ipotesi di una logica molecolare della vita. Ciò voleva dire che la struttura degli atomi che comprendono la molecola dell’eredità non possedeva un singolo ordine periodico ripetitivo, ma avrebbe avuto piuttosto un ordine di livello superiore a causa della struttura delle sue subunità molecolari; era questo ordine di livello superiore, ma aperiodico, che avrebbe contenuto le informazioni codificate dell'ereditarietà. 

 

Nel 1952 l'esperimento di Alfred D. Hershey e Martha Chase provò definitivamente che il materiale genetico è costituito da DNA e non da proteine. Con la scoperta nel 1953 della struttura a doppia elica del DNA da parte di James D. Watson e Francis H.C. Crick, la specificità biologica fu ricondotta alla sequenza definita e unica dei nucleotidi che trasporta quella che da quel momento viene chiamata l'informazione genetica. 'Specificità' e 'informazione' vennero a coincidere e nel 1958 Crick affermava che "la specificità di un pezzo di acido nucleico è espressa solamente dalla sequenza delle sue basi, e [che tale] sequenza è un codice (semplice) per la sequenza di amminoacidi di una particolare proteina"; quindi "informazione significa determinazione precisa della sequenza, sia delle basi nell'acido nucleico sia dei residui amminoacidici della proteina".  Nello stesso anno, Crick definiva il “dogma centrale” della biologia molecolare, secondo cui il flusso dell'informazione genetica è monodirezionale: parte dagli acidi nucleici per arrivare alle proteine, senza considerare un percorso inverso.

 



La struttura a doppia elica del DNA proposta da Watson e Crick spiegava in che modo si replica il materiale ereditario, cioè come si trasmettono caratteristiche geneticamente determinate da una cellula all'altra e da una generazione all'altra. Inoltre, consentiva di ipotizzare e quindi stabilire che la sequenza delle basi del DNA contiene le informazioni, scritte in un codice particolare, per la sintesi delle proteine, e quindi per il funzionamento delle cellule di cui sono costituiti i tessuti e gli organismi. Gli studi sul codice genetico e la sintesi delle proteine trasformarono i fondamenti della biologia tra il 1955 e il 1965. La duplicazione del DNA implicava che potevano essere copiati anche i cambiamenti, dovuti a mutazioni spontanee o ad altri meccanismi che possono introdurre modificazioni nelle sequenze delle basi e quindi nelle istruzioni genetiche. Le mutazioni, come per esempio la sostituzione di una base con una diversa, possono determinare la creazione di nuove proteine, spesso non in grado di svolgere la normale funzione, minacciando la sopravvivenza dell'organismo. In alcuni rari casi, però, le nuove proteine potranno avere acquisito una caratteristica innovativa in grado di contribuire alla sopravvivenza e alla riproduzione dell'organismo. In pratica, la nuova visione molecolare della vita confermava il quadro esplicativo proposto dalla teoria sintetica dell'evoluzione.

 



La delucidazione della struttura del DNA e la maggior comprensione della genetica molecolare eclissò l'altra parte dell'argomentazione di Schrödinger, cioè che l'aspetto più importante del metabolismo è che esso rappresenta il modo della cellula di affrontare l'entropia che non può fare a meno di produrre mentre costruisce il suo ordine interno, ciò che Schrödinger definì "negentropia". Egli notò che la cellula deve mantenersi in uno stato lontano dall'equilibrio poiché l'equilibrio termodinamico è la definizione stessa di morte. Creando ordine e organizzazione all'interno di un sistema vivente (cellule, organismi o ecosistemi), le attività metaboliche devono produrre un maggiore disordine nell'ambiente, in modo che la seconda legge non venga violata. Legò le due nozioni, di ordine dall'ordine e ordine dal disordine, affermando che "il dono sorprendente di un organismo di concentrare un “flusso di ordine” verso se stesso e sfuggire così al decadimento nel caos atomico - di “bere ordine” da un ambiente adatto — sembra essere collegato alla presenza di “solidi aperiodici”, le molecole cromosomiche, che rappresentano senza dubbio il più alto grado di associazione atomica ben ordinata che conosciamo (molto più alto del normale cristallo periodico) in virtù del ruolo individuale che ogni atomo e ogni radicale sta giocando”

 

L’ordine che crea l’ordine

 

L'impatto del piccolo volume di Schrödinger su una generazione di fisici e chimici che furono attratti dalla biologia e che fondarono la biologia molecolare fu duraturo. La conoscenza delle basi proteiche e degli acidi nucleici dei sistemi viventi continua ad essere ottenuta a un ritmo accelerato, con il sequenziamento del genoma umano come punto di riferimento importante lungo il percorso che ha portato all’ingegneria genetica (tecnologia del DNA ricombinante).

 

In Il gene egoista (1976, 1989), l’etologo, biologo e divulgatore Richard Dawkins identificò nel gene, anziché nell'organismo individuale, il soggetto principale della selezione naturale che conduce il processo evolutivo. Dawkins, affermava che: “L'unità fondamentale della selezione, e quindi dell'egoismo, non è né la specie né il gruppo e neppure, in senso stretto, l'individuo, ma il gene, l'unità dell'ereditarietà”. Nel descrivere i geni come egoisti, l'autore non intendeva (come è inequivocabilmente dichiarato nel libro) implicare che sono guidati da motivi o volontà, ma semplicemente che i loro effetti possono essere accuratamente descritti come se lo fossero. Il mondo è diviso in replicatori, molecole stabili che, a differenza delle altre, hanno la capacità di replicarsi, che sono visti come il livello fondamentale di azione per la selezione naturale, e interattori, le molecole e le strutture codificate dai replicatori. Questi replicatori si diffusero nel “brodo primordiale”, popolando il mare. Il processo di replicazione non è però perfettamente fedele, in alcuni casi si creano delle copie sbagliate. L'errore di copiatura ha giocato un ruolo fondamentale nell'evoluzione della vita, poiché permise la propagazione di molecole diverse tra loro, alcune delle quali riuscivano a replicarsi meglio. La competizione fra queste molecole e le avversità ambientali selezionavano i replicatori più adatti, i quali perfezionarono le loro tecniche di propagazione. Alcuni di essi, ipotizzava Dawkins, potrebbero essersi evoluti in modo da potersi "nutrire" di altri replicatori, altri ancora potrebbero aver costruito una sorta di scudo di protezione dagli agenti esterni, dando vita alle prime forme di cellule primordiali. I replicatori di oggi sono i geni all'interno degli organismi viventi. In effetti, Dawkins relegava gli organismi allo stato di veicoli genici, o macchine di sopravvivenza.

 

Le idee di Dawkins suscitarono una reazione a quella che venne percepita come un'eccessiva enfasi sulla replicazione degli acidi nucleici. In particolare, i teorici dei sistemi di sviluppo hanno sostenuto un pluralismo causale nella biologia dello sviluppo e dell'evoluzione. La posizione di Dawkins fu fortemente contestata dagli americani Niles Eldredge, paleontologo, e Stephen Jay Gould, biologo, paleontologo e storico della scienza, estensori della teoria degli equilibri punteggiati. Tale teoria sostiene che i cambiamenti evolutivi avvengono in periodi di tempo relativamente brevi (su scala geologica) sotto l'impulso di forze selettive ambientali; questi periodi di variazione evolutiva sarebbero intervallati da lunghi periodi di stabilità. L'accesa e prolungata polemica di Gould contro Dawkins nasceva dalla sua opposizione al determinismo sotteso al suo pensiero, a favore dell'indeterminismo che, secondo Gould sta alla base della maggior parte dei processi biologici innovativi. Nella visione di Gould, come peraltro in quella già del francese Jacques Monod e di tutti i biologi evoluzionisti, il caso (serie di cause sconnesse o causalità intricata) produce il nuovo, mentre la necessità, attraverso la selezione naturale che opera in base a causalità lineare, conserva l'adatto ed elimina l'inadatto.  

 

Un altro oppositore di Dawkins fu il genetista Richard Lewontin, il quale sosteneva che, mentre il darwinismo tradizionale ha descritto l'organismo come soggetto passivo di influenze ambientali, sarebbe più corretto descrivere l'organismo come costruttore attivo del suo ambiente. Le nicchie ecologiche non sono ricettacoli precostituiti in cui gli organismi vengono inseriti, ma sono definite e create dagli organismi stessi. Il rapporto organismo-ambiente è dunque reciproco e dialettico. Lewontin è stato un critico tenace di alcuni temi del neodarwinismo; in particolare ha criticato coloro che, come anche Dawkins, tentavano di spiegare i comportamenti e le strutture sociali degli animali in termini di vantaggio o di strategia evoluzionistici; questo indirizzo di studio, secondo Lewontin, può essere considerato come una forma di determinismo genetico.

 



Il disordine che crea l’ordine

 

Meno noto è l'oltre mezzo secolo di lavoro ispirato dall'altro pilastro del discorso di Schrödinger, cioè come gli organismi ottengono ordine dal disordine attraverso la termodinamica di sistemi aperti lontani dall'equilibrio. Tra i primi studiosi di tale termodinamica di non equilibrio spicca il chimico e fisico Ilya Prigogine, noto soprattutto per la sua definizione di strutture dissipative e il loro ruolo nei sistemi termodinamici lontani dall'equilibrio, una scoperta che gli è valsa il Premio Nobel per la Chimica nel 1977. Una struttura dissipativa è un sistema termodinamicamente aperto che opera in uno stato lontano dall'equilibrio termodinamico, scambiando con l'ambiente energia, materia e/o entropia. I sistemi dissipativi sono caratterizzati dalla formazione spontanea di anisotropia, ossia di strutture ordinate e complesse, a volte caotiche. Questi sistemi, quando attraversati da flussi crescenti di energia, materia e informazione, possono anche evolvere e, passando attraverso fasi di instabilità, aumentare la complessità della propria struttura (ovvero l'ordine) diminuendo la propria entropia. In sintesi, Ilya Prigogine ha scoperto che l'importazione e la dissipazione di energia nei sistemi chimici potrebbe risultare nell'emergenza di nuove strutture (quindi strutture dissipative) dovute all'auto-organizzazione interna. In natura esistono organismi viventi in grado di auto-organizzarsi diminuendo la propria entropia a discapito dell'ambiente, vincolati a un maggior o minor disordine entropico. A partire da queste considerazioni, Prigogine e altri studiosi hanno cominciato a gettare un ponte tra la fisica, la chimica, l'ecologia e le scienze sociali, per studiare tali settori non separatamente, ma come sistemi tra loro interagenti. Per questa ragione Prigogine è considerato uno dei pionieri della scienza della complessità.

 

Il biofisico americano Harold Morowitz affrontò esplicitamente la questione del flusso energetico e della produzione dell'organizzazione biologica. L'ordine interno può essere prodotto da gradienti di flussi di materia/energia attraverso i sistemi viventi. Le strutture così prodotte aiutano non solo ad assorbire più energia attraverso il sistema, ad allungare il suo tempo di ritenzione nel sistema, ma anche a dissipare l'energia degradata nell'ambiente, pagando così il "debito di entropia" di Schrödinger. I sistemi viventi sono quindi visti come un esempio di un fenomeno più generale di strutture dissipative. “Una struttura dissipativa si rinnova continuamente e mantiene un particolare regime dinamico, una struttura spazio-temporale globalmente stabile”. Naturalmente, se si verificano fenomeni di auto-organizzazione dipende dalle effettive condizioni specifiche (iniziali e al limite) nonché dalle relazioni tra i componenti.

 



Considerare la cellula come una “struttura dissipativa” termodinamica non era una riduzione della cellula alla fisica, come sottolineò il fisico, biologo molecolare e storico della scienza britannico John Desmond Bernal, ma piuttosto implicava una fisica della "complessità organizzata" (in contrasto con l'ordine semplice o "complessità disorganizzata"). Lo sviluppo di questa “nuova” fisica dei sistemi aperti e delle strutture dissipative che sorgono in essi fu il compimento dello sviluppo che Schrödinger aveva previsto. Le strutture dissipative nei sistemi fisici, chimici e biologici sono fenomeni spiegati dalla termodinamica del non equilibrio. I modelli spazio-temporali emergenti e auto-organizzati sono visti anche nei sistemi biologici.

 

In effetti, i fenomeni di auto-organizzazione pervadono la biologia. Tali fenomeni sono visti non solo nelle cellule e negli organismi, ma anche negli ecosistemi, il che rafforza l'idea che sia necessaria una prospettiva sistemica più ampia come parte della nuova fisica. Importanti per tali fenomeni sono le dinamiche delle interazioni non lineari (dove le risposte di un sistema possono essere molto più grandi dello stimolo) e dei cicli autocatalitici (sequenze di reazioni chiuse su sé stesse e in cui è presente una maggiore quantità di uno o più materiali di partenza). realizzati attraverso i processi. Dato che i catalizzatori nei sistemi biologici sono codificati nei geni del DNA, un punto da cui iniziare a definire la vita è considerare i sistemi viventi come entità cicliche informate e autocatalitiche che si sviluppano ed evolvono sotto i doppi dettami della seconda legge della termodinamica e della selezione. Un tale approccio collega in modo non riduttivo i fenomeni dei sistemi viventi con le leggi fondamentali della fisica e della chimica. Il biologo americano Robert Rosen sosteneva che la complessità non è la vita in sé, ma ciò che definiva "l'habitat della vita": “L'organizzazione coinvolge intrinsecamente le funzioni e le loro interrelazioni”.

 

Origine (emergenza) della vita

 

Uno dei fenomeni emergenti più importanti è quello dell'origine della vita. Il biologo cellulare Franklin Harold lo ha definito come il problema scientifico più importante che oggi abbiamo di fronte. Il filosofo della scienza britannico Michael Ruse ha affermato che è essenziale inquadrare la ricerca sull'origine della vita nel darwinismo, poiché è una condizione necessaria per una definizione della vita scientificamente e filosoficamente adeguata, mentre  Robert Rosen ha sostenuto che la ragione per cui alla domanda "cos'è la vita?" è così difficile rispondere è che vogliamo in realtà sapere molto di più di quello che è, vogliamo sapere perché è: "Ci stiamo davvero chiedendo, in termini fisici, perché uno specifico sistema materiale è un organismo e non qualcos'altro". Per rispondere a questa domanda del perché dobbiamo capire come potrebbe essere sorta la vita, continuando un filone di ricerca che ha attraversato gran parte del ventesimo secolo.

 

Durante gli anni '20 del Novecento, Alexander Oparin e John B. S. Haldane hanno proposto indipendentemente le prime ipotesi moderne su come la vita potrebbe aver avuto origine sulla Terra. I presupposti chiave erano che le condizioni geofisiche sulla terra primitiva erano molto diverse da quelle presenti, e, cosa più importante, che non ci sarebbe stato ossigeno molecolare nell'atmosfera (l'ossigeno si è sviluppato molto più tardi con la comparsa di organismi fotosintetici). In questa atmosfera chimicamente riducente si sarebbe sviluppato un “brodo” di molecole organiche sempre più complesse, da cui potrebbero essere nati i precursori dei sistemi viventi. In effetti, questo tipo di approccio può essere definito una visione incentrata sul metabolismo.

 

Un momento importante fu la dimostrazione che alcuni amminoacidi potrebbero essere stati prodotti dall'azione di una scarica elettrica attraverso una miscela di gas ritenuti presenti nell'atmosfera primitiva. Si tratta del famoso esperimento di Stanley Miller e Harold Urey del 1953, che fu tuttavia contestato perché non dava conto del fatto che gli amminoacidi trovati costituivano una miscela di enantiomeri levogiri e destrogiri, mentre quelli delle proteine viventi sono solamente levogiri. L’esperienza fu in ogni caso considerata un altro possibile punto di partenza per lo sviluppo di sostanze costitutive degli esseri viventi, ovvero le proteine, che sono polimeri di amminoacidi formate in condizioni di alta temperatura. Questa visione di “prima le proteine” suggeriva che la chimica che porta alla vita potrebbe essersi verificata in un ambiente isolato, con una debole attività catalitica, che avrebbe facilitato la produzione degli altri componenti molecolari necessari.

 



Con la comprensione della struttura del DNA, l'attenzione si è spostata verso gli acidi nucleici, che potrebbero fungere da modelli per la propria replicazione. Sebbene Dawkins pensasse che un acido nucleico, formato per caso, sarebbe stato l'inizio della vita poiché si sarebbe "auto replicato", molti approcci per arrivare agli acidi nucleici implicano un ruolo per certe molecole abiotiche minerali di contribuire a formare strutture che fungono da modelli di ordinamento e persino come catalizzatori per la loro formazione. 

 

Gli sviluppi degli studi biochimici, genetico-molecolari e cellulari hanno confermato il ruolo fondamentale del DNA come macromolecola che registra e trasmette le informazioni specifiche, ma hanno anche mostrato che la vita non coincide con l'informazione contenuta nelle sequenze del DNA. La scoperta che l'RNA può svolgere funzioni catalitiche ha dimostrato che l'informazione genetica e il codice genetico sono nati successivamente nel mondo vivente, ossia costituiscono un modo “trovato” per riprodurre più efficacemente l'organizzazione biologica. Prima che il DNA diventasse la molecola che porta l'informazione genetica esisteva il mondo dell'RNA, che racchiudeva in sé entrambe le funzioni, di memoria e di catalizzatore di reazioni chimiche, che successivamente si sarebbero separate.

 



Gli acidi nucleici, d’altra parte, non devono le loro proprietà genetiche al fatto di essere polimeri o di potersi duplicare, bensì alla trama di relazioni tra le loro proprietà e determinate funzioni intracellulari che consente la riproduzione di queste funzioni. Anche per quanto riguarda i geni, è entrata progressivamente in crisi la visione tradizionale, che associava univocamente un gene a una data sequenza nucleotidica e quindi a una data funzione: molti geni ritenuti essenziali possono essere inattivati senza conseguenze, mentre per altri è possibile trovare nuove funzioni. Ciò non significa che il DNA conti poco, ma soltanto che il suo ruolo va compreso in un contesto evolutivo e funzionale.

 

Una visione alternativa, congeniale ad un approccio termodinamico e sistemico sottolinea la necessità della presenza dei principali fattori che distinguono le cellule dalle non cellule: metabolismo tramite cicli autocatalitici di polimeri catalitici, replicazione e un involucro fisico all'interno di una barriera chimica, come quella fornita dalla membrana cellulare. Questo potrebbe essere definito un approccio “prima la proto-cellula”. I vincoli chimici e le tendenze auto-organizzanti dei sistemi chimici complessi sarebbero stati critici nel determinare le proprietà dei primi esseri viventi. Con l'emergere delle prime entità che potrebbero essere chiamate viventi sarebbe nata la selezione biologica o naturale, in cui la casualità gioca un ruolo molto maggiore.

 


mercoledì 13 ottobre 2021

Through The Glass Darkly. I misteri del vetro


Perché il vetro è rigido? 

Perché un solido cristallino (in cui gli atomi o le molecole costituenti si trovano in una disposizione ordinata e regolare) è rigido? Può essere sorprendente apprendere che è stato solo nel ventesimo secolo che abbiamo potuto dare a livello profondo la risposta a questa domanda.

Perché il vetro di una finestra, di una bottiglia, di una beuta (che non hanno una struttura cristallina: gli atomi giacciono in quelle che sembrano posizioni casuali) è rigido? Questa è una domanda ancora più difficile, e si potrebbe essere ancora più sorpresi nell’apprendere che non siamo ancora in grado di rispondere a questa domanda a un livello profondo.

Naturalmente, il livello di soddisfazione di una spiegazione dipende dai punti di vista: una risposta che soddisfa un chimico può non soddisfare un fisico (e viceversa). Per essere onesti, a un certo livello abbiamo compreso la natura dello stato solido tra la metà del diciannovesimo secolo e l’inizio del ventesimo, quando la termodinamica moderna e la meccanica statistica furono sviluppate da Gibbs, Boltzmann e altri. Queste discipline si occupano del problema di studiare il comportamento di sistemi composti da molte particelle, non determinando la traiettoria delle singole particelle ma utilizzando metodi statistici e probabilistici.

L'idea di base è nota. Atomi e molecole a distanza ravvicinata si attraggono, ma non sono mai isolati dal resto del mondo; di conseguenza, le particelle costituenti un sistema hanno sempre un'energia cinetica casuale (calore) che misuriamo come temperatura. A temperature più alte vince il disordine indotto da movimenti termici casuali, e abbiamo un gas o un liquido. A temperature più basse, vincono le forze attrattive e il sistema assume uno stato ordinato a bassa energia, un solido cristallino. Le forze intermolecolari esistenti tra le particelle costituenti il solido sono molto forti, perciò esse non possono muoversi liberamente, potendo vibrare solo intorno alle loro posizioni medie. Nei liquidi i legami si allentano a causa dell’agitazione termica, e le particelle, pur conservando qualche sorta di legame, sono in grado di fluire le une rispetto alle altre. Nei gas le particelle, a causa dell’elevata energia cinetica, si muovono liberamente, se si escludono eventuali urti meccanici. Liquidi e solidi cristallini sono due diverse fasi della materia, e il passaggio dall'uno all'altro, non a caso, è chiamato transizione di fase.


Forse il risultato più interessante della meccanica statistica consiste nell'aver capito fino a fondo come sia possibile l'emergenza di comportamenti collettivi: mentre per pochi atomi di acqua non possiamo dire se essi formano un solido o un liquido e quale sia la temperatura di transizione, queste affermazioni assumono una natura ben precisa solo nel caso in cui consideriamo un gran numero di atomi (più precisamente nel caso in cui il numero di atomi tenda ad infinito). Le transizioni di fase nascono quindi come effetto del comportamento collettivo di molti componenti.

Ma ci sono problemi più profondi, che entrano in gioco perché ci sono caratteristiche che accompagnano lo stato ordinato che non sono così facili da spiegare. Una di queste è quella che il premio Nobel per la fisica del 1977 Philip Anderson (1923-2020) chiamava rigidità generalizzata: quando si fa pressione sugli atomi di un solido cristallino ad un'estremità, la forza si propaga in maniera più o meno uniforme in tutto il cristallo in modo che l'intero solido si muove come un singola entità:

“Siamo così abituati alla rigidità dei corpi solidi che è difficile rendersi conto che tale azione a distanza non è incorporata nelle leggi della natura È strettamente una conseguenza del fatto che l'energia è ridotta al minimo quando la simmetria è rotta allo stesso modo in tutto il campione. La generalizzazione di questo concetto a tutti i casi di rottura della simmetria è ciò che chiamo rigidità generalizzata. È responsabile della maggior parte delle proprietà uniche degli stati ordinati: ferromagnetismo, superconduttività, superfluidità, ecc.”

La rigidità dei solidi è qualcosa che tutti diamo per scontato. Perché è un mistero? Ebbene, le forze interatomiche sono a corto raggio e tipicamente si estendono solo per circa 10-8 cm, mentre quando si preme su un solido ad un'estremità, la forza che si applica viene trasmessa in modo perfettamente uniforme un miliardo o più volte oltre la portata della forza interatomica. Perché succede? Cosa è cambiato dallo stato liquido, dove sono presenti esattamente le stesse forze? O, almeno, perché il solido non si accartoccia o non si piega? 

Questo fenomeno non è unico per i solidi; la trasmissione di forze su lunghe distanze si verifica anche, ad esempio, nei cristalli liquidi (LC). Questa proprietà, infatti, è molto diffusa in senso generale: si verifica ogni qualvolta si passa ad uno stato ordinato che possiede una simmetria (la cui forma può non essere sempre ovvia) che differisce dallo stato disordinato termicamente. Senza rigidità generalizzata, non solo i solidi non sarebbero "solidi", ma i magneti non sarebbero magnetici, le supercorrenti non fluirebbero nei superconduttori e noi non saremmo qui ad osservare tutto questo. Tutti questi effetti hanno cause soggiacenti simili, ma una profonda comprensione basata su un piccolo insieme di principi unificanti non è emersa fino a dopo la Seconda Guerra mondiale.

A prima vista la spiegazione non sembra così complicata. Se tutti gli atomi si posizionano alla stessa distanza dai loro vicini più prossimi, cioè formano un cristallo, allora hanno creato uno stato energetico molto basso. Deformare questo stato richiederebbe un grande apporto di energia, come sa chiunque abbia mai provato a piegare, strappare o deformare un solido. Questa risposta è corretta e va bene finché funziona. Ma è insoddisfacente a più livelli. Per prima cosa, non riesce a spiegare perché il vetro, che non è un cristallo, è rigido. Né spiega la forte discontinuità nel comportamento di rigidità alla transizione di fase liquido‒cristallo. Qualche millesimo di grado sopra la transizione, non c'è rigidità; appena sotto, c'è. Non avrebbe più senso un graduale cambiamento di rigidità man mano che la temperatura si abbassa? Ma non è ciò che succede.

Quindi c'è molto che questa semplice risposta lascia inspiegato, e ci sono molti fenomeni interessanti che non può prevedere da sola. Sono necessari principi e concetti aggiuntivi e più approfonditi.

La rigidità generalizzata è uno dei tanti esempi che rientrano nella categoria di comportamento emergente: quando si ha un sistema di molti "agenti" interagenti, siano essi particelle fisiche che esercitano forze reciproche, o specie interagenti in un ecosistema, o acquirenti e venditori nel mercato azionario, sorgono nuovi tipi di comportamento che per la maggior parte non sono prevedibili o non si manifestano a livello del singolo. Nel caso appena discusso, accade qualcosa di nuovo quando gli atomi si riorganizzano per formare un cristallo; la capacità di trasmettere forze su grandi distanze non è presente nelle interazioni fisiche fondamentali, in questo caso le forze interatomiche, che alla fine danno luogo a questo effetto. La rigidità deve in qualche modo derivare dalle proprietà collettive di tutte le particelle e le forze: ciò che chiamiamo ordine a lungo raggio (meglio: a lungo raggio sulla scala della forza interatomica fondamentale) e rottura della simmetria.

Ma torniamo ai vetri. Secondo la definizione standard, un vetro (o solido vetroso) è un solido formato dal rapido raffreddamento dopo opportuno riscaldamento di certi composti, soprattutto di silicati. Tuttavia, il termine "vetro" è spesso utilizzato in un senso più ampio, per descrivere qualsiasi solido non cristallino (amorfo) che mostra una transizione vetrosa quando viene riscaldato verso lo stato liquido.

Il vetro è un solido amorfo. Come in altri solidi amorfi, la struttura atomica di un vetro manca della periodicità a lungo raggio osservata nei solidi cristallini. Microscopicamente, mentre un solido cristallino ha atomi in una disposizione periodica quasi perfetta, un policristallo, come molte ceramiche, è un solido composto da regioni cristalline orientate casualmente, chiamate cristalliti, un solido amorfo come il vetro non ha invece disposizione periodica.


Il problema è che, per quanto ne sappiamo, non c'è transizione di fase (che in fisica ha un significato molto specifico) dal liquido al vetro, nessuna simmetria evidente rotta e nessun ordine ovvio a lungo raggio. Un vetro è un liquido che diventa sempre più viscoso e lento man mano che si raffredda, fino a quando alla fine smette di scorrere nei tempi umani. A proposito, la diceria sulle finestre delle cattedrali europee millenarie che sono più spesse in basso che in alto a causa del flusso vetroso nel corso di un periodo millenario non è vera. Se vediamo una finestra con questa caratteristica, ha qualche altra causa più prosaica. Il flusso nel vetro della finestra a temperatura ambiente avverrebbe su scale temporali molto più lunghe dell'età dell'universo. Il vetro è davvero rigido.

Una precisazione importante: quando si parla di disordine nei vetri, non si parla di quello che si vede nei liquidi o nei gas, dove in ogni momento gli atomi si trovano in posizioni casuali. In quei sistemi a temperatura più elevata, il disordine deriva dall'agitazione termica e gli atomi (o qualunque unità individuale costituisca il sistema) stanno rapidamente agitandosi e cambiando posto. Ciò ci consente di fare uno studio statistico, che a sua volta ci consente di comprendere il sistema matematicamente e fisicamente. I vetri, d'altra parte, sono congelati, in “quenched disorder", in uno stato disordinato a bassa temperatura, e quindi non possiamo applicare lo stesso apparato di strumenti matematici e fisici che possiamo applicare allo stato liquido o gassoso. E, allo stesso modo, a causa della mancanza di qualsiasi tipo di ordinamento ovvio, non possiamo applicare lo stesso insieme di strumenti che utilizziamo per comprendere lo stato solido cristallino.

Allora perché il vetro è rigido? Al momento ci sono molte teorie e ipotesi, ma nessuna è universalmente accettata. Il problema è che un vetro è un tipo di sistema disordinato: gli atomi in un vetro si trovano in posizioni casuali. Ma gran parte della nostra attuale comprensione dei sistemi di materia condensata (solidi cristallini, ferromagneti, cristalli liquidi, superconduttori e così via) si applica a sistemi ordinati con simmetrie ben note, che consentono profonde semplificazioni matematiche e intuizioni fisiche. Quindi non sono solo le nostre idee sulla rigidità che i vetri sfidano. Sempre secondo Anderson, "Il problema irrisolto più profondo e interessante nella teoria dello stato solido è probabilmente la teoria della natura del vetro e della transizione vetrosa". Eppure, qualche passo in avanti si sta facendo.

Il vetro ideale

La cristallizzazione è un passaggio dalla fase liquida, in cui le molecole sono disordinate e scorrono liberamente, alla fase cristallina, in cui le molecole sono bloccate in uno schema regolare e ripetuto, potendo solamente vibrare intorno a una posizione d’equilibrio. L'acqua si congela in ghiaccio a zero gradi Celsius, ad esempio, perché le molecole di H2O smettono di oscillare quel tanto che basta a quella temperatura per avvertire le forze reciproche e organizzarsi in una struttura più ordinata.


Altri liquidi, una volta raffreddati, diventano più facilmente vetro. La silice (SiO2, biossido di silicio), ad esempio, il vetro delle finestre, inizia come un liquido fuso ben al di sopra dei 1.000 gradi Celsius; mentre si raffredda, le sue molecole disordinate perdono energia, avvicinandosi un po' l'una all'altra, il che rende il liquido sempre più viscoso. Alla fine, le molecole smettono di muoversi del tutto. In questa graduale transizione vetrosa, le molecole non si riorganizzano. Semplicemente si fermano.

Il motivo esatto per cui il liquido in raffreddamento si indurisce rimane sconosciuto. Se le molecole nel vetro fossero semplicemente troppo fredde per fluire, dovrebbe essere ancora possibile compattarle in nuove disposizioni. Ma nel vetro non si compattano; le sue molecole sono disordinate, eppure il vetro è rigido. Liquido e vetro hanno la stessa struttura, ma si comportano in modo diverso: capire perché è la domanda principale.

Un indizio arrivò nel 1948, quando un giovane chimico di nome Walter Kauzmann notò quella che divenne nota come la crisi dell'entropia, un paradosso del vetro che i ricercatori successivi pensarono potesse essere risolto da un “vetro ideale”.

Kauzmann sapeva che più lentamente si raffredda un liquido, più è possibile raffreddarlo prima che si trasformi in vetro. E il vetro a formazione più lenta finisce per essere più denso e più stabile, perché le sue molecole hanno potuto muoversi più a lungo (mentre il liquido era ancora viscoso) e trovare disposizioni più compatte e a bassa energia. Le misurazioni hanno indicato una corrispondente riduzione dell'entropia, o disordine, del vetro formato più lentamente: ci sarebbero meno modi in cui le sue molecole potrebbero essere disposte con la stessa bassa energia.

Estrapolando la tendenza, Kauzmann si rese conto che se si potesse raffreddare un liquido abbastanza lentamente, si potrebbe raffreddarlo fino a una temperatura, ora nota come temperatura di Kauzmann, prima che si indurisca completamente. A quella temperatura, il vetro risultante avrebbe un'entropia bassa quanto quella di un cristallo. Ma i cristalli sono strutture precise e ordinate. Come potrebbe il vetro, disordinato per definizione, possedere uguale ordine?

Nessun vetro ordinario poteva farlo, il che implicava che qualcosa di speciale doveva accadere alla temperatura di Kauzmann. La crisi sarebbe evitata se un liquido, una volta raggiunta quella temperatura, raggiungesse lo stato di vetro ideale: l’impacchettamento casuale di molecole più denso possibile. Un tale stato mostrerebbe un "ordine amorfo a lungo raggio", in cui ogni molecola sente e influenza la posizione di ogni altra, così che per muoversi, devono muoversi come una cosa sola. L'ordine nascosto a lungo raggio di questo stato ipotetico potrebbe rivaleggiare con l'ordine più ovvio di un cristallo. È proprio quello il motivo per cui si pensa che debba esistere un vetro ideale.

Secondo questa teoria, avanzata per la prima volta da Julian Gibbs e Edmund Di Marzio nel 1958, il vetro ideale è un vero stato della materia, come le fasi liquida e cristallina. La transizione a questa fase necessita semplicemente di troppo tempo, richiedendo un processo di raffreddamento troppo lento perché possa essere visto a scala umana. La transizione ideale al vetro è "mascherata" dal liquido che diventa così viscoso che tutto si ferma.

Dobbiamo cercare per speculum in aenigmate: non potremo mai vedere un vetro ideale, ma in teoria possiamo provare a creare modelli accurati di ciò che vi succede. 

Un aiuto inaspettato è arrivato dagli esperimenti. Non c'è mai stata alcuna speranza di formare un vetro ideale raffreddando un liquido, il metodo di fabbricazione del vetro che abbiamo usato per millenni. Dovremmo raffreddare un liquido in modo incredibilmente lento (forse anche infinitamente lento) per evitare che si indurisca prima di raggiungere la temperatura di Kauzmann. Ma, nel 2007, Mark Ediger, un fisico dell’Università del Wisconsin, ha sviluppato un nuovo metodo di lavorazione del vetro. Ediger e la sua squadra hanno scoperto che potevano creare "vetri ultra stabili" che esistono in uno stato a metà tra l'ordinario e l'ideale. Usando un metodo chiamato deposizione da vapore, hanno fatto cadere le molecole una per una su una superficie come se stessero giocando a Tetris, permettendo a ogni molecola di stabilirsi nella sua sede più aderente nel vetro in formazione prima che la molecola successiva scendesse. Il vetro risultante era più denso, più stabile e con meno entropia di tutti i vetri della storia umana. Secondo Ediger, "Questi materiali hanno le proprietà che ci si aspetterebbe prendendo un liquido e raffreddandolo per un milione di anni".


Un'altra proprietà del vetro ultra-stabile potrebbe rivelare la via più promettente verso il vetro ideale. Due gruppi, uno dei quali guidato da Miguel Ramos a Madrid, hanno identificato questa proprietà nel 2014, quando hanno scoperto che il vetro ultra-stabile si discosta da una caratteristica comune a tutto il vetro ordinario.

I fisici sanno da decenni che il vetro ultra-freddo ha un'elevata capacità termica, la quantità di calore da fornire a una sostanza per aumentare la sua temperatura di un kelvin (K). Dire che una sostanza ha un'alta capacità termica significa che riesce ad assorbire tanto calore innalzando di poco la propria temperatura. Il vetro può assorbire molto più calore di un cristallo vicino allo zero assoluto, con una capacità termica direttamente proporzionale alla temperatura.

Teorici, tra cui Phil Anderson, suggerirono una spiegazione nei primi anni '70. Sostennero che il vetro contiene molti "sistemi a due livelli", piccoli gruppi di atomi o molecole che possono scivolare avanti e indietro tra due configurazioni alternative, ugualmente stabili. Si può immaginare un intero gruppo di atomi che si spostano da una configurazione a una configurazione leggermente diversa che semplicemente non esiste in un solido cristallino.

Sebbene gli atomi o le molecole siano troppo impacchettati dai loro vicini per fare molte commutazioni da soli, a temperatura ambiente il calore attiva i sistemi a due livelli, fornendo agli atomi l'energia di cui hanno bisogno per muoversi. Questa attività diminuisce man mano che la temperatura del vetro scende. Ma, vicino allo zero assoluto, gli effetti quantistici diventano importanti: i gruppi di atomi nel vetro possono passare tra le configurazioni alternative per effetto tunnel, passando attraverso qualsiasi ostacolo, occupando persino entrambi i livelli del sistema contemporaneamente. Il processo assorbe molto calore, producendo l'elevata capacità termica caratteristica del vetro.

Diversi anni dopo che Ediger aveva scoperto come realizzare il vetro ultra-stabile, il gruppo di Hellman a Berkeley e quello di Ramos a Madrid hanno iniziato a studiare in modo indipendente se potesse discostarsi da quella capacità termica universale vicina allo zero assoluto. Nei rispettivi esperimenti, hanno sondato le proprietà a bassa temperatura del silicio ultra-stabile e dell'indometacina ultra-stabile (una sostanza utilizzata anche come farmaco antinfiammatorio). Come previsto, hanno scoperto che entrambi i vetri avevano una capacità termica molto più bassa del solito vicino allo zero assoluto, in linea con quella di un cristallo. Ciò ha suggerito che il vetro ultra-stabile ha meno sistemi a due livelli tra cui eseguire il tunneling. Le molecole sono in configurazioni particolarmente aderenti, con pochi concorrenti.


Se la capacità termica eccezionalmente bassa del vetro ultra-stabile deriva davvero dall'avere meno sistemi a due livelli, allora il vetro ideale corrisponde naturalmente allo stato senza alcun sistema a due livelli. Il vetro ideale è il punto finale, ma quando le molecole cercano di avvicinarsi l'una all'altra, si bloccano; l'aumento della viscosità impedisce al sistema di raggiungere lo stato desiderato.

Di recente, sono state utilizzate simulazioni al computer innovative per testare queste idee. La simulazione del vetro ultra-stabile su un computer era impraticabile a causa dello straordinario tempo richiesto alle molecole simulate per raggrupparsi. Tre anni fa, però, il fisico dell’Università di Montpellier Ludovic Berthier ha trovato un ingegnoso sistema che gli ha permesso di accelerare il processo di un fattore di mille miliardi.  Il suo algoritmo sceglie due particelle a caso e scambia le loro posizioni. Queste riorganizzazioni aiutano il liquido simulato a rimanere sciolto, consentendo alle molecole di stabilirsi in modo aderente.

In un articolo su Physical Review Letters, Berthier e tre coautori hanno riferito che più stabile è il vetro simulato, meno sistemi a due livelli possiede. Come per le misurazioni della capacità termica di Hellman e Ramos, le simulazioni al computer suggeriscono che i sistemi a due livelli (configurazioni concorrenti di gruppi di molecole) sono la fonte dell'entropia del vetro. Meno stati alternativi ci sono, più stabilità e ordine a lungo raggio ha un solido amorfo e più è vicino al vetro ideale.