Visualizzazione post con etichetta matematica applicata. Mostra tutti i post
Visualizzazione post con etichetta matematica applicata. Mostra tutti i post

martedì 1 febbraio 2022

La datazione assoluta delle rocce

 



Sebbene le età relative degli strati rocciosi possano essere generalmente stabilite su scala locale sulla base dei criteri paleontologici e stratigrafici, gli eventi registrati in rocce di luoghi diversi possono essere integrati in un'immagine di scala regionale o globale solo se la loro sequenza temporale è saldamente stabilita. Il tempo trascorso dalla formazione di alcuni minerali può essere determinato a causa della presenza di una piccola quantità di atomi radioattivi naturali nelle loro strutture. Mentre gli studi sulla datazione dei fossili sono iniziati quasi 300 anni fa, la radioattività è stata scoperta solo nel 1896 dal Henri Becquerel, è stata studiata intensamente nei primi decenni del secolo, ma è stato solo dal 1950 circa che i metodi per datare i materiali geologici sono diventati comuni. I metodi di misurazione isotopica continuano ad essere perfezionati e la datazione assoluta è diventata una componente essenziale di praticamente tutte le indagini geologiche.

Diversi processi della Terra creano rocce diverse come parte di quello che può essere considerato il ciclo litogenetico di formazione e trasformazione delle rocce. L'attenzione è rivolta, ove possibile, su quelle rocce che contengono minerali adatti a precise datazioni isotopiche. È importante ricordare che le età precise non possono essere ottenute per una qualsiasi unità rocciosa, ma che qualsiasi unità può essere datata rispetto a un'unità databile.


La datazione radiometrica è l'unica tecnica in grado di fornire età assolute delle rocce attraverso la documentazione stratigrafica, ma è limitata nell'applicazione dai tipi di rocce che possono essere datate. L'età di formazione dei minerali è determinata da questo metodo; quindi, se i grani di feldspato di potassio in un'arenaria sono datati radiometricamente, la data ottenuta è quella del granito da cui sono stati erosi. Non è quindi possibile datare la formazione di rocce costituite da granuli detritici e ciò esclude la maggior parte delle arenarie, delle argille e dei conglomerati. I calcari sono formati in gran parte da resti di organismi con parti dure di carbonato di calcio, e i minerali aragonite e calcite non possono essere datati radiometricamente su una scala temporale geologica. Quindi quasi tutte le rocce sedimentarie sono escluse da questo metodo di datazione e correlazione. 

La formazione di rocce ignee di solito può essere datata con successo a condizione che non siano state gravemente alterate o metamorfosate. I corpi intrusivi e i prodotti dell'attività vulcanica (lave e tufi) possono essere datati e queste date sono utilizzate per vincolare l'età delle rocce circostanti alle leggi delle correlazioni stratigrafiche. I dati delle rocce metamorfiche possono fornire l'età del metamorfismo, sebbene possano sorgere complicazioni se il grado di metamorfismo non è stato sufficientemente alto da ripristinare l'"orologio" radiometrico o se ci sono state più fasi di metamorfismo. 

Le relazioni stratigrafiche generali e le età isotopiche sono i principali mezzi per correlare i corpi ignei intrusivi. È possibile dimostrare che unità di roccia ignea geograficamente separate fanno parte della stessa serie o complesso igneo determinando le età isotopiche delle rocce in ciascuna località. La datazione radiometrica può anche essere molto utile per dimostrare la corrispondenza tra corpi ignei effusivi. I principali inconvenienti di correlazione con questo metodo sono la gamma limitata di litologie databili e problemi di precisione dei risultati, in particolare con rocce più antiche. Ad esempio, se si sono formati due letti di lava distanti solo un milione di anni e c'è un margine di errore nei metodi di datazione di un milione di anni, la correlazione di un letto di lava simile all'uno o all'altro non può essere certa. 

Tutte le età assolute si basano sul decadimento radioattivo, un processo mediante il quale gli isotopi di determinati atomi (“genitori”) sono instabili ed emettono energia (raggi β o γ) e/o particelle α (nuclei di elio: due protoni e due neutroni), trasformandosi in altri isotopi (”figli”) a una velocità costante e nota. Il decadimento radioattivo di un isotopo genitore può portare alla produzione di un altro isotopo instabile, e così via, fino a che si produce un isotopo stabile e non si riscontra più alcuna attività radioattiva. Ad esempio, la catena di decadimento dell’uranio-238 e dei suoi figli porta alla fine all’isotopo stabile piombo-206. Ogni anello della catena segna un calo del numero di massa. Poiché gli isotopi differiscono in massa, la loro abbondanza relativa può essere determinata se le masse sono separate in uno spettrometro di massa che consente l'identificazione di atomi figli formati dal processo di decadimento in un campione contenente atomi progenitori radioattivi. 


Le particelle emesse durante il processo di decadimento rivelano un profondo cambiamento nel nucleo. Per compensare la perdita di massa (ed energia), l'atomo radioattivo subisce una trasformazione interna e nella maggior parte dei casi diventa semplicemente un atomo di un diverso elemento chimico. In termini di numero di atomi presenti, è come se le mele si trasformassero spontaneamente in arance a un ritmo fisso e noto. In questa analogia, le mele rappresenterebbero atomi radioattivi, o genitori, mentre le arance rappresenterebbero gli atomi formati, i cosiddetti figli. Proseguendo ulteriormente con questa analogia, ci si aspetterebbe che un cesto nuovo di mele non contenga arance ma che uno più vecchio ne abbia molte. In effetti, ci si aspetta che il rapporto tra arance e mele cambi in modo molto specifico nel tempo trascorso, poiché il processo continua fino a quando tutte le mele non vengono convertite. In geocronologia la situazione è identica. Una particolare roccia o minerale che contiene un isotopo radioattivo (o radioisotopo) viene analizzata per determinare il numero di isotopi genitori e figli presenti, per cui viene calcolato il tempo trascorso dalla formazione di quel minerale o roccia. Naturalmente, è necessario selezionare materiali geologici che contengano elementi con lunghi tempi di trasformazione, cioè quelli per i quali rimangono alcuni atomi progenitori. 

Fortunatamente per la geocronologia, lo studio della radioattività è stato oggetto di approfondite ricerche teoriche e di laboratorio da parte dei fisici per quasi un secolo. I risultati mostrano che non esiste un processo noto che possa alterare il tasso di decadimento radioattivo. Come spiegazione si può dire che, poiché la causa del processo risiede in profondità all'interno del nucleo atomico, le forze esterne come il calore e la pressione estremi non hanno alcun effetto. Lo stesso vale per i campi gravitazionali, magnetici ed elettrici, nonché per lo stato chimico in cui si trova l'atomo. In breve, il processo di decadimento radioattivo è immutabile in tutte le condizioni conosciute. 

In base ai principi della meccanica quantistica, il decadimento spontaneo di un nucleo è un avvenimento puramente casuale. Tuttavia, se è vero che risulta impossibile determinare l'istante in cui il nucleo di un atomo si disintegrerà, è pur sempre possibile predire la probabilità che ha un certo numero di nuclei di disintegrarsi in un certo intervallo di tempo, esattamente come non si può predire quando un certo individuo morirà, ma si può stabilire la probabilità che egli, con i suoi coetanei, ha di vivere fino ad una certa età. 

Dato un numero sufficientemente grande di atomi, la velocità del loro decadimento risulta essere costante. Il riconoscimento che il tasso di decadimento di qualsiasi atomo genitore radioattivo R è proporzionale al numero di atomi (N) del genitore rimanenti in qualsiasi momento dà origine alla seguente espressione: 


La conversione di questa proporzione in un'equazione tiene conto dell'osservazione aggiuntiva che radioisotopi diversi hanno tassi di disintegrazione diversi anche quando si osserva lo stesso numero di atomi in decadimento. In altre parole, ogni radioisotopo ha la sua costante di decadimento, abbreviata λ (dimensionalmente è una frequenza, quindi t-1), che fornisce una misura della sua rapidità intrinseca di decadimento. La proporzione (1) diventa: 


Detto a parole, questa equazione dice che la velocità con cui un certo radioisotopo si disintegra non dipende solo da quanti atomi dell'isotopo sono presenti, ma anche da una proprietà intrinseca dell’'isotopo, rappresentata da λ, cioè la costante di decadimento. 

Nel calcolo, il tasso di decadimento R dell'equazione (2) può essere scritto come la derivata dN/dt, in cui dN rappresenta il piccolo numero di atomi che decadono in un intervallo di tempo infinitamente breve dt. Sostituendo R con il suo equivalente dN/dt si ottiene l'equazione differenziale: 


La soluzione di questa equazione fornisce una forma dell'equazione fondamentale per la determinazione dell'età radiometrica, 


dove N0 è il numero di atomi radioattivi presenti in un campione al tempo zero, N è il numero di atomi radioattivi presenti oggi nel campione, e è la base dei logaritmi naturali, λ è la costante di decadimento del radioisotopo considerato e t è il tempo trascorso dal tempo zero. Questa legge dice che il numero di nuclei non ancora disintegratisi decresce esponenzialmente nel tempo. L'andamento di tale curva è il seguente:


In genere vengono apportate due modifiche all'equazione (4) per ottenere la forma più utile per la datazione radiometrica. In primo luogo, poiché il termine sconosciuto nella datazione radiometrica è ovviamente t, è desiderabile riordinare l'equazione (4) in modo che sia risolta esplicitamente per t. In secondo luogo, il modo più comune per esprimere il tasso di decadimento intrinseco di un radioisotopo è attraverso la sua emivita o tempo di dimezzamento (t1/2), piuttosto che attraverso la costante di decadimento λ


L'emivita, o tempo di dimezzamento, è definita in termini di probabilità: essa è il tempo necessario affinché esattamente la metà del numero iniziale di atomi radioattivi in media decada. In altre parole, la probabilità che un atomo radioattivo decada entro la sua emivita è del 50%. Si noti che dopo un'emivita non rimane esattamente la metà degli atomi, solo approssimativamente, a causa della variazione casuale nel processo. Tuttavia, quando ci sono molti atomi identici in decadimento, la legge dei grandi numeri suggerisce che è un'ottima approssimazione dire che metà degli atomi rimangono dopo un'emivita. I tempi di dimezzamento sono stati determinati in laboratorio per migliaia di radioisotopi (o radionuclidi). Questi variano da minime frazioni di secondo (decadimenti pressoché istantanei) fino a 1019 anni o più. 


L'emivita t1/2 e la costante di decadimento λ sono inversamente proporzionali perché i radioisotopi in rapido decadimento hanno un'elevata costante di decadimento ma una breve emivita. Con t esplicitato e l'emivita introdotta, l'equazione (4) viene convertita nella forma seguente, in cui i simboli hanno lo stesso significato: 


In alternativa, poiché si osserva direttamente il numero di atomi figli anziché N, che è il numero iniziale di atomi progenitori presenti, un'altra formulazione può essere più conveniente. Poiché il numero iniziale di atomi genitori presenti al tempo zero N0 deve essere la somma degli atomi genitori rimanenti N e degli atomi figli presenti D, si può scrivere: 


Dalla equazione (4) sopra, segue che N0 = N(eλt). Sostituendo questo valore nell'equazione (6) si ottiene: 


Se si sceglie di usare P per designare l'atomo genitore, l'espressione assume la sua forma familiare: 




Questa coppia di equazioni afferma rigorosamente ciò che si potrebbe presumere dall'intuizione, cioè che i minerali formati in tempi successivamente più lunghi in passato avrebbero rapporti figlio-genitore progressivamente più alti. Ciò segue perché, poiché ogni atomo genitore perde la sua identità con il tempo, riappare come un atomo figlio. L'aumento di D/P con il tempo è evidente nell'equazione (7) perché valori di tempo maggiori aumenteranno il valore di eλt, dove λ è costante. L'equazione (8) documenta la semplicità concettuale della datazione isotopica diretta. Il tempo di decadimento è proporzionale al logaritmo naturale (rappresentato da ln) del rapporto tra D e P. In breve, basta misurare il rapporto tra il numero di atomi radioattivi genitore e figlio presenti e può essere calcolato il tempo trascorso dalla formazione del minerale o della roccia, a condizione ovviamente che sia noto il tasso di decadimento. Allo stesso modo, le condizioni che devono essere soddisfatte per rendere il calcolo dell'età preciso e significativo sono di per sé semplici: 

1. La roccia o il minerale intesi come sistema devono essere rimasti chiusi rispetto all'aggiunta o alla fuga di atomi genitori e figli dal momento in cui si è formata la roccia o il minerale. Ad esempio, il campione da esaminare deve essere sempre al di sotto della cosiddetta temperatura di blocco, specifica per ogni materiale e che può essere trovata sperimentalmente. Al di sotto di questa temperatura il sistema si può considerare isolato. 

2. Deve essere possibile tenere conto di altri atomi identici agli atomi figli già presenti al momento della formazione della roccia o del minerale; 

3. La costante di decadimento deve essere nota; 

4. La misurazione del rapporto figlio-genitore deve essere accurata, perché l'incertezza in questo rapporto contribuisce direttamente all'incertezza nell'età. 

Il processo di formazione di un materiale specifico determina il modo in cui un elemento è incorporato durante la formazione. Nel caso ideale, il materiale incorpora un isotopo genitore e rilascia un isotopo figlio; solo l'isotopo figlio trovato esaminando un campione di materiale deve dunque essersi formato da quando esiste il campione. 

Quando un materiale incorpora sia i radionuclidi genitori sia i figli nel momento della sua formazione, bisogna assumere che l'iniziale rapporto tra una sostanza radioattiva e i suoi prodotti di decadimento sia conosciuto. Per essere trovati, questi prodotti devono possedere una vita media abbastanza lunga per essere rilevati in sufficienti quantità. Inoltre, non devono intervenire ulteriori processi che possono modificare il rapporto tra nuclidi iniziali e elementi prodotti dal decadimento. Le procedure atte a isolare ed analizzare i prodotti della reazione devono dunque essere semplici ma attendibili. 

I campioni di roccia raccolti per la datazione radiometrica sono generalmente abbastanza grandi (diversi chilogrammi), per eliminare le disomogeneità nella roccia. I campioni vengono frantumati in granuli delle dimensioni della sabbia, mescolati accuratamente per omogeneizzare il materiale, poi si seleziona un campione più piccolo. Nei casi in cui si debbano datare particolari minerali, questi vengono separati dagli altri minerali utilizzando liquidi pesanti (liquidi con densità simile a quella dei minerali) in cui alcuni minerali galleggiano e altri affondano, o la separazione magnetica, sfruttando le diverse proprietà magnetiche dei minerali. Il concentrato minerale può quindi essere sciolto per l'analisi isotopica. La misurazione delle concentrazioni di diversi isotopi viene effettuata con gli spettrometri di massa. In questi strumenti una piccola quantità (microgrammi) del campione viene riscaldata nel vuoto per ionizzare gli isotopi e queste particelle cariche vengono quindi accelerate lungo un tubo a vuoto da una differenza di potenziale. A metà del tubo un campo magnetico indotto da un elettromagnete devia le particelle cariche. La quantità di deflessione dipenderà dalla massa atomica delle particelle; quindi, diversi isotopi sono separati dalle loro diverse masse. I rivelatori all'estremità del tubo registrano il numero di particelle cariche di una particolare massa atomica e forniscono un rapporto degli isotopi presenti nel campione. 


Benché la datazione radiometrica sia accurata per principio, la sua precisione dipende dalla cura con cui il procedimento si svolge: bisogna considerare i possibili errori dovuti alla contaminazione degli isotopi genitori e figli nel momento in cui il campione da analizzare si è formato; inoltre, utilizzando uno spettrometro di massa per le misure, si può andare incontro ad interferenze da parte di altri nuclidi con stesso numero di massa degli isotopi. In questo caso si devono apportare delle correzioni alle misure considerando i rapporti con cui si presentano questi nuclidi rispetto agli isotopi cercati. 

Le misure ottenute attraverso gli spettrometri di massa possono andare incontro a interferenze e a inaccuratezze. L'affidabilità aumenta se le misurazioni sono prese da differenti campioni dello stesso materiale; in alternativa, se differenti minerali dello stesso campione possono essere datati e si assume che si siano formati nella stessa occasione, essi costituiscono una datazione isocrona del campione: a differenza delle più semplici tecniche di datazione radiometrica, la datazione isocrona non richiede la conoscenza delle proporzioni iniziali dei nuclidi. 

Infine, per confermare l'età di un campione si potrebbero richiedere differenti metodi di datazioni radiometriche. La precisione di un metodo di datazione dipende comunque dal tempo di dimezzamento dell'isotopo radioattivo utilizzato per la misura. 

Sono stati sviluppati diversi protocolli per affrontare le ipotesi critiche indicate. Nella datazione con l’uranio-piombo, è possibile isolare minerali praticamente privi di piombo iniziale e apportare correzioni per le quantità insignificanti presenti. Nei metodi che utilizzano gli schemi di decadimento del rubidio-stronzio o del samario-neodimio, vengono scelte una serie di rocce o minerali che si presume abbiano la stessa età e percentuali identiche dei loro rapporti isotopici iniziali. I risultati vengono quindi testati per la coerenza interna che può convalidare le ipotesi. In ogni caso, è obbligo dello sperimentatore che effettua le determinazioni includere prove sufficienti per indicare che l'età assoluta ottenuta è valida entro i limiti indicati. In altre parole, è dovere dei geocronologi cercare di valutare il margine di errore includendo una serie di controlli incrociati nelle loro misurazioni prima di pubblicare un risultato. Tali controlli includono la datazione di una serie di unità antiche con età relative ravvicinate ma note e l'analisi replicata di parti diverse dello stesso corpo roccioso con campioni raccolti in località ampiamente distanziate. 

L'importanza dei controlli interni e del lavoro di squadra diventa tanto più evidente quando ci si rende conto che i laboratori di geocronologia sono in numero limitato. A causa delle costose attrezzature necessarie e della combinazione di competenze geologiche, chimiche e di laboratorio richieste, essa viene solitamente eseguita da squadre di esperti. La maggior parte dei geologi deve fare affidamento sui geocronologi per i loro risultati. A sua volta, il geocronologo si affida al geologo per l’indicazione delle età relative. 

I principali metodi radiometrici utilizzati per la datazione assoluta delle rocce sono i seguenti: 

Metodo uranio-piombo - Ideato da B. B. Boltwood nel 1907, quello dell'uranio-piombo è uno dei metodi di datazione più antichi e più utilizzati, efficace nel datare rocce che si sono formate e cristallizzate da un milione a oltre 4,5 miliardi di anni fa, con una precisione nell'ordine dello 0,1-1%. Benché possa essere usato per diversi materiali, questo metodo di datazione è solitamente utilizzato sul minerale zircone (ZrSiO4). Lo zircone incorpora gli atomi di uranio e di torio nella sua struttura cristallina, sostituendoli allo zirconio, respingendo invece quelli di piombo. Si può quindi ritenere che tutto il piombo riscontrato in un dato cristallo di zircone sia radiogenico, cioè sia stato interamente prodotto da un processo di decadimento radioattivo verificatosi dopo la formazione del minerale. In questo modo, si può utilizzare il rapporto tra piombo e uranio presente nel minerale per determinare l'età di quest'ultimo. Il fatto che lo zircone sia piuttosto inerte dal punto di vista chimico e che sia anche piuttosto resistente agli agenti atmosferici fa sì che intere zone, se non addirittura interi cristalli, di questo minerale possano sopravvivere all'eventuale erosione o distruzione della roccia di cui fanno parte mantenendo intatto il loro originario contenuto di uranio e piombo. Il metodo si basa su due diverse catene di decadimento, la serie dell'uranio dall' 238U al 2o6Pb, con un periodo di dimezzamento di circa 4,5 miliardi di anni, e la serie dell'attinio dall' 235U al 207Pb, con un periodo di dimezzamento di circa 710 milioni di anni. 

L'esistenza di due catene di decadimento uranio-piombo parallele fa sì che esistano anche diverse tecniche di datazione basate sul sistema U-Pb, tuttavia, con l'espressione "metodo di datazione uranio-piombo" ci si riferisce al metodo in cui si analizzano entrambi gli schemi di decadimento nella realizzazione del cosiddetto "diagramma di concordanza". Talvolta le età possono anche essere determinate dal sistema uranio-piombo attraverso la sola analisi dei rapporti tra isotopi di piombo, in quello che viene chiamato "metodo di datazione piombo-piombo". Quest'ultimo trova maggior utilizzo, rispetto al metodo all'uranio-piombo, in alcune situazioni particolari, come il calcolo dell'età di meteoriti o dell'età della Terra. Proprio una delle prime stime moderne sull'età del nostro pianeta (4,5 miliardi di anni) fu eseguita nel 1956 utilizzando il metodo di datazione piombo-piombo dal grande geochimico statunitense Clair Cameron Patterson (1922-1995), pioniere della tecnica di datazione uranio-piombo e alfiere della campagna per la riduzione del piombo nell’ambiente. 

Metodo Potassio-Argon - Questo è il sistema più utilizzato per la datazione radiometrica degli strati sedimentari, perché può essere utilizzato per datare la mica verde glauconite, ricca di potassio, e le rocce vulcaniche (lave e tufi) che contengono potassio in minerali come alcuni feldspati e miche. Uno degli isotopi del potassio, 40K, decade in parte per cattura di elettroni (un protone diventa un neutrone) in un isotopo dell'elemento gassoso argon, 40Ar, l'altro prodotto è un isotopo del calcio, 40Ca. L'emivita di questo decadimento è di 11,93 miliardi di anni. Il potassio è un elemento molto comune nella crosta terrestre e la sua concentrazione nelle rocce è facilmente misurabile. Tuttavia, la proporzione di potassio presente come 40K è molto piccola (0,012%) e la maggior parte di questo decade in 40Ca, con solo l'11% che forma 40Ar. L'argon è un gas raro inerte e gli isotopi di quantità molto piccole di argon possono essere misurati da uno spettrometro di massa espellendo il gas dai minerali. La datazione K-Ar è stata quindi ampiamente utilizzata nella datazione delle rocce, ma esiste un problema significativo, il fatto che l'isotopo figlio può fuoriuscire dalla roccia per diffusione perché è un gas. La quantità di argon misurata è quindi spesso inferiore alla quantità totale prodotta dal decadimento radioattivo del potassio. Ciò si traduce in una sottostima dell'età della roccia. 

Metodo Argon-Argon - I problemi della perdita di argon possono essere superati utilizzando il metodo argon-argon. Il primo passo in questa tecnica è l'irradiazione del campione mediante bombardamento di neutroni per formare 39Ar da 39K che si trovano nella roccia. Il rapporto tra 39K e 40Ar è una costante nota; quindi, se è possibile misurare la quantità di 39Ar prodotta dal 39K, ciò fornisce un metodo indiretto per calcolare gli isotopi 40K presenti nella roccia. La misurazione dei 39Ar prodotti dal bombardamento viene effettuata mediante spettrometro di massa mentre si misura la quantità di 40K presenti. Prima che un'età possa essere calcolata dalle proporzioni di 39Ar e 40Ar presenti, è necessario scoprire la proporzione di 39K che è stata convertita in 39Ar dal bombardamento di neutroni. Ciò può essere ottenuto bombardando un campione di età nota (uno "standard") insieme ai campioni da misurare e confrontando i risultati dell'analisi isotopica. Il principio del metodo Ar–Ar è quindi l'uso di 39Ar come proxy per 40K. Sebbene sia un metodo più difficile e costoso, Ar–Ar è ora preferito a K–Ar. Gli effetti dell'alterazione possono essere eliminati riscaldando a gradini il campione durante la determinazione delle quantità di 39Ar e 40Ar presenti mediante spettrometro di massa. L'alterazione (e quindi la perdita di 40Ar) si verifica a temperature inferiori rispetto alla cristallizzazione originale; quindi, i rapporti isotopici misurati a temperature diverse saranno diversi. Il campione viene riscaldato fino a quando non vi è alcuna variazione di rapporto con l'aumento della temperatura (si raggiunge un plateau): questo rapporto viene quindi utilizzato per calcolare l'età. Se non viene raggiunto alcun plateau e il rapporto cambia ad ogni passaggio di temperatura, allora il campione è troppo alterato per fornire una data affidabile. 

Metodo Rubidio-Stronzio - La datazione rubidio-stronzio è basata sul decadimento beta del Rubidio-87 in Stronzio-87, con un tempo di dimezzamento di 50 miliardi di anni; questo processo è usato per datare le rocce ignee e metamorfiche più antiche e persino i campioni di rocce lunari; la temperatura di blocco è molto elevata, tale da consentire di trascurarne gli effetti. La datazione Rubidio-Stronzio non è però precisa quanto quella Uranio-Piombo, dal momento che implica errori di 30-50 milioni di anni per un periodo di 3 miliardi di anni.

Metodo Uranio-Torio - Un'altra datazione radiometrica a corto raggio è quella basata sul decadimento α dell'Uranio-238 a Torio-234 (datazione uranio-torio), con un tempo di dimezzamento di circa 80.000 anni. Questo decadimento è spesso associato ad un altro decadimento "fratello", quello dell'Uranio-235 nel Protoattinio-231, con un periodo di dimezzamento di 34.300 anni. Mentre l'Uranio è solubile in acqua, il Torio e il Protoattinio non lo sono, per cui essi si separano se precipitano come sedimenti nei fondali oceanici dai quali si può ricavare l'abbondanza di questi isotopi; questo tipo di datazione ha una scala di molte centinaia di migliaia di anni.

lunedì 27 dicembre 2021

George Price e la matematica della selezione naturale


 

Per Darwin, la selezione naturale è un processo lungo e complesso che coinvolge molteplici cause interconnesse. La selezione naturale richiede variazioni in una popolazione di organismi. Perché il processo funzioni, almeno parte di quella variazione deve essere ereditabile e trasmessa in qualche modo ai discendenti degli organismi. Su tale variazione agisce la lotta per l'esistenza, un processo che in effetti “seleziona” le variazioni favorevoli alla sopravvivenza e alla riproduzione dei loro portatori. Proprio come gli allevatori scelgono quale dei loro animali si riprodurranno e quindi creeranno le varie razze di cani domestici, piccioni e bovini, la natura effettivamente "seleziona" quali animali si riprodurranno e crea un cambiamento evolutivo proprio come fanno gli allevatori. Tale “selezione” per natura, la selezione naturale, avviene come risultato della lotta per l'esistenza e, nel caso delle popolazioni con riproduzione sessuata, della lotta per le opportunità di accoppiamento. Quella lotta è essa stessa il risultato dei controlli sull'aumento geometrico della popolazione che si verificherebbe in assenza dei controlli. Tutte le popolazioni aumentano di numero in assenza dei limiti alla crescita imposti dalla natura. Questi controlli assumono forme diverse in popolazioni diverse. Tali limitazioni possono assumere la forma di scorte di cibo limitate, siti di nidificazione limitati, predazione, malattie, condizioni climatiche avverse e molto altro ancora. In un modo o nell'altro, solo alcuni dei riproduttori nelle popolazioni naturali si riproducono effettivamente, spesso perché altri semplicemente muoiono prima della maturità. A causa delle variazioni tra i riproduttori potenziali, alcuni hanno maggiori possibilità di inserirsi nel gruppo di riproduttori effettivi rispetto ad altri. Se tali variazioni sono ereditabili, è probabile che la progenie di quelli con i tratti "più adatti" produca molti altri discendenti. Per usare uno degli esempi di Darwin, i lupi con zampe particolarmente lunghe che consentono loro di correre più velocemente avranno maggiori probabilità di catturare prede e quindi evitare la fame e quindi produrre prole con zampe più lunghe che gli consente, a sua volta, di riprodursi e generare discendenti con zampe più lunghe e così via. Per mezzo di questo processo iterativo, un tratto favorevole alla riproduzione che si trova inizialmente in uno o pochi membri della popolazione si diffonderà attraverso la popolazione.

 

Le molteplici fasi del processo di Darwin che coinvolgono tratti diversi, agendo in sequenza o in concerto, possono quindi spiegare sia come la speciazione sia l'evoluzione di adattamenti complessi avvengono attraverso l'evoluzione graduale (cambiamento nel tempo) delle popolazioni naturali. Darwin mirava a convincere il suo pubblico che anche strutture complicate come l'occhio dei vertebrati, che a prima vista sembrano spiegabili solo come il prodotto di un progetto, potrebbero invece essere giustificate con una evoluzione incrementale, un processo complesso ma ancora naturale. Quella che inizialmente è una chiazza fotosensibile può trasformarsi in un occhio attraverso moltissimi momenti di selezione che progressivamente ne migliorano e ne accrescono la sensibilità. Mostrare che qualcosa è spiegabile è molto diverso dallo spiegarlo, tuttavia, una teoria deve essere esplicativa per svolgere entrambi i compiti. Dopo Darwin, la comparsa di nuove specie nella documentazione geologica e l'esistenza di adattamenti che sembrano frutto di progetti non possono essere utilizzati come motivi per invocare cause soprannaturali come ultima risorsa esplicativa.

 

I teorici hanno sviluppato approcci formali e quantitativi per modellare i processi descritti da Darwin (con buona pace degli “scienziati di dio” che si ostinano a chiedere una “formula globale dell’evoluzione”, che non può avere carattere predittivo dati gli enormi lassi di tempo coinvolti). Uno dei primi approcci di tipo mirato fu senza dubbio quello che George Price fornì in un articolo di due sole pagine su Nature nel 1970 intitolato Selection and Covariance.

 

George Price (1922-1975) era uno scienziato americano la cui breve ma produttiva carriera come teorico dell'evoluzione tra la fine degli anni '60 e l'inizio degli anni '70 è uno degli episodi più affascinanti della storia della disciplina. Price si formò come chimico e aveva lavorato al Progetto Manhattan, poi all’IBM, prima di diventare uno divulgatore di scienze con alcuni articoli su Science. Autofinanziato da un grande rimborso assicurativo dopo un'operazione medica fallita per un tumore alla tiroide, si trasferì a Londra alla fine del 1967 e iniziò a imparare da solo le basi della teoria evoluzionistica, lavorando prima nelle biblioteche e poi al Galton Laboratory presso l'University College di Londra.

 

Portando una nuova prospettiva alla disciplina, Price scoprì un approccio completamente nuovo alla genetica delle popolazioni e la base per una teoria generale della selezione: l'equazione di Price. Essa è utilizzata in diverse aree chiave della teoria dell'evoluzione e sta iniziando a chiarire questioni difficili in altre discipline.

 

L'equazione di Price è una equazione sul cambiamento: è un teorema matematico vero e proprio, di cui egli fornì la dimostrazione (che qui non trattiamo). Nella sua formulazione abituale, descrive come il valore medio di qualsiasi carattere fenotipico - peso corporeo, dimensioni delle corna, propensione all'altruismo - cambia in una popolazione biologica da una generazione all'altra. Essa rappresenta l'estensione dell'evoluzione in un sistema rispetto a un dato carattere attraverso una singola generazione utilizzando funzioni statistiche. Price indicò il valore del carattere dell'individuo come z, il numero dei suoi figli come w e la discrepanza tra i valori dei suoi caratteri e quelli della sua prole come ∆z, e mostrò che il cambiamento nel valore medio della popolazione del carattere tra le generazioni dei genitori e dei figli vale:

 

WΔZ = cov(wi,zi) + E(wiΔzi)        (1)

 

dove:

 

W è il numero medio di figli (offspring) prodotti dai membri della popolazione;

 

∆Z è la variazione del valore medio del carattere nella popolazione;

 

cov è la covarianza, cioè il valore numerico che fornisce una misura di quanto due variabili statistiche varino assieme, ovvero dipendano reciprocamente; 

 

wi indica il numero della prole prodotta dall’ i-esimo membro della popolazione (la sua fitness, il successo riproduttivo);

 

zi indica il valore del carattere nell'i-esimo membro della popolazione;

 

E è il valore atteso, cioè il numero che formalizza l'idea di valore medio di un fenomeno statistico. In generale il valore atteso di una variabile discreta è dato dalla somma dei possibili valori di tale variabile, ciascuno moltiplicato per la probabilità di essere assunto (ossia di verificarsi), quindi è la media ponderata dei possibili risultati. 

 

Nell'equazione di Price, la selezione è associata alla prima quantità di destra, mentre la seconda rappresenta la distorsione di trasmissione. La prima parte è il cambiamento ascrivibile all'azione della selezione, e ciò assume la forma di una covarianza statistica tra i valori dei caratteri degli individui (zi) e il loro successo riproduttivo relativo (wi). Ad esempio, se gli individui con valori più grandi del carattere di interesse tendono ad avere più figli, allora la covarianza è positiva e la selezione agisce per aumentare il valore medio del carattere della popolazione. Il secondo termine a destra assume la forma di un'aspettativa E, che descrive come la prole differisce dai suoi genitori, che è il cambiamento dovuto alla trasmissione. Se i figli sono copie identiche dei loro genitori, allora l'effetto di trasmissione è zero e la selezione è l'unico fattore coinvolto nell'evoluzione del carattere. Tuttavia, la prole sarà spesso diversa dai genitori, forse a causa di una mutazione, o perché i loro geni sono combinati in un modo nuovo, o a causa di un cambiamento nel loro ambiente fisico, biologico o culturale, e in questo caso l'effetto di trasmissione non è nullo.

 

Sebbene l'equazione di Price sia stata introdotta utilizzando la terminologia biologica, essa si applica a qualsiasi gruppo di entità che subisce una trasformazione. Ma, nonostante la sua vasta generalità, ha qualcosa di interessante da dire. Separa e impacchetta ordinatamente il cambiamento dovuto alla selezione rispetto alla trasmissione, dando una definizione esplicita per ogni effetto e, così facendo, fornisce le basi per una teoria generale della selezione naturale. In una lettera a un amico, Price spiegò che la sua equazione descrive la selezione delle stazioni radio con la rotazione di una manopola con la stessa facilità con cui descrive l'evoluzione biologica.

 

L'equazione di Price è un risultato molto generale, a causa del modo in cui segue direttamente dalle definizioni e quindi è relativamente priva di ipotesi limitanti la generalità. L'equazione emerge dalla riorganizzazione della notazione piuttosto che, diciamo, dalle leggi fisiche; quindi, non è una previsione del cambiamento che avviene tra i due aggregati, ma piuttosto un'identità matematica che mostra un modo in cui tale cambiamento può essere espresso. Per la sua generalità e semplicità, l'equazione di Price è stata utilizzata per rappresentare processi fondamentali nell'evoluzione e, come meta-modello, consente di tracciare confronti e contrasti tra diversi modelli e metodologie. In quanto tale, è un importante aiuto concettuale che ha portato alla scoperta di connessioni inaspettate tra diversi corpi teorici, ha risolto controversie di lunga data e ha contribuito a risolvere alcune confusioni semantiche.

 

L'equazione di Price è stata applicata più frequentemente all'evoluzione biologica e l'equazione (1) sembra catturare l'idea darwiniana della "sopravvivenza del più adatto". Effetti di trasmissione a parte, la selezione opera per favorire quei caratteri che sono positivamente correlati con il successo riproduttivo individuale. Tuttavia, la moderna teoria della selezione naturale è inquadrata in termini di cambiamenti nelle frequenze geniche, e Price ha formulato ciò concentrandosi sulla componente genetica additiva (g) del carattere, piuttosto che sull'effettivo valore fenotipico (z). Scartando il cambiamento genetico dovuto alla trasmissione, l'equazione di Price può essere utilizzata per fornire un enunciato formale della selezione naturale:

 

WΔg = cov(wi,gi) = βwi,gi var(g)     (2)

 

dove:

 

∆g è la variazione del valore medio della componente genetica additiva nella popolazione;

 

gi denota il valore della componente genetica additiva dell'i-esimo membro della popolazione;

 

β è il coefficiente angolare della retta di regressione delle variabili wi,gi

 

var indica la varianza, cioè la funzione che fornisce una misura della variabilità dei valori assunti dalla variabile stessa; nello specifico, la misura di quanto essi si discostano quadraticamente dalla media aritmetica o dal valore atteso E. 

 

Price trovava illuminante esprimere la selezione naturale come un prodotto dei suoi fattori componenti: la regressione (pendenza) del successo riproduttivo relativo rispetto al valore genetico dell'individuo (βwi,gi); e la variazione genetica nella popolazione (var(g)). Ciò mette in evidenza il fatto che la selezione naturale opera quando vi sono differenze ereditarie tra gli individui rispetto a qualche carattere correlato al successo riproduttivo. Inoltre, poiché le varianze non sono mai negative, qualsiasi risposta alla selezione naturale deve essere nella direzione di un aumento del successo riproduttivo (avente lo stesso segno di βwi,gi). L'equazione di Price coglie quindi l'effetto migliorativo (nel senso di adattamento) che la selezione naturale ha sulle popolazioni biologiche.

 

Darwin sosteneva che poiché la selezione naturale fa sì che quei caratteri che migliorano l'idoneità individuale si accumulino nelle popolazioni biologiche, gli organismi appariranno di conseguenza come se fossero progettati per massimizzare la loro idoneità. Questa ambiguità apparente tra disegno e azione rende la biologia unica tra le scienze naturali, ed è la ragione per cui la letteratura evoluzionista abbonda di linguaggio intenzionale: egoismo, strategie, conflitti di interesse. Ma la questione di questa apparenza quasi magica di capacità di intervento sul reale è stata a lungo trascurata dai genetisti della popolazione, che hanno avuto la tendenza a oscurare il ruolo del singolo organismo concentrandosi invece su geni e genotipi. L'equazione di Price, al contrario, mette in evidenza l'individuo e la sua fitness e collega questo ai cambiamenti nella frequenza genica. Per questo motivo, il teorico evoluzionista Alan Grafen ha utilizzato l'equazione di Price per stabilire collegamenti matematici tra la genetica delle popolazioni e la teoria dell'ottimizzazione, che giustificano formalmente la visione dei singoli organismi come agenti economici che massimizzano la fitness. Catturando sia il processo che lo scopo dell'adattamento, l'equazione di Price è un buon approccio alle basi matematiche del darwinismo.

 

Darwin sosteneva che gli individui sono incoraggiati a comportarsi in modo da migliorare il loro successo riproduttivo personale. Tuttavia, il comportamento altruistico è comune nel mondo naturale, e questo è difficile da conciliare con "la sopravvivenza del più adatto". Riconoscendo questo problema, Darwin spiegò come alcuni caratteri potrebbero essere favoriti perché migliorano il successo riproduttivo dei propri consanguinei (selezione parentale), oppure perché forniscono un beneficio complessivo al gruppo sociale (selezione di gruppo). 

 

Come ha scritto Oren Harman nella biografia di Price intitolata The Price of Altruism (2010), “perché le amebe costruiscono steli dai loro stessi corpi, sacrificandosi nel processo, in modo che alcune possano arrampicarsi ed essere portate via dalla carestia all'abbondanza sulle gambe di un insetto innocente o sulle ali di un vento propizio? Perché i pipistrelli vampiri condividono il sangue, bocca a bocca, alla fine di una notte di preda con i membri della colonia che hanno avuto meno successo nella caccia? Perché le gazzelle sentinella saltano su e giù quando un leone viene avvistato, mettendosi in modo precario tra il branco e il cacciatore affamato? E cosa ha a che fare tutto questo con la moralità negli esseri umani: c'è, infatti, un'origine naturale per i nostri atti di gentilezza? Le virtù delle amebe, dei pipistrelli, delle gazzelle e degli umani provengono dallo stesso luogo?

 

L'altruismo era un enigma. Si opponeva apertamente ai fondamenti della teoria, un'anomala spina nel fianco di Darwin. Se la Natura era sanguinante nei denti e negli artigli [come aveva scritto Tennyson], una battaglia spietata combattuta ferocemente sotto le onde e attraverso i cieli e nei deserti e nelle giungle, come potrebbe essere selezionato un comportamento che riducesse la fitness? Sopravvivenza del più adatto o sopravvivenza del più generoso: era un enigma che i darwiniani avrebbero dovuto risolvere. E così, partendo da Darwin, è iniziata la ricerca per risolvere il mistero dell'altruismo”.

 


Oggi, l'equazione di Price fornisce il fondamento formale sia della selezione parentale che delle teorie della selezione di gruppo, e ha chiarito che queste non sono ipotesi in competizione, ma piuttosto due modi diversi di guardare allo stesso processo evolutivo.

 

L'approccio della selezione parentale, sviluppato da Bill Hamilton negli anni '60, ritiene che un gene possa essere favorito dalla selezione naturale aumentando il successo riproduttivo del suo portatore e anche aumentando il successo riproduttivo di altri individui portatori dello stesso gene. Tutto ciò che conta è che il gene porti avanti copie di sé stesso nelle generazioni future: da dove provengono queste copie è irrilevante. La condizione per cui un comportamento altruistico è favorito dalla selezione, chiamata regola di Hamilton, è 

 

rb > c

 

dove c è il costo di fitness per l'attore, b è il beneficio di fitness per il destinatario, r è la relazione genetica tra attore e destinatario. Pertanto, l'altruismo è favorito a condizione che l'attore e il destinatario siano parenti sufficientemente stretti. La quantità rb – c è stata definita l'effetto di "idoneità inclusiva" del comportamento e descrive l'impatto dell'attore sul successo riproduttivo di tutti i suoi parenti (incluso sé stesso), ponderato dalla parentela genetica di ciascuno. È l'idoneità inclusiva, piuttosto che il successo riproduttivo personale dell'attore, a essere massimizzata dalla selezione naturale. 

 

Hamilton dimostrò matematicamente che era possibile che l'altruismo si evolvesse come tratto finché i benefici degli atti altruistici cadevano su individui che erano geneticamente imparentati con il donatore. In altre parole, sarebbe vantaggioso per un animale lanciare un grido d'allarme, e quindi mettersi in pericolo, per avvertire un gruppo di parenti, poiché anche i suoi parenti portano copie dei suoi geni. La regola di Hamilton è stata originariamente sviluppata utilizzando un modello genetico di popolazione semplificato che faceva ipotesi piuttosto restrittive ed è stata a lungo criticata dai genetisti della popolazione come inesatta ed euristica. Tuttavia, Hamilton in seguito ha fornito una prova molto più precisa della regola utilizzando l'equazione di Price, chiarendo la definizione dei termini e dimostrando la generalità della regola. Molti sviluppi successivi della teoria della selezione parentale hanno anche utilizzato l'equazione di Price come base.

 

Una visione alternativa dell'evoluzione sociale suggerisce che la selezione che opera per favorire un gruppo sociale rispetto a un altro può contrastare la selezione che opera all'interno dei gruppi sociali, così che i comportamenti che danno agli individui uno svantaggio rispetto alle loro parti sociali possono evolvere attraverso la selezione di gruppo. Tali idee erano piuttosto confuse fino a quando Price, e più tardi Hamilton, mostrarono che l'equazione di Price può essere espansa per comprendere più livelli di selezione che agiscono simultaneamente. Ciò consente di definire e separare esplicitamente la selezione ai vari livelli e fornisce la base formale della teoria della selezione di gruppo. È importante sottolineare che consente la quantificazione di queste forze separate e fornisce previsioni precise su quando sarà favorito il comportamento vantaggioso per il gruppo. Si scopre che queste previsioni sono sempre coerenti con la regola di Hamilton. Inoltre, poiché la selezione parentale e la teoria della selezione di gruppo sono entrambe basate sulla stessa equazione di Price, è facile dimostrare che i due approcci sono matematicamente equivalenti, e sono semplicemente modi alternativi di suddividere la selezione totale operando sul carattere sociale. Indipendentemente dall'approccio adottato, ci si aspetta che i singoli organismi massimizzino la loro idoneità inclusiva, sebbene questo risultato segua più facilmente da un'analisi di selezione parentale, poiché rende più esplicito l'elemento chiave della relazione.

 

È un fatto storico che ha portato l'equazione di Price ad essere associata alla teoria evoluzionistica, e negli ultimi anni l'equazione ha iniziato a fare la sua comparsa all'interno di altre discipline. I biologi Troy Day e Sylvain Gandon hanno recentemente applicato l'equazione di Price all'epidemiologia, nel contesto dell'evoluzione della virulenza dei parassiti, compreso il virus SARS-CoV-2 (The Price equation and evolutionary epidemiology, 2020). In questo campo è stata utile per concettualizzare e approfondire la comprensione dei risultati teorici esistenti. Essa fornisce anche una via per una migliore comprensione delle corse co-evolutive “agli armamenti” dei parassiti e dei loro ospiti, in cui la selezione naturale porta al miglioramento di una specie, che viene controbilanciato da qualsiasi miglioramento (naturale o indotto dall’esterno, ad esempio dai vaccini) nel suo nemico. Il risultato netto di queste forze può essere difficile da capire quando vengono prese insieme, ma l'equazione di Price fornisce un mezzo per separarle in modo che possano essere considerate e comprese isolatamente.

 

Nella letteratura ecologica, l'equazione di Price ha fornito approfondimenti sull'impatto delle estinzioni locali sulla produttività della comunità. C'è qualche controversia sul fatto che la ricchezza di specie di per sé sia importante, in particolare quando la ridondanza nella funzione significa che nicchie vuote possono essere occupate da altre specie che sono già presenti nella comunità. Il biologo evolutivo ed ecologo dell’Università di Calgary Jeremy Fox, fondatore della “ecologia dinamica”, ha utilizzato l'equazione di Price per separare i vari fattori causali che possono dare origine a effetti sulla produttività della comunità e per fornire un meta-modello che generalizza e consente facili confronti tra i modelli piuttosto complicati e restrittivi che sono stati ideati per affrontare questo problema. Fox ritiene infatti che l’ecologia sia una scienza soprattutto quantitativa.

 

Dopo lo sviluppo della sua equazione, Price continuò a dare altri importanti contributi alla teoria dell'evoluzione. Il primo di questi era quello di dimostrare formalmente e fornire un'interpretazione per il cosiddetto teorema fondamentale della selezione naturale che il genetista e statistico britannico Ronald Fisher aveva presentato in The Genetical Theory of Natural Selection (1930), un risultato che aveva lasciato perplessi i genetisti delle popolazioni per decenni. Il teorema afferma che, in presenza di selezione naturale, la fitness media di una popolazione tende ad aumentare. Fisher affermò che essa coglieva l'azione direzionale e migliorativa della selezione naturale come costruttore di adattamenti dell'organismo. Price dimostrò che il teorema di Fisher era un risultato parziale, una descrizione dell'azione dell'effetto della selezione naturale con l’eliminazione di tutti gli altri effetti evolutivi, e dimostrò il teorema utilizzando la sua equazione. 

 

Il contributo finale di Price è stata la prima esplicita applicazione della teoria dei giochi alla biologia evolutiva, in un fondamentale articolo scritto insieme al biologo inglese John Maynard Smith intitolato The Logic of Animal Conflict (1973), che è considerato come uno degli sviluppi più importanti della teoria dell'evoluzione e ha lanciato un programma di ricerca di grande successo. È Maynard Smith a cui di solito viene attribuita questa svolta, e in effetti ha svolto il ruolo principale nel suo sviluppo. Ma l'idea era nata con Price, in un manoscritto inedito che Maynard Smith aveva recensito per Nature.

 

Quando due maschi si affrontano, in competizione per una compagna o per un territorio, possono comportarsi come "falchi" - combattendo fino a quando uno viene ferito, mutilato, ucciso o fugge - o come "colombe" - posando un po' ma andandosene prima che avvenga un danno grave. Nessuno dei due tipi di comportamento, a quanto pare, è ideale per la sopravvivenza: una specie contenente solo falchi avrebbe un alto tasso di mortalità; una specie contenente solo colombe sarebbe vulnerabile a un'invasione di falchi o a una mutazione che produce falchi, perché il tasso di crescita della popolazione dei falchi competitivi sarebbe inizialmente molto più alto di quello delle colombe.

 

Pertanto, una specie con maschi costituiti esclusivamente da falchi o da colombe è vulnerabile. Maynard Smith mostrò che un terzo tipo di comportamento maschile, che chiamò "borghese", sarebbe più stabile di quello dei falchi o delle colombe. Un maschio “borghese” può agire sia come un falco che come una colomba, a seconda di alcuni segnali esterni; per esempio, può combattere tenacemente quando incontra un rivale nel proprio territorio, ma cedere quando incontra lo stesso rivale altrove. In effetti, gli animali “borghesi” sottopongono il loro conflitto all'arbitrato esterno per evitare una lotta prolungata e reciprocamente distruttiva. Naturalmente in questa applicazione della teoria dei giochi la domanda non è quale strategia sceglie un giocatore razionale (non si presume che gli animali facciano scelte consapevoli, sebbene i loro tipi possano cambiare attraverso la mutazione), ma quali combinazioni di tipi siano stabili e quindi suscettibili di evolversi.

 


L'incapacità di Price di concentrarsi sulla pubblicazione delle sue intuizioni teoriche era dovuta a un'improvvisa esperienza religiosa il 6 giugno del 1970 e a un cambiamento di priorità nella sua vita. Non si sa cosa in particolare abbia portato Price, un ex ateo intransigente, a percorrere questa strada, sebbene abbia menzionato ad Hamilton che una serie di coincidenze lo aveva convinto dell’esistenza di Dio. Arrivò a considerare la sua equazione come un dono divino e, adottando un'interpretazione molto letterale del Nuovo Testamento, rinunciò alla scienza per dedicare la sua vita ad aiutare gli altri (Telmo Pievani ha detto che il suo fu quasi un esperimento su sé stesso per provare la propensione evolutiva all’altruismo). Ospitò i senzatetto nel suo appartamento e donò tutti i suoi soldi e beni ai poveri e ai bisognosi di North London, e la sua vita andò fuori controllo. Sfrattato dalla sua casa, divenne profondamente depresso poco dopo il Natale del 1974, e la mattina del 6 gennaio 1975 fu trovato morto in un appartamento occupato vicino a Soho Square. Si era tagliato la gola con delle forbici. È sepolto in una tomba anonima nel cimitero di St. Pancras, dove un cippo lo ricorda.




sabato 16 ottobre 2021

TSP: di commessi viaggiatori e ottimizzazione

Supponiamo che venga assegnato il seguente problema. Viene mostrato un insieme di n punti sul piano, che chiameremo città. Viene chiesto di iniziare da una qualsiasi delle città e tracciare una linea ininterrotta che attraversi ciascuna delle altre città esattamente una volta e torni al punto di partenza. Tale linea è chiamata circuito e un esempio di soluzione per 20 città è mostrato nella figura. Tutto quello che bisogna fare è trovare il circuito più breve possibile.


Questo è un esempio del problema del commesso viaggiatore, o TSP (Traveling Salesman Problem). Le origini del problema non sono chiare. Un manuale per venditori ambulanti del 1832 lo menziona e include esempi di tour attraverso la Germania e la Svizzera, ma non contiene alcuna trattazione matematica. Una prima trattazione relativa a problemi simili a questo si deve all’irlandese William R. Hamilton (sì, quello dei quaternioni, il vandalo del ponte di Dublino) e al britannico Thomas P. Kirkman.

L’Icosian Game di Hamilton è un rompicapo ricreativo basato sulla ricerca di un circuito hamiltoniano lungo gli spigoli di un dodecaedro, cioè un percorso tale che ogni vertice venga visitato una sola volta, nessuno spigolo sia percorso due volte e il punto finale sia lo stesso del punto iniziale (ma ovviamente senza il vincolo del percorso più breve). Il puzzle fu distribuito commercialmente come un pannello di legno con fori ai 20 nodi di un grafo dodecaedrico e pedine numerate. Hamilton lo vendette a un produttore di giochi londinese nel 1859 per 25 sterline (circa 3.220 sterline di oggi). Fu un affare per Hamilton, perché il gioco, giudicato troppo facile, fu un insuccesso in tutte le versioni in cui venne proposto.

 


Il problema combinatorio di Kirkman, il quale passò alla storia più per questo rompicapo del 1850 che per i suoi grandi contributi alla teoria dei gruppi, è noto come Fifteen Schoolgirls Problem:

"Quindici fanciulle di una scuola escono affiancate tre alla volta per sette giorni di seguito: è necessario sistemarle ogni giorno in modo che due non camminino mai fianco a fianco più di una volta”.

 

Il problema del commesso viaggiatore vero e proprio fu formulato per la prima volta in forma generale nel 1930 dal geometra e topologo austriaco Karl Menger in un articolo in cui proponeva una nuova definizione della lunghezza di un arco:

 

“La lunghezza di un arco può essere definita come il minimo limite superiore dell'insieme di tutti i numeri che si potrebbero ottenere prendendo ogni insieme finito di punti della curva e determinando la lunghezza del grafo poligonale più corto che unisce tutti i punti. (…) Lo chiamiamo problema del messaggero (poiché in pratica questa questione dovrebbe essere risolta da ogni postino, comunque anche da molti viaggiatori): il compito è trovare, per un numero finito di punti di cui si conoscono le distanze a coppie, il percorso più breve che collega i punti. Naturalmente, questo problema è risolvibile con un numero finito di prove. Non sono note regole che spingerebbero il numero di prove al di sotto del numero di permutazioni dei punti dati. La regola che si debba andare prima dal punto di partenza al punto più vicino, poi al punto più vicino a questo, ecc., in genere non comporta il percorso più breve”.

Il TSP appartiene alla branca della matematica che chiamiamo ottimizzazione: vogliamo ottimizzare (massimizzare o minimizzare) una quantità, e vogliamo che la soluzione ci arrivi sotto forma di numeri interi. Il modo apparentemente facile per risolvere questo problema è guardare ogni possibile circuito e calcolarne la lunghezza, con un metodo chiamato ricerca esaustiva: provare tutte le possibili combinazioni di percorsi, e prendere infine il più corto. Questo metodo, purtroppo, funziona solamente quando abbiamo a che fare con un insieme assai piccolo di città. Il numero di circuiti distinti quando ci sono n città è (n − 1)! / 2. Il divisore due nel denominatore significa che un singolo circuito può essere percorso in entrambe le direzioni. Si noti nella tabella quanto velocemente il numero di circuiti aumenta con n:


La difficoltà di risoluzione che cresce di pari passo con il numero di città è conseguenza di un concetto molto più ampio e complicato: il problema è quel che, in teoria della complessità, si definisce NP-difficile. Ciò significa che non è possibile trovare una soluzione esatta, se non con un algoritmo troppo lento perché possa essere utilizzato per casi realisticamente utili. Se un moderno computer ad alta velocità calcola, siamo generosi, un miliardo di circuiti al secondo, ci vorrebbero 1046 anni per trovare la risposta sicura per un circuito di 50 città. (Per fare un confronto, l'età attuale dell'universo è stimata a circa 1,3×1010  anni.) Passare al supercomputer più veloce esistente non aiuterebbe molto.

Di fronte all’impossibilità di risolvere un problema efficacemente, i matematici vanno alla ricerca di una soluzione approssimata, con un nuovo obiettivo: trovare un algoritmo che funzioni per tutte le possibili disposizioni di città e che dia la migliore approssimazione possibile in un tempo ragionevole, ma nemmeno questo è così tanto facile. La complessità del TSP sembra rimanere elevata anche se si cerca di modificare il problema, ad esempio dividendo le città in sottoinsiemi da studiare separatamente.

Un esempio noto di algoritmi per problemi di ottimizzazione discreta e combinatoria è dato dalla famiglia Branch and Bound (BB, B&B): non è la sola strategia, ma casomai parlerò delle altre un’altra volta. Gli algoritmi Branch and Bound sono detti di enumerazione implicita perché si comportano esattamente come un algoritmo di enumerazione, cioè "provano" tutte le soluzioni possibili fino a trovare quella ottima (o quella corretta), ma ne scartano alcune dimostrando a priori la loro non ottimalità. Un algoritmo BB (“dirama e collega”) consiste in un'enumerazione delle soluzioni candidate mediante ricerca nell'insieme di tutte le possibili configurazioni del sistema: l'insieme delle soluzioni candidate è considerato come un albero con l'insieme completo alla radice.

L'algoritmo esplora i rami di questo albero, che rappresentano sottoinsiemi dell'insieme delle soluzioni. Prima di enumerare le soluzioni candidate di un ramo, il ramo viene verificato rispetto ai limiti stimati superiore e inferiore sulla soluzione ottima z* e viene scartato se non può produrre una soluzione migliore di quella trovata fino a quel momento dall'algoritmo. L'algoritmo dipende dalla stima efficiente dei limiti inferiore e superiore di regioni/rami dello spazio di ricerca. Se non sono disponibili limiti, l'algoritmo degenera in una ricerca esaustiva.


Il metodo è stato proposto per la prima volta da Ailsa Land e Alison Doig nel 1960 per la programmazione discreta, ed è diventato lo strumento più comunemente usato per risolvere problemi di ottimizzazione NP-difficili. Il nome "branch and bound" è apparso per la prima volta nel 1963 in un lavoro proprio sul problema del commesso viaggiatore.

Un algoritmo in grado di attaccare il problema, derivato dalla famiglia BB, fu sviluppato nel 1976 da Nicos Christofides, un matematico di Cipro allora professore all’Imperial College di Londra, Christofides dimostrò che il suo metodo crea, nel peggiore dei casi, un percorso che è al massimo il 50% più lungo del percorso ottimo. Sembrava naturale poter fare di meglio. Tuttavia, per anni i ricercatori hanno cercato di batterlo, e per anni hanno fallito, al punto che in molti hanno iniziato a dubitare della possibilità di poter migliorarlo.

Solo recentemente (maggio 2021) tre matematici dell’Università di Washington (Nathan Klein, Anna Karlin e Shayan Oveis Gharan) hanno mostrano come trovare una migliore approssimazione. Il miglioramento? 10−36, un fattore piccolissimo, un miliardesimo di quadriliardesimo. Tuttavia, seppur quasi impercettibile, questo progresso abbatte un muro psicologico: ora si sa che un avanzamento è possibile. Questa notizia ha risvegliato l’interesse di molti ricercatori, che ora si dicono determinati a migliorare ancora la soluzione.

Questo problema è solo di interesse accademico? Direi di no, perché le stesse difficoltà (molte possibili soluzioni da testare e una moltitudine di vincoli contrastanti che rendono difficile trovare la migliore) sorgono in molti importanti problemi del mondo reale. Questi includono la pianificazione del traffico aereo, il riconoscimento di schemi, il cablaggio di circuiti, lo studio delle reti neuronali, l'impacchettamento di oggetti di varie dimensioni e forme in uno spazio fisico o (matematicamente in modo simile) di messaggi codificati in un canale di comunicazione e una vasta moltitudine di altri.

Questi sono tutti esempi di quelli che vengono chiamati problemi di ottimizzazione combinatoria (OC), che tipicamente, anche se non sempre, derivano dalla teoria dei grafi. L'ottimizzazione si occupa di problemi formalizzabili come minimizzazione o massimizzazione di una funzione (detta funzione obiettivo, z) sottoposta a dei vincoli. Un problema di minimizzazione è sempre riconducibile ad un problema di massimizzazione, e viceversa. Non è qui il caso di discutere questo tipo di problemi, ma ciò che dovrebbe essere chiaro è che essi hanno la proprietà che il numero di possibili soluzioni (ad esempio, il numero di possibili circuiti nel TSP) cresce in modo esplosivo man mano che il numero n di variabili di input (il numero di città nel TSP) aumenta. La caratteristica fondamentale di tali problemi è quella di avere insiemi ammissibili discreti, a differenza ad esempio della Programmazione Lineare, in cui l’insieme ammissibile è continuo. Ciò comporta che le metodologie necessarie per affrontare problemi di Ottimizzazione Combinatoria sono spesso diverse da quelle utilizzate per risolvere problemi nel continuo. In generale, il processo di soluzione di un qualsiasi problema di ottimizzazione può essere considerato come composto di due parti distinte:
- produrre una soluzione ottima z*;
- produrre una valutazione che dimostri l’ottimalità di z*.

Trovare la soluzione migliore quando n diventa grande può o non può essere possibile in un tempo ragionevole, e spesso ci si deve accontentare di trovare una delle tante soluzioni "quasi ottimali" o molto buone, se è impossibile trovare le migliori. In molti algoritmi enumerativi per problemi “difficili” capita sovente che l’algoritmo determini la soluzione ottima in tempo relativamente breve, ma sia poi ancora necessario un grandissimo sforzo computazionale per dimostrare che tale soluzione è davvero ottima. In altri termini, la difficoltà del problema risiede non tanto nel costruire una soluzione ottima, quando nel verificarne l’ottimalità, ossia nel determinare il valore ottimo della funzione obiettivo. Alle tecniche utili a determinare questo valore, o una sua approssimazione accurata, è dedicata una parte rilevante della ricerca attuale, volta a sviluppare algoritmi “efficienti” per problemi di OC. Per ragioni sia algoritmiche che teoriche, questo tipo di problemi è diventato di enorme interesse per gli scienziati di quasi tutte le discipline.