Visualizzazione post con etichetta statistica. Mostra tutti i post
Visualizzazione post con etichetta statistica. Mostra tutti i post

lunedì 21 marzo 2022

Attacco allo spettro di Sheldon

 


Il 19 novembre 1969, la nave di ricerca Hudson salpò dalle gelide acque del porto di Halifax in Nuova Scozia e si inoltrò in mare aperto. La nave iniziava ciò che molti scienziati marini a bordo consideravano l'ultimo grande viaggio di esplorazione oceanica: la prima circumnavigazione completa delle Americhe. La nave era diretta a Rio de Janeiro, dove avrebbe imbarcato altri scienziati prima di attraversare Capo Horn, il punto più meridionale delle Americhe, e poi dirigersi a nord attraverso il Pacifico per attraversare il periglioso Passaggio a Nord-Ovest fino al porto di Halifax, dove tornò il 16 ottobre 1970. 


Lungo la strada, l'Hudson faceva frequenti soste in modo che i ricercatori potessero raccogliere campioni ed effettuare misurazioni. Uno di quegli scienziati, Ray Sheldon, era salito a bordo dell'Hudson a Valparaíso, nel Cile meridionale. Ecologista marino presso il Bedford Institute of Oceanography in Canada, Sheldon era affascinato dal plancton microscopico che sembrava essere ovunque nell'oceano: quanto erano diffusi questi minuscoli organismi? Per scoprirlo, Sheldon e i suoi colleghi raccoglievano e portavano secchi di acqua di mare fino al laboratorio dell'Hudson e utilizzavano un congegno per rilevare le dimensioni e il numero di creature planctoniche. 

La vita nell'oceano, scoprirono, seguiva una semplice regola matematica: l'abbondanza di un organismo è strettamente legata alle dimensioni del suo corpo. Per dirla in altro modo, più piccolo è l'organismo, più ce n’è. Ciò che era più sorprendente fu il modo in cui questa regola sembrava funzionare. Quando Sheldon e i suoi colleghi classificarono i campioni di plancton per ordini di grandezza, scoprirono che ogni intervallo di dimensioni conteneva esattamente la stessa massa di creature. In un secchio di acqua di mare, un terzo della massa del plancton era compreso tra 1 e 10 micrometri, un altro terzo era compreso tra 10 e 100 micrometri e l'ultimo terzo era compreso tra 100 micrometri e 1 millimetro. Ogni volta che scalavano di un intervallo di dimensioni, il numero di individui in quel gruppo diminuiva di un fattore 10. La massa totale rimaneva la stessa, mentre la dimensione delle popolazioni cambiava. Ad esempio, mentre il krill è 12 ordini di grandezza (circa mille miliardi) più piccolo del tonno, è anche 12 ordini di grandezza più abbondante del tonno. Quindi ipoteticamente, tutta la carne di tonno nel mondo sommata (biomassa di tonno) è più o meno la stessa quantità (almeno entro lo stesso ordine di grandezza) di tutta la biomassa di krill nel mondo. 


Sheldon pensava che questa regola potesse governare tutta la vita nell'oceano, dal più piccolo batterio alle più grandi balene. Questa intuizione si è rivelata vera. Lo spettro di Sheldon, come è stato chiamato, è stato osservato anche nel plancton, nei pesci e negli ecosistemi di acqua dolce. (In effetti, uno zoologo russo aveva osservato lo stesso schema nel suolo tre decenni prima di Sheldon, ma la sua scoperta passò per lo più inosservata). 

Lo spettro di Sheldon è una distribuzione a legge di potenza (power law distribution) cioè una relazione del tipo: 


dove 
µ indica proporzionale, cioè uguale a meno di un fattore moltiplicativo, a (>1) è chiamato esponente della legge di potenza e L(x) è una funzione "che varia lentamente". Quando L(x) è una costante, la distribuzione diventa: 


con C costante di normalizzazione. 

Una distribuzione che obbedisce alla legge di potenza è denominata anche scale-free distribution (distribuzione a invarianza di scala), o anche distribuzione di Pareto. La particolarità di questo tipo di distribuzione sta proprio nell'assenza di una scala caratteristica dei fenomeni. Le leggi di potenza hanno vasta applicazione in biologia, dai modelli di attività neurale ai viaggi alla ricerca di cibo di varie specie. 

Di solito le distribuzioni power-law sono rappresentate su un grafico log-log, cioè un grafico in cui entrambe le variabili sugli assi sono espresse in logaritmi. Trasformando in logaritmi si ha infatti: 


e la relazione diventa lineare. 

Tornando allo spettro di Sheldon, il rapporto rimane approssimativamente lo stesso man mano che ci si sposta più in alto nella catena alimentare. Solo alle estremità estreme dello spettro (i batteri più piccoli e le balene più grandi) le misurazioni hanno iniziato a variare. Un altro modo per comprendere la relazione tra dimensioni e numeri è esaminare il peso dei singoli organismi: 


Biomassa oceanica totale (peso umido) suddivisa in classi dimensionali rilevanti (g, peso umido) per ciascun gruppo per stimare lo spettro dimensionale globale. Ciò è mostrato come il numero totale di individui in ogni classe di grandezza dell'ordine di grandezza sulla piattaforma epipelagica e continentale dell'oceano (superiore a ~ 200 m), dando un esponente di -1,04 (IC 95%: da -1,05 a -1,02). La fascia grigia di confidenza include l'incertezza della biomassa in ciascuna classe dimensionale e l'incertezza nella distribuzione dimensionale di ciascun gruppo. Si noti che gli assi nel grafico sono logaritmici. Come mostra l'equazione nell'angolo in alto a destra, le due grandezze sono legate da una legge che è quasi di proporzionalità inversa. (da Hatton, Heneghan, Bar-On, Galbraith. The global ocean size spectrum from bacteria to whales. Sci Adv. 2021 Nov 12).

Da quando è stato proposto per la prima volta nel 1972, questo modello era stato testato solo all'interno di gruppi limitati di specie in ambienti acquatici, su scale relativamente piccole. Dal plancton marino, ai pesci in acqua dolce, lo schema è rimasto valido: la biomassa delle specie più grandi e meno abbondanti era più o meno equivalente alla biomassa delle specie più piccole ma più abbondanti. 

Ora, l'ecologo Ian Hatton del Max Planck Institute e colleghi hanno cercato di vedere se questa legge riflette anche ciò che sta accadendo su scala globale. Una delle maggiori sfide nel confrontare gli organismi che vanno dai batteri alle balene sono le enormi differenze di scala. I ricercatori hanno stimato gli organismi all'estremità piccola della scala da più di 200.000 campioni d'acqua raccolti a livello globale, ma una vita marina più ampia richiedeva metodi completamente diversi. 

Utilizzando i dati storici, il gruppo ha confermato che lo spettro di Sheldon si adatta a questa relazione a livello globale per le condizioni oceaniche preindustriali (prima del 1850). In 12 gruppi di vita marina, inclusi batteri, alghe, zooplancton, pesci e mammiferi, oltre 33.000 punti della griglia dell'oceano globale, si sono verificate quantità approssimativamente uguali di biomassa in ciascuna categoria di dimensioni dell'organismo. Si è scoperto che ogni classe di dimensioni dell'ordine di grandezza contiene circa 1 gigatonnellata di biomassa a livello globale. 

Hatton e la sua squadra hanno discusso le possibili spiegazioni per questo fatto, comprese le limitazioni imposte da fattori come le interazioni predatore-preda, il metabolismo, i tassi di crescita, la riproduzione e la mortalità. Molti di questi fattori si adattano anche alle dimensioni di un organismo. Ma a questo punto sono tutte speculazioni. Ciò che stupisce è la costanza della regola: perché il rapporto tra numero e dimensioni è questo e non un altro? 

Vi erano tuttavia due eccezioni alla regola, ad entrambi gli estremi della scala dimensionale esaminata. I batteri erano più abbondanti di quanto previsto dalla legge e le balene molto meno. Ancora una volta, il perché è un mistero completo. 

I ricercatori hanno quindi confrontato questi risultati con la stessa analisi applicata ai campioni e ai dati attuali. Sebbene la legge di potenza fosse per lo più ancora verificata, c'era una netta interruzione nello schema, evidente con organismi più grandi. 

"L’impatto umano sembra aver tagliato in modo significativo il terzo superiore dello spettro", ha scritto il gruppo nell’articolo. "Gli esseri umani non hanno semplicemente sostituito i principali predatori dell'oceano, ma hanno invece, attraverso l'impatto cumulativo degli ultimi due secoli, alterato radicalmente il flusso di energia attraverso l'ecosistema"


Sebbene i pesci rappresentino meno del 3% del consumo annuale di cibo umano, il gruppo ha scoperto che abbiamo ridotto la biomassa di pesci e mammiferi marini del 60% dal 1800. È anche peggio per gli animali più grandi della Terra: la caccia storica ha determinato una riduzione del 90% delle balene.

Questo fatto mette davvero in evidenza l'inefficienza della pesca industriale. Le nostre attuali strategie stanno sprecando molta più biomassa, e l'energia che contiene, di quanta ne consumiamo effettivamente. Inoltre, non abbiamo sostituito il ruolo che una volta svolgeva la biomassa, nonostante ora siamo una delle più grandi specie di vertebrati per biomassa. 

Circa 2,7 gigatonnellate sono state perse dai più grandi gruppi di specie negli oceani, mentre gli esseri umani costituiscono circa 0,4 gigatonnellate. Sono necessari ulteriori ricerche per capire come questa massiccia perdita di biomassa influenzi gli oceani. 

In particolare, la riduzione di grandi animali sembra guidare l'evoluzione di pesci più piccoli o di quelli che diventano sessualmente maturi in giovane età, o entrambi. Molte popolazioni di pesci stanno cambiando drasticamente, con una dimensione media che si riduce del 20% e vite medie più brevi del 25%. Le specie raccolte mostrano i cambiamenti di tratto più bruschi mai osservati nelle popolazioni selvatiche, hanno riferito di recente Michael Kinnison dell'Università del Maine e colleghi. 

Tali cambiamenti sono stati documentati in molti luoghi, tra cui: sardine al largo dell'Africa occidentale; platessa americana al largo di Terranova; salmone atlantico in Canada e Regno Unito; aringhe e temoli al largo della Norvegia; salmone keta in Giappone; sogliola, eglefino e passera di mare nel Mare del Nord; coregone in Alberta; salmone rosso in Alaska; varie specie di salmone nella Columbia Britannica; crostacei in California e merluzzo un po' ovunque. Inoltre, questo lungo elenco include solo i casi in cui sono stati condotti studi rigorosi. È probabile che tali cambiamenti si stiano verificando in ogni popolazione in cui sono presi di mira i pesci di grandi dimensioni. 

Quindi questi cambiamenti sono davvero il risultato dell'evoluzione, o semplicemente una risposta temporanea alle pressioni ambientali? "È molto probabilmente un misto dei due", afferma Kinnison. "L'evoluzione è una componente sostanziale." 

In molti casi, ad esempio, i ricercatori hanno dimostrato che una volta che i pesci raggiungono una certa taglia ed età, è più probabile che diventino prima sessualmente maturi rispetto alle generazioni precedenti. Ciò esclude la maggior parte delle spiegazioni ambientali, come il fatto che i pesci maturano in età precoce perché trovano più cibo e crescono più velocemente. 

Non vi è inoltre alcun dubbio sulla plausibilità di un'evoluzione così rapida. Uno studio decennale sui latterini orientali tenuti in vasche ha dimostrato che un'intensa azione mirata su individui di grandi dimensioni può dimezzare la taglia media in sole quattro generazioni. 

In realtà il tracciamento dei cambiamenti genetici coinvolti non era fattibile fino a poco tempo fa, ma ora è stato fatto per il merluzzo bianco al largo dell'Islanda. I merluzzi con una variante del gene Pan I vivono in acque costiere poco profonde, mentre quelli con un'altra variante vivono in acque più profonde più al largo. Poiché i pescherecci prendono di mira il merluzzo nelle acque costiere poco profonde, la variante poco profonda sta rapidamente diventando meno comune. 

Alcune delle misure di gestione stanno peggiorando le cose. Il merluzzo che vive in profondità si sposta nelle zone costiere poco profonde per deporre le uova, ma queste aree sono chiuse alla pesca durante la deposizione delle uova; quindi, i pesci che vivono in profondità sopportano sempre il peso maggiore della pesca. Nella peggiore delle ipotesi, i pesci poco profondi potrebbero scomparire in 15 anni. Ciò potrebbe portare al collasso della pesca, perché il merluzzo che vive in profondità è molto più difficile, e quindi più costoso, da catturare. 

Esistono altri motivi di preoccupazione, oltre a quello della pesca indiscriminata delle specie più grandi.

La plastica, ad esempio, che galleggia nell'acqua di mare assomiglia molto al cibo per gli uccelli marini (non considerati dalla carta) e per alcune specie di pesci e mammiferi. Le microplastiche hanno effetti ancor più subdoli e deleteri sulle reti alimentari. 

Un altro impatto degli esseri umani sullo spettro di Sheldon è molto meno chiaro, ma il cambiamento climatico antropogenico sta alterando sia la temperatura dell'acqua che la chimica dell'acqua degli oceani. La maggior parte dei microrganismi si è evoluta per un intervallo di temperatura abbastanza ristretto; alterare la temperatura dell'acqua può avere un impatto su di loro. E la CO2 atmosferica disciolta acidifica l'oceano; con troppa acidificazione, gli organismi dipendenti dalla generazione di carbonato di calcio per gli esoscheletri – molti organismi planctonici e la maggior parte dei molluschi – non possono sopravvivere. Quale sarà l'impatto della scomparsa delle creature marine con esoscheletri?

Qual è l'effetto della distruzione dello spettro di Sheldon? Nessuno lo sa, ma sicuramente non è una buona cosa.

domenica 13 febbraio 2022

Darwin sperimentatore e la nascita della statistica dei dati biologici

 


Anche se aveva molti talenti, Charles Darwin non era un gran matematico. Nella sua autobiografia scrive di aver studiato matematica da giovane, ma ricorda anche che "mi ripugnava", pur riconoscendo che avrebbe voluto aver appreso i principi di base della matematica, "perché gli uomini così dotati sembrano avere un senso in più"


Darwin non amava le complesse dimostrazioni e scrisse al secondo cugino William Darwin Fox il 23 maggio 1855: "Non ho fiducia in niente che non sia la misurazione effettiva e la Regola del Tre” (cioè le proporzioni semplici). Scrivendo a T. H. Huxley il 7 maggio 1860, confermava che “Dato che sembravi in qualche modo interessato ai cambiamenti nelle proporzioni dei piccioni, ti dirò i risultati generali dopo aver rielaborato l'intero argomento in ogni modo possibile e con l'aiuto di circa (più o meno) diecimila calcoli con la regola delle tre”

Fu un fiore selvatico, la linaiola comune (Linaria vulgaris), a cambiare le sue opinioni. Come riferisce in The Effects of Cross and Self-Fertilisation in the Vegetable Kingdom (1876), per i suoi esperimenti Darwin coltivò la pianta, che ha piccoli fiori ermafroditi, incrociò accuratamente alcuni fiori e ne autofecondò degli altri. Quando coltivò i semi, scoprì che gli ibridi erano più grandi e più forti di quelli provenienti dalla stessa parentela. 
“Alla fine, fui portato a fare gli esperimenti registrati nel presente volume dalla seguente circostanza. Allo scopo di determinare certi punti riguardo all'eredità, e senza pensare agli effetti di un ravvicinato incrocio, coltivai vicini due grandi letti di pianticelle autofecondate ed incrociate della stessa pianta di Linaria vulgaris. Con mia sorpresa, le piante incrociate, quando erano completamente cresciute, erano chiaramente più alte e più vigorose di quelle autofecondate. Le api visitano incessantemente i fiori di questa Linaria e portano il polline dall'una all'altra; e se si escludono gli insetti, i fiori producono pochissimi semi; cosicché le piante selvatiche da cui sono cresciute le mie piantine devono essere state incrociate durante tutte le generazioni precedenti. Sembrava quindi del tutto incredibile che la differenza tra i due letti di pianticelle potesse essere dovuta ad un solo atto di autofecondazione; e attribuii il risultato al fatto che i semi autofecondati non fossero ben maturati, per quanto improbabile fosse che tutti avrebbero dovuto essere in questo stato, o a qualche altra causa accidentale e inesplicabile. L'anno successivo, coltivai per lo stesso scopo di prima due grandi letti ravvicinati di piante autofecondate e incrociate del garofano, Dianthus caryophyllus. Questa pianta, come la Linaria, è quasi sterile se si escludono gli insetti; e possiamo trarre la stessa deduzione di prima, cioè che le piante madri devono essere state incrociate durante ogni o quasi ogni generazione precedente. Nondimeno le pianticelle autofecondate erano chiaramente inferiori in altezza e vigore a quelle incrociate”. 

Era stupito. Sebbene avesse sempre sospettato che la consanguineità fosse dannosa per le piante, non aveva mai pensato che potesse avere un effetto significativo entro una singola generazione. “In modo che le piante naturalmente incrociate erano in altezza rispetto alle piante autofecondate spontaneamente in un rapporto di almeno fino a 100 a 1”

Così ripeté l'esperimento con altri sette tipi di piante, compreso il mais, per una decina di generazioni per tipo. Aveva una idea brillante e, a quel tempo, nuova. Poiché lievi differenze nel suolo o nella luce o nella quantità di acqua potrebbero influenzare i tassi di crescita, piantò i semi in coppia: un seme impollinato in modo incrociato e un seme autoimpollinato in ogni vaso. Poi li fece crescere e ne misurò l'altezza. 

Il metodo adottato da Darwin era quello di confrontare ogni pianta autofecondata a una incrociata, in condizioni il più possibile uguali. Le coppie così scelte per il confronto erano germogliate nello stesso momento, e le condizioni del terreno in cui crescevano erano ampiamente rese uguali piantando nello stesso vaso. Necessariamente non erano della stessa discendenza, poiché sarebbe difficile nel mais autofecondare due piante nello stesso momento in cui nasce una progenie incrociata dalla coppia. Tuttavia, i genitori provenivano presumibilmente dallo stesso lotto di semi. L'evidente scopo di queste precauzioni era di aumentare la sensibilità dell'esperimento, facendolo dipendere il meno possibile dalle circostanze ambientali, e quindi il più possibile dalle differenze intrinseche dovute all’origine delle piante. 

Il metodo dell'accoppiamento, molto utilizzato nel lavoro biologico moderno, illustra bene come un appropriato disegno sperimentale riesca a conciliare due desideri, che a volte appaiono in conflitto. Da un lato si richiede la massima uniformità del materiale biologico, oggetto dell'esperimento, per aumentare la sensibilità di ogni singola osservazione; e, dall'altro, si vogliono moltiplicare le osservazioni in modo da dimostrare per quanto possibile l'affidabilità e la coerenza dei risultati. 

Come previsto, in media, gli ibridi erano più alti. Tra le sue 30 piante di mais, ad esempio, gli esemplari autofecondati erano alti solo l'84% degli ibridi. Ma Darwin era abbastanza esperto da non fidarsi semplicemente dell'altezza media di così poche piante. "Posso premettere - scriveva - che se prendessimo per caso una dozzina o una ventina di uomini appartenenti a due nazioni e li misurassimo, presumo sarebbe molto avventato formulare un giudizio da un numero così piccolo sulla loro altezza media. Ma il caso è alquanto diverso nelle mie piante incrociate ed autofecondate, poiché erano esattamente della stessa età, furono sottoposte dalla prima all'ultima alle stesse condizioni, e discendevano dagli stessi genitori. Quando sono state misurate solo da due a sei paia di piante, i risultati sono manifestamente di poco o nessun valore, tranne in quanto confermano e sono confermati da esperimenti fatti su scala più ampia con altre specie”. Poteva essere, si domandò, che le differenze di altezza nelle piante fossero solo variazioni casuali? Il suo risultato poteva essere più significativo, ma voleva essere in grado di stabilire di quanto. 

Per farlo, tuttavia, era necessaria la matematica. Perciò si rivolse a suo cugino, Francis Galton, che era un leader nel campo emergente della statistica. Galton aveva recentemente inventato la deviazione standard o scarto quadratico medio, che è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. 
“Poiché veniva misurato solo un numero modesto di piante incrociate e autofecondate, per me era di grande importanza sapere fino a che punto le medie fossero affidabili. Chiesi quindi al signor Galton, che ha molta esperienza in ricerche statistiche, di esaminare alcune delle mie tabelle di misura, in numero di sette, cioè quelle di Ipomoea, Digitalis, Reseda lutea, Viola, Limnanthes, Petunia e Zea”.

Galton non fu però di grande aiuto. Poteva calcolare la deviazione standard, ma non poteva usare quel numero per dire quanto fosse probabile che la differenza di altezza non fosse casuale. Inoltre, era abbastanza sicuro che ci fossero troppo poche piante per dirlo. Così rispose a Charles Darwin: 
“La determinazione della variabilità (misurata da quello che tecnicamente viene chiamato 'errore probabile') è un problema di maggior delicatezza di quello di determinare le medie, e dubito, dopo molte prove, che sia possibile trarre conclusioni utili da queste poche osservazioni. Dovremmo avere misure di almeno cinquanta piante per ogni caso, per poter dedurre risultati affidabili. Un fatto, tuttavia, relativo alla variabilità, è molto evidente nella maggior parte dei casi, anche se non in Zea mays, cioè che le piante autofecondate comprendono il maggior numero di esemplari eccezionalmente piccoli, mentre quelle incrociate sono più generalmente completamente cresciute. 

Se si arrivasse a conoscere che una serie segue la legge dell'errore o qualsiasi altra legge, e se d’altra parte si conoscesse il numero degli individui della serie, sarebbe sempre possibile ricostruire l'intera serie quando ne è stata data una frazione. Ma non ritengo che tale metodo sia applicabile in questo caso. Il dubbio sul numero delle piante in ogni riga [della tabella ricavata, NdR] è di minore importanza; la vera difficoltà sta nella nostra ignoranza della legge precisa seguita dalla serie. L'esperienza delle piante in vaso non ci aiuta a determinare tale legge, perché le osservazioni di tali piante sono troppo poche per permetterci di stabilire con precisione più che i termini medi della serie a cui appartengono, mentre i casi che stiamo ora considerando si riferiscono ai termini estremi di questa serie”. 
E la questione rimase a quel punto, in una frustrante incertezza, per 40 anni. 

Per risolvere l'impasse, ci voleva una Guinness. Nei primi anni del Novecento, la società produttrice di birra dublinese si dotò di un gruppo di ricerca per studiare in modo scientifico i parametri che influenzano la qualità della birra, applicando procedimenti che oggi prendono il nome di controllo di qualità. Un dipendente della Guinness, William Sealy Gosset, laureato in chimica e matematica, sviluppò un metodo di confronto fra campioni statistici che viene ampiamente usato ancora oggi in ogni campo, per esempio negli studi clinici di efficacia dei farmaci. 

A Gosset, tuttavia, non fu consentito di pubblicare il metodo con il proprio nome, perché Guinness voleva mantenere segreto il fatto che le statistiche potessero aiutare a produrre una birra migliore. Egli lo fece sotto lo pseudonimo di "Student", nel 1908. La tecnica è quindi diventata nota come “Student’s t-test”, un test statistico di tipo parametrico che ha lo scopo di verificare se il valore medio di una distribuzione si discosta significativamente da un certo valore di riferimento. 


Lo Student’s t-test fece ciò che Galton non sapeva come fare: data la deviazione standard calcolata da Galton, diceva quanto fosse probabile che la differenza di altezza tra gli ibridi e gli autofecondati fosse casuale. La risposta fu che la possibilità era di circa il 5%. Per gli standard statistici, è a malapena significativo. 

Ci vollero altri dieci anni e l'intervento di un altro genio statistico per la successiva svolta sul problema. Ronald Aylmer Fisher (1890-1962), un poliedrico biologo britannico che fu attivo come matematico, statistico e genetista. Per la sua opera nella statistica, è stato definito "la figura più importante nella statistica del XX secolo". In biologia, il suo lavoro utilizzò la matematica per combinare la genetica mendeliana e la selezione naturale; ciò contribuì alla rinascita del darwinismo nella revisione della teoria dell'evoluzione nota come sintesi moderna. Per i suoi contributi alla biologia, Fisher fu anche definito "il più grande successore di Darwin". 

Da studente universitario, Fisher venne a conoscenza dell’opera di Gregor Mendel sulla genetica e di quella di Darwin sull'evoluzione, ma la teoria che collegava le due non era ancora stata sviluppata. Fisher decise di creare la base statistica per rendere possibile la connessione. L'esperimento di Darwin con gli ibridi era proprio il tipo di problema che Fisher doveva essere in grado di risolvere. Notò qualcosa che Galton aveva ignorato: il metodo intelligente di Darwin per accoppiare le piante. Aveva calcolato la deviazione standard delle piante come un unico grande gruppo. 

Fisher rifece l'analisi ma calcolò la deviazione standard della differenza di altezza tra le coppie di piante in ogni vaso. Di colpo, invece di una possibilità del 5% che il risultato non significasse nulla, ottenne una possibilità dello 0,01%. In altre parole, era quasi certo che gli ibridi diventassero davvero più alti degli autofecondati. 


Fisher notò che lo Student’s t-test aveva un possibile difetto: presumeva che le altezze delle piante variassero in modo prevedibile (secondo una distribuzione normale, per essere precisi). Nel caso in cui tale ipotesi fosse stata sbagliata, escogitò un altro modo di analizzare i dati e confermò il risultato. Studiò la progettazione di esperimenti introducendo il concetto di randomizzazione e l'analisi della varianza, procedure oggi utilizzate in tutto il mondo. L'idea di Fisher era quella di organizzare un esperimento come un insieme di sotto-esperimenti suddivisi che differiscono l'uno dall'altro per l'applicazione di uno o più fattori o trattamenti. I sub-esperimenti sono progettati in modo tale da consentire di attribuire differenze nei loro risultati ai diversi fattori o combinazioni di fattori mediante analisi statistiche. Questo è stato un notevole progresso rispetto all'approccio allora esistente di variare solo un fattore alla volta in un esperimento, che era una procedura relativamente inefficiente. 

Fisher pubblicò il frutto della sua ricerca in due libri fondamentali, Statistical Methods for Research Workers e The Design of Experiments. Quest'ultimo introdusse diverse idee fondamentali, tra cui l'ipotesi nulla H0 e la significatività statistica, che gli scienziati di tutto il mondo usano ancora oggi. 

L'analisi di Fisher fu possibile solo perché Darwin aveva progettato così bene i suoi esperimenti. In effetti, Fisher era spesso frustrato dalla qualità degli esperimenti di altre persone. "Chiamare lo statistico dopo che l'esperimento è terminato", disse in una conferenza a Calcutta nel 1938, "potrebbe essere nient'altro che chiedergli di eseguire un esame post mortem: potrebbe essere in grado di dire di cosa è morto l'esperimento"

Secondo Fisher, “Il principale contributo di Darwin, non solo alla Biologia ma all'intera scienza naturale, fu l'aver portato alla luce un processo per cui a contingenze improbabili a priori viene data, nel corso del tempo, una probabilità crescente, fino a quando non è la loro mancata occorrenza, e non il loro verificarsi, che diventa altamente improbabile”

Ciò che poterono fare gli statistici con i dati di Darwin fu semplicemente una conseguenza dello sviluppo nel tempo della loro scienza, ma nessuno mai mise in dubbio la raffinatezza della sua procedura sperimentale.

lunedì 27 dicembre 2021

George Price e la matematica della selezione naturale


 

Per Darwin, la selezione naturale è un processo lungo e complesso che coinvolge molteplici cause interconnesse. La selezione naturale richiede variazioni in una popolazione di organismi. Perché il processo funzioni, almeno parte di quella variazione deve essere ereditabile e trasmessa in qualche modo ai discendenti degli organismi. Su tale variazione agisce la lotta per l'esistenza, un processo che in effetti “seleziona” le variazioni favorevoli alla sopravvivenza e alla riproduzione dei loro portatori. Proprio come gli allevatori scelgono quale dei loro animali si riprodurranno e quindi creeranno le varie razze di cani domestici, piccioni e bovini, la natura effettivamente "seleziona" quali animali si riprodurranno e crea un cambiamento evolutivo proprio come fanno gli allevatori. Tale “selezione” per natura, la selezione naturale, avviene come risultato della lotta per l'esistenza e, nel caso delle popolazioni con riproduzione sessuata, della lotta per le opportunità di accoppiamento. Quella lotta è essa stessa il risultato dei controlli sull'aumento geometrico della popolazione che si verificherebbe in assenza dei controlli. Tutte le popolazioni aumentano di numero in assenza dei limiti alla crescita imposti dalla natura. Questi controlli assumono forme diverse in popolazioni diverse. Tali limitazioni possono assumere la forma di scorte di cibo limitate, siti di nidificazione limitati, predazione, malattie, condizioni climatiche avverse e molto altro ancora. In un modo o nell'altro, solo alcuni dei riproduttori nelle popolazioni naturali si riproducono effettivamente, spesso perché altri semplicemente muoiono prima della maturità. A causa delle variazioni tra i riproduttori potenziali, alcuni hanno maggiori possibilità di inserirsi nel gruppo di riproduttori effettivi rispetto ad altri. Se tali variazioni sono ereditabili, è probabile che la progenie di quelli con i tratti "più adatti" produca molti altri discendenti. Per usare uno degli esempi di Darwin, i lupi con zampe particolarmente lunghe che consentono loro di correre più velocemente avranno maggiori probabilità di catturare prede e quindi evitare la fame e quindi produrre prole con zampe più lunghe che gli consente, a sua volta, di riprodursi e generare discendenti con zampe più lunghe e così via. Per mezzo di questo processo iterativo, un tratto favorevole alla riproduzione che si trova inizialmente in uno o pochi membri della popolazione si diffonderà attraverso la popolazione.

 

Le molteplici fasi del processo di Darwin che coinvolgono tratti diversi, agendo in sequenza o in concerto, possono quindi spiegare sia come la speciazione sia l'evoluzione di adattamenti complessi avvengono attraverso l'evoluzione graduale (cambiamento nel tempo) delle popolazioni naturali. Darwin mirava a convincere il suo pubblico che anche strutture complicate come l'occhio dei vertebrati, che a prima vista sembrano spiegabili solo come il prodotto di un progetto, potrebbero invece essere giustificate con una evoluzione incrementale, un processo complesso ma ancora naturale. Quella che inizialmente è una chiazza fotosensibile può trasformarsi in un occhio attraverso moltissimi momenti di selezione che progressivamente ne migliorano e ne accrescono la sensibilità. Mostrare che qualcosa è spiegabile è molto diverso dallo spiegarlo, tuttavia, una teoria deve essere esplicativa per svolgere entrambi i compiti. Dopo Darwin, la comparsa di nuove specie nella documentazione geologica e l'esistenza di adattamenti che sembrano frutto di progetti non possono essere utilizzati come motivi per invocare cause soprannaturali come ultima risorsa esplicativa.

 

I teorici hanno sviluppato approcci formali e quantitativi per modellare i processi descritti da Darwin (con buona pace degli “scienziati di dio” che si ostinano a chiedere una “formula globale dell’evoluzione”, che non può avere carattere predittivo dati gli enormi lassi di tempo coinvolti). Uno dei primi approcci di tipo mirato fu senza dubbio quello che George Price fornì in un articolo di due sole pagine su Nature nel 1970 intitolato Selection and Covariance.

 

George Price (1922-1975) era uno scienziato americano la cui breve ma produttiva carriera come teorico dell'evoluzione tra la fine degli anni '60 e l'inizio degli anni '70 è uno degli episodi più affascinanti della storia della disciplina. Price si formò come chimico e aveva lavorato al Progetto Manhattan, poi all’IBM, prima di diventare uno divulgatore di scienze con alcuni articoli su Science. Autofinanziato da un grande rimborso assicurativo dopo un'operazione medica fallita per un tumore alla tiroide, si trasferì a Londra alla fine del 1967 e iniziò a imparare da solo le basi della teoria evoluzionistica, lavorando prima nelle biblioteche e poi al Galton Laboratory presso l'University College di Londra.

 

Portando una nuova prospettiva alla disciplina, Price scoprì un approccio completamente nuovo alla genetica delle popolazioni e la base per una teoria generale della selezione: l'equazione di Price. Essa è utilizzata in diverse aree chiave della teoria dell'evoluzione e sta iniziando a chiarire questioni difficili in altre discipline.

 

L'equazione di Price è una equazione sul cambiamento: è un teorema matematico vero e proprio, di cui egli fornì la dimostrazione (che qui non trattiamo). Nella sua formulazione abituale, descrive come il valore medio di qualsiasi carattere fenotipico - peso corporeo, dimensioni delle corna, propensione all'altruismo - cambia in una popolazione biologica da una generazione all'altra. Essa rappresenta l'estensione dell'evoluzione in un sistema rispetto a un dato carattere attraverso una singola generazione utilizzando funzioni statistiche. Price indicò il valore del carattere dell'individuo come z, il numero dei suoi figli come w e la discrepanza tra i valori dei suoi caratteri e quelli della sua prole come ∆z, e mostrò che il cambiamento nel valore medio della popolazione del carattere tra le generazioni dei genitori e dei figli vale:

 

WΔZ = cov(wi,zi) + E(wiΔzi)        (1)

 

dove:

 

W è il numero medio di figli (offspring) prodotti dai membri della popolazione;

 

∆Z è la variazione del valore medio del carattere nella popolazione;

 

cov è la covarianza, cioè il valore numerico che fornisce una misura di quanto due variabili statistiche varino assieme, ovvero dipendano reciprocamente; 

 

wi indica il numero della prole prodotta dall’ i-esimo membro della popolazione (la sua fitness, il successo riproduttivo);

 

zi indica il valore del carattere nell'i-esimo membro della popolazione;

 

E è il valore atteso, cioè il numero che formalizza l'idea di valore medio di un fenomeno statistico. In generale il valore atteso di una variabile discreta è dato dalla somma dei possibili valori di tale variabile, ciascuno moltiplicato per la probabilità di essere assunto (ossia di verificarsi), quindi è la media ponderata dei possibili risultati. 

 

Nell'equazione di Price, la selezione è associata alla prima quantità di destra, mentre la seconda rappresenta la distorsione di trasmissione. La prima parte è il cambiamento ascrivibile all'azione della selezione, e ciò assume la forma di una covarianza statistica tra i valori dei caratteri degli individui (zi) e il loro successo riproduttivo relativo (wi). Ad esempio, se gli individui con valori più grandi del carattere di interesse tendono ad avere più figli, allora la covarianza è positiva e la selezione agisce per aumentare il valore medio del carattere della popolazione. Il secondo termine a destra assume la forma di un'aspettativa E, che descrive come la prole differisce dai suoi genitori, che è il cambiamento dovuto alla trasmissione. Se i figli sono copie identiche dei loro genitori, allora l'effetto di trasmissione è zero e la selezione è l'unico fattore coinvolto nell'evoluzione del carattere. Tuttavia, la prole sarà spesso diversa dai genitori, forse a causa di una mutazione, o perché i loro geni sono combinati in un modo nuovo, o a causa di un cambiamento nel loro ambiente fisico, biologico o culturale, e in questo caso l'effetto di trasmissione non è nullo.

 

Sebbene l'equazione di Price sia stata introdotta utilizzando la terminologia biologica, essa si applica a qualsiasi gruppo di entità che subisce una trasformazione. Ma, nonostante la sua vasta generalità, ha qualcosa di interessante da dire. Separa e impacchetta ordinatamente il cambiamento dovuto alla selezione rispetto alla trasmissione, dando una definizione esplicita per ogni effetto e, così facendo, fornisce le basi per una teoria generale della selezione naturale. In una lettera a un amico, Price spiegò che la sua equazione descrive la selezione delle stazioni radio con la rotazione di una manopola con la stessa facilità con cui descrive l'evoluzione biologica.

 

L'equazione di Price è un risultato molto generale, a causa del modo in cui segue direttamente dalle definizioni e quindi è relativamente priva di ipotesi limitanti la generalità. L'equazione emerge dalla riorganizzazione della notazione piuttosto che, diciamo, dalle leggi fisiche; quindi, non è una previsione del cambiamento che avviene tra i due aggregati, ma piuttosto un'identità matematica che mostra un modo in cui tale cambiamento può essere espresso. Per la sua generalità e semplicità, l'equazione di Price è stata utilizzata per rappresentare processi fondamentali nell'evoluzione e, come meta-modello, consente di tracciare confronti e contrasti tra diversi modelli e metodologie. In quanto tale, è un importante aiuto concettuale che ha portato alla scoperta di connessioni inaspettate tra diversi corpi teorici, ha risolto controversie di lunga data e ha contribuito a risolvere alcune confusioni semantiche.

 

L'equazione di Price è stata applicata più frequentemente all'evoluzione biologica e l'equazione (1) sembra catturare l'idea darwiniana della "sopravvivenza del più adatto". Effetti di trasmissione a parte, la selezione opera per favorire quei caratteri che sono positivamente correlati con il successo riproduttivo individuale. Tuttavia, la moderna teoria della selezione naturale è inquadrata in termini di cambiamenti nelle frequenze geniche, e Price ha formulato ciò concentrandosi sulla componente genetica additiva (g) del carattere, piuttosto che sull'effettivo valore fenotipico (z). Scartando il cambiamento genetico dovuto alla trasmissione, l'equazione di Price può essere utilizzata per fornire un enunciato formale della selezione naturale:

 

WΔg = cov(wi,gi) = βwi,gi var(g)     (2)

 

dove:

 

∆g è la variazione del valore medio della componente genetica additiva nella popolazione;

 

gi denota il valore della componente genetica additiva dell'i-esimo membro della popolazione;

 

β è il coefficiente angolare della retta di regressione delle variabili wi,gi

 

var indica la varianza, cioè la funzione che fornisce una misura della variabilità dei valori assunti dalla variabile stessa; nello specifico, la misura di quanto essi si discostano quadraticamente dalla media aritmetica o dal valore atteso E. 

 

Price trovava illuminante esprimere la selezione naturale come un prodotto dei suoi fattori componenti: la regressione (pendenza) del successo riproduttivo relativo rispetto al valore genetico dell'individuo (βwi,gi); e la variazione genetica nella popolazione (var(g)). Ciò mette in evidenza il fatto che la selezione naturale opera quando vi sono differenze ereditarie tra gli individui rispetto a qualche carattere correlato al successo riproduttivo. Inoltre, poiché le varianze non sono mai negative, qualsiasi risposta alla selezione naturale deve essere nella direzione di un aumento del successo riproduttivo (avente lo stesso segno di βwi,gi). L'equazione di Price coglie quindi l'effetto migliorativo (nel senso di adattamento) che la selezione naturale ha sulle popolazioni biologiche.

 

Darwin sosteneva che poiché la selezione naturale fa sì che quei caratteri che migliorano l'idoneità individuale si accumulino nelle popolazioni biologiche, gli organismi appariranno di conseguenza come se fossero progettati per massimizzare la loro idoneità. Questa ambiguità apparente tra disegno e azione rende la biologia unica tra le scienze naturali, ed è la ragione per cui la letteratura evoluzionista abbonda di linguaggio intenzionale: egoismo, strategie, conflitti di interesse. Ma la questione di questa apparenza quasi magica di capacità di intervento sul reale è stata a lungo trascurata dai genetisti della popolazione, che hanno avuto la tendenza a oscurare il ruolo del singolo organismo concentrandosi invece su geni e genotipi. L'equazione di Price, al contrario, mette in evidenza l'individuo e la sua fitness e collega questo ai cambiamenti nella frequenza genica. Per questo motivo, il teorico evoluzionista Alan Grafen ha utilizzato l'equazione di Price per stabilire collegamenti matematici tra la genetica delle popolazioni e la teoria dell'ottimizzazione, che giustificano formalmente la visione dei singoli organismi come agenti economici che massimizzano la fitness. Catturando sia il processo che lo scopo dell'adattamento, l'equazione di Price è un buon approccio alle basi matematiche del darwinismo.

 

Darwin sosteneva che gli individui sono incoraggiati a comportarsi in modo da migliorare il loro successo riproduttivo personale. Tuttavia, il comportamento altruistico è comune nel mondo naturale, e questo è difficile da conciliare con "la sopravvivenza del più adatto". Riconoscendo questo problema, Darwin spiegò come alcuni caratteri potrebbero essere favoriti perché migliorano il successo riproduttivo dei propri consanguinei (selezione parentale), oppure perché forniscono un beneficio complessivo al gruppo sociale (selezione di gruppo). 

 

Come ha scritto Oren Harman nella biografia di Price intitolata The Price of Altruism (2010), “perché le amebe costruiscono steli dai loro stessi corpi, sacrificandosi nel processo, in modo che alcune possano arrampicarsi ed essere portate via dalla carestia all'abbondanza sulle gambe di un insetto innocente o sulle ali di un vento propizio? Perché i pipistrelli vampiri condividono il sangue, bocca a bocca, alla fine di una notte di preda con i membri della colonia che hanno avuto meno successo nella caccia? Perché le gazzelle sentinella saltano su e giù quando un leone viene avvistato, mettendosi in modo precario tra il branco e il cacciatore affamato? E cosa ha a che fare tutto questo con la moralità negli esseri umani: c'è, infatti, un'origine naturale per i nostri atti di gentilezza? Le virtù delle amebe, dei pipistrelli, delle gazzelle e degli umani provengono dallo stesso luogo?

 

L'altruismo era un enigma. Si opponeva apertamente ai fondamenti della teoria, un'anomala spina nel fianco di Darwin. Se la Natura era sanguinante nei denti e negli artigli [come aveva scritto Tennyson], una battaglia spietata combattuta ferocemente sotto le onde e attraverso i cieli e nei deserti e nelle giungle, come potrebbe essere selezionato un comportamento che riducesse la fitness? Sopravvivenza del più adatto o sopravvivenza del più generoso: era un enigma che i darwiniani avrebbero dovuto risolvere. E così, partendo da Darwin, è iniziata la ricerca per risolvere il mistero dell'altruismo”.

 


Oggi, l'equazione di Price fornisce il fondamento formale sia della selezione parentale che delle teorie della selezione di gruppo, e ha chiarito che queste non sono ipotesi in competizione, ma piuttosto due modi diversi di guardare allo stesso processo evolutivo.

 

L'approccio della selezione parentale, sviluppato da Bill Hamilton negli anni '60, ritiene che un gene possa essere favorito dalla selezione naturale aumentando il successo riproduttivo del suo portatore e anche aumentando il successo riproduttivo di altri individui portatori dello stesso gene. Tutto ciò che conta è che il gene porti avanti copie di sé stesso nelle generazioni future: da dove provengono queste copie è irrilevante. La condizione per cui un comportamento altruistico è favorito dalla selezione, chiamata regola di Hamilton, è 

 

rb > c

 

dove c è il costo di fitness per l'attore, b è il beneficio di fitness per il destinatario, r è la relazione genetica tra attore e destinatario. Pertanto, l'altruismo è favorito a condizione che l'attore e il destinatario siano parenti sufficientemente stretti. La quantità rb – c è stata definita l'effetto di "idoneità inclusiva" del comportamento e descrive l'impatto dell'attore sul successo riproduttivo di tutti i suoi parenti (incluso sé stesso), ponderato dalla parentela genetica di ciascuno. È l'idoneità inclusiva, piuttosto che il successo riproduttivo personale dell'attore, a essere massimizzata dalla selezione naturale. 

 

Hamilton dimostrò matematicamente che era possibile che l'altruismo si evolvesse come tratto finché i benefici degli atti altruistici cadevano su individui che erano geneticamente imparentati con il donatore. In altre parole, sarebbe vantaggioso per un animale lanciare un grido d'allarme, e quindi mettersi in pericolo, per avvertire un gruppo di parenti, poiché anche i suoi parenti portano copie dei suoi geni. La regola di Hamilton è stata originariamente sviluppata utilizzando un modello genetico di popolazione semplificato che faceva ipotesi piuttosto restrittive ed è stata a lungo criticata dai genetisti della popolazione come inesatta ed euristica. Tuttavia, Hamilton in seguito ha fornito una prova molto più precisa della regola utilizzando l'equazione di Price, chiarendo la definizione dei termini e dimostrando la generalità della regola. Molti sviluppi successivi della teoria della selezione parentale hanno anche utilizzato l'equazione di Price come base.

 

Una visione alternativa dell'evoluzione sociale suggerisce che la selezione che opera per favorire un gruppo sociale rispetto a un altro può contrastare la selezione che opera all'interno dei gruppi sociali, così che i comportamenti che danno agli individui uno svantaggio rispetto alle loro parti sociali possono evolvere attraverso la selezione di gruppo. Tali idee erano piuttosto confuse fino a quando Price, e più tardi Hamilton, mostrarono che l'equazione di Price può essere espansa per comprendere più livelli di selezione che agiscono simultaneamente. Ciò consente di definire e separare esplicitamente la selezione ai vari livelli e fornisce la base formale della teoria della selezione di gruppo. È importante sottolineare che consente la quantificazione di queste forze separate e fornisce previsioni precise su quando sarà favorito il comportamento vantaggioso per il gruppo. Si scopre che queste previsioni sono sempre coerenti con la regola di Hamilton. Inoltre, poiché la selezione parentale e la teoria della selezione di gruppo sono entrambe basate sulla stessa equazione di Price, è facile dimostrare che i due approcci sono matematicamente equivalenti, e sono semplicemente modi alternativi di suddividere la selezione totale operando sul carattere sociale. Indipendentemente dall'approccio adottato, ci si aspetta che i singoli organismi massimizzino la loro idoneità inclusiva, sebbene questo risultato segua più facilmente da un'analisi di selezione parentale, poiché rende più esplicito l'elemento chiave della relazione.

 

È un fatto storico che ha portato l'equazione di Price ad essere associata alla teoria evoluzionistica, e negli ultimi anni l'equazione ha iniziato a fare la sua comparsa all'interno di altre discipline. I biologi Troy Day e Sylvain Gandon hanno recentemente applicato l'equazione di Price all'epidemiologia, nel contesto dell'evoluzione della virulenza dei parassiti, compreso il virus SARS-CoV-2 (The Price equation and evolutionary epidemiology, 2020). In questo campo è stata utile per concettualizzare e approfondire la comprensione dei risultati teorici esistenti. Essa fornisce anche una via per una migliore comprensione delle corse co-evolutive “agli armamenti” dei parassiti e dei loro ospiti, in cui la selezione naturale porta al miglioramento di una specie, che viene controbilanciato da qualsiasi miglioramento (naturale o indotto dall’esterno, ad esempio dai vaccini) nel suo nemico. Il risultato netto di queste forze può essere difficile da capire quando vengono prese insieme, ma l'equazione di Price fornisce un mezzo per separarle in modo che possano essere considerate e comprese isolatamente.

 

Nella letteratura ecologica, l'equazione di Price ha fornito approfondimenti sull'impatto delle estinzioni locali sulla produttività della comunità. C'è qualche controversia sul fatto che la ricchezza di specie di per sé sia importante, in particolare quando la ridondanza nella funzione significa che nicchie vuote possono essere occupate da altre specie che sono già presenti nella comunità. Il biologo evolutivo ed ecologo dell’Università di Calgary Jeremy Fox, fondatore della “ecologia dinamica”, ha utilizzato l'equazione di Price per separare i vari fattori causali che possono dare origine a effetti sulla produttività della comunità e per fornire un meta-modello che generalizza e consente facili confronti tra i modelli piuttosto complicati e restrittivi che sono stati ideati per affrontare questo problema. Fox ritiene infatti che l’ecologia sia una scienza soprattutto quantitativa.

 

Dopo lo sviluppo della sua equazione, Price continuò a dare altri importanti contributi alla teoria dell'evoluzione. Il primo di questi era quello di dimostrare formalmente e fornire un'interpretazione per il cosiddetto teorema fondamentale della selezione naturale che il genetista e statistico britannico Ronald Fisher aveva presentato in The Genetical Theory of Natural Selection (1930), un risultato che aveva lasciato perplessi i genetisti delle popolazioni per decenni. Il teorema afferma che, in presenza di selezione naturale, la fitness media di una popolazione tende ad aumentare. Fisher affermò che essa coglieva l'azione direzionale e migliorativa della selezione naturale come costruttore di adattamenti dell'organismo. Price dimostrò che il teorema di Fisher era un risultato parziale, una descrizione dell'azione dell'effetto della selezione naturale con l’eliminazione di tutti gli altri effetti evolutivi, e dimostrò il teorema utilizzando la sua equazione. 

 

Il contributo finale di Price è stata la prima esplicita applicazione della teoria dei giochi alla biologia evolutiva, in un fondamentale articolo scritto insieme al biologo inglese John Maynard Smith intitolato The Logic of Animal Conflict (1973), che è considerato come uno degli sviluppi più importanti della teoria dell'evoluzione e ha lanciato un programma di ricerca di grande successo. È Maynard Smith a cui di solito viene attribuita questa svolta, e in effetti ha svolto il ruolo principale nel suo sviluppo. Ma l'idea era nata con Price, in un manoscritto inedito che Maynard Smith aveva recensito per Nature.

 

Quando due maschi si affrontano, in competizione per una compagna o per un territorio, possono comportarsi come "falchi" - combattendo fino a quando uno viene ferito, mutilato, ucciso o fugge - o come "colombe" - posando un po' ma andandosene prima che avvenga un danno grave. Nessuno dei due tipi di comportamento, a quanto pare, è ideale per la sopravvivenza: una specie contenente solo falchi avrebbe un alto tasso di mortalità; una specie contenente solo colombe sarebbe vulnerabile a un'invasione di falchi o a una mutazione che produce falchi, perché il tasso di crescita della popolazione dei falchi competitivi sarebbe inizialmente molto più alto di quello delle colombe.

 

Pertanto, una specie con maschi costituiti esclusivamente da falchi o da colombe è vulnerabile. Maynard Smith mostrò che un terzo tipo di comportamento maschile, che chiamò "borghese", sarebbe più stabile di quello dei falchi o delle colombe. Un maschio “borghese” può agire sia come un falco che come una colomba, a seconda di alcuni segnali esterni; per esempio, può combattere tenacemente quando incontra un rivale nel proprio territorio, ma cedere quando incontra lo stesso rivale altrove. In effetti, gli animali “borghesi” sottopongono il loro conflitto all'arbitrato esterno per evitare una lotta prolungata e reciprocamente distruttiva. Naturalmente in questa applicazione della teoria dei giochi la domanda non è quale strategia sceglie un giocatore razionale (non si presume che gli animali facciano scelte consapevoli, sebbene i loro tipi possano cambiare attraverso la mutazione), ma quali combinazioni di tipi siano stabili e quindi suscettibili di evolversi.

 


L'incapacità di Price di concentrarsi sulla pubblicazione delle sue intuizioni teoriche era dovuta a un'improvvisa esperienza religiosa il 6 giugno del 1970 e a un cambiamento di priorità nella sua vita. Non si sa cosa in particolare abbia portato Price, un ex ateo intransigente, a percorrere questa strada, sebbene abbia menzionato ad Hamilton che una serie di coincidenze lo aveva convinto dell’esistenza di Dio. Arrivò a considerare la sua equazione come un dono divino e, adottando un'interpretazione molto letterale del Nuovo Testamento, rinunciò alla scienza per dedicare la sua vita ad aiutare gli altri (Telmo Pievani ha detto che il suo fu quasi un esperimento su sé stesso per provare la propensione evolutiva all’altruismo). Ospitò i senzatetto nel suo appartamento e donò tutti i suoi soldi e beni ai poveri e ai bisognosi di North London, e la sua vita andò fuori controllo. Sfrattato dalla sua casa, divenne profondamente depresso poco dopo il Natale del 1974, e la mattina del 6 gennaio 1975 fu trovato morto in un appartamento occupato vicino a Soho Square. Si era tagliato la gola con delle forbici. È sepolto in una tomba anonima nel cimitero di St. Pancras, dove un cippo lo ricorda.




sabato 6 novembre 2021

I modelli scientifici tra realtà e rappresentazione

 


“Il mondo è una mia rappresentazione»: ecco una verità valida per ogni essere vivente e pensante,
benché l'uomo soltanto possa averne coscienza astratta e riflessa.
E quando l'uomo abbia di fatto tale coscienza, lo spirito filosofico è entrato in lui.
Allora, egli sa con certezza di non conoscere né il sole né la terra, ma soltanto un occhio
che vede un sole, e una mano che sente il contatto d'una terra;
egli sa che il mondo circostante non esiste se non come rappresentazione,
cioè sempre e soltanto in relazione con un altro essere, con il percipiente, con lui medesimo”.

[Arthur Schopenhauer, Il mondo come volontà e rappresentazione,
traduzione di A. Vigliani, Mursia, Milano, 1982]

 


Foto 51

La “Foto 51” è un’immagine a diffrazione dei raggi X di un gel paracristallino composto da fibre di DNA, scattata da Raymond Gosling, uno studente di dottorato che lavorava sotto la supervisione di Rosalind Franklin nel maggio 1952 al King's College di Londra. L'immagine fu etichettata come "foto 51" seguendo l’ordine temporale in cui le foto di diffrazione erano state scattate da Franklin e Gosling. Essa mostra la misteriosa forma a "X" che ispirò James Dewey Watson e Francis Crick a visualizzare la struttura a doppia elica del DNA. Questa straordinaria immagine, la più chiara del DNA mai creata fino a quel momento, fu ottenuta con le tecniche più avanzate allora disponibili. Usando l'immagine di Gosling come prova fisica, Watson e Crick poi pubblicarono la loro idea di struttura teorica del DNA su Nature nel 1953. 

Nel 1962 il Premio Nobel in Fisiologia o Medicina fu assegnato a Watson, Crick e Wilkins. Il premio non fu assegnato a Franklin che era morta quattro anni prima e il comitato per il Nobel non fa nomine postume. Allo stesso modo, il lavoro di Gosling non era citato dal comitato del premio.

La fotografia forniva informazioni fondamentali per lo sviluppo di un modello di DNA. Lo schema di diffrazione consentiva di determinare la natura elicoidale dei fili antiparalleli a doppia elica. L'esterno della catena del DNA ha una spina dorsale di desossiribosio e fosfato alternati mentre le coppie di basi, il cui ordine fornisce i codici per la costruzione delle proteine e quindi l'eredità, sono all'interno dell'elica. I calcoli di Watson e Crick derivanti dalla fotografia di Gosling e Franklin fornirono parametri cruciali per le dimensioni e la struttura dell'elica e la Foto 51 divenne una fonte fondamentale di dati, che portò allo sviluppo del modello del DNA e confermava struttura a doppia elica del DNA ipotizzata in precedenza, presentata in una serie di tre articoli sulla rivista Nature nel 1953.

 


Una fotografia ottenuta con tecniche “non naturali” (i raggi X non li possiamo vedere), quindi già di per sé un modello, aveva consentito la conferma di una teoria basata su altre prove, permettendo la costruzione di un modello di una delle molecole fondamentali della vita. Un modello consentiva un secondo modello che, almeno per allora, sembrava confermare una teoria scientifica. Cosa strana i modelli, belli, utili e difficili da maneggiare.


 

Che cos’è un modello scientifico?

 Un modello scientifico è una rappresentazione fisica, concettuale o matematica di un fenomeno reale difficile da osservare e descrivere direttamente. I modelli creati dagli scienziati devono essere coerenti con le nostre osservazioni, deduzioni e spiegazioni concrete. Tuttavia, i modelli scientifici non sono creati per essere affermazioni fattuali sul mondo, ne sono uno schema: il modello non è la realtà, ma solo una sua rappresentazione semplificata in base alle nostre esigenze di comprensione. 

Lo scopo della modellazione scientifica è molteplice. Alcuni modelli, come il modello tridimensionale a doppia elica del DNA, vengono utilizzati principalmente per visualizzare un oggetto o un sistema, spesso ricavati da dati sperimentali. Altri modelli hanno lo scopo di descrivere un comportamento o un fenomeno astratto o ipotetico. Ad esempio, i modelli predittivi, come quelli impiegati nelle previsioni meteorologiche o nella proiezione degli esiti sanitari delle epidemie, si basano generalmente sulla conoscenza e sui dati di fenomeni del passato e su analisi matematiche di queste informazioni per prevedere e, possibilmente, prevenire futuri, ipotetici eventi di simili fenomeni. I modelli predittivi hanno un valore significativo per la società a causa del loro ruolo potenziale nei sistemi di allarme, come nel caso di terremoti, tsunami, epidemie e simili disastri su larga scala. Tuttavia, poiché nessun singolo modello predittivo può tenere conto di tutte le variabili che possono influenzare un risultato, gli scienziati devono formulare ipotesi sui fattori che possono compromettere l'affidabilità di un modello predittivo e portare a conclusioni errate.

I limiti della modellazione scientifica consistono nel fatto che i modelli generalmente non sono rappresentazioni complete (anche se alcuni pensano che questo sia appunto il loro pregio). Il modello atomico di Bohr, ad esempio, descriveva la struttura degli atomi. Ma, mentre era il primo modello atomico a incorporare la teoria quantistica e fungeva da modello concettuale di base delle orbite degli elettroni, non era una descrizione accurata della natura degli elettroni orbitanti. Né era in grado di prevedere i livelli di energia per gli atomi con più di un elettrone.


Infatti, nel tentativo di comprendere appieno un oggetto o un sistema, sono necessari più modelli, ognuno dei quali rappresenta una parte dell'oggetto o del sistema. Collettivamente i modelli possono essere in grado di fornire una rappresentazione, o almeno una comprensione, più completa dell'oggetto o sistema reale. Ciò è illustrato dal modello ondulatorio e da quello particellare della luce, che insieme descrivono il dualismo onda-particella, in cui la luce possiede natura sia d'onda che di particella. La teoria delle onde e la teoria delle particelle della luce sono state a lungo considerate in contrasto l'una con l'altra. All'inizio del XX secolo, tuttavia, con la scoperta che le particelle si comportano anche come onde, i due modelli furono riconosciuti come complementari, un passo che ha facilitato notevolmente nuove intuizioni nel campo della meccanica quantistica.

Esistono svariati utilizzi della modellazione scientifica. Ad esempio, nelle scienze della Terra, la modellizzazione dei fenomeni atmosferici e oceanici è rilevante non solo per le previsioni meteorologiche, ma anche per la comprensione scientifica del riscaldamento globale. In quest'ultimo caso, un modello oggi importante è il modello di circolazione globale, utilizzato per simulare il cambiamento climatico indotto dall'uomo. La modellizzazione di eventi geologici, come la convezione all'interno della Terra e i movimenti delle placche terrestri, ha fatto progredire le conoscenze di geofisici e geologi su vulcani e terremoti e sull'evoluzione della superficie terrestre. In ecologia, modelli costantemente aggiornati possono essere utilizzati per comprendere le dinamiche delle interazioni tra gli organismi e l’ambiente. Allo stesso modo, vengono utilizzati modelli tridimensionali di proteine ​​per ottenere informazioni sulla loro funzione ​​e per coadiuvare la progettazione di farmaci. La modellazione scientifica ha anche applicazioni nella pianificazione urbana e nella costruzione e nel ripristino degli ecosistemi. Gli scienziati dedicano molto tempo a costruire, calcolare, testare, confrontare e rivedere i modelli; molto spazio sulle pubblicazioni scientifiche è dedicato all'interpretazione e alla discussione delle loro implicazioni.

 

Modelli e rappresentazione

Molti modelli scientifici sono modelli rappresentativi, in quanto rappresentano una parte o un aspetto selezionato del mondo. Esempi standard sono il modello cinetico di un gas che considera le particelle come microscopiche palline in movimento caotico, il modello di Bohr dell'atomo, o il modello in scala di un ponte.

Nella maggior parte dei casi, i modelli non rappresentano il mondo direttamente, ma attraverso sistemi di destinazione (target systems). Essi sono parti della realtà che si studia, e devono essere scelti con attenzione e appropriatezza, specificando anche i criteri di valutazione per ridurre al minimo la frequenza e l'entità degli errori, soprattutto quando si utilizzano modelli per studiare i fenomeni in sistemi complessi del mondo reale. 


A seconda di una serie di fattori molto variabili, si utilizzano diversi tipi di rappresentazione, che giocano un ruolo importante nella pratica della scienza basata sui modelli, vale a dire, per citare i più significativi e meno controversi, modelli in scala, modelli analogici, modelli idealizzati, modelli fenomenologici, modelli esplorativi e modelli di dati. Queste categorie non si escludono a vicenda: un dato modello può rientrare in più categorie contemporaneamente.

Modelli in scala - Alcuni modelli sono copie ridotte o ingrandite dei loro sistemi di destinazione. Un tipico esempio è una piccola automobile di legno o argilla che viene messa in una galleria del vento per esplorare le proprietà aerodinamiche dell'auto reale. Il ragionamento di base è che un modellino in scala sia una replica naturalistica o un'immagine speculare veritiera del sistema reale; per questo motivo, i modelli in scala sono talvolta indicati anche come "veri modelli". Tuttavia, non esiste un modello in scala perfettamente fedele; la fedeltà è sempre limitata ad alcuni aspetti. Il modellino in legno dell'auto fornisce una rappresentazione fedele della forma dell'auto ma non del suo materiale. E anche negli aspetti in cui un modello è una rappresentazione fedele, la relazione tra proprietà del modello e proprietà dell'obiettivo di solito non è banale. Quando gli ingegneri utilizzano, ad esempio, un modello in scala 1:100 di una nave per indagare la resistenza che una nave reale sperimenta quando si muove nell'acqua, non possono semplicemente misurare la resistenza che il modello sperimenta e quindi moltiplicarla per la scala. Infatti, la resistenza affrontata dal modello non si traduce nella resistenza affrontata dalla nave reale in modo semplice (cioè non si può semplicemente scalare la resistenza all'acqua con la scala del modello: la nave reale non deve avere cento volte la resistenza all'acqua del suo modello 1:100). Le due quantità si trovano in una complicata relazione non lineare, e la forma esatta di tale relazione emerge solo come risultato di uno studio approfondito della situazione.


Modelli analogici - Al livello più elementare, due cose sono analoghe se ci sono alcune somiglianze rilevanti tra loro. Un tipo semplice di analogia è quella basata su proprietà condivise. Esiste un'analogia tra la Terra e la Luna basata sul fatto che entrambi sono corpi sferici grandi, solidi, opachi che ricevono calore e luce dal Sole, ruotano attorno ai loro assi e gravitano verso altri corpi. Ma l'uniformità delle proprietà non è una condizione necessaria. Un'analogia tra due oggetti può anche essere basata su somiglianze rilevanti tra le loro proprietà. In questo senso più largo, possiamo dire che c'è un'analogia tra suono e luce perché gli echi sono simili ai riflessi, il volume alla luminosità, il tono al colore, la percettibilità dall'orecchio a quella dall'occhio e così via.

Più recentemente, queste caratteristiche sono state discusse nel contesto dei cosiddetti esperimenti analogici, che promettono di fornire conoscenze su un sistema di destinazione sperimentalmente inaccessibile (ad es. un buco nero) manipolando un altro sistema, il sistema sorgente (ad es. un condensato di Bose–Einstein). Alcuni hanno sostenuto che, date determinate condizioni, una simulazione analogica di un sistema da parte di un altro sistema può confermare le affermazioni sul sistema bersaglio (ad esempio, che i buchi neri emettono radiazioni di Hawking).


Modelli idealizzati - I modelli idealizzati sono modelli che implicano una deliberata semplificazione o distorsione di qualcosa di complicato con l'obiettivo di renderlo più trattabile o comprensibile. Piani privi di attrito, masse puntiformi, sistemi completamente isolati, mercati in perfetto equilibrio sono esempi ben noti. Le idealizzazioni sono un mezzo cruciale per la scienza per far fronte a sistemi che sono troppo difficili da studiare nella loro piena complessità. 

I dibattiti filosofici sull'idealizzazione si sono concentrati su due tipi generali di idealizzazioni: le cosiddette idealizzazioni aristoteliche e quelle galileiane. L'idealizzazione aristotelica equivale a “spogliare”, nella nostra immaginazione, tutte le proprietà di un oggetto concreto che riteniamo non pertinenti al problema in questione. Ciò consente agli scienziati di concentrarsi su un insieme limitato di proprietà isolate. Un esempio è un modello di meccanica classica del sistema planetario, che descrive la posizione di un oggetto in funzione del tempo e ignora tutte le altre proprietà dei pianeti.

Le idealizzazioni galileiane sono quelle che comportano distorsioni deliberate: i fisici costruiscono modelli costituiti da masse puntiformi che si muovono su piani privi di attrito; gli economisti presumono che gli agenti siano onniscienti; i biologi studiano popolazioni isolate; e così via. L'uso di semplificazioni di questo tipo ogni volta che una situazione è troppo difficile da affrontare era caratteristico dell'approccio di Galileo alla scienza. Un esempio di tale idealizzazione è un modello di movimento di un corpo ignorando la sua forma e grandezza e concentrando la sua massa in un punto. 

Le idealizzazioni galileiane e aristoteliche non si escludono a vicenda, e molti modelli mostrano entrambe in quanto sia tengono conto di un insieme ristretto di proprietà, sia le distorcono. 

Modelli fenomenologici - I modelli fenomenologici sono stati definiti in modi diversi, sebbene correlati. Una definizione comune li considera modelli che rappresentano solo proprietà osservabili dei loro sistemi di destinazione e si astengono dal postulare meccanismi per il momento nascosti e inaccessibili. Molti modelli fenomenologici, pur non essendo derivabili da una teoria, incorporano principi e leggi associati alle teorie. Il modello nucleare a goccia di liquido, ad esempio, fu ipotizzato nel 1939 da Niels Bohr e da John Wheeler per spiegare la perdita di massa durante una fissione nucleare. Esso descrive il nucleo come una goccia liquida e lo descrive come avente diverse proprietà originate da diverse teorie (idrodinamica ed elettrodinamica). La fissione del nucleo viene spiegata con l’analogia del processo di suddivisione di una goccia di liquido in due gocce più piccole. Alcuni aspetti di queste teorie, sebbene di solito non le teorie complete, vengono quindi utilizzati per determinare le proprietà sia statiche che dinamiche del nucleo. 


Infine, si è tentati di identificare i modelli fenomenologici con i modelli di un fenomeno. Qui, "fenomeno" è un termine generico che copre tutte le caratteristiche relativamente stabili e generali del mondo che sono interessanti da un punto di vista scientifico. L'indebolimento del suono in funzione della distanza dalla sorgente, il decadimento delle particelle alfa, le reazioni chimiche che avvengono quando un pezzo di calcare si dissolve in un acido, la crescita di una popolazione di conigli e la dipendenza dei prezzi delle case dal tasso base della Banca Europea sono fenomeni in questo senso.

Modelli esplorativi - I modelli esplorativi sono modelli che non vengono proposti in primo luogo per apprendere qualcosa su uno specifico sistema di destinazione o un particolare fenomeno stabilito sperimentalmente. I modelli esplorativi funzionano come punto di partenza di ulteriori esplorazioni in cui il modello viene modificato e perfezionato. Essi possono fornire prove di principio e suggerire possibili spiegazioni. Un esempio possono essere i primi modelli dell'ecologia teorica, come il modello Lotka-Volterra di interazione predatore-preda, che studia il comportamento qualitativo dell'accelerazione e del rallentamento della crescita della popolazione in un ambiente con risorse limitate. Tali modelli non forniscono un resoconto accurato del comportamento di una popolazione reale, ma forniscono il punto di partenza per lo sviluppo di modelli più realistici.


Strettamente correlata è anche la nozione di modello di sondaggio (o "modello di studio"). Modelli di questo tipo non svolgono una funzione rappresentativa e non ci si aspetta che ci informino su nulla al di là del modello stesso. Lo scopo di questi modelli è quello di testare nuovi strumenti teorici che vengono utilizzati in seguito per costruire modelli rappresentativi. Un falso modello può svolgere molte funzioni utili, perché ad esempio può aiutare a rispondere a domande su modelli più realistici, fornire un campo per rispondere a domande sulle proprietà di modelli più complessi, su fenomeni di esclusioni di variabili (factor out) che altrimenti non sarebbero visti, servire come caso limite di un modello più generale (due falsi modelli possono definire gli estremi di un continuum di casi su cui si suppone si trovi il caso reale, un po’ come il teorema del confronto in analisi, quello detto “dei due carabinieri”), o portare all'identificazione di variabili rilevanti e alla stima dei loro valori.

 



Modelli di dati - Un modello di dati è una versione corretta, rettificata, controllata e in molti casi idealizzata, dei dati che otteniamo dall'osservazione immediata, i cosiddetti dati grezzi. Tipicamente, prima si eliminano gli errori (ad esempio, si eliminano valori dal record che sono dovuti a un'osservazione errata) e poi si presentano i dati in modo "pulito", ad esempio disegnando una curva uniforme attraverso un insieme di punti. Questi due passaggi sono comunemente indicati come "riduzione dei dati" e "adattamento della curva". Quando indaghiamo, per esempio, la traiettoria di un certo pianeta, prima eliminiamo i punti che sono fallaci dai registri di osservazione e poi adattiamo una curva a quelli rimanenti. I modelli di dati giocano un ruolo cruciale nel confermare le teorie perché è il modello dei dati, e non i dati grezzi spesso disordinati e complessi, contro cui le teorie vengono testate.

La costruzione di un modello di dati può essere estremamente complicata. Richiede tecniche statistiche sofisticate e solleva serie questioni metodologiche. Come decidiamo quali punti del record devono essere rimossi? E, dato un insieme pulito di dati, quale curva ci adattiamo? Al centro di quest'ultima domanda c'è il cosiddetto problema dell'adattamento della curva, ovvero che i dati stessi non dettano né la forma della curva adattata né quali tecniche statistiche gli scienziati dovrebbero usare per costruire una curva. La raccolta, l'elaborazione, la diffusione, l'analisi, l'interpretazione e l'archiviazione dei dati sollevano molte questioni importanti al di là delle questioni relativamente ristrette relative ai modelli di dati. 


Modelli e conoscenza

Uno dei motivi principali per cui i modelli svolgono un ruolo così importante nella scienza è che svolgono una serie di funzioni cognitive. Ad esempio, i modelli sono veicoli per conoscere il mondo. Parti significative dell'indagine scientifica vengono svolte sui modelli piuttosto che sulla realtà stessa, perché studiando un modello possiamo scoprire caratteristiche e accertare fatti sul sistema che il modello rappresenta: i modelli consentono il "ragionamento surrogativo". Ad esempio, studiamo la natura dell'atomo di idrogeno, la dinamica di una popolazione o il comportamento di un polimero studiando i rispettivi modelli. Questa funzione cognitiva dei modelli è stata ampiamente riconosciuta in letteratura, e alcuni suggeriscono addirittura che i modelli diano origine a un nuovo stile di ragionamento, il “model-based reasoning”, secondo il quale si fanno inferenze mediante la creazione di modelli e la manipolazione, adattandole e valutandole.

L'apprendimento da un modello avviene in due momenti: nella costruzione e nella manipolazione. Non ci sono regole o ricette fisse per la costruzione del modello. Una volta che il modello è costruito, non apprendiamo le sue proprietà guardandolo; dobbiamo usare e manipolare il modello per carpirne i segreti. A seconda del tipo di modello con cui abbiamo a che fare, la costruzione e la manipolazione di un modello equivalgono a diverse attività che richiedono metodologie diverse.

I modelli materiali sembrano essere semplici perché sono utilizzati in contesti sperimentali comuni (ad esempio, mettiamo il modello di un'auto nella galleria del vento e misuriamo la sua resistenza all'aria). Quindi, per quanto riguarda l'apprendimento del modello, i modelli materiali non danno luogo a domande che vanno al di là di questioni riguardanti la sperimentazione più in generale.

Non così con i modelli immaginari e astratti. Quali sono i vincoli alla costruzione di modelli fittizi e astratti e come li manipoliamo? Una risposta naturale sembra essere che lo facciamo eseguendo un esperimento mentale (“E se fosse…”). Diversi autori hanno esplorato questa linea di argomentazione, ma hanno raggiunto conclusioni molto diverse e spesso contrastanti su come vengono eseguiti gli esperimenti mentali e quale sia lo stato dei loro risultati.

Un'importante classe di modelli è di natura computazionale. Per alcuni modelli è possibile derivare risultati o risolvere analiticamente equazioni di un modello matematico. Ma molto spesso non è così. È a questo punto che i computer hanno un grande impatto, perché ci permettono di risolvere problemi altrimenti intrattabili. Quindi, i metodi computazionali ci forniscono conoscenze su un modello in cui i metodi analitici rimangono silenziosi. Molte parti della ricerca attuale nelle scienze naturali e sociali si basano su simulazioni al computer, che aiutano gli scienziati a esplorare le conseguenze di modelli che non possono essere studiati altrimenti. La formazione e lo sviluppo di stelle e galassie, l'evoluzione della vita, lo sviluppo di un'economia, il comportamento morale e le conseguenze delle procedure decisionali in un'organizzazione sono esplorate con simulazioni al computer, per citare solo alcuni esempi.

Le simulazioni al computer possono suggerire nuove teorie, modelli e ipotesi, ad esempio, basati su un'esplorazione sistematica dello spazio dei parametri di un modello. Ma le simulazioni al computer comportano anche rischi metodologici. Ad esempio, possono fornire risultati fuorvianti perché, a causa della natura discreta dei calcoli effettuati su un computer digitale, consentono solo l'esplorazione di una parte dell'intero spazio dei parametri e questo sottospazio non è in grado di riflettere tutte le caratteristiche importanti del modello. La gravità di questo problema è in qualche modo mitigata dalla crescente potenza dei computer moderni. Ma la disponibilità di una maggiore potenza di calcolo può anche avere effetti negativi: può incoraggiare gli scienziati a elaborare rapidamente modelli sempre più complessi ma concettualmente prematuri, che implicano ipotesi o meccanismi poco compresi e troppi parametri regolabili aggiuntivi. Ciò può portare a un aumento dell'adeguatezza empirica, che può essere gradita per determinati compiti di previsione, ma non necessariamente a una migliore comprensione dei meccanismi sottostanti. Di conseguenza, l'uso delle simulazioni al computer può cambiare il peso che assegniamo ai vari obiettivi della scienza. Infine, la disponibilità della potenza del computer può indurre gli scienziati a fare calcoli che non hanno il grado di affidabilità che ci si aspetterebbe di avere. Ciò accade, ad esempio, quando i computer vengono utilizzati per estrapolare distribuzioni di probabilità in avanti nel tempo, il che può rivelarsi fuorviante. Quindi è importante non lasciarsi trasportare dai mezzi che offrono i nuovi potenti computer e perdere di vista gli obiettivi reali della ricerca. 


Una volta che abbiamo conoscenza del modello, questa conoscenza deve essere "tradotta" in conoscenza del sistema di destinazione. È a questo punto che la funzione rappresentativa dei modelli torna ad essere importante: se un modello rappresenta davvero qualcosa, allora può istruirci sulla realtà perché (almeno alcune) delle parti o aspetti del modello hanno parti o aspetti corrispondenti nel mondo. Ma se l'apprendimento è connesso alla rappresentazione e se ci sono diversi tipi di rappresentazioni (analogie, idealizzazioni, ecc.), allora ci sono anche diversi tipi di apprendimento. Se, ad esempio, abbiamo un modello che consideriamo una rappresentazione realistica, il trasferimento di conoscenza dal modello al sistema di destinazione avviene in modo diverso rispetto a quando abbiamo a che fare con un'analogia o un modello che implica ipotesi idealizzanti.

Secondo Ignazio Licata (2011), "Un modello teorico è un filtro cognitivo che rende conto di certe osservazioni e stabilisce una sorta di equilibrio tra l'osservatore e il mondo; è la forma generale del test per un insieme di domande che possiamo porre a una classe di fenomeni. Questo non significa che quelle domande siano uniche ed esaustive. Possiamo sempre provare a farne delle altre".

Alcuni modelli spiegano. Ma come possono assolvere a questa funzione dato che tipicamente implicano idealizzazioni? Questi modelli spiegano nonostante o a causa delle idealizzazioni che implicano? Un uso esplicativo dei modelli presuppone che essi rappresentino o possono anche spiegare modelli non rappresentativi? E che tipo di spiegazione forniscono i modelli?

C'è una lunga tradizione che richiede che l'insieme degli enunciati di una spiegazione scientifica debbano essere veri. Gli autori che operano in questa tradizione negano che le idealizzazioni diano un contributo positivo alla spiegazione ed esplorano come i modelli possono spiegare nonostante siano idealizzati. Le ipotesi idealizzate di un modello non fanno differenza per il fenomeno in esame e sono quindi irrilevanti a fini esplicativi. Al contrario, altri filosofi della scienza sostengono che i modelli che spiegano possono distorcere direttamente molte cause che fanno differenza.

Altri autori perseguono una linea opposta e sostengono che i falsi modelli spiegano non solo nonostante la loro falsità, ma di fatto a causa della loro falsità. Ad esempio, la filosofa della scienza Nancy Cartwright sostiene che "la verità non spiega molto" e suggerisce di spiegare un fenomeno costruendo un modello che si adatti al fenomeno nel quadro di base di una grande teoria. Per questo motivo, il modello stesso è la spiegazione che cerchiamo. 

La visione standard della spiegazione nella scienza è il modello a legge di copertura (covering-law model) proposto da Carl Gustav Hempel e Paul Oppenheim nell’articolo Studies in the Logic of Explanation del 1948, secondo cui lo spiegare un evento in riferimento ad un altro evento presuppone necessariamente un ricorso a leggi o proposizioni generali che mettano in correlazione eventi del tipo da spiegare (explananda) con eventi del tipo citato come sue cause o condizioni (explanantia). Esso presuppone che la conoscenza delle leggi sia alla base della nostra capacità di spiegare i fenomeni. Ma in realtà la maggior parte delle affermazioni di alto livello nella scienza sono generalizzazioni “ferme restando le altre condizioni”, che sono false a meno che non si verifichino determinate condizioni precise. La Cartwright fa esplicito riferimento a questo proposito al Paradosso di Simpson, che indica una situazione in cui una relazione tra due fenomeni appare modificata, o perfino invertita, dai dati in possesso, a causa di altri fenomeni non presi in considerazione nell'analisi (variabili nascoste). Ad esempio, in un gruppo con il 95% di vaccinati, le infezioni tra i vaccinati supererebbero quelle tra i non vaccinati semplicemente perché ci sono molte più persone vaccinate tra cui il virus può diffondersi. In un gruppo con il 20% di vaccinati in cui tutti siano esposti al virus, la maggior parte dei non vaccinati verrebbe infettata e la maggior parte dei vaccinati no. Tutto dipende dall’insieme di riferimento e da come viene scelto e illustrato. Bisogna essere molto cauti con le generalizzazioni ceteris paribus, altrimenti dati veri possono portare a conclusioni false. Si deve cercare un compromesso tra verità e potere esplicativo.


Molti hanno sottolineato che la comprensione è uno degli obiettivi centrali della scienza. In alcuni casi, vogliamo capire un certo fenomeno (ad esempio, perché il cielo è blu); in altri casi, vogliamo comprendere una teoria scientifica specifica (ad esempio la meccanica quantistica) che spiega un fenomeno in questione. A volte otteniamo la comprensione di un fenomeno comprendendo la teoria o il modello corrispondente. Ad esempio, la teoria dell'elettromagnetismo di Maxwell ci aiuta a capire perché il cielo è blu. È tuttavia controverso se la comprensione di un fenomeno presuppone sempre la comprensione della teoria corrispondente.

Ma perché i modelli giocano un ruolo così cruciale nella comprensione di un argomento? L’epistemologa Catherine Elgin sostiene che questo non avviene nonostante, ma proprio perché i modelli sono letteralmente falsi. Considera i falsi modelli come "falsità felici" che occupano il centro della scena nell'epistemologia della scienza e cita il modello del gas ideale in meccanica statistica e il principio di equilibrio di Hardy-Weinberg in genetica delle popolazioni come esempi di modelli letteralmente falsi che sono centrali nelle rispettive discipline. La comprensione è olistica e riguarda un argomento, una disciplina o un argomento, piuttosto che affermazioni o fatti isolati. 


Il geoide

Un geoide è una superficie perpendicolare in ogni punto alla direzione della verticale, cioè alla direzione della forza di gravità. Questa è la superficie che meglio descrive la superficie media degli oceani, quindi, la superficie media della Terra. Esso, infatti, è definibile come la superficie equipotenziale (in cui, cioè, il potenziale gravitazionale ha valore uguale) che presenta i minimi scostamenti dal livello medio del mare.

Non è possibile descrivere il geoide con una formula matematica risolvibile: per conoscere l'andamento del geoide, infatti, sarebbe necessario conoscere in ogni punto della superficie terrestre la direzione della forza di gravità, la quale a sua volta dipende dalla densità che la Terra assume in ogni punto, che a sua volta è funzione di numerosi fattori, come la natura e lo spessore delle rocce che costituiscono la crosta terrestre in una determinata area. Questo, tuttavia, è impossibile da conoscere senza una certa approssimazione, rendendo poco operativa dal punto di vista matematico la definizione di geoide.

 


Nell’immagine c’è la rappresentazione più aggiornata del geoide, ottenuta con misure di gravità satellitari. Le scale sono accentuate per far vedere il suo andamento: in realtà esso si discosta assai poco dall’ellissoide di rotazione al quale si approssima la forma della Terra. Si tratta di un modello volutamente sbagliato, ma solo così ha funzione esplicativa. A seconda della loro funzione, i modelli scientifici si discostano spesso dal sistema di destinazione: non è affatto vero che una rappresentazione debba essere la più vicina possibile alla realtà. Certe volte si spiega meglio distorcendo i dati reali. 


Modelli e teoria

Una questione importante riguarda la relazione tra modelli e teorie. C'è uno spettro completo di posizioni che vanno dai modelli subordinati alle teorie ai modelli indipendenti dalle teorie.

Modelli come sussidiari alla teoria - Per discutere la relazione tra modelli e teorie nella scienza è utile ricapitolare brevemente le nozioni di un modello e di una teoria in logica. Una teoria è considerata un insieme (di solito deduttivamente chiuso) di frasi in un linguaggio formale. Un modello è una struttura che rende vere tutte le frasi di una teoria quando i suoi simboli sono interpretati come riferiti a oggetti, relazioni o funzioni di una struttura. La struttura è un modello della teoria nel senso che è correttamente descritta dalla teoria. I modelli logici sono talvolta indicati anche come "modelli di teoria" per indicare che sono interpretazioni di un sistema formale astratto.

I modelli nella scienza a volte riportano dalla logica l'idea di essere l'interpretazione di un calcolo astratto. Questo è saliente in fisica, dove le leggi generali (come l'equazione del moto di Newton) sono al centro di una teoria. Queste leggi sono applicate a un particolare sistema, ad esempio a un pendolo, scegliendo una funzione di forza speciale, facendo ipotesi sulla distribuzione di massa del pendolo, ecc. Il modello risultante è quindi un'interpretazione (o realizzazione) della legge generale.


È importante mantenere separate le nozioni di un modello logico e di un modello rappresentativo: si tratta di concetti distinti. Qualcosa può essere un modello logico senza essere un modello rappresentativo e viceversa. Questo, tuttavia, non significa che qualcosa non possa essere un modello in entrambi i sensi contemporaneamente. Infatti, molti modelli nella scienza sono sia modelli logici che rappresentativi. Il modello di Newton del moto planetario è un esempio calzante: il modello, costituito da due sfere perfette omogenee situate in uno spazio altrimenti vuoto che si attraggono gravitazionalmente, è contemporaneamente un modello logico (perché rende veri gli assiomi della meccanica newtoniana quando sono interpretati come riferiti al modello) e un modello rappresentativo (perché rappresenta il Sole e la Terra reali).

Modelli indipendenti dalle teorie - L’idea che i modelli siano subordinati alla teoria e non svolgono alcun ruolo al di fuori del contesto di una teoria è stata messa in discussione in diversi modi, con gli autori che sottolineano che i modelli godono di vari gradi di libertà dalla teoria e funzionano autonomamente in molti contesti. L'indipendenza può assumere molte forme e gran parte della letteratura sui modelli si occupa di indagare varie forme di indipendenza.

Modelli come completamente indipendenti dalla teoria. L'allontanamento più radicale da un'analisi dei modelli centrata sulla teoria è la realizzazione che ci sono modelli che sono completamente indipendenti da qualsiasi teoria. Un esempio di tale modello è il modello prede-predatori di Lotka-Volterra. Il modello è stato costruito utilizzando solo ipotesi relativamente comuni su predatori e prede e la matematica delle equazioni differenziali. Non c'era appello a una teoria delle interazioni predatore-preda o a una teoria della crescita della popolazione, e il modello è indipendente dalle teorie sul suo argomento. Se un modello è costruito in un dominio in cui non è disponibile alcuna teoria, allora il modello viene talvolta definito "modello sostitutivo", perché il modello sostituisce una teoria.

Modelli come complementi di teorie. Una teoria può essere specificata in modo incompleto nel senso che impone solo alcuni vincoli generali, ma tace sui dettagli delle situazioni concrete, che sono fornite da un modello. Le teorie possono essere troppo complicate da gestire. In questi casi un modello può integrare una teoria fornendo una versione semplificata dello scenario teorico che consente una soluzione. Per aggirare questa difficoltà, i fisici costruiscono modelli fenomenologici trattabili, come il MIT General Circulation Model, che è un modello numerico, il quale utilizza il metodo dei volumi finiti nell'integrazione computerizzata delle equazioni differenziali alle derivate parziali che governano la circolazione nell'oceano e nell'atmosfera terrestre. Essi descrivono efficacemente i gradi rilevanti di libertà del sistema in esame. Il vantaggio di questi modelli è che producono risultati in cui le teorie rimangono mute. Il loro svantaggio è che spesso non è chiaro come comprendere la relazione tra il modello e la teoria, poiché i due sono, in senso stretto, contraddittori.


Modelli interpretativi. Nancy Cartwright sostiene che i modelli non solo aiutano l'applicazione di teorie che sono in qualche modo incomplete; sostiene che i modelli sono coinvolti anche ogni volta che viene applicata una teoria con una struttura matematica generale. Le principali teorie della fisica (meccanica classica, elettrodinamica, meccanica quantistica e così via) sono formulate in termini di concetti astratti che devono essere concretizzati affinché la teoria fornisca una descrizione del sistema di destinazione. Ad esempio, quando si applica la meccanica classica, il concetto astratto di forza deve essere sostituito con una forza concreta come la gravità. Per ottenere equazioni trattabili, questa procedura deve essere applicata a uno scenario semplificato, ad esempio quello di due pianeti perfettamente sferici e omogenei in uno spazio altrimenti vuoto, piuttosto che alla realtà nella sua piena complessità. Il risultato è un modello interpretativo, che fonda l'applicazione di teorie matematiche a obiettivi del mondo reale. Tali modelli sono indipendenti dalla teoria in quanto la teoria non determina la loro forma, eppure sono necessari per l'applicazione della teoria a un problema concreto.

Modelli come mediatori. La relazione tra modelli e teorie può essere complicata e disordinata. I modelli sono "agenti autonomi" in quanto sono indipendenti sia dalle teorie che dai loro sistemi di destinazione, ed è questa indipendenza che consente loro di mediare tra i due. Le teorie non ci forniscono algoritmi per la costruzione di un modello; non sono "distributori automatici" in cui si può inserire un problema e un modello salta fuori. La costruzione di un modello richiede spesso una conoscenza dettagliata dei materiali, degli schemi di approssimazione e dell'impostazione, e questi non sono forniti dalla teoria corrispondente. Inoltre, il funzionamento interno di un modello è spesso guidato da una serie di teorie diverse che lavorano in modo cooperativo. Nella modellazione climatica contemporanea, ad esempio, elementi di diverse teorie (fluidodinamica, termodinamica, elettromagnetismo, ecc.) sono messi in opera in modo cooperativo. Ciò che fornisce i risultati non è l'applicazione rigorosa di una teoria, ma le voci di diverse teorie quando vengono utilizzate in coro l'una con l'altra in un unico modello.

 -.-.-.-

La fonte principale di questo articolo è la voce Models in Science, coordinata da Roman Frigg (London School of Economics) e Stephen Hartmann (Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften, Monaco di Baviera), della Stanford Encyclopedia of Philosophy, consultata tra l’ottobre e il novembre 2021. Poi ci ho anche messo del mio, ovviamente.