Visualizzazione post con etichetta modello scientifico. Mostra tutti i post
Visualizzazione post con etichetta modello scientifico. Mostra tutti i post

sabato 6 novembre 2021

I modelli scientifici tra realtà e rappresentazione

 


“Il mondo è una mia rappresentazione»: ecco una verità valida per ogni essere vivente e pensante,
benché l'uomo soltanto possa averne coscienza astratta e riflessa.
E quando l'uomo abbia di fatto tale coscienza, lo spirito filosofico è entrato in lui.
Allora, egli sa con certezza di non conoscere né il sole né la terra, ma soltanto un occhio
che vede un sole, e una mano che sente il contatto d'una terra;
egli sa che il mondo circostante non esiste se non come rappresentazione,
cioè sempre e soltanto in relazione con un altro essere, con il percipiente, con lui medesimo”.

[Arthur Schopenhauer, Il mondo come volontà e rappresentazione,
traduzione di A. Vigliani, Mursia, Milano, 1982]

 


Foto 51

La “Foto 51” è un’immagine a diffrazione dei raggi X di un gel paracristallino composto da fibre di DNA, scattata da Raymond Gosling, uno studente di dottorato che lavorava sotto la supervisione di Rosalind Franklin nel maggio 1952 al King's College di Londra. L'immagine fu etichettata come "foto 51" seguendo l’ordine temporale in cui le foto di diffrazione erano state scattate da Franklin e Gosling. Essa mostra la misteriosa forma a "X" che ispirò James Dewey Watson e Francis Crick a visualizzare la struttura a doppia elica del DNA. Questa straordinaria immagine, la più chiara del DNA mai creata fino a quel momento, fu ottenuta con le tecniche più avanzate allora disponibili. Usando l'immagine di Gosling come prova fisica, Watson e Crick poi pubblicarono la loro idea di struttura teorica del DNA su Nature nel 1953. 

Nel 1962 il Premio Nobel in Fisiologia o Medicina fu assegnato a Watson, Crick e Wilkins. Il premio non fu assegnato a Franklin che era morta quattro anni prima e il comitato per il Nobel non fa nomine postume. Allo stesso modo, il lavoro di Gosling non era citato dal comitato del premio.

La fotografia forniva informazioni fondamentali per lo sviluppo di un modello di DNA. Lo schema di diffrazione consentiva di determinare la natura elicoidale dei fili antiparalleli a doppia elica. L'esterno della catena del DNA ha una spina dorsale di desossiribosio e fosfato alternati mentre le coppie di basi, il cui ordine fornisce i codici per la costruzione delle proteine e quindi l'eredità, sono all'interno dell'elica. I calcoli di Watson e Crick derivanti dalla fotografia di Gosling e Franklin fornirono parametri cruciali per le dimensioni e la struttura dell'elica e la Foto 51 divenne una fonte fondamentale di dati, che portò allo sviluppo del modello del DNA e confermava struttura a doppia elica del DNA ipotizzata in precedenza, presentata in una serie di tre articoli sulla rivista Nature nel 1953.

 


Una fotografia ottenuta con tecniche “non naturali” (i raggi X non li possiamo vedere), quindi già di per sé un modello, aveva consentito la conferma di una teoria basata su altre prove, permettendo la costruzione di un modello di una delle molecole fondamentali della vita. Un modello consentiva un secondo modello che, almeno per allora, sembrava confermare una teoria scientifica. Cosa strana i modelli, belli, utili e difficili da maneggiare.


 

Che cos’è un modello scientifico?

 Un modello scientifico è una rappresentazione fisica, concettuale o matematica di un fenomeno reale difficile da osservare e descrivere direttamente. I modelli creati dagli scienziati devono essere coerenti con le nostre osservazioni, deduzioni e spiegazioni concrete. Tuttavia, i modelli scientifici non sono creati per essere affermazioni fattuali sul mondo, ne sono uno schema: il modello non è la realtà, ma solo una sua rappresentazione semplificata in base alle nostre esigenze di comprensione. 

Lo scopo della modellazione scientifica è molteplice. Alcuni modelli, come il modello tridimensionale a doppia elica del DNA, vengono utilizzati principalmente per visualizzare un oggetto o un sistema, spesso ricavati da dati sperimentali. Altri modelli hanno lo scopo di descrivere un comportamento o un fenomeno astratto o ipotetico. Ad esempio, i modelli predittivi, come quelli impiegati nelle previsioni meteorologiche o nella proiezione degli esiti sanitari delle epidemie, si basano generalmente sulla conoscenza e sui dati di fenomeni del passato e su analisi matematiche di queste informazioni per prevedere e, possibilmente, prevenire futuri, ipotetici eventi di simili fenomeni. I modelli predittivi hanno un valore significativo per la società a causa del loro ruolo potenziale nei sistemi di allarme, come nel caso di terremoti, tsunami, epidemie e simili disastri su larga scala. Tuttavia, poiché nessun singolo modello predittivo può tenere conto di tutte le variabili che possono influenzare un risultato, gli scienziati devono formulare ipotesi sui fattori che possono compromettere l'affidabilità di un modello predittivo e portare a conclusioni errate.

I limiti della modellazione scientifica consistono nel fatto che i modelli generalmente non sono rappresentazioni complete (anche se alcuni pensano che questo sia appunto il loro pregio). Il modello atomico di Bohr, ad esempio, descriveva la struttura degli atomi. Ma, mentre era il primo modello atomico a incorporare la teoria quantistica e fungeva da modello concettuale di base delle orbite degli elettroni, non era una descrizione accurata della natura degli elettroni orbitanti. Né era in grado di prevedere i livelli di energia per gli atomi con più di un elettrone.


Infatti, nel tentativo di comprendere appieno un oggetto o un sistema, sono necessari più modelli, ognuno dei quali rappresenta una parte dell'oggetto o del sistema. Collettivamente i modelli possono essere in grado di fornire una rappresentazione, o almeno una comprensione, più completa dell'oggetto o sistema reale. Ciò è illustrato dal modello ondulatorio e da quello particellare della luce, che insieme descrivono il dualismo onda-particella, in cui la luce possiede natura sia d'onda che di particella. La teoria delle onde e la teoria delle particelle della luce sono state a lungo considerate in contrasto l'una con l'altra. All'inizio del XX secolo, tuttavia, con la scoperta che le particelle si comportano anche come onde, i due modelli furono riconosciuti come complementari, un passo che ha facilitato notevolmente nuove intuizioni nel campo della meccanica quantistica.

Esistono svariati utilizzi della modellazione scientifica. Ad esempio, nelle scienze della Terra, la modellizzazione dei fenomeni atmosferici e oceanici è rilevante non solo per le previsioni meteorologiche, ma anche per la comprensione scientifica del riscaldamento globale. In quest'ultimo caso, un modello oggi importante è il modello di circolazione globale, utilizzato per simulare il cambiamento climatico indotto dall'uomo. La modellizzazione di eventi geologici, come la convezione all'interno della Terra e i movimenti delle placche terrestri, ha fatto progredire le conoscenze di geofisici e geologi su vulcani e terremoti e sull'evoluzione della superficie terrestre. In ecologia, modelli costantemente aggiornati possono essere utilizzati per comprendere le dinamiche delle interazioni tra gli organismi e l’ambiente. Allo stesso modo, vengono utilizzati modelli tridimensionali di proteine ​​per ottenere informazioni sulla loro funzione ​​e per coadiuvare la progettazione di farmaci. La modellazione scientifica ha anche applicazioni nella pianificazione urbana e nella costruzione e nel ripristino degli ecosistemi. Gli scienziati dedicano molto tempo a costruire, calcolare, testare, confrontare e rivedere i modelli; molto spazio sulle pubblicazioni scientifiche è dedicato all'interpretazione e alla discussione delle loro implicazioni.

 

Modelli e rappresentazione

Molti modelli scientifici sono modelli rappresentativi, in quanto rappresentano una parte o un aspetto selezionato del mondo. Esempi standard sono il modello cinetico di un gas che considera le particelle come microscopiche palline in movimento caotico, il modello di Bohr dell'atomo, o il modello in scala di un ponte.

Nella maggior parte dei casi, i modelli non rappresentano il mondo direttamente, ma attraverso sistemi di destinazione (target systems). Essi sono parti della realtà che si studia, e devono essere scelti con attenzione e appropriatezza, specificando anche i criteri di valutazione per ridurre al minimo la frequenza e l'entità degli errori, soprattutto quando si utilizzano modelli per studiare i fenomeni in sistemi complessi del mondo reale. 


A seconda di una serie di fattori molto variabili, si utilizzano diversi tipi di rappresentazione, che giocano un ruolo importante nella pratica della scienza basata sui modelli, vale a dire, per citare i più significativi e meno controversi, modelli in scala, modelli analogici, modelli idealizzati, modelli fenomenologici, modelli esplorativi e modelli di dati. Queste categorie non si escludono a vicenda: un dato modello può rientrare in più categorie contemporaneamente.

Modelli in scala - Alcuni modelli sono copie ridotte o ingrandite dei loro sistemi di destinazione. Un tipico esempio è una piccola automobile di legno o argilla che viene messa in una galleria del vento per esplorare le proprietà aerodinamiche dell'auto reale. Il ragionamento di base è che un modellino in scala sia una replica naturalistica o un'immagine speculare veritiera del sistema reale; per questo motivo, i modelli in scala sono talvolta indicati anche come "veri modelli". Tuttavia, non esiste un modello in scala perfettamente fedele; la fedeltà è sempre limitata ad alcuni aspetti. Il modellino in legno dell'auto fornisce una rappresentazione fedele della forma dell'auto ma non del suo materiale. E anche negli aspetti in cui un modello è una rappresentazione fedele, la relazione tra proprietà del modello e proprietà dell'obiettivo di solito non è banale. Quando gli ingegneri utilizzano, ad esempio, un modello in scala 1:100 di una nave per indagare la resistenza che una nave reale sperimenta quando si muove nell'acqua, non possono semplicemente misurare la resistenza che il modello sperimenta e quindi moltiplicarla per la scala. Infatti, la resistenza affrontata dal modello non si traduce nella resistenza affrontata dalla nave reale in modo semplice (cioè non si può semplicemente scalare la resistenza all'acqua con la scala del modello: la nave reale non deve avere cento volte la resistenza all'acqua del suo modello 1:100). Le due quantità si trovano in una complicata relazione non lineare, e la forma esatta di tale relazione emerge solo come risultato di uno studio approfondito della situazione.


Modelli analogici - Al livello più elementare, due cose sono analoghe se ci sono alcune somiglianze rilevanti tra loro. Un tipo semplice di analogia è quella basata su proprietà condivise. Esiste un'analogia tra la Terra e la Luna basata sul fatto che entrambi sono corpi sferici grandi, solidi, opachi che ricevono calore e luce dal Sole, ruotano attorno ai loro assi e gravitano verso altri corpi. Ma l'uniformità delle proprietà non è una condizione necessaria. Un'analogia tra due oggetti può anche essere basata su somiglianze rilevanti tra le loro proprietà. In questo senso più largo, possiamo dire che c'è un'analogia tra suono e luce perché gli echi sono simili ai riflessi, il volume alla luminosità, il tono al colore, la percettibilità dall'orecchio a quella dall'occhio e così via.

Più recentemente, queste caratteristiche sono state discusse nel contesto dei cosiddetti esperimenti analogici, che promettono di fornire conoscenze su un sistema di destinazione sperimentalmente inaccessibile (ad es. un buco nero) manipolando un altro sistema, il sistema sorgente (ad es. un condensato di Bose–Einstein). Alcuni hanno sostenuto che, date determinate condizioni, una simulazione analogica di un sistema da parte di un altro sistema può confermare le affermazioni sul sistema bersaglio (ad esempio, che i buchi neri emettono radiazioni di Hawking).


Modelli idealizzati - I modelli idealizzati sono modelli che implicano una deliberata semplificazione o distorsione di qualcosa di complicato con l'obiettivo di renderlo più trattabile o comprensibile. Piani privi di attrito, masse puntiformi, sistemi completamente isolati, mercati in perfetto equilibrio sono esempi ben noti. Le idealizzazioni sono un mezzo cruciale per la scienza per far fronte a sistemi che sono troppo difficili da studiare nella loro piena complessità. 

I dibattiti filosofici sull'idealizzazione si sono concentrati su due tipi generali di idealizzazioni: le cosiddette idealizzazioni aristoteliche e quelle galileiane. L'idealizzazione aristotelica equivale a “spogliare”, nella nostra immaginazione, tutte le proprietà di un oggetto concreto che riteniamo non pertinenti al problema in questione. Ciò consente agli scienziati di concentrarsi su un insieme limitato di proprietà isolate. Un esempio è un modello di meccanica classica del sistema planetario, che descrive la posizione di un oggetto in funzione del tempo e ignora tutte le altre proprietà dei pianeti.

Le idealizzazioni galileiane sono quelle che comportano distorsioni deliberate: i fisici costruiscono modelli costituiti da masse puntiformi che si muovono su piani privi di attrito; gli economisti presumono che gli agenti siano onniscienti; i biologi studiano popolazioni isolate; e così via. L'uso di semplificazioni di questo tipo ogni volta che una situazione è troppo difficile da affrontare era caratteristico dell'approccio di Galileo alla scienza. Un esempio di tale idealizzazione è un modello di movimento di un corpo ignorando la sua forma e grandezza e concentrando la sua massa in un punto. 

Le idealizzazioni galileiane e aristoteliche non si escludono a vicenda, e molti modelli mostrano entrambe in quanto sia tengono conto di un insieme ristretto di proprietà, sia le distorcono. 

Modelli fenomenologici - I modelli fenomenologici sono stati definiti in modi diversi, sebbene correlati. Una definizione comune li considera modelli che rappresentano solo proprietà osservabili dei loro sistemi di destinazione e si astengono dal postulare meccanismi per il momento nascosti e inaccessibili. Molti modelli fenomenologici, pur non essendo derivabili da una teoria, incorporano principi e leggi associati alle teorie. Il modello nucleare a goccia di liquido, ad esempio, fu ipotizzato nel 1939 da Niels Bohr e da John Wheeler per spiegare la perdita di massa durante una fissione nucleare. Esso descrive il nucleo come una goccia liquida e lo descrive come avente diverse proprietà originate da diverse teorie (idrodinamica ed elettrodinamica). La fissione del nucleo viene spiegata con l’analogia del processo di suddivisione di una goccia di liquido in due gocce più piccole. Alcuni aspetti di queste teorie, sebbene di solito non le teorie complete, vengono quindi utilizzati per determinare le proprietà sia statiche che dinamiche del nucleo. 


Infine, si è tentati di identificare i modelli fenomenologici con i modelli di un fenomeno. Qui, "fenomeno" è un termine generico che copre tutte le caratteristiche relativamente stabili e generali del mondo che sono interessanti da un punto di vista scientifico. L'indebolimento del suono in funzione della distanza dalla sorgente, il decadimento delle particelle alfa, le reazioni chimiche che avvengono quando un pezzo di calcare si dissolve in un acido, la crescita di una popolazione di conigli e la dipendenza dei prezzi delle case dal tasso base della Banca Europea sono fenomeni in questo senso.

Modelli esplorativi - I modelli esplorativi sono modelli che non vengono proposti in primo luogo per apprendere qualcosa su uno specifico sistema di destinazione o un particolare fenomeno stabilito sperimentalmente. I modelli esplorativi funzionano come punto di partenza di ulteriori esplorazioni in cui il modello viene modificato e perfezionato. Essi possono fornire prove di principio e suggerire possibili spiegazioni. Un esempio possono essere i primi modelli dell'ecologia teorica, come il modello Lotka-Volterra di interazione predatore-preda, che studia il comportamento qualitativo dell'accelerazione e del rallentamento della crescita della popolazione in un ambiente con risorse limitate. Tali modelli non forniscono un resoconto accurato del comportamento di una popolazione reale, ma forniscono il punto di partenza per lo sviluppo di modelli più realistici.


Strettamente correlata è anche la nozione di modello di sondaggio (o "modello di studio"). Modelli di questo tipo non svolgono una funzione rappresentativa e non ci si aspetta che ci informino su nulla al di là del modello stesso. Lo scopo di questi modelli è quello di testare nuovi strumenti teorici che vengono utilizzati in seguito per costruire modelli rappresentativi. Un falso modello può svolgere molte funzioni utili, perché ad esempio può aiutare a rispondere a domande su modelli più realistici, fornire un campo per rispondere a domande sulle proprietà di modelli più complessi, su fenomeni di esclusioni di variabili (factor out) che altrimenti non sarebbero visti, servire come caso limite di un modello più generale (due falsi modelli possono definire gli estremi di un continuum di casi su cui si suppone si trovi il caso reale, un po’ come il teorema del confronto in analisi, quello detto “dei due carabinieri”), o portare all'identificazione di variabili rilevanti e alla stima dei loro valori.

 



Modelli di dati - Un modello di dati è una versione corretta, rettificata, controllata e in molti casi idealizzata, dei dati che otteniamo dall'osservazione immediata, i cosiddetti dati grezzi. Tipicamente, prima si eliminano gli errori (ad esempio, si eliminano valori dal record che sono dovuti a un'osservazione errata) e poi si presentano i dati in modo "pulito", ad esempio disegnando una curva uniforme attraverso un insieme di punti. Questi due passaggi sono comunemente indicati come "riduzione dei dati" e "adattamento della curva". Quando indaghiamo, per esempio, la traiettoria di un certo pianeta, prima eliminiamo i punti che sono fallaci dai registri di osservazione e poi adattiamo una curva a quelli rimanenti. I modelli di dati giocano un ruolo cruciale nel confermare le teorie perché è il modello dei dati, e non i dati grezzi spesso disordinati e complessi, contro cui le teorie vengono testate.

La costruzione di un modello di dati può essere estremamente complicata. Richiede tecniche statistiche sofisticate e solleva serie questioni metodologiche. Come decidiamo quali punti del record devono essere rimossi? E, dato un insieme pulito di dati, quale curva ci adattiamo? Al centro di quest'ultima domanda c'è il cosiddetto problema dell'adattamento della curva, ovvero che i dati stessi non dettano né la forma della curva adattata né quali tecniche statistiche gli scienziati dovrebbero usare per costruire una curva. La raccolta, l'elaborazione, la diffusione, l'analisi, l'interpretazione e l'archiviazione dei dati sollevano molte questioni importanti al di là delle questioni relativamente ristrette relative ai modelli di dati. 


Modelli e conoscenza

Uno dei motivi principali per cui i modelli svolgono un ruolo così importante nella scienza è che svolgono una serie di funzioni cognitive. Ad esempio, i modelli sono veicoli per conoscere il mondo. Parti significative dell'indagine scientifica vengono svolte sui modelli piuttosto che sulla realtà stessa, perché studiando un modello possiamo scoprire caratteristiche e accertare fatti sul sistema che il modello rappresenta: i modelli consentono il "ragionamento surrogativo". Ad esempio, studiamo la natura dell'atomo di idrogeno, la dinamica di una popolazione o il comportamento di un polimero studiando i rispettivi modelli. Questa funzione cognitiva dei modelli è stata ampiamente riconosciuta in letteratura, e alcuni suggeriscono addirittura che i modelli diano origine a un nuovo stile di ragionamento, il “model-based reasoning”, secondo il quale si fanno inferenze mediante la creazione di modelli e la manipolazione, adattandole e valutandole.

L'apprendimento da un modello avviene in due momenti: nella costruzione e nella manipolazione. Non ci sono regole o ricette fisse per la costruzione del modello. Una volta che il modello è costruito, non apprendiamo le sue proprietà guardandolo; dobbiamo usare e manipolare il modello per carpirne i segreti. A seconda del tipo di modello con cui abbiamo a che fare, la costruzione e la manipolazione di un modello equivalgono a diverse attività che richiedono metodologie diverse.

I modelli materiali sembrano essere semplici perché sono utilizzati in contesti sperimentali comuni (ad esempio, mettiamo il modello di un'auto nella galleria del vento e misuriamo la sua resistenza all'aria). Quindi, per quanto riguarda l'apprendimento del modello, i modelli materiali non danno luogo a domande che vanno al di là di questioni riguardanti la sperimentazione più in generale.

Non così con i modelli immaginari e astratti. Quali sono i vincoli alla costruzione di modelli fittizi e astratti e come li manipoliamo? Una risposta naturale sembra essere che lo facciamo eseguendo un esperimento mentale (“E se fosse…”). Diversi autori hanno esplorato questa linea di argomentazione, ma hanno raggiunto conclusioni molto diverse e spesso contrastanti su come vengono eseguiti gli esperimenti mentali e quale sia lo stato dei loro risultati.

Un'importante classe di modelli è di natura computazionale. Per alcuni modelli è possibile derivare risultati o risolvere analiticamente equazioni di un modello matematico. Ma molto spesso non è così. È a questo punto che i computer hanno un grande impatto, perché ci permettono di risolvere problemi altrimenti intrattabili. Quindi, i metodi computazionali ci forniscono conoscenze su un modello in cui i metodi analitici rimangono silenziosi. Molte parti della ricerca attuale nelle scienze naturali e sociali si basano su simulazioni al computer, che aiutano gli scienziati a esplorare le conseguenze di modelli che non possono essere studiati altrimenti. La formazione e lo sviluppo di stelle e galassie, l'evoluzione della vita, lo sviluppo di un'economia, il comportamento morale e le conseguenze delle procedure decisionali in un'organizzazione sono esplorate con simulazioni al computer, per citare solo alcuni esempi.

Le simulazioni al computer possono suggerire nuove teorie, modelli e ipotesi, ad esempio, basati su un'esplorazione sistematica dello spazio dei parametri di un modello. Ma le simulazioni al computer comportano anche rischi metodologici. Ad esempio, possono fornire risultati fuorvianti perché, a causa della natura discreta dei calcoli effettuati su un computer digitale, consentono solo l'esplorazione di una parte dell'intero spazio dei parametri e questo sottospazio non è in grado di riflettere tutte le caratteristiche importanti del modello. La gravità di questo problema è in qualche modo mitigata dalla crescente potenza dei computer moderni. Ma la disponibilità di una maggiore potenza di calcolo può anche avere effetti negativi: può incoraggiare gli scienziati a elaborare rapidamente modelli sempre più complessi ma concettualmente prematuri, che implicano ipotesi o meccanismi poco compresi e troppi parametri regolabili aggiuntivi. Ciò può portare a un aumento dell'adeguatezza empirica, che può essere gradita per determinati compiti di previsione, ma non necessariamente a una migliore comprensione dei meccanismi sottostanti. Di conseguenza, l'uso delle simulazioni al computer può cambiare il peso che assegniamo ai vari obiettivi della scienza. Infine, la disponibilità della potenza del computer può indurre gli scienziati a fare calcoli che non hanno il grado di affidabilità che ci si aspetterebbe di avere. Ciò accade, ad esempio, quando i computer vengono utilizzati per estrapolare distribuzioni di probabilità in avanti nel tempo, il che può rivelarsi fuorviante. Quindi è importante non lasciarsi trasportare dai mezzi che offrono i nuovi potenti computer e perdere di vista gli obiettivi reali della ricerca. 


Una volta che abbiamo conoscenza del modello, questa conoscenza deve essere "tradotta" in conoscenza del sistema di destinazione. È a questo punto che la funzione rappresentativa dei modelli torna ad essere importante: se un modello rappresenta davvero qualcosa, allora può istruirci sulla realtà perché (almeno alcune) delle parti o aspetti del modello hanno parti o aspetti corrispondenti nel mondo. Ma se l'apprendimento è connesso alla rappresentazione e se ci sono diversi tipi di rappresentazioni (analogie, idealizzazioni, ecc.), allora ci sono anche diversi tipi di apprendimento. Se, ad esempio, abbiamo un modello che consideriamo una rappresentazione realistica, il trasferimento di conoscenza dal modello al sistema di destinazione avviene in modo diverso rispetto a quando abbiamo a che fare con un'analogia o un modello che implica ipotesi idealizzanti.

Secondo Ignazio Licata (2011), "Un modello teorico è un filtro cognitivo che rende conto di certe osservazioni e stabilisce una sorta di equilibrio tra l'osservatore e il mondo; è la forma generale del test per un insieme di domande che possiamo porre a una classe di fenomeni. Questo non significa che quelle domande siano uniche ed esaustive. Possiamo sempre provare a farne delle altre".

Alcuni modelli spiegano. Ma come possono assolvere a questa funzione dato che tipicamente implicano idealizzazioni? Questi modelli spiegano nonostante o a causa delle idealizzazioni che implicano? Un uso esplicativo dei modelli presuppone che essi rappresentino o possono anche spiegare modelli non rappresentativi? E che tipo di spiegazione forniscono i modelli?

C'è una lunga tradizione che richiede che l'insieme degli enunciati di una spiegazione scientifica debbano essere veri. Gli autori che operano in questa tradizione negano che le idealizzazioni diano un contributo positivo alla spiegazione ed esplorano come i modelli possono spiegare nonostante siano idealizzati. Le ipotesi idealizzate di un modello non fanno differenza per il fenomeno in esame e sono quindi irrilevanti a fini esplicativi. Al contrario, altri filosofi della scienza sostengono che i modelli che spiegano possono distorcere direttamente molte cause che fanno differenza.

Altri autori perseguono una linea opposta e sostengono che i falsi modelli spiegano non solo nonostante la loro falsità, ma di fatto a causa della loro falsità. Ad esempio, la filosofa della scienza Nancy Cartwright sostiene che "la verità non spiega molto" e suggerisce di spiegare un fenomeno costruendo un modello che si adatti al fenomeno nel quadro di base di una grande teoria. Per questo motivo, il modello stesso è la spiegazione che cerchiamo. 

La visione standard della spiegazione nella scienza è il modello a legge di copertura (covering-law model) proposto da Carl Gustav Hempel e Paul Oppenheim nell’articolo Studies in the Logic of Explanation del 1948, secondo cui lo spiegare un evento in riferimento ad un altro evento presuppone necessariamente un ricorso a leggi o proposizioni generali che mettano in correlazione eventi del tipo da spiegare (explananda) con eventi del tipo citato come sue cause o condizioni (explanantia). Esso presuppone che la conoscenza delle leggi sia alla base della nostra capacità di spiegare i fenomeni. Ma in realtà la maggior parte delle affermazioni di alto livello nella scienza sono generalizzazioni “ferme restando le altre condizioni”, che sono false a meno che non si verifichino determinate condizioni precise. La Cartwright fa esplicito riferimento a questo proposito al Paradosso di Simpson, che indica una situazione in cui una relazione tra due fenomeni appare modificata, o perfino invertita, dai dati in possesso, a causa di altri fenomeni non presi in considerazione nell'analisi (variabili nascoste). Ad esempio, in un gruppo con il 95% di vaccinati, le infezioni tra i vaccinati supererebbero quelle tra i non vaccinati semplicemente perché ci sono molte più persone vaccinate tra cui il virus può diffondersi. In un gruppo con il 20% di vaccinati in cui tutti siano esposti al virus, la maggior parte dei non vaccinati verrebbe infettata e la maggior parte dei vaccinati no. Tutto dipende dall’insieme di riferimento e da come viene scelto e illustrato. Bisogna essere molto cauti con le generalizzazioni ceteris paribus, altrimenti dati veri possono portare a conclusioni false. Si deve cercare un compromesso tra verità e potere esplicativo.


Molti hanno sottolineato che la comprensione è uno degli obiettivi centrali della scienza. In alcuni casi, vogliamo capire un certo fenomeno (ad esempio, perché il cielo è blu); in altri casi, vogliamo comprendere una teoria scientifica specifica (ad esempio la meccanica quantistica) che spiega un fenomeno in questione. A volte otteniamo la comprensione di un fenomeno comprendendo la teoria o il modello corrispondente. Ad esempio, la teoria dell'elettromagnetismo di Maxwell ci aiuta a capire perché il cielo è blu. È tuttavia controverso se la comprensione di un fenomeno presuppone sempre la comprensione della teoria corrispondente.

Ma perché i modelli giocano un ruolo così cruciale nella comprensione di un argomento? L’epistemologa Catherine Elgin sostiene che questo non avviene nonostante, ma proprio perché i modelli sono letteralmente falsi. Considera i falsi modelli come "falsità felici" che occupano il centro della scena nell'epistemologia della scienza e cita il modello del gas ideale in meccanica statistica e il principio di equilibrio di Hardy-Weinberg in genetica delle popolazioni come esempi di modelli letteralmente falsi che sono centrali nelle rispettive discipline. La comprensione è olistica e riguarda un argomento, una disciplina o un argomento, piuttosto che affermazioni o fatti isolati. 


Il geoide

Un geoide è una superficie perpendicolare in ogni punto alla direzione della verticale, cioè alla direzione della forza di gravità. Questa è la superficie che meglio descrive la superficie media degli oceani, quindi, la superficie media della Terra. Esso, infatti, è definibile come la superficie equipotenziale (in cui, cioè, il potenziale gravitazionale ha valore uguale) che presenta i minimi scostamenti dal livello medio del mare.

Non è possibile descrivere il geoide con una formula matematica risolvibile: per conoscere l'andamento del geoide, infatti, sarebbe necessario conoscere in ogni punto della superficie terrestre la direzione della forza di gravità, la quale a sua volta dipende dalla densità che la Terra assume in ogni punto, che a sua volta è funzione di numerosi fattori, come la natura e lo spessore delle rocce che costituiscono la crosta terrestre in una determinata area. Questo, tuttavia, è impossibile da conoscere senza una certa approssimazione, rendendo poco operativa dal punto di vista matematico la definizione di geoide.

 


Nell’immagine c’è la rappresentazione più aggiornata del geoide, ottenuta con misure di gravità satellitari. Le scale sono accentuate per far vedere il suo andamento: in realtà esso si discosta assai poco dall’ellissoide di rotazione al quale si approssima la forma della Terra. Si tratta di un modello volutamente sbagliato, ma solo così ha funzione esplicativa. A seconda della loro funzione, i modelli scientifici si discostano spesso dal sistema di destinazione: non è affatto vero che una rappresentazione debba essere la più vicina possibile alla realtà. Certe volte si spiega meglio distorcendo i dati reali. 


Modelli e teoria

Una questione importante riguarda la relazione tra modelli e teorie. C'è uno spettro completo di posizioni che vanno dai modelli subordinati alle teorie ai modelli indipendenti dalle teorie.

Modelli come sussidiari alla teoria - Per discutere la relazione tra modelli e teorie nella scienza è utile ricapitolare brevemente le nozioni di un modello e di una teoria in logica. Una teoria è considerata un insieme (di solito deduttivamente chiuso) di frasi in un linguaggio formale. Un modello è una struttura che rende vere tutte le frasi di una teoria quando i suoi simboli sono interpretati come riferiti a oggetti, relazioni o funzioni di una struttura. La struttura è un modello della teoria nel senso che è correttamente descritta dalla teoria. I modelli logici sono talvolta indicati anche come "modelli di teoria" per indicare che sono interpretazioni di un sistema formale astratto.

I modelli nella scienza a volte riportano dalla logica l'idea di essere l'interpretazione di un calcolo astratto. Questo è saliente in fisica, dove le leggi generali (come l'equazione del moto di Newton) sono al centro di una teoria. Queste leggi sono applicate a un particolare sistema, ad esempio a un pendolo, scegliendo una funzione di forza speciale, facendo ipotesi sulla distribuzione di massa del pendolo, ecc. Il modello risultante è quindi un'interpretazione (o realizzazione) della legge generale.


È importante mantenere separate le nozioni di un modello logico e di un modello rappresentativo: si tratta di concetti distinti. Qualcosa può essere un modello logico senza essere un modello rappresentativo e viceversa. Questo, tuttavia, non significa che qualcosa non possa essere un modello in entrambi i sensi contemporaneamente. Infatti, molti modelli nella scienza sono sia modelli logici che rappresentativi. Il modello di Newton del moto planetario è un esempio calzante: il modello, costituito da due sfere perfette omogenee situate in uno spazio altrimenti vuoto che si attraggono gravitazionalmente, è contemporaneamente un modello logico (perché rende veri gli assiomi della meccanica newtoniana quando sono interpretati come riferiti al modello) e un modello rappresentativo (perché rappresenta il Sole e la Terra reali).

Modelli indipendenti dalle teorie - L’idea che i modelli siano subordinati alla teoria e non svolgono alcun ruolo al di fuori del contesto di una teoria è stata messa in discussione in diversi modi, con gli autori che sottolineano che i modelli godono di vari gradi di libertà dalla teoria e funzionano autonomamente in molti contesti. L'indipendenza può assumere molte forme e gran parte della letteratura sui modelli si occupa di indagare varie forme di indipendenza.

Modelli come completamente indipendenti dalla teoria. L'allontanamento più radicale da un'analisi dei modelli centrata sulla teoria è la realizzazione che ci sono modelli che sono completamente indipendenti da qualsiasi teoria. Un esempio di tale modello è il modello prede-predatori di Lotka-Volterra. Il modello è stato costruito utilizzando solo ipotesi relativamente comuni su predatori e prede e la matematica delle equazioni differenziali. Non c'era appello a una teoria delle interazioni predatore-preda o a una teoria della crescita della popolazione, e il modello è indipendente dalle teorie sul suo argomento. Se un modello è costruito in un dominio in cui non è disponibile alcuna teoria, allora il modello viene talvolta definito "modello sostitutivo", perché il modello sostituisce una teoria.

Modelli come complementi di teorie. Una teoria può essere specificata in modo incompleto nel senso che impone solo alcuni vincoli generali, ma tace sui dettagli delle situazioni concrete, che sono fornite da un modello. Le teorie possono essere troppo complicate da gestire. In questi casi un modello può integrare una teoria fornendo una versione semplificata dello scenario teorico che consente una soluzione. Per aggirare questa difficoltà, i fisici costruiscono modelli fenomenologici trattabili, come il MIT General Circulation Model, che è un modello numerico, il quale utilizza il metodo dei volumi finiti nell'integrazione computerizzata delle equazioni differenziali alle derivate parziali che governano la circolazione nell'oceano e nell'atmosfera terrestre. Essi descrivono efficacemente i gradi rilevanti di libertà del sistema in esame. Il vantaggio di questi modelli è che producono risultati in cui le teorie rimangono mute. Il loro svantaggio è che spesso non è chiaro come comprendere la relazione tra il modello e la teoria, poiché i due sono, in senso stretto, contraddittori.


Modelli interpretativi. Nancy Cartwright sostiene che i modelli non solo aiutano l'applicazione di teorie che sono in qualche modo incomplete; sostiene che i modelli sono coinvolti anche ogni volta che viene applicata una teoria con una struttura matematica generale. Le principali teorie della fisica (meccanica classica, elettrodinamica, meccanica quantistica e così via) sono formulate in termini di concetti astratti che devono essere concretizzati affinché la teoria fornisca una descrizione del sistema di destinazione. Ad esempio, quando si applica la meccanica classica, il concetto astratto di forza deve essere sostituito con una forza concreta come la gravità. Per ottenere equazioni trattabili, questa procedura deve essere applicata a uno scenario semplificato, ad esempio quello di due pianeti perfettamente sferici e omogenei in uno spazio altrimenti vuoto, piuttosto che alla realtà nella sua piena complessità. Il risultato è un modello interpretativo, che fonda l'applicazione di teorie matematiche a obiettivi del mondo reale. Tali modelli sono indipendenti dalla teoria in quanto la teoria non determina la loro forma, eppure sono necessari per l'applicazione della teoria a un problema concreto.

Modelli come mediatori. La relazione tra modelli e teorie può essere complicata e disordinata. I modelli sono "agenti autonomi" in quanto sono indipendenti sia dalle teorie che dai loro sistemi di destinazione, ed è questa indipendenza che consente loro di mediare tra i due. Le teorie non ci forniscono algoritmi per la costruzione di un modello; non sono "distributori automatici" in cui si può inserire un problema e un modello salta fuori. La costruzione di un modello richiede spesso una conoscenza dettagliata dei materiali, degli schemi di approssimazione e dell'impostazione, e questi non sono forniti dalla teoria corrispondente. Inoltre, il funzionamento interno di un modello è spesso guidato da una serie di teorie diverse che lavorano in modo cooperativo. Nella modellazione climatica contemporanea, ad esempio, elementi di diverse teorie (fluidodinamica, termodinamica, elettromagnetismo, ecc.) sono messi in opera in modo cooperativo. Ciò che fornisce i risultati non è l'applicazione rigorosa di una teoria, ma le voci di diverse teorie quando vengono utilizzate in coro l'una con l'altra in un unico modello.

 -.-.-.-

La fonte principale di questo articolo è la voce Models in Science, coordinata da Roman Frigg (London School of Economics) e Stephen Hartmann (Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften, Monaco di Baviera), della Stanford Encyclopedia of Philosophy, consultata tra l’ottobre e il novembre 2021. Poi ci ho anche messo del mio, ovviamente.

lunedì 25 ottobre 2021

Di mappe e territori

 


Tutte le mappe sono false

In matematica, il termine mappa è spesso usato come sinonimo di funzione, che è una relazione tra due insiemi, chiamati dominio e codominio, che associa a ogni elemento del dominio uno e un solo elemento del codominio. Mappare vuol dire allora stabilire una corrispondenza biunivoca tra elementi di due insiemi diversi (o dello stesso insieme), secondo leggi diverse. In cartografia, questa corrispondenza si realizza tra insiemi di punti (quelli sulla superficie terrestre e quelli sul piano, che è il foglio su cui si disegna la mappa). Le leggi che associano questi insiemi di punti sono delle trasformazioni geometriche, matematiche o empiriche i cui risultati sono le cosiddette proiezioni cartografiche. Purtroppo, ciò comporta un certo margine di errore, inevitabile per qualsiasi tipo di proiezione si adotti. La rappresentazione della superficie terrestre sul piano genera sempre delle deformazioni, come era noto fin dall’antichità, poiché è una conseguenza di diversi risultati contenuti negli Sphaerica di Menelao di Alessandria (70 ca. – 140 ca.) sulla geometria dei triangoli tracciati sulla superficie di una sfera, come ad esempio il fatto che la somma degli angoli in un triangolo sferico è sempre maggiore di 180°. 


Trasformare delle coordinate geografiche in coordinate cartesiane è sempre un atto disonesto. La dimostrazione formale fu fornita da Eulero nel 1777, in Sulla mappatura delle Superfici Sferiche sul Piano, che chiamava perfetta una mappa f da una regione S della sfera al piano euclideo se valgono le seguenti due condizioni:

(1) f manda meridiani e paralleli a due campi di linee che formano reciprocamente gli stessi angoli;
(2) f conserva le distanze infinitesimamente lungo i meridiani e i paralleli.

Quindi, una mappa perfetta manda i meridiani e i paralleli a due campi di linee ortogonali. Inoltre, essa conserva globalmente l'elemento della lunghezza lungo i meridiani e i paralleli. Si noti che, sul globo sferico, i meridiani sono geodetiche, ma i paralleli non lo sono. Il fatto che le distanze siano conservate infinitesimamente lungo i meridiani implica immediatamente che le distanze tra i punti su queste linee debbano essere preservate. Ne consegue anche, sebbene non così immediatamente, che in una mappa perfetta anche le distanze tra i punti sui paralleli debbano essere preservate. L'idea della dimostrazione di Eulero fu di tradurre queste condizioni geometriche in un sistema di equazioni differenziali alle derivate parziali e mostrare che questo sistema non ha soluzione:

“Così è dimostrato attraverso il calcolo che una perfetta mappatura della Sfera sul piano non è possibile. Essendo quindi esclusa una rappresentazione perfettamente esatta, siamo obbligati ad ammettere rappresentazioni non simili, in modo che la figura sferica differisce in qualche modo dalla sua immagine sul piano. Per quanto riguarda la divergenza tra l'immagine e la realtà, possiamo fare varie ipotesi, e secondo l'assunzione che si assume come base, possiamo realizzare l'immagine più adatta a questo o quello scopo. In questo modo, le esigenze che l'immagine deve soddisfare possono variare in modi molto diversi”.



Un’ulteriore conferma alle dimostrazioni di Eulero arrivò da Gauss con l’opera Disquisitiones generales circa superficies curvas, vera pietra miliare nella storia della geometria differenziale, che Gauss pubblicò nel 1828. Riflettendo su cosa significasse definire le superfici, scoprì che la curvatura è una loro caratteristica intrinseca, perché è interamente determinata dalle misurazioni nella superficie e non coinvolge in alcun modo una terza dimensione normale ad essa. Così le superfici non andavano più considerate come immerse nello spazio tridimensionale, ma piuttosto “non come contorni di corpi, ma come corpi di cui una dimensione è infinitamente piccola”, una specie di velo “flessibile ma inestensibile”. La maggior parte delle superfici ha una curvatura non nulla, maggiore o minore di 0. Al contrario, se la superficie è un piano, la sua curvatura è nulla in tutti i suoi punti.

Gauss studiò anche quando una superficie può essere mappata su un'altra in modo tale che le distanze non siano alterate, e dimostrò che una condizione necessaria affinché ciò accada è che le curvature nei punti corrispondenti siano le stesse. Ad esempio, il cilindro e il piano sono localmente isometrici; sebbene curva, la superficie laterale del cilindro ha una curvatura zero nel senso di Gauss, proprio come il piano, ed è per questo che è possibile stampare con un tamburo rotante (la geometria intrinseca del cilindro è piatta, in quanto su di essa valgono tutti gli assiomi del piano euclideo). Una sfera (con curvatura positiva) e il piano (con curvatura nulla), invece, hanno sempre curvature diverse e non possono essere fra loro isometriche.

Visto che l’errore è sempre presente, si sceglie la proiezione che lo minimizza per il nostro scopo. Esistono infatti diverse leggi proiettive, in grado di privilegiare il mantenimento delle proporzioni tra le superfici, o tra le distanze, o conservare gli angoli tra direzioni. Un altro importante fattore di distorsione è la scala, cioè il rapporto tra distanze sulla mappa e distanze sul terreno. In genere, tanto più grande è la scala, tanto maggiore è l’errore. 



 Il paradosso della mappa in scala 1.1

L’ideale sarebbe una mappa in scala 1:1, ma anche in questo caso sorgono problemi. Il notissimo paradosso di Borges relativo alla Mappa dell’Impero, contenuto in Storia universale dell’infamia (1961), e contenuto nel frammento Del rigore della scienza, ci permette di evidenziarli. Come sua abitudine, l’autore argentino attribuisce la citazione a un libro che in realtà non esiste: 

“(…) In quell'Impero, l'Arte della Cartografia giunse a una tal Perfezione che la Mappa di una sola Provincia occupava tutta una Città, e la mappa dell'impero tutta una Provincia. Col tempo, queste Mappe smisurate non bastarono più. I Collegi dei Cartografi fecero una Mappa dell'Impero che aveva l’Immensità dell'Impero e coincideva perfettamente con esso. Ma le Generazioni Seguenti, meno portate allo Studio della cartografia, pensarono che questa Mappa enorme fosse inutile e non senza Empietà la abbandonarono alle Inclemenze del Sole e degl'Inverni. Nei deserti dell'Ovest rimangono lacere Rovine della Mappa, abitate da Animali e Mendichi; in tutto il Paese non c’è altra reliquia delle Discipline Geografiche. (Suárez Miranda, Viajes de varones prudentes, libro IV, cap. XIV, Lérida, 1658)”. 

Umberto Eco, nel Secondo diario minimo (1992), esaminò con finta serietà la possibilità teorica di tale mappa e, attraverso speculazioni sulla sua possibile natura (mappa opaca stesa sul territorio, mappa sospesa, mappa trasparente, permeabile, stesa e orientabile), sul suo ripiegamento e dispiegamento, giunse a concludere, sulla base del paradosso di Russell (l’insieme di tutti gli insiemi che non appartengono a se stessi appartiene a se stesso se, e solo se, non appartiene a se stesso), che tale mappa non potrebbe rappresentare l’insieme territorio + mappa.

Il logico e divulgatore Piergiorgio Odifreddi è stato più conciliante, affermando che l’ipotesi di una mappa perfetta di un territorio disegnata su una sua parte non implica comunque una contraddizione, perché esiste almeno un punto del territorio che coincide con la sua immagine sulla mappa. Il teorema del punto fisso di Banach-Caccioppoli garantisce infatti che una qualsiasi contrazione definita su uno spazio metrico ammette almeno un punto fisso, dove l'immagine sulla mappa coincide con il punto stesso. Il che vuol dire che una mappa, anche in scala 1:1, è sempre infedele, tranne che in quel solo punto.

Odifreddi dice inoltre che “Una delle ossessioni di Borges, apparentata all'autoriferimento e apparentemente paradossale, è la cosiddetta mappa di Royce, che egli ha citato almeno tre volte”. In effetti Borges cita esplicitamente il paradosso del filosofo idealista americano Josiah Royce in un passo del saggio Magie parziali del “Don Chisciotte”, contenuto in Altre inquisizioni (Feltrinelli, 1963, ma l’originale è del 1960): 

“Le invenzioni della filosofia non sono meno fantastiche di quelle dell’arte: Josiah Royce, nel primo volume dell’opera The world and the individual (1899), ha formulato la seguente: ‘Immaginiamo che una porzione del suolo d'Inghilterra sia stata livellata perfettamente, e che in essa un cartografo tracci una mappa d’Inghilterra. L’opera è perfetta. Non c’è particolare del suolo d’Inghilterra, per minimo che sia, che non sia registrato nella mappa; tutto ha lì la sua corrispondenza. La mappa, in tal caso, deve contenere una mappa della mappa, che deve contenere una mappa della mappa della mappa, e così all'infinito’.” 

 

Il paradosso di Bonini

Charles P. Bonini, professore emerito di Scienze gestionali alla Stanford Graduate School of Business, è stato esperto, ricercatore e insegnante delle applicazioni delle tecniche quantitative e statistiche ai problemi decisionali. Queste tecniche includono analisi delle decisioni, modelli di ottimizzazione, sistemi di elaborazione, teoria delle code, simulazione e data mining. È stato autore e coautore di numerosi libri di testo. 

Nel 1963 propose quello che è noto come il Paradosso di Bonini che illustra la difficoltà di costruire modelli o simulazioni che colgano completamente il funzionamento di sistemi complessi (come il cervello umano).

Nel dibattito scientifico moderno, il paradosso è stato articolato nel 1971 da John M. Dutton e William H. Starbuck: "Quando un modello di un sistema complesso diventa più completo, diventa meno comprensibile. In alternativa, quando un modello diventa più realistico, diventa anche altrettanto difficile da capire quanto i processi del mondo reale che rappresenta”.

Questo stesso paradosso era stato accennato nel 1942 da un “cattivo pensiero” del filosofo-poeta Paul Valéry: "Ce qui est simple est toujours faux. Ce qui ne l'est pas est inutilisable" (Ciò che è semplice, è sempre falso. Ciò che non lo è, è inutilizzabile.)

Inoltre, lo stesso argomento fu discusso dall’agronomo, matematico, ecologo e filosofo della scienza Richard Levins nell’articolo per l’American Scientist "The Strategy of Model Building in Population Biology" (1966), dove affermava che i modelli complessi hanno "troppi parametri da misurare, portando a equazioni analiticamente insolubili che supererebbero la capacità dei nostri computer, ma i risultati non avrebbero alcun significato per noi anche se potessero essere risolti”.

Il paradosso di Bonini può essere visto come un caso di relazione mappa-territorio: mappe più semplici sono rappresentazioni meno accurate ma più utili del territorio. 

Devo dire che mi è subito affiorato alla mente il ricordo della frequenza ai corsi di aggiornamento sulla costruzione delle mappe concettuali (quelle vere, non dei semplici diagrammi spacciati per esse), dove veniva chiesto di programmare delle attività didattiche interdisciplinari e di costruire la mappa dei contenuti della propria materia da integrare con quelle elaborate dai colleghi. Il risultato di tale volenterosa attività erano dei lenzuoli incomprensibili a tutti i partecipanti. Il bello è che in seguito questa prassi fu utilizzata obbligatoriamente nelle progettazione delle cosiddette Unità Formative a livello di istituto, che andavano declinate anche come competenze, in ossequio ai dettami del vangelo predicato da Bertagna e fatto proprio dall’allora ministra Moratti. Ero bravissimo a preparare tali mostruose e rizomatiche piovre, ma mentivo sapendo di mentire. 



La mappa non è il territorio

L’originale matematico, ingegnere e filosofo polacco-americano Alfred Korzybski (1879-1950) osservò che "la mappa non è il territorio" e che "la parola non è la cosa", sintetizzando la sua visione che un'astrazione derivata da qualcosa, o una reazione ad essa, non è la cosa stessa. Korzybski sosteneva che molte persone confondono le mappe con i territori, cioè confondono i modelli della realtà con la realtà stessa. 

Korzybski voleva criticare le ambiguità del linguaggio e fondare una nuova dottrina di (quasi) tutto che chiamava Semantica generale (un’idea che purtroppo sedusse anche gente psico-cosa tipo L. Ron Hubbard, quello di Scientology, per dire), ma la sua frase rimase nella storia del pensiero.

Korzybski sosteneva che gli esseri umani sono limitati in ciò che conoscono dalla struttura del loro sistema nervoso e dalla struttura delle loro lingue. Gli uomini non possono sperimentare il mondo direttamente, ma solo attraverso le loro "astrazioni" (impressioni non verbali o "spunti" derivati ​​dal sistema nervoso e indicatori verbali espressi e derivati ​​dal linguaggio). Questi a volte ci ingannano su quale sia la verità. La nostra comprensione a volte manca di somiglianza di struttura con ciò che sta realmente accadendo. In termini più astratti, la proposizione di Korzybski asserisce che sempre quando c'è pensiero o percezione oppure comunicazione sulla percezione vi è una trasformazione, una codificazione, tra la cosa comunicata e la sua comunicazione. Soprattutto, la relazione tra la comunicazione e la cosa comunicata tende ad avere la natura di una classificazione, di un'assegnazione della cosa a una classe. Dare un nome è sempre un classificare e tracciare una mappa è essenzialmente lo stesso che dare un nome. Bisogna anche dire che onestamente riconobbe che “Una mappa non è il territorio che rappresenta, ma, se corretta, ha una struttura simile al territorio, il che spiega la sua utilità”.

L'espressione comparve per la prima volta in stampa in "A Non-Aristotelian System and Its Necessity for Rigor in Mathematics and Physics", resoconto di una conferenza che Korzybski tenne a una riunione della American Association for the Advancement of Science a New Orleans il 28 dicembre 1931. Il documento fu ristampato in Science and Sanity (1933). In questo libro, Korzybski riconosceva il suo debito nei confronti del matematico Eric Temple Bell, la cui epigrammatica asserzione "la mappa non è la cosa mappata", comparve nel saggio Numerology nello stesso anno. Il libro di Temple Bell era un serio tentativo di smontare ogni velleità di intravvedere significati simbolici nei numeri e dedicava un capitolo intero a criticare l’idea di alcuni matematici suoi contemporanei che “Il cosmo è matematica pura e la matematica pura è il Cosmo”, giungendo a contestare persino l’idea di isomorfismo se riferita alla relazione tra matematica pura e realtà esterna.




Il territorio non è il territorio

Gregory Bateson, in Verso un'ecologia della mente (1972), nel capitolo "Forma, sostanza e differenza" (basato sulla conferenza per il diciannovesimo Annual Korzybski Memorial, tenuta il 9 gennaio 1970), sostenne in modo radicale l’impossibilità di sapere cosa sia un territorio reale. Qualsiasi comprensione di qualsiasi territorio si basa su uno o più canali sensoriali che riportano in modo adeguato ma imperfetto:

“Diciamo che la mappa è diversa dal territorio; ma che cos’è il territorio? Da un punto di vista operativo, qualcuno (...) è andato a ricavare certe rappresentazioni che poi sono state riportate sulla carta. Ciò che si trova sulla carta topografica è una rappresentazione di ciò che si trovava nella rappresentazione retinica dell’uomo che ha tracciato la mappa; e se a questo punto si ripete la domanda, ciò che si trova è un regresso all’infinito, una serie infinita di mappe: il territorio non entra mai in scena. Il territorio è la Ding an sich [la cosa in sé], e con esso non c’è nulla da fare, poiché il procedimento di rappresentazione lo eliminerà sempre, cosicché il mondo mentale è costituito solo da mappe di mappe, ad infinitum”.

“Tutti i ’fenomeni’ sono letteralmente ’apparenze’. Oppure si può andare nel verso opposto della catena. Io ricevo vari generi di mappe, che chiamo dati o informazioni; e, quando le ricevo, agisco. Ma le mie azioni, le mie contrazioni muscolari, sono trasformate [informazioni] di differenze nel materiale d’ingresso, e io ricevo dati che sono a loro volta trasformate delle mie azioni. Si ottiene così un quadro del mondo mentale che in qualche modo si è affrancato dal nostro quadro tradizionale del mondo fisico”. (...)

“Torniamo alla mappa e al territorio e chiediamoci: "Quali sono le parti del territorio che sono riportate sulla mappa?". Sappiamo che il territorio non si trasferisce sulla mappa: questo è il punto centrale su cui qui siamo tutti d’accordo. Ora, se il territorio fosse uniforme, nulla verrebbe riportato sulla mappa se non i suoi confini, che sono i punti ove la sua uniformità cessa di contro a una più vasta matrice. Ciò che si trasferisce sulla mappa, di fatto, è la differenza, si tratti di una differenza di quota, o di vegetazione, o di struttura demografica, o di superficie, o insomma di qualunque tipo. Le differenze sono le cose che vengono riportate sulla mappa.

Ma che cos’è una differenza? Una differenza è un concetto molto peculiare e oscuro. Non è certo né una cosa né un evento. Questo pezzo di carta differisce dal legno di questo leggio; vi sono tra essi molte differenze, di colore, di grana, di forma, eccetera. Ma se cominciamo a porci domande sulla localizzazione di quelle differenze, cominciano le difficoltà. Ovviamente la differenza tra la carta e il legno non è nella carta; ovviamente non è neppure nel legno; ovviamente non è nello spazio che li separa; e non è ovviamente nel tempo che li separa. (Una differenza che si produce nel corso del tempo è ciò che chiamiamo ’cambiamento’). Dunque, una differenza è un’entità astratta”. (...)

“Nelle scienze fisiche gli effetti, in generale, sono causati da condizioni o eventi piuttosto concreti: urti, forze e così via. Ma quando si entra nel mondo della comunicazione, dell’organizzazione, eccetera, ci si lascia alle spalle l’intero mondo in cui gli effetti sono prodotti da forze, urti e scambi di energia. Si entra in un mondo in cui gli ’effetti’ (e non sono sicuro che si debba usare la stessa parola) sono prodotti da differenze. Cioè essi sono prodotti da quel tipo di ‘cosa’ che viene trasferita dal territorio alla mappa. Questa è la differenza”.

Altrove, in quello stesso volume, Bateson ha sostenuto che l'utilità di una mappa non è necessariamente una questione di veridicità letterale, ma di avere una struttura analoga, per lo scopo in questione, al territorio. 

Jean Baudrillard in Simulacri e simulazione (1981) sosteneva che il processo di mascheramento della mappa è ormai giunto alle sue estreme conseguenze: lo sviluppo dei media offusca il confine tra mappa e territorio, consentendo la simulazione delle idee codificate in segnali elettronici. Oramai è la mappa che precede il territorio, o addirittura lo sostituisce. Adesso si direbbe che viviamo in un’epoca di post-verità, che è come dire di menzogna (occhio: non sta parlando di scienza, ma di media).

Un'analogia specifica che Jean Baudrillard usa è proprio il racconto della mappa dell’impero. Nell'interpretazione di Baudrillard, il territorio non precede più la mappa né sopravvive alla mappa. È la mappa che precede il territorio. Le persone vivono nella mappa, ossia nella simulazione della realtà in cui la gente dell’impero passa la vita, garantendo che il loro posto nella rappresentazione sia adeguatamente circoscritto e dettagliato dai cartografi che hanno creato la mappa. Di contro la realtà si sgretola per il disuso, infatti ciò che non si usa si atrofizza e ciò che si atrofizza si perde. La transizione da segni che nascondono qualcosa a segni che nascondono che non c’è nulla è la svolta decisiva. 

“L'astrazione oggi non è più quella della mappa, del doppio, dello specchio o del concetto. La simulazione non è più quella di un territorio, di un essere referenziale o di una sostanza. È la generazione per modelli di un reale senza origine né realtà: un iperreale. Il territorio non precede più la mappa, né le sopravvive. Ormai è la mappa che precede il territorio - precessione dei simulacri - è la mappa che genera il territorio e, se dovessimo far rivivere la favola oggi, sarebbero i brandelli del territorio che stanno lentamente morendo sulla mappa. È il reale, e non la mappa, di cui vestigia sussistono qua e là, nei deserti che non sono più quelli dell'Impero, ma i nostri. Il deserto del reale stesso. (…)

Ma non si tratta più né di mappe né di territorio. Qualcosa è scomparso: la grande differenza tra loro, che era il fascino dell'astrazione. Perché è la differenza che forma la poesia della mappa e il fascino del territorio, la magia del concetto e il fascino del reale. Questo immaginario rappresentativo, che culmina ed è al tempo stesso inghiottito dal folle progetto del cartografo di una coestensività ideale tra mappa e territorio, scompare con la simulazione, il cui funzionamento è nucleare e genetico, e non più speculare e discorsivo. (…) Il reale è prodotto da unità miniaturizzate, da matrici, banchi di memoria e modelli di comando - e con questi può essere riprodotto un numero indefinito di volte. Non deve più essere razionale, poiché non è più misurato rispetto a qualche istanza ideale o negativa. Non è altro che operativo. Infatti, poiché non è più avvolto da un immaginario, non è più affatto reale. È un iperreale: il prodotto di una sintesi irradiante di modelli combinatori in un iperspazio senza atmosfera. In questo passaggio ad uno spazio la cui curvatura non è più quella del reale, né quella della verità, l'età della simulazione inizia così con una liquidazione di tutti i referenti (...) nei sistemi di segni, che sono un materiale più duttile che il significato, in quanto si prestano a tutti i sistemi di equivalenza, a tutte le opposizioni binarie e a tutta l'algebra combinatoria. 

(…) Mai più il reale dovrà essere prodotto: questa è la funzione vitale del modello in un sistema di morte, anzi di risurrezione anticipata che non lascia più alcuna possibilità anche in caso di morte. Un iperreale ormai al riparo dall'immaginario, e da ogni distinzione tra reale e immaginario, che lascia spazio solo alla ricorrenza orbitale dei modelli e alla generazione simulata della differenza”.


Che fare?

Forse aveva ragione Lewis Carroll, che, per non sbagliare, disegnò per i protagonisti de La caccia allo Snark una mappa dell’Oceano completamente vuota? Assolutamente no. La mappa non è il territorio, e forse tutti i modelli sono falsi. Ma proprio perché consci di questo, senza derive di nichilismo epistemologico (Ignoramus et ignorabimus), possiamo dedicarci a scoprire, con tutti i nostri limiti, il mondo che ci circonda. Sono i suoi limiti epistemologici, ontologici, semplicemente logici, che fanno grande l'impresa scientifica, compreso il difficile compito di costruire mappe e modelli che siano esplicativi, predittivi, coerenti con il contesto e altre mappe. È scienza: funziona, anche se ci sarà sempre un mistico fallito, un complottista, un teorete, un terrapiattista o un prete a sparare cazzate.