Visualizzazione post con etichetta Archimede rivista. Mostra tutti i post
Visualizzazione post con etichetta Archimede rivista. Mostra tutti i post

giovedì 28 febbraio 2019

L’assiomatizzazione della geometria e il problema dei fondamenti


Nel sesto libro dell’Etica Nicomachea, Aristotele distingue l’opinione, doxa, da cui può nascere l’errore, dalle disposizioni (arte, scienza, saggezza, sapienza e intelletto) con le quali l’anima dice il vero, affermando o negando. In questo contesto affronta il tema della episteme, la conoscenza scientifica. Essa è la disposizione dimostrativa che opera per deduzione e presuppone la conoscenza dei principi, che vengono colti per intuizione. In virtù della struttura formale della dimostrazione, dalle sue premesse si estraggono, deduttivamente, le conclusioni implicite in tali premesse. Queste dovranno perciò essere vere, prime e immediate cioè indimostrabili o derivate da premesse indimostrabili, più note, anteriori e cause della conclusione.

Nel proporre questa struttura formale del sapere scientifico, Aristotele era profondamente influenzato dal modello matematico. La più diretta esemplificazione di tali premesse è offerta proprio dalla geometria euclidea, la cui formalizzazione è di poco posteriore alla riflessione aristotelica: i teoremi (dimostrazioni) derivano dalla assunzione di certi oggetti (figure) e dalla loro definizione. Le dimostrazioni non faranno altro che sviluppare le proprietà universali e necessarie che appartengono per sé agli oggetti cui si riferiscono i principi.

Per oltre due millenni si è generalmente ritenuto che l'ideale di Aristotele fosse effettivamente realizzato negli Elementi di Euclide. Solo negli ultimi vent’anni dell’800, tuttavia, rinacque l’interesse per i “principi primi” della matematica e della geometria, inaugurando quell’epoca cinquantennale della storia di queste discipline che avrebbe preso il nome di “crisi dei fondamenti”. Un primo esempio veramente interessante di assiomatizzazione della geometria fu disponibile in stampa nel 1882, quando il geometra tedesco Moritz Pasch (1843-1930) pubblicò le sue Conferenze sulla geometria moderna, anticipando di due anni un analogo, più noto e più controverso tentativo del connazionale Gottlob Frege riguardante l’aritmetica.

Lo scopo di Pasch era dare una sistemazione assiomatica della geometria proiettiva e, nell’introduzione alla sua opera, sosteneva che il ragionamento matematico non dovrebbe invocare l'interpretazione fisica dei termini primitivi, ma dovrebbe invece basarsi esclusivamente su manipolazioni formali giustificate da assiomi. L’organizzazione assiomatica della geometria e il procedimento deduttivo dovevano essere:
“assolutamente indipendenti dal significato dei concetti geometrici e altrettanto indipendenti dalle figure; solo le relazioni tra concetti geometrici stabilite nelle definizioni e nei teoremi usati possono essere prese in considerazione”
Anch’egli, tuttavia, considerava la geometria come una scienza naturale, il cui utilizzo con successo da parte di altre scienze e nella vita pratica si basa "esclusivamente sul fatto che i concetti geometrici originariamente concordano esattamente con gli oggetti empirici" e “servono a descrivere il mondo esterno”. La geometria si distingue però dalle altre scienze naturali perché prende solo pochissimi concetti e leggi direttamente dall'esperienza, poi se ne allontana e mira a ottenere da essi le leggi di fenomeni più complessi con mezzi puramente deduttivi. Il fondamento empirico della geometria fu racchiuso da Pasch in un nucleo di concetti di base e affermazioni o assiomi di base. I concetti di base si riferiscono alla forma e alla dimensione dei corpi e delle loro posizioni l'uno rispetto all'altro. Si tratta dei punti (“quei corpi la cui suddivisione ulteriore non è possibile entro i limiti dell’osservazione”), del segmento e della parte di piano. Sono definiti solo vagamente, poiché nessuna definizione potrebbe sostituire il "catalogo di oggetti naturali appropriati", che è l'unica strada per comprendere nozioni così semplici e irriducibili. Tutti gli altri concetti geometrici devono essere fondamentalmente definiti in termini di quelli di base. I concetti di base sono collegati l'un l'altro dagli assiomi, che "affermano ciò che è stato osservato in alcuni schemi molto semplici"; essi riguardano la retta e il piano. Tutte le altre affermazioni geometriche devono essere provate dagli assiomi con i metodi deduttivi più rigorosi. Tutto ciò che è necessario per dimostrarli deve essere registrato, senza eccezioni, negli assiomi. Questi devono quindi incarnare l'intero materiale empirico elaborato dalla geometria, in modo che "dopo che sono stati stabiliti non è più necessario ricorrere alle percezioni sensoriali". Pasch comprese chiaramente le implicazioni del suo metodo. Scriveva:
“Se la geometria deve essere veramente deduttiva, il processo di inferenza dev’essere indipendente in tutte le sue parti dal significato dei concetti geometrici, così come deve essere indipendente dagli schemi. Tutto ciò che occorre considerare sono le relazioni tra i concetti geometrici, catalogate nelle dichiarazioni e nelle definizioni. Nel corso della deduzione è sia permesso sia utile tenere a mente il significato dei concetti geometrici che si verificano in essa, ma non è affatto necessario. In effetti, quando è veramente necessario, ciò dimostra che c'è una lacuna nella dimostrazione e, se il divario non può essere eliminato modificando l'argomento, che le premesse sono troppo deboli per sostenerlo”.
Dagli assiomi, Pasch deduceva poi i teoremi, che costruivano l’intero edificio della geometria proiettiva e, attraverso una definizione rigorosa della teoria della congruenza e del continuo geometrico, otteneva gli stessi risultati di Klein sulle geometrie euclidea e non euclidee.

Le idee di Pasch ebbero una vasta risonanza tra i geometri contemporanei, particolarmente in Germania e in Italia. Giuseppe Peano (1858-1932), contemporaneamente ai contributi sui fondamenti dell’aritmetica, sul concetto di numero e alla proposizione dei suoi noti assiomi, pubblicò Principii di geometria logicamente esposti (1889), un opuscolo di 40 pagine in cui proponeva di fondare su base logica la geometria elementare. Così esordiva nella premessa:
“Quali fra gli enti geometrici si possono definire, e quali occorre assumere senza definizione? E fra le proprietà, sperimentalmente vere, di questi enti, quali bisogna assumere senza dimostrazione, e quali si possono dedurre in conseguenza'? L'analisi di queste questioni, appartenenti ad un tempo alla Logica e alla Geometria, forma l'oggetto del presente scritto. Onde non far lavoro vano in queste ricerche, già oggetto di molti studii, bisogna attenerci rigorosamente alle regole: usare nelle nostre proposizioni solo termini di valore pienamente determinato; ben precisare cosa si intenda per definizione e per dimostrazione”.
Servendosi degli studi sulla logica algebrica di Boole, Peano, come aveva fatto negli Arithmetices principia pubblicati poco prima, sosteneva che, attraverso un apparato di “segni aventi significato determinato, o mediante definizione, o mediante le loro proprietà”, “con un numero limitatissimo di convenzioni, si possano esprimere tutte le relazioni logiche di cui abbiamo bisogno”. Si aveva così il mezzo di “esprimere le proposizioni di geometria sotto una forma rigorosa, (…) e la soluzione delle questioni proposte riesce di molto agevolata”.

Limitando il suo studio alla geometria di posizione, Peano, citando Pasch e talvolta perfezionandolo, partendo dai concetti non definiti di punto e retta limitati, definiva la retta illimitata, il piano e le sue parti, come anche le parti dello spazio. Distingueva inoltre, tra le proposizioni, quelle (assiomi) che esprimono le più semplici proprietà degli enti considerati, e quelle (teoremi) che si possono dedurre da altre più semplici. Tutte le proposizioni erano espresse in linguaggio simbolico, chiarito da un apparato di note che occupava metà del testo. Peano non dava alcuna prova dell’indipendenza degli assiomi, e dichiarava:
“Da quest'ordine nelle proposizioni risulta chiaro il valore degli assiomi, e si e moralmente certi della loro indipendenza. Si avrebbe ancora potuto segnare accanto ad ogni proposizione gli assiomi da cui dipende. Invece per scopo didattico converrebbe ordinare le proposizioni a seconda del soggetto; p. e. prima quelle che trattano dei segmenti, poi quelle sui raggi, sulla retta indefinita, sul triangolo, ecc. Se nel presente saggio la soluzione delle questioni proposte ha raggiunto l'assoluto rigore, non può dirsi che essa abbia pure raggiunta la semplicità”. 
In realtà una certezza morale è alquanto in contrasto con “l’assoluto rigore” invocato dall’autore.

Sull’esempio di Peano, altri geometri italiani si occuparono del problema dei fondamenti della geometria. Il giovane Gino Fano (1871 – 1952), studente di Corrado Segre e dello stesso Peano all’Università di Torino, si laureò in matematica nel 1892 con una tesi, poi divenuta il suo primo articolo, Sui postulati fondamentali della geometria proiettiva in uno spazio lineare a un numero qualunque di dimensioni. Nell’opera introduceva una assiomatizzazione della geometria proiettiva degli iperspazi, negando l’origine empirica dei principi: “A base del nostro studio noi mettiamo una varietà qualsiasi di enti di qualunque natura; enti che chiameremo per brevità punti, indipendentemente però, ben inteso, dalla loro stessa natura”. Fano sarebbe diventato uno tra i maggiori rappresentanti della Scuola italiana di geometria algebrica.

Le stesse inclinazioni animavano il lucchese Mario Pieri (1860-1913), che aveva ottenuto il dottorato a Pisa nel 1884 con una tesi sulla geometria differenziale, e, nel 1891, era diventato libero docente di geometria proiettiva a Torino, dove subì l'influenza di Giuseppe Peano all'Università e di Cesare Burali-Forti, che fu suo collega all'Accademia militare. Il loro prestigio portò Pieri a studiare i fondamenti della geometria. A partire dal 1895, in tre note Sui principi che reggono la geometria di posizione, istituì un sistema assiomatico per la geometria proiettiva con tre termini indefiniti, cioè punti, linee e segmenti. Anch’egli dichiarava di seguire un indirizzo “puramente descrittivo e astratto”, che prescindeva da “ogni interpretazione fisica delle premesse”. Queste memorie, raccolte poi in volume nel 1899, impressionarono Bertrand Russell, il quale, nei suoi Principia, avrebbe scritto che “Questo è, a mio parere, il miglior lavoro sul tema attuale”. Pieri si affrancava da ogni discendenza empirica degli enti primitivi, ai quali “si può attribuire qualsivoglia significato”, purché “sia in armonia con i postulati che saranno man mano introdotti”. Nella sua monografia, intitolata Della geometria elementare come sistema ipotetico deduttivo, che organizzava la teoria utilizzando il simbolismo di Peano, egli definiva come sistema ipotetico deduttivo “qualunque dottrina puramente deduttiva (…) la quale non solo distingua organicamente (…) gli assiomi e postulati dai teoremi”, ma anche le idee primitive dalle loro “derivazioni formali”.

Pieri era stato invitato a partecipare al Congresso di Filosofia e al Congresso Internazionale dei Matematici a Parigi nel 1900. Non partecipò a queste conferenze, ma presentò un documento alla prima di queste, sulla Geometria considerata come un sistema puramente logico, che impressionò i partecipanti. In quest’opera, redatta in francese, ribadiva di considerare la geometria come “un certo ordine di relazioni logiche”, liberato da qualsiasi legame con l’intuizione empirica dello spazio, una “scienza ideale puramente deduttiva e astratta come l’aritmetica”.

La più nota e autorevole assiomatizzazione della geometria euclidea conforme agli standard di Pasch, i Fondamenti della Geometria di David Hilbert (1862-1943), fu pubblicata nel 1899 e notevolmente ampliata nelle dieci edizioni successive. L’opera, considerata oggi un classico, esercitò un'enorme influenza sulla matematica e la filosofia del XX secolo e molti considerano il suo lascito al pari degli stessi Elementi di Euclide. Hilbert invitava il lettore a considerare tre raccolte arbitrarie di oggetti, che chiamava "punti", "linee rette" e "piani", e cinque relazioni indefinite tra (a) un punto e una linea retta, (b) una linea retta e un piano, (c) tre punti, (d) due coppie di punti ('segmenti') e (e) due classi di equivalenza di tripli punti ('angoli'). Le condizioni prescritte nei 20 assiomi di Hilbert, incluso l'Assioma di Completezza, aggiunto nella seconda edizione, sostituite ai termini, ai postulati e alle nozioni comuni degli Elementi di Euclide, permettevano di rifondare in modo rigoroso e formale la geometria euclidea, ed erano sufficienti a caratterizzare i suddetti oggetti e le loro relazioni fino all'isomorfismo.

Negli assiomi di Hilbert non vi era alcun tentativo, a differenza di quanto accade negli Elementi, di descrivere direttamente e in base alla “evidenza intuitiva” gli enti primitivi quali punto, retta e piano. Mentre, per Euclide, ad esempio, “punto è ciò che non ha parti”, nell’assiomatica hilbertiana il punto non è in alcun modo descritto e può essere qualsiasi oggetto, purché esso, formalmente, soddisfi determinati assiomi. Oltre a una definizione implicita degli enti geometrici, un’altra caratteristica importante dell’assiomatica di Hilbert è che in essa tutte le assunzioni fatte senza dimostrazione sono indistintamente chiamate assiomi, senza distinguere tra postulati e nozioni comuni.

L'isomorfismo, vale a dire l'equivalenza strutturale, può valere tra sistemi di oggetti diversi, intuitivamente distinti. Hilbert sfruttò questa caratteristica delle teorie assiomatiche per studiare l'indipendenza di alcuni assiomi dal resto. Per dimostrarlo. propose casi reali (modelli) della struttura, determinati da tutti gli assiomi tranne uno, più la negazione di quello omesso. Frege lamentò che gli assiomi geometrici contenuti in questi esercizi potevano essere applicati agli inverosimili modelli di Hilbert solo manomettendo il significato naturale delle parole. Viene in mente la conversazione in cui Humpty Dumpty rivela ad Alice il suo approccio all'uso delle parole:
“Quando io uso una parola, - disse Humpty Dumpty in tono alquanto sprezzante, - essa significa esattamente ciò che io voglio che significhi... né più né meno. - Qui sta il problema, - disse Alice - se voi potete fare sì che le parole significhino cose differenti. - Il problema è, - disse Humpty Dumpty, - chi deve essere il padrone... ecco tutto. (...) 
Hilbert rispose a Frege il 29 dicembre 1899:
“Ogni teoria è solo un'impalcatura o uno schema di concetti, insieme con le loro relazioni reciproche necessarie, e gli elementi di base possono essere concepiti in qualsiasi modo si desidera. Se prendo per i miei punti qualsiasi sistema di cose, ad esempio il sistema amore, legge, spazzacamino, [...] e assumo tutti i miei assiomi come relazioni tra queste cose, i miei teoremi, per esempio il teorema di Pitagora, valgono anche per queste cose. [...] Questa caratteristica delle teorie non può mai essere un difetto ed è in ogni caso inevitabile”.
Tutto questo derivava, naturalmente, dalla natura stessa dell'assiomatica per come si era evoluta a partire da Pasch. In realtà, tali permutazioni semantiche che preservavano la verità non erano nuove in geometria, dopo che Gergonne (1771-1859) aveva attirato l'attenzione nel 1825 sul principio di dualità: ogni affermazione vera della geometria del piano proiettivo dà origine ad un'altra affermazione duale, altrettanto vera, ottenuta sostituendo "punto" a "linea", "collineare" a "concorrente", "incontrare" a "unire" e viceversa, ovunque queste parole si trovino nel primo. (Nella geometria dello spazio proiettivo, la dualità vale per punti e piani.) Lo stesso risultato è assicurato, naturalmente, scambiando non le parole, ma i loro significati.

Così, le geometrie non-euclidee e il nuovo metodo assiomatico avevano portato all'abbandono del sogno cartesiano e kantiano dell'autoevidenza degli assiomi posti alla base della matematica, che diventava scienza di relazioni sintattiche fra simboli del suo linguaggio: la validità della deduzione matematica non dipende dal particolare significato che può essere associato ai termini o alle espressioni contenute nei postulati.

In parole povere: non è fondamentale che esista davvero uno snark, ma che un quadrato con tre snark per lato contenga davvero nove snark (quadrati). Ciò che importa è la struttura delle affermazioni piuttosto che la natura particolare del loro contenuto: il matematico puro non si preoccupa (molto) se i postulati che ammette o le conclusioni che trae dai primi sono veri, ma se le conclusioni avanzate siano le conclusioni logiche necessarie delle ipotesi da cui è partito.

Una volta che non si suppone più la verità dei postulati, nasce il problema di come provare almeno la coerenza dei sistemi attraverso i quali facciamo le nostre deduzioni. Tutti i grandi matematici che, tra la fine del XIX secolo e l’inizio del XX, provarono a rifondare le matematiche su basi diverse (gli insiemi, la logica, le classi) si imbatterono però nel grande problema delle antinomie, cioè delle contraddizioni interne: il fatto di arrivare, partendo dalle stesse premesse, a conclusioni logiche opposte.

Si arrivò almeno a concordare su che cosa sia un sistema formale, cioè un sistema simbolico senza interpretazione (non importa se uno snark esiste davvero), con una sintassi (le regole di combinazione dei simboli) definita in un modo rigoroso, sul quale è definita una relazione di deducibilità in termini puramente sintattici (deve essere possibile ricavare delle conclusioni facendo ricorso esclusivamente alle regole sintattiche interne al sistema). Le principali proprietà di un sistema formale sono:

a) la consistenza, o coerenza: un linguaggio formale è consistente se non contiene formule contraddittorie, cioè non capita che una delle sue formule e la sua negazione siano costruibili o dimostrabili al suo interno;
b) la completezza: è la proprietà per cui tale sistema è sufficiente per decidere di ogni proposizione correttamente costruita e/o formulata a partire dalle proposizioni-base di quel linguaggio. Detto in altro modo, un sistema è completo quando è possibile dimostrare al suo interno ogni formula dimostrabile, oppure la sua negazione;
c) la decidibilità: un enunciato formulabile in un dato sistema formale è decidibile se è dimostrabile come vero o falso all'interno di tale sistema.

Hilbert, in modo ancor più radicale di Pasch, era convinto che la matematica non possiede alcun significato fisico: essa è pura forma, pura manipolazione di simboli o, come avrebbe scritto Hermann Hesse in Il gioco delle perle di vetro (1943): 
“Noi invece cercheremo di conchiudere l’abbozzo di una storia del Giuoco delle perle di vetro e osserviamo che, passato dai seminari musicali a quelli matematici (mutamento che in Francia e in Inghilterra si compì quasi più rapidamente che in Germania), esso era arrivato a un grado di sviluppo tale da poter esprimere fatti matematici con segni e abbreviazioni particolari; i giocatori si porgevano l’un l’altro quelle formule astratte sviluppandole reciprocamente e si presentavano a vicenda gli sviluppi e le possibilità della loro scienza. Questo Giuoco matematico-astronomico richiedeva molta attenzione e concentrazione, e già allora la fama di buon giocatore di perle era molto considerata fra i matematici ed equivaleva alla fama di ottimo matematico”. (…)
Secondo Hilbert non si scopre, ma piuttosto si crea. Il suo proposito, esposto nei famosi 23 problemi al Secondo Congresso Internazionale di Matematica tenutosi a Parigi nell'agosto del 1900, era quello di armonizzare la logica e la matematica in una collezione di sistemi formali. Sappiamo che il sogno positivista di assiomatizzazione della matematica, condiviso da talenti quali Frege o Russell, era destinato a fallire con la dimostrazione che nel 1931 Kurt Gödel diede di come un sistema formale non contraddittorio, che comprenda almeno l'aritmetica, non può dimostrare la propria completezza dall'interno dei suoi assiomi. La questione dei fondamenti della matematica tornò così alla sua origine e riprese vigore la voce dei realisti, portatori dell’idea quasi platonica per la quale la matematica esiste indipendentemente da noi e aspetta solo di essere scoperta. I numeri e gli enti geometrici (e tutta la costruzione delle matematiche) sarebbero degli a–priori, indipendenti dalla creazione umana.

Tra i matematici, molti sono stati realisti, come Paul Erdös e Kurt Gödel. Un’importante argomentazione a favore del realismo matematico consiste in ciò che il fisico Eugene Wigner ha definito della “irragionevole efficacia della matematica nelle scienze naturali”. L’universo fisico può essere conosciuto nella sua struttura più profonda grazie alla matematica per il semplice fatto che esso è matematico. Questa straordinaria efficacia ha sempre stupito i fisici, a partire da Galileo, che ne deduceva che la natura è un libro scritto “in lingua matematica, e i caratteri sono triangoli, cerchi ed altre figure geometriche”. La natura di questi caratteri, dopo la nascita delle geometrie non euclidee e i progressi della ricerca del XIX e XX secolo, è cambiata, e Dio sembra uscito dal discorso scientifico, tuttavia un altro fisico, Paul Dirac, era ugualmente affascinato dall’idea di un universo matematico quando scriveva:
“Il matematico fa un gioco di cui è lui stesso a inventare le regole, mentre il fisico fa un gioco le cui regole sono fornite dalla Natura; col passare del tempo diventa sempre più evidente che le regole che il matematico trova interessanti sono quelle stesse che ha scelto la Natura”.
Così diventa arduo, secondo i realisti, spiegare diversamente come, ad esempio, nella teoria della relatività le geometrie non euclidee sono così importanti per spiegare lo spaziotempo, oppure come mai le teorie dei gruppi riescano a collocare in un catalogo ordinato e persino a prevedere le particelle quantistiche.

Già prima dei cruciali teoremi di Gödel, si incominciò a parlare di metamatematica, cioè di teorie che studino il funzionamento della matematica superandola, trascendendola. Fu proprio David Hilbert il primo a utilizzare il termine “metamatematica” con regolarità. Così, la metamatematica è lo studio della matematica mediante metodi matematici: questo studio produce metateorie, che sono teorie matematiche su altre teorie matematiche. Un'immagine significativa di tutti questi meta- è il simbolo dell’ouroburos, il serpente che si morde la coda (invece non sappiamo se esiste tra gli snark una simile abitudine).

Come ha dimostrato Alfred Tarski con il teorema di indefinibilità (1936), la verità in un sistema formale sufficientemente potente non può essere definita all'interno del sistema stesso. Pertanto ogni metalinguaggio capace di esprimere la semantica di un linguaggio formale deve avere una potenza espressiva maggiore. In un metalinguaggio, infatti, devono essere presenti nozioni primitive, assiomi e regole che sono assenti nel linguaggio formale e, per questo motivo, ci sono teoremi dimostrabili nel metalinguaggio che non sono dimostrabili nel linguaggio formale. Dovendo fondare una teoria, dunque, è sempre necessaria una metateoria che a sua volta non può essere convalidata se non da una meta-metateoria, e così via. Pertanto non esiste una "teoria ultima" capace di fondare compiutamente un ramo della matematica, né a maggior ragione la matematica nella sua interezza.

Oggi si può dire che l’intero programma di Hilbert sia stato quasi completato (o dimostrando o provando che non si può dimostrare), così che la crisi è sostanzialmente risolta, accontentandoci di requisiti inferiori rispetto alle ambizioni originali, che erano espresse in un momento in cui era massima la fiducia nel potere conoscitivo della scienza (“In matematica non esistono ignorabimus”). In pratica, la maggior parte dei matematici non lavora su sistemi assiomatici: nella matematica, così come è praticata, l'incompletezza e i paradossi delle teorie formali sottostanti non hanno un ruolo importante, e in quei rami in cui essi corrono il rischio di formare teorie inconsistenti si procede con molta cautela, altrimenti arrivano due tizi come Banach e Tarski a mostrare come una si possa suddividere in 5 parti una palla nello spazio tridimensionale, in modo che sia possibile ricomporre con questi pezzi due sfere entrambe perfettamente identiche a quella iniziale. Il concetto di verità dei fondamenti è scomparso dal linguaggio matematico e geometrico, e il sogno enciclopedico dell’assiomatizzazione delle matematiche è tramontato. In ogni caso, si continua a far matematica e geometria anche se esistono opinioni diverse sulla loro natura ontologica più profonda.



Questo articolo è comparso sul numero 4/2018 della rivista Archimede. Rivista per gli insegnanti e i cultori di matematiche pure e applicate alle pagg. 224-231. 

sabato 7 ottobre 2017

La matematica come struttura letteraria: la combinatoria

Negli anni fecondi delle neoavanguardie letterarie, nella prima metà degli anni ’60, si cominciò a teorizzare l’applicazione di concetti matematici per la costruzione di testi letterari, poetici o in prosa, in modo che la matematica, da oggetto di letteratura, ne diventasse la struttura. Nel corso degli anni sono state esplorate decine di applicazioni diverse, come il calcolo combinatorio, la teoria degli insiemi o la teoria dei grafi. Inoltre lo sviluppo di quelli che allora si chiamavano calcolatori elettronici favorì la nascita dei primi esperimenti ipertestuali. In queste righe ci occuperemo in particolare delle opere basate sulla combinatoria.

Il poeta, romanziere e saggista Nanni Balestrini, già al suo esordio letterario (1961), scrisse Tape Mark 1, una “poesia combinatoria composta con l’ausilio di un calcolatore elettronico” IBM, pubblicata nell’Almanacco Letterario Bompiani del 1962. Il testo si compone di 15 elementi ripresi da opere già esistenti, il Diario di Hiroshima di Michilito Hachiya, Il mistero dell’ascensore di Paul Goldwin e il Tao Te King di Laotse, e costituiti da sintagmi a loro volta formati da 2 o 3 unità metriche e contraddistinti da un codice di testa e uno di coda a indicare le possibilità sintattiche di legame. Da questo materiale è stata tratta dal calcolatore una poesia di sei strofe di sei versi ciascuna con ogni verso di 4 unità metriche; ciascuna strofa risulta formata da una diversa combinazione parziale del testo (10 elementi per volta), con minimi interventi grammaticali e di punteggiatura apportati alla fine. Il risultato, voluto secondo i canoni estetici dell’autore, è un’opera in cui i normali rapporti sintattici sono stravolti o aboliti. Ecco la prima strofa:

La testa premuta sulla spalla, trenta volte
più luminoso del sole, io contemplo il loro ritorno
finché non mosse le dita lentamente e, mentre la moltitudine
delle cose accade, alla sommità della nuvola
esse tornano tutte, alla loro radice, e assumono
la ben nota forma di fungo cercando di afferrare.


Immagine di Andrea Valle
Più noti e meno ostici sono I Cent mille milliards de poèmes di Raymond Queneau (1961), che offrono un dispositivo di lettura combinatoria a base di linguette intercambiabili sulle quali sono scritti uno per uno i versi di un insieme di dieci sonetti (con 14 versi ciascuno). Ciò perché l’autore ha scritto i sonetti con le stesse rime e con una struttura grammaticale tale che ogni verso è intercambiabile con ogni altro verso situato nella stessa posizione. In termini matematici si tratta di una disposizione con ripetizione con n=10 e k=14, per un totale di 1014 combinazioni (centomila miliardi, appunto). Così, a seconda di una qualsiasi delle eventuali scelte, è possibile leggere sonetti come quelli di cui si propone come esempio la prima strofa:

(da http://www.parole.tv/cento.asp , dove un generatore automatico permette di ottenere tutti i 1014 sonetti di Queneau)
Nelle “Istruzioni per l'uso” poste a introduzione del suo libro, Queneau sostiene un po’ compiaciuto che “Calcolando 45" per leggere un sonetto e 15" per cambiare la disposizione delle striscioline, per otto ore al giorno e duecento giorni all'anno, se ne ha per più di un milione di secoli di lettura. Oppure, leggendo tutta la giornata per 365 giorni l'anno, si arriva a 190.258.751 anni più qualche spicciolo (senza calcolare gli anni bisestili e altri dettagli)” (ora in Segni, cifre e lettere e altri saggi, Einaudi, Torino, 1981).



Nella prefazione alla prima edizione dei Cent mille milliards de poèmes, il matematico François Le Lionnais (ora nell’opera collettiva La letteratura potenziale - Creazioni Ricreazioni Ri-creazioni, Bologna, Clueb, 1985) coniò la formula “letteratura combinatoria” per collocare l’opera di Queneau, definendola come l’insieme delle pratiche letterarie in cui l’opera non fissa a priori l’ordine dei brani di testo che la compongono, ma ne dispone anzi la ricombinazione secondo procedimenti formalizzati. In questo modo, l’opera combinatoria non viene letta, ma giocata: nel puzzle della “letteratura combinatoria” il fruitore trova delle tessere di partenza, che può smontare e rimontare a piacere seguendo le “regole del gioco” indicate. Al lettore non viene più chiesto solo un lavoro di interpretazione o d'immaginazione, ma, a seconda dei casi, un'attività di costruzione o di coproduzione del testo stesso. Il lettore interagisce, viene condotto a manipolare un dispositivo che produce ciò che gli è dato da leggere, e due lettori non leggeranno forse mai lo stesso testo. Questo gioco del fare letterario delega così al lettore una parte rilevante della funzione di autore.

Ancor più radicale di quella di Queneau è la scelta di Marc Saporta, che nel romanzo Composizione n. 1 riduce il testo ad una sequenza di frammenti che possono essere letti in un ordine qualsiasi. Ogni pagina descrive una scena in cui agisce un personaggio. In questo caso la libertà del lettore è totale, perché egli può leggere il testo disponendo come crede l’ordine delle pagine. Per questo scopo, le pagine del romanzo, non numerate, sono separate fisicamente le une dalle altre, e stampate solo sul recto, mentre il verso è bianco. La fascetta che tiene unite le pagine riporta la frase: “TANTI ROMANZI QUANTI SONO I LETTORI. L’ordine delle pagine è casuale: mescolandole, a ciascuno il “suo” romanzo” (Marc Saporta, Composizione n. 1, Lerici, Genova, 1962). Nella prefazione all’edizione originale francese, Saporta avverte: “Il lettore è pregato di mescolare queste pagine come un mazzo di carte. Di tagliare, se lo desidera, con la mano sinistra, come si fa da una cartomante. L’ordine con il quale le pagine usciranno dal mazzo orienterà il destino di X. Infatti il tempo e l’ordine degli avvenimenti regolano la vita più che la natura degli avvenimenti stessi”. In questo caso si tratta di una permutazione di 143 pagine, gli elementi, per cui le possibili combinazioni sono date da 143! = 2,69 × 10245, numero che giustifica la successiva considerazione: “Una vita si compone di elementi multipli, ma il numero delle possibili combinazioni è infinito”.



Ogni pagina è un elemento a sé stante. Evidentemente non c’è una trama lineare: l’impressione è che i frammenti di testo si presentino così come affiorano nella testa di X, il protagonista, alla maniera di ricordi strappati dal terapeuta alla mente di un paziente. Per fortuna una qualche sorta di lasco legame c’è: i personaggi ricompaiono, certe scene sono simili ad altre, certe situazioni sembrano ripetersi, in qualche caso si sovrappongono. La scelta di Saporta fa sì che Composizione n°1 sia il tipico libro in cui succede poco. Poiché le pagine devono poter essere lette in ogni combinazione possibile, è come se ciascuna di esse dovesse essere abbastanza indefinita da non vincolarne troppo il senso. Il lettore che si aspetta il racconto di una storia, che cerca la sicurezza di parametri di riferimento spazio-temporali precisi, rimane deluso. Il libro va preso per quello che è: un serio esperimento anticipatorio, il cui solo godimento, che è quello di comporre i pezzi di un puzzle, è penalizzato dal supporto cartaceo, l’unico disponibile quando fu scritto.

La differenza tra i due testi risiede nel grado di libertà che è concessa al lettore, che a sua volta è funzione del congegno combinatorio adottato. Nei Cent mille milliards des poèmes la struttura testuale è suddivisibile in classi di elementi combinabili secondo un ordine stabilito, con una logica che il matematico oulipiano Claude Berge ha definito esponenziale, mentre in Composizione n. 1 le combinazioni (permutazioni) tra i frammenti sono totalmente affidate al caso, con una logica fattoriale. Lo schema illustra le due strutture:


Queneau, Le Lionnais e Saporta erano tutti francesi. E in Francia nel 1960 proprio i primi due avevano fondato l’organismo di ricerca sperimentale OuLiPo (Ouvroir de Littérature Potentielle), al quale avrebbero poi aderito Perec e Calvino. È da questo gruppo di matematici con passioni letterarie e uomini di lettere con l'amore per i numeri che il fantasma della combinatoria ha cominciato ad aggirarsi nel mondo letterario.

Sin dalla fondazione, le regole del gruppo furono così enunciate: “Definiamo letteratura potenziale la ricerca di nuove forme e strutture che potranno essere utilizzate dagli scrittori nella maniera che più gli piacerà”. “Potenziale” si riferisce a qualcosa che esiste in potenza nella letteratura, cioè che si trova all'interno del linguaggio e che non è stato necessariamente esplorato. Strumento prediletto per lo studio e la produzione è la contrainte, una restrizione formale arbitraria che possa creare nuovi procedimenti, nuove forme e strutture letterarie suscettibili di generare poesie, romanzi, testi. Fra le numerose definizioni dell'Oulipo fornite dagli stessi membri, una è assai elegante e significativa: “Un Oulipiano è un topo che costruisce il labirinto da cui si propone di uscire più tardi”. Queneau spiegava spesso che alcuni suoi lavori potevano sembrare semplici passatempi, semplici jeux d'esprit, ma ricordava che anche la topologia o la teoria dei numeri nacquero, almeno in parte, da quella che una volta si chiamava "matematica divertente".

Nanni Balestrini tornò nel 1966 alla letteratura combinatoria, questa volta in prosa, con il “romanzo” Tristano, e le virgolette sono più che giustificate. Si tratta infatti di un testo, che nulla ha a che fare con l’archetipo del romanzo d’amore suggerito dal titolo. Composto da dieci capitoli, a loro volta composti da venti paragrafi di frasi tratte da testi già esistenti (atlanti, romanzi rosa, giornali, guide turistiche, manuali), in cui le convenzioni del romanzo sono sovvertite, è il tutto a generare la frase, o meglio a rivelare il meccanismo di scrittura. Ogni frase compare due volte in due diversi capitoli, cambiando senso a seconda del contesto, e spesso la giustapposizione di questi elementi fa vacillare il significato e i consueti riferimenti spazio-temporali. Inoltre alcune delle frasi inserite sono volutamente ambigue, potendo riferirsi alla vicenda descritta o al dispositivo di scrittura in maniera autoreferenziale:

“Ma in certi casi è necessario per impedire che la vicenda continui a svilupparsi introdurre elementi che servano ad arrestarla e giustifichino la ripetizione”.

“Niente obbliga a finire una frase essa è infinitamente catalizzabile vi si si può sempre aggiungere qualcosa”.

“La questione non è tanto la storia in sé bensì quali effetti può produrre quali sviluppi quali dinamiche innescare”.

“Le combinazioni sono infinite. Tutte le storie sono diverse una dall’altra. È tutto come un gioco”.

Un nome proprio, indicato con la lettera C (non puntata) fa riferimento di volta in volta a un personaggio femminile, a uno maschile, a un luogo, o a tutto ciò che porta un nome, volendo sottolineare come ogni elemento sia realtà intercambiabile, sia cioè funzione di C in base a leggi che il lettore deve, più che indovinare, imporre al testo. Non si tratta certamente di una lettura agevole! Le tecnologie dell’epoca consentirono nel 1966 la pubblicazione di uno solo dei 1,09 × 1014 libri differenti potenzialmente generati dal dispositivo di scrittura adottato. La nascita della stampa digitale e il printing on demand consentono ora al lettore di avere una copia fisica del libro unica e sua personale, diversa da tutte le altre. La riedizione di Tristano attuata nel 2007 consiste di diecimila copie uniche, ciascuna caratterizzata da un codice alfanumerico di 6 caratteri.

Un altro scrittore affascinato dalle possibilità della combinatoria è stato Italo Calvino, che aderì all’Oulipo nel 1973 durante il suo lungo soggiorno parigino, anche se da tempo aveva mostrato interesse per i rapporti tra lettere e scienza. Le concezioni oulipiane influenzano la struttura di alcuni dei suoi ultimi libri, in particolare de Il castello dei destini incrociati, di cui ebbe a dire che si trattava di una macchina "per moltiplicare le narrazioni partendo da elementi figurali dai molti significati possibili come può essere un mazzo di tarocchi". In effetti, come spiega lo stesso autore nella postfazione, la spinta alla stesura del testo che dà il nome all’opera venne dall’invito dell’editore Franco Maria Ricci a scrivere un commento per la lussuosa edizione di un mazzo di tarocchi del XV secolo noto come Tarocchi Viscontei. Le suggestioni evocate dalle splendide illustrazioni delle lame hanno spinto Calvino a congegnare dodici storie, a ciascuna delle quali l’autore ha posto in chiusura la sequenza di carte utilizzata per raccontarla. Le infinite possibilità della combinatoria sono rappresentate per lo scrittore da “questo quadrilatero di carte che continuo a disporre sul tavolo tentando sempre nuovi accostamenti non riguarda me o qualcuno o qualcosa in particolare, ma il sistema di tutti i destini possibili, di tutti i passati e i futuri, è un pozzo che contiene tutte le storie dal principio alla fine tutte in una volta”.

Nell’opera, alcuni personaggi, resi muti da un incantesimo, raccontano la propria avventura allineando su un tavolo dei tarocchi. La prima carta estratta da ciascuno dei commensali è fondamentale, perché si identifica con il personaggio e ne rappresenta il destino. Questi utilizza poi sedici carte (che estrae dal mazzo o trova già disposte da altri), che, sistemate in due colonne o righe, rappresentano l’effettivo svolgimento della storia. Dal meccanismo combinatorio delle diverse disposizioni scaturisce una matrice di racconti, leggibile in ogni direzione.

Nella figura è illustrata la disposizione delle carte sul tavolo. Come esempio sono evidenziate quelle che determinano i primi due racconti, cioè Storia dell’ingrato punito (con bordo rosso) e Storia dell’alchimista che vendette l’anima (con bordo blu). Le carte iniziali sono numerate.


Alcuni commentatori hanno fatto notare come Il castello non rispetti fino in fondo il meccanismo combinatorio adottato: le carte utilizzate sono 73, mentre l’intero mazzo dei tarocchi ne comprende 78 (22 arcani maggiori più 56 arcani minori). Se Calvino ha sacrificato delle carte alle esigenze combinatorie dello schema, non si comprende allora perché ne abbia utilizzata una in più del necessario, quella indicata con il fondo grigio.

La letteratura combinatoria meriterebbe una trattazione più ampia, per non dire “infinita”. Non abbiamo parlato delle sue radici (dai trovatori provenzali a Mallarmé); delle restrizioni formali mutuate dalla matematica inventate dagli oulipiani, delle opere anticipatrici di un grande scrittore come Jorge Luis Borges, del capolavoro La vita: istruzioni per l’uso di Georges Perec, e di molto altro ancora. Con la combinatoria ci vuol pazienza.

---

Questo articolo è comparso sul numero 03/2016 di Archimede, la rivista per gli insegnanti e i cultori di matematiche pure e applicate.