sabato 30 luglio 2022

Alexander Bogdanov e la tektologia (scienza dei sistemi)

 


Le idee monistiche di Wilhelm Ostwald, e specialmente la sua energetica sociale, furono raccolte e sviluppate dal marxista russo Alexander Alexandrovich Malinowskij, meglio conosciuto come Alexander Bogdanov (1873-1928). Il nome ``Bogdanov" era uno pseudonimo, uno dei tanti utilizzati in centinaia di pubblicazioni, insieme a "Maximov", "Riadovoy", "Werner". Lo pseudonimo "Bogdanov" era quello usato più spesso e con questo nome sarebbe passato alla storia della cultura russa e mondiale. Bogdanov adottò il modello termodinamico di Ostwald, nel quale le leggi di conservazione dell’energia e l’entropia fornivano una base concettuale comune per tutti i processi fisici e sociali. Bogdanov condivideva anche l’interesse di Ostwald per una organizzazione razionale delle scienze, e nello sviluppo di una metascienza che avrebbe riunito e trasceso le singole discipline. Bogdanov, uno psichiatra con buone basi di fisica e biologia, iniziò come studente di scienze naturali a Mosca nel 1892, ma poi si laureò in medicina con una specializzazione in psicologia all’Università di Kharkov (oggi Kharkiv) nel 1899. La sua educazione medica lo portò inevitabilmente in contatto con le idee di Ostwald. 

Bogdanov era un convinto marxista, ma, diversamente da Lenin, non credeva che il marxismo fosse una dottrina monolitica e immutabile. Dopo il dottorato, fu arrestato più volte dalle autorità zariste e trascorse quattro anni al confino in piccole città, prima a Kaluga e poi a Vologda. Nel 1903, quando il partito socialdemocratico russo si spaccò tra bolscevichi e menscevichi, Bogdanov si schierò con i primi, diventando secondo solo a Lenin nella leadership della fazione bolscevica. Partecipò all’insurrezione fallita del 1905 e fu costretto all’esilio, durante il quale scrisse il profetico romanzo di fantascienza politica Stella Rossa


Alcune fotografie famose, scattate durante la settimana tra il 23 e il 30 aprile 1908, lo ritraggono intento a giocare a scacchi contro Lenin sulla terrazza di Villa Blaesus, l'allora residenza sull'isola di Capri di Maxim Gorky (che assiste sorridente). 


Quando anche i bolscevichi si spaccarono, egli schierò con la corrente più a sinistra, contro Lenin, il quale, scrisse in esilio e pubblicò nel 1909 a Mosca il saggio filosofico Materialismo ed empiriocriticismo, che era una critica pungente delle teorie di Bogdanov, nel quale sosteneva che le percezioni umane riflettono correttamente e oggettivamente il mondo esterno e che quest'ultimo può pertanto essere analizzato dialetticamente. Lenin rifiutava le critiche di Bogdanov allo “schematismo positivistico” insito nella dialettica materialistica avallata da Engels, e che proponevano un materialismo dialettico alternativo a quello formulato dai teorici del marxismo ortodosso, che fosse in accordo con le più recenti scoperte scientifiche e con l'empiriocriticismo di Mach e di Avenarius.

Evidentemente, i concetti principali del vecchio materialismo - 'materia' e 'leggi immutabili' - erano stati sviluppati nel corso del progresso sociale - e, come ogni forma ideologica, avrebbero dovuto avere la loro "base materiale". Ma poiché la "base materiale" tende a cambiare nel corso dello sviluppo sociale, è chiaro che ogni data forma ideologica ha solo un significato storico e transitorio, piuttosto che oggettivo e astorico. Può essere solo una "verità di quel tempo" (la verità oggettiva di un certo periodo) - e non una "verità eterna" ("oggettiva" nel significato assoluto della parola)". Pertanto, affermava Bogdanov, “Il marxismo implica il rifiuto dell'obiettività incondizionata di ogni verità, il rifiuto di tutte le verità assolute". Esattamente il contrario di quello che sarebbe successo in Unione Sovietica a partire dagli ‘20 e fino al suo crollo. 

Bogdanov continuò a essere molto attivo politicamente sino al 1910, quando fu costretto a continue dispute ideologiche con Lenin riguardo all’organizzazione e la disciplina nel partito e venne espulso dal comitato centrale. Da allora, anche dopo la Rivoluzione d’Ottobre, rifiutò di rientrare nel partito bolscevico. 

Nel 1900, quando era al confino di Kaluga, conobbe e divenne amico, personalmente e filosoficamente, di Anatoli Lunačarskij, il futuro Commissario all'Educazione dopo la rivoluzione. Quando Bogdanov fu trasferito a Vologda nel 1901, Lunačarskij, anch’egli lì al confino, chiese e ottenne di seguirlo. Nel settembre 1902 Lunačarskij sposò la sorella di Bogdanov, Anna Malinovsaija. 

L’energetica omnicomprensiva di Ostwald convinse Bogdanov a guardare il mondo come una dinamica di processi interattivi agenti sulla base di principi fisici. L’opera di Bogdanov in tre volumi Tektologia, i cui primi due furono pubblicati nel 1913 e nel 1917, era un piano per sviluppare una scienza di sistemi generali, attraverso una ricerca di somiglianze strutturali nei processi fondamentali di ogni disciplina. Scienza universale dell’organizzazione, la tektologia era costruita su concetti formali derivati dalla meccanica e dalla termodinamica, resi abbastanza generali da essere applicabili a qualsiasi oggetto d’indagine, pratico o teorico, considerato un “complesso” (oggi diremmo sistema). 


Il termine “organizzazione” di Bogdanov aveva diversi significati. Egli lo caratterizzò generalmente come “scienza delle costruzioni” o architettura. L’organizzazione era particolarmente riferita alle relazioni strutturali e funzionali entro limiti definiti, cioè un sistema, o alle relazioni delle singole parti rispetto all’intero sistema. La tektologia analizzava le relazioni statiche e dinamiche degli elementi costituenti, utilizzando termini come equilibrio, resistenza, organizzazione e disorganizzazione, regolazione, congiunzione, esplosione, crisi, egressione e degressione [emergenza, riduzione]. Essa cercava di stabilire leggi di base e meccanismi organizzativi e, come la matematica, di “rivelare l’invariabile tendenza che è nascosta nella visibile complessità”

Bogdanov cercò anche di interpretare il marxismo con questi criteri, modellandolo su un paradigma evoluzionario termodinamico in cui vi erano trasformazioni graduali, anche cicliche, della società, invece che i processi dialettici postulati dai marxisti ortodossi. Egli paragonò la rivoluzione a una reazione chimica, in cui i nuovi componenti risultanti non sono finali, ma continuano a sottostare a processi termodinamici (inutile dire che Lenin non era affatto d’accordo). 

La tektologia, “scienza generale dell’organizzazione” fu proposta come un metodo universale di analisi che poteva essere applicato in tutte le sfere della conoscenza, comprese le scienze fisiche e biologiche, la sociologia, la cultura e l’economia. Tale approccio uniforme a soggetti diversi, secondo Bogdanov, avrebbe operato contro l’isolamento delle discipline e alla moltiplicazione energeticamente dispendiosa dei metodi impliciti nella specializzazione. Come metascienza di controllo, la tektologia avrebbe inaugurato una ricostruzione cognitiva, liberando una creatività inedita nella soluzione di vecchi problemi, e la concettualizzazione di nuovi modi di interrogare vedere il mondo. Quando il sensazionale successo delle osservazioni da parte di Eddington dell’eclisse nel 1919 stimolò un rinnovato interesse per le teorie di Einstein, Bogdanov non esitò a modellare la relatività generale in termini tektologici.

Nel 1920, il percepito revisionismo di Bogdanov e i suoi litigi con Lenin giunsero a un punto di ebollizione. Lenin pubblicò una nuova edizione di Materialismo ed empiriocriticismo. I primi anni '20 furono un periodo di attacchi mediatici quasi costanti a Bogdanov, anche se egli tentava di ritirarsi dalla vita politica e entrare nell'accademia. Bogdanov fu arrestato nel settembre 1923 con l'accusa di sostenere un gruppo di opposizione chiamato “Verità dei lavoratori”. In ottobre fu rilasciato, ma le riviste disposte a pubblicare i suoi scritti politici e culturali iniziarono a diminuire. La maggior parte dei suoi ultimi lavori apparve solo nel giornale universitario dell'Accademia comunista, dove era professore. 

Bogdanov si rivolse alla sua ultima passione rimasta: la medicina. Era interessato a sperimentare scambi di sangue "reciproci" tra giovani e anziani che potessero essere terapeuticamente rigeneranti. Ciò attirò l'attenzione dei suoi ex colleghi negli strati superiori dello stato sovietico, molti dei quali soffrivano di uno stato endemico di cattiva salute (e persino di morte improvvisa) per quella che i medici del Partito definirono "fatica rivoluzionaria" e che alla fine divenne nota come "esaurimento sovietico". Dopo aver sentito parlare dei primi successi europei nel curare la "stanchezza" con il ringiovanimento del sangue, Stalin nominò Bogdanov direttore dell'Istituto di ematologia e trasfusioni di sangue nel 1926, il primo istituto di questo tipo non solo nell'Unione Sovietica, ma anche nel mondo. Bogdanov sperimentò le sue teorie in gran parte su sé stesso (partecipando undici volte a trasfusioni e scambi di sangue sperimentali all'inizio del 1928) e notò che, dopo molteplici trattamenti, la sua vista era migliorata, la sua calvizie sospesa e gli amici commentarono che sembrava più giovane di dieci anni. 

Nella primavera del 1928, Bogdanov decise di scambiare il sangue con uno studente che soffriva di malaria e tubercolosi nel tentativo di aiutare la sua afflizione. Sebbene lo studente abbia finito per riprendersi completamente dopo lo scambio, Bogdanov subì una reazione trasfusionale emolitica. Due settimane dopo morì all'età di 54 anni. Qualcuno ha parlato di suicidio mascherato. 


Il destino della tektologia si è rivelato tragico come la sua vita. Nella Russia sovietica, dopo le critiche di Lenin, l'empirismo fu oggetto di critiche spietate per quasi un secolo, senza che si facesse il minimo tentativo di capirlo. Solo in tempi più recenti sono stati avviati veri e propri studi e ricerche. 

La comunità scientifica ha riscoperto le idee principali della tektologia, affermando, in particolare, che essa è stata storicamente la prima versione sviluppata della teoria generale dei sistemi e una anticipazione della cibernetica, a causa delle interdipendenze, positive o negative (cicli di feedback), postulate nella teoria. 

È ovvio che l'importanza principale della tektologia di Bogdanov consiste nella creazione delle basi della scienza organizzativa generale. Bogdanov considerava le leggi che regolano l'organizzazione dei complessi (sistemi) identiche per qualsiasi oggetto. Il "complesso" viene trattato non come un semplice insieme di elementi interconnessi, ma piuttosto come un processo di cambiamento nella loro organizzazione derivante dalla connessione strutturale del complesso con il suo ambiente. Nella tektologia, Bogdanov ha definito tipi universali di sistemi e ha analizzato il meccanismo organizzativo di base: la selezione. Quest'ultima può essere positiva o negativa e, completandosi a vicenda, queste due forme organizzano il mondo intero. Bogdanov ha studiato una serie di altri aspetti dello sviluppo organizzativo: la divergenza e la convergenza delle forme, i tipi di crisi sistemiche che sorgono nei processi di organizzazione e disorganizzazione, ecc. Per dirla diversamente, la scienza organizzativa universale di Bogdanov, o tektologia, non solo ha anticipato la cibernetica, la teoria generale dei sistemi e concetti simili, ma ha anche espresso profondamente il principale orientamento metodologico della scienza, della tecnologia e dell'attività pratica del XX secolo.

venerdì 29 luglio 2022

Wilhelm Ostwald e l’Energetica

 


Nella seconda metà dell’Ottocento, le scienze in Russia erano associate ai movimenti progressisti, liberali o socialisti, perché la società (urbana) cercava dei sostitutivi per le idee marcescenti della chiesa ortodossa e dello zarismo. Nessuno avrebbe potuto essere più adatto per questi bisogni sociali e filosofici di Wilhelm Ostwald (1853-1932), famoso in tutto il mondo per essere stato uno dei fondatori della chimica fisica come disciplina, particolarmente per la sua opera pionieristica in elettrochimica, per la posizione di cofondatore (con Arrhenius e van’t Hof) e direttore della prestigiosa rivista
Zeitschrift für physikalische Chemie, e come vincitore del Premio Nobel nel 1909 per le ricerche sui principi fondamentali che governano l'equilibrio chimico e la velocità di reazione. Nel 1900 brevettò un processo di produzione di acido nitrico, utilizzato ancora oggi nell’industria dei fertilizzanti, che sfrutta l'ossidazione dell'ammoniaca in presenza di catalizzatori metallici. Egli introdusse il concetto di mole in chimica. Ostwald formulò la legge delle diluizioni (1888), nota in suo onore come legge di Ostwald (dissociazione elettrolitica). 


Ostwald era un tedesco del Baltico. Era nato a Riga, in Lettonia (allora nell’impero russo), si era laureato nel 1875 a Dorpat (ora Tartu, in Estonia) con Carl Schmidt come relatore, e aveva insegnato al Politecnico di Riga nel dipartimento di Chimica Teorica prima della nomina nel 1887 alla cattedra di Chimica Fisica a Lipsia, dove costruì dal nulla un prestigioso centro di ricerca stimato internazionalmente. I genitori di Ostwald erano tedeschi; suo padre era un mastro bottaio giunto a Riga poco prima della sua nascita, sua madre era figlia di un panettiere. Nonostante la sua origine, tuttavia, Ostwald fu sempre considerato un russo. Sia lui che sua moglie, un’altra tedesca di Riga, leggevano e parlavano il russo. Il suo libro di testo di chimica era utilizzato nelle università russe, dove era molto stimato. Tra il 1888 e il 1913, egli pubblicò una trentina di libri in russo, di cui alcuni molto popolari furono tradotti in numerose altre lingue. 

Fino al 1885 Ostwald condivideva la visione atomica e molecolare. A partire da allora, tuttavia, divenne sempre più convinto che questi concetti erano basati su ipotesi arbitrarie, e che gli stessi risultati sperimentali potevano essere spiegati interamente dalle leggi della termodinamica (conservazione dell’energia, aumento dell’entropia), in quanto si adattavano all’energia e alla sue trasformazioni. A metà degli anni ‘90, Ostwald considerava l’energia come la sola realtà: “Tutto ciò che succede nel mondo non è altro che uno scambio di energia”. Fino alla sua morte Ostwald divulgò una visione monistica, unitaria, della scienza, che comprendeva non solo i vari rami della chimica e della fisica, ma anche biologia, psicologia e sociologia. 

Le idee filosofiche di Ostwald, comparse in diverse pubblicazioni ai primi del Novecento, erano spesso esposte partendo dalla domanda: "Qual è il concetto più universale e completo impiegato in ambito scientifico, quello a cui tutti gli altri concetti possono essere riferiti?", la cui risposta era il concetto di energia. L’energia è il risultato del lavoro, o ciò che può trasformarsi in lavoro. Così, ridotti ai minimi termini, i concetti tradizionali della metafisica, quello di sostanza e quello di causalità, potevano essere più adeguatamente e precisamente espressi come varie manifestazioni del concetto fondamentale di energia. Il concetto di materia, da questo punto di vista, diventava superfluo, poiché l'energia non ha bisogno di alcun substrato per renderla di carattere più elementare, o più comprensibile. A parte le proprietà che possono essere espresse come forme di energia, la materia era per Ostwald una pura astrazione. Con la scomparsa della materia, la più ardua di tutte le difficoltà filosofiche, cioè il passaggio dai fenomeni fisici a quelli psichici, era molto semplificato, perché, sosteneva Ostwald, il concetto di energia è molto più mentale, o spirituale, di quello di materia. Era più facile considerare l'energia psichica come una specie di energia fisica trasformata che pensare alla coordinazione della materia e della mente. L'energia nervosa, in cui l'energia fisica della stimolazione esterna era trasformata dagli organi di senso, sembrava essere più vicina all'energia psichica. Il passaggio a questa energia nervosa centrale, con la caratteristica unica della coscienza, era così sollevato da molte delle sue tradizionali difficoltà. 

Senza dubbio a causa dell’idea di equivalenza tra massa ed energia, Ostwald ammirava e sostenne entusiasticamente l’opera di Einstein sulla relatività speciale, che definì il più importante nuovo concetto dopo la scoperta del principio di energia e che paragonò all’opera di Copernico e Darwin. Fu il primo a proporre Einstein per il premio Nobel, e ripeté il suo nome altre due volte nei dodici anni che precedettero l’effettiva assegnazione dell'onorificenza al fisico di Ulm. 

Come il movimento deve essere considerato come la caratteristica peculiare dell'energia cinetica, anche la coscienza poteva per Ostwald essere considerata come la caratteristica principale dell’energia nel cervello: “Quando arriviamo alle forme più complesse di questa energia centrale, come si manifestano nei fenomeni, per esempio, della volizione, troviamo che l'attività risultante in tutti i casi può essere riferita a qualche causa liberatoria sotto forma di energia nervosa che agisce sull’energia volitiva immagazzinata all'interno del cervello”. Ostwald insisteva sul fatto che non esiste difficoltà a effettuare il passaggio dalle varie forme di energia fisica esterna all'organismo fino all'energia nervosa al suo interno. 

Queste teorie avvicinavano molto le idee di Ostwald a quelle di Ernst Mach e Richard Avenarius (che aveva coniato il termine empiriocriticismo). Secondo l’empiriocriticismo, la filosofia deve procedere come una scienza basata sull’esperienza, criticando ogni tentativo di metafisica e considerando la distinzione tra fenomeno fisico e fenomeno psichico come puramente convenzionale e di carattere pratico. Quella fallace differenza dipende dall'approccio che si ha nei confronti delle sensazioni, che sono gli elementi costitutivi e primitivi dell'esperienza. L'obiettivo era quello di trasformare il positivismo in qualcosa di più raffinato, eliminando le pretese di dare spiegazioni ultime e definitive della realtà, tipica esigenza della metafisica, che genera a sua volta dualismi contrapposti di materialismo e spiritualismo. Base della conoscenza scientifica deve essere dunque considerata la pura e semplice esperienza indifferenziata di fisico e psichico che si origina dal rapporto dell'organismo con l'ambiente e delle connessioni di adattamento ed evoluzione secondo le teorie darwiniane. Tutto deve procedere dalle sensazioni, elementi primi della conoscenza, né interni né esterni, né soggettivi né oggettivi. 

Sul piano sociologico, la società, sosteneva Ostwald, era legata da un “imperativo energetico” per sprecare la minor quantità di energia possibile, e per utilizzare le sue trasformazioni per il beneficio delle comunità. I progressi nella scienza e nella tecnologia, predisse, avrebbero portato inevitabilmente a un’arte nuova ed evoluta. 


L’energia, le leggi di conservazione e l’entropia erano i principi fondamentali delle elaborazioni di Ostwald di una energetica sociale e di una energetica culturale. Nella sua filosofia sociale, l’energia diventava la base dello scambio monetario, e la sua economia la misura morale di qualsiasi azione. Essa divenne lo standard di un’etica razionale e la base di una religione laica universale (egli era anche massone). 

C’è da dire che queste speculazioni non ebbero un grande riscontro internazionale, e i suoi articoli “energetici” sulle riviste scientifiche come Nature ebbero numerose critiche. L’Energetica ebbe successo soprattutto in Russia, dove il clima culturale tra gli oppositori dello zarismo era pronto ad accogliere questo tipo di idee. 

Negli ultimi trent’anni della sua vita, Ostwald si dedicò interamente all’elaborazione dell’energetica, alla metodologia e organizzazione delle scienze, alla propaganda delle lingue universali come l’esperanto, all’eugenetica (una passione di quegli anni), all’internazionalismo e al pacifismo. Dopo il suo ritiro dal mondo accademico (1906), Ostwald, che era un discreto pittore amatoriale, si interessò alla sistematizzazione dei colori, che avrebbe potuto essere utile sia scientificamente sia nelle arti. Ancora una volta applicò l'approccio multilivello caratteristico dei suoi primi lavori. Sviluppò strumenti per misurare i colori, elaborò una sofisticata classificazione dei colori al fine di derivare leggi matematiche dell'armonia, produsse campioni nel suo laboratorio chimico, fondò una fabbrica di scatole di colori, scrisse diversi libri sulla teoria del colore e la sua storia, e fu attivo in riforme dell'educazione artistica. Egli rappresentò i colori in una struttura tridimensionale, un solido costituito da due coni. Un apice del cono è bianco puro mentre l'altro è nero puro. Gli otto colori primari sono rappresentati lungo i lati dei due coni. In questa rappresentazione, ogni colore è una miscela di bianco, nero e degli otto colori primari. Gran parte del lavoro di Ostwald sui colori fu svolto in collaborazione con la Deutscher Werkbund, un'associazione di pittori e architetti. Le teorie di Ostwald sui colori influenzarono la Bauhaus e le avanguardie russe, soprattutto subito dopo la Rivoluzione del 1917. 


Dopo un breve periodo di sofferenza per problemi alla vescica e alla prostata, nel 1932 Ostwald morì in un ospedale presso Lipsia e fu sepolto nella sua tenuta privata.

giovedì 21 luglio 2022

La macchina di Atwood

 


George Atwood (1745-1807) era il primo figlio del curato della parrocchia di St. Clement Danes, a Westminster. Dopo aver frequentato la Westminster School, a partire dal 1759, entrò al
Trinity College di Cambridge nel 1765 come pensionante (cioè si pagava da solo il mantenimento), ma gli fu poi concessa una borsa di studio l’anno successivo. Si laureò con un baccalaureato nel 1769, e conseguì il dottorato nel 1772. Nel 1773, divenne esercitatore. Le sue lezioni erano molto seguite, grazie alle spettacolari dimostrazioni sperimentali. Pubblicò le descrizioni delle sue dimostrazioni nel 1776, anno in cui fu eletto Fellow della Royal Society

Atwood è ora conosciuto soprattutto per un libro di testo sulla meccanica newtoniana, A Treatise on the Rectilinear Motion and Rotation of Bodies, pubblicato nel 1784, dove descrive in dettaglio una macchina per esperimenti ora conosciuta come macchina di Atwood. Nello stesso anno pubblicò anche una seconda opera, An Analysis of a Course of Lectures on the Principles of Natural Philosophy, che è una versione ampliata del suo corso a Cambridge. 

La maggior parte delle altre opere pubblicate da Atwood consiste nella trattazione matematica di problemi pratici. Una menzione meritano i suoi lavori sulla stabilità delle navi, dove estese le teorie esistenti per rendere conto della stabilità dei corpi galleggianti con ampio angolo di rollio, e per i quali, nel 1796, fu insignito della Medaglia Copley della Royal Society. Atwood morì nel luglio 1807 e fu sepolto nella chiesa di St. Margaret a Westminster, dove suo fratello minore Thomas era succeduto al padre come curato.

Il nome di Atwood è quasi interamente legato alla macchina dinamica da lui inventata tra il 1776 e il 1779. Il suo scopo, secondo i testi apparsi dalla fine del ‘700 fino a tempi recenti, era quello di condurre esperimenti che dimostrassero le leggi dei moti rettilinei (e rotazionali) dei corpi, con particolare riferimento ai moti regolati dalla gravità.  Tale scopo della macchina di Atwood si affermò solo dopo il generale accoglimento della meccanica newtoniana, ma nella Cambridge degli anni Settanta e Ottanta del Settecento servì proprio a realizzare definitivamente tale risultato davanti a giovani studenti e studiosi che in seguito diffusero il paradigma newtoniano. 

I dispositivi dimostrativi, che andavano dai planetari e i globi astronomici alle tavole con le quali si insegnavano i principi della meccanica, costituivano il corredo essenziale per i fabbricanti di strumenti di filosofia naturale nella Gran Bretagna di fine Settecento. Questi strumenti erano utilizzati in conferenze e lezioni pubbliche, che diventavano veri spettacoli per coinvolgere il pubblico utilizzando stratagemmi per mostrare le dottrine sulla natura. Ad esempio, le pulegge e i pesi in caduta coinvolti negli strumenti della meccanica newtoniana erano progettati ingegnosamente per minimizzare l'attrito e distinguere l'inerzia dalla gravità. Lo scopo della dimostrazione era di far sembrare inevitabile e credibile una certa interpretazione dei fenomeni naturali. Ciò richiedeva da parte del dimostratore un lungo allenamento, che a sua volta necessitava di essere attentamente gestito per non dirigere l’attenzione solamente sulla macchina utilizzata per la dimostrazione. Così essa richiedeva tattiche per rendere naturali i gesti e un po’ di doti teatrali. 

Newton aveva scritto che il fatto cruciale che tutta la materia gravita in proporzione alla sua massa “si può dimostrare solo con gli esperimenti”. Le macchine per gli esperimenti erano progettate proprio per dimostrare queste idee. Atwood sostenne che la sua macchina era uno strumento che poteva davvero produrre tali certezze, e non semplicemente un dispositivo per dimostrare principi che gli studenti potevano già aver compreso sul piano teorico. La sfida degli esercitatori e dei divulgatori newtoniani consisteva anche nel fatto che non potevano permettersi di opporre dogmatismo a dogmatismo: le loro dimostrazioni dovevano convincere. 

La macchina è descritta nel Trattato di Atwood del 1784, ma la sua diffusione fuori dall'Inghilterra risale già alla fine degli anni '70 del Settecento.  Essa è costituita solo da due cilindri bilanciati collegati da una corda di seta sospesa (considerata inestensibile e priva di peso) su una puleggia, dove possono essere attaccati (e rimossi) pesi aggiuntivi a uno dei due cilindri in modo da fornire una (o nessuna) forza che agisce sul sistema. Il grande merito del filosofo naturale inglese è quello di aver trasformato una normale puleggia in un dispositivo capace di eseguire esperimenti e dimostrazioni raffinate, adatti a essere trattati con gli strumenti dell’analisi matematica. 

È abbastanza istruttivo seguire da vicino come Atwood abbia ideato la sua macchina ingegnosa, partendo dalle sue prime considerazioni sul problema classico della sperimentazione sulla caduta libera dei corpi. 

"Il metodo più ovvio sarebbe quello di osservare l'effettiva discesa di un corpo pesante, mentre cade verso terra per la sua naturale gravità: ma in questo caso è evidente che, a causa della grande velocità generata in pochi secondi di tempo, l'altezza dalla quale cade il corpo osservato deve essere considerevole.  […] Se per rimediare a questo inconveniente si fanno scendere dei corpi lungo piani inclinati, secondo gli esperimenti del celebre autore [Galileo] di questa teoria, variando la proporzione dell'altezza del piano alle loro lunghezze, la forza dell'accelerazione può essere diminuita in qualsiasi rapporto, in modo che i corpi discendenti si muovano sufficientemente lenti da permettere che i tempi di movimento dalla quiete siano accuratamente osservati;  e gli effetti della resistenza dell'aria a corpi che si muovono con queste piccole velocità saranno assolutamente trascurabili: la principale difficoltà però che qui si verifica, deriva dalla rotazione dei corpi discendenti, che non può essere impedita senza aumentare il loro attrito ben oltre quanto l'esperimento consenta" (pp.295-6). 

In particolare, qui la "difficoltà principale" sta nel fatto che l'accelerazione di un corpo rotante mentre scende lungo un piano inclinato è ridotta rispetto al caso in cui la rotazione non si verifica, quando la gravità è l'unica causa di tale effetto.  Il problema previsto da Atwood non è la considerazione dell'effetto di rotazione (conosceva i corretti fattori di riduzione: 5/7 per una sfera e 2/3 per un cilindro), ma semplicemente la sovrapposizione di due effetti (rotazione e gravità) che avrebbero potuto causare una non univoca accettazione del paradigma newtoniano.   

"Non ci sono mezzi per separare la massa mossa dalla forza in movimento; non possiamo quindi applicare forze diverse per muovere la stessa quantità di materia su un dato piano, né la stessa forza a quantità diverse di materia.  Inoltre, essendo la forza accelerante costante e inseparabile dal corpo mosso, la sua velocità sarà continuamente accelerata, in modo da rendere impossibile l'osservazione della velocità acquisita in un dato istante" (p.298). 

Il primo problema è che, con un piano inclinato, non è possibile studiare la dipendenza della forza che agisce sul corpo dalla sua massa, dimostrando così la seconda legge del moto di Newton. Il secondo problema sperimentale più complesso è invece l'impossibilità di misurare la velocità del corpo in un qualsiasi istante di tempo desiderato, poiché cambia continuamente, e quindi l'impossibilità di provare la legge del tempo per la velocità nel moto uniformemente accelerato. 

Qual era, allora, l'obiettivo di Atwood?  I termini del problema sono ben delineati: come è possibile congegnare una serie di esperimenti con un'unica macchina con cui si affrontano forza, massa, velocità, distanze e tempi?  Senza precedenti suggerimenti di altri autori, Atwood concentra la sua attenzione sulle pulegge, già conosciute da molti secoli.  Ma qui il cambio di prospettiva è cruciale: un dispositivo convenzionale impiegato in statica come una semplice macchina si trasforma nelle mani di Atwood in un dispositivo dinamicamente ridimensionato con cura, in grado di essere sottoposto ad analisi matematica per l'illustrazione del pensiero newtoniano. In questa luce, infatti, si può dare un'interpretazione coerente ad una serie di problemi cinematici e dinamici - solo esercizi teorici, non direttamente collegati alla sua macchina - che compaiono nel Trattato, la maggior parte dei quali non sono affatto considerati nei successivi libri di testo sul dispositivo. 

"Nello strumento costruito per illustrare sperimentalmente questo argomento, A, B rappresentano due pesi uguali fissati alle estremità di un filo di seta molto sottile e flessibile: questo filo è teso su una ruota o puleggia fissa abcd, mobile attorno ad un asse orizzontale: i due pesi A, B sono esattamente uguali e agendo l'uno contro l'altro, restano in equilibrio; e quando il minimo peso viene aggiunto a uno dei due (mettendo da parte gli effetti dell'attrito) prevarrà" (p. 299). 


I problemi generali sopra previsti (tempi di caduta troppo brevi - in caduta libera o su un piano inclinato - richiedono distanze molto grandi percorse dal corpo in caduta, sul quale agisce però una forza di attrito non trascurabile, e il corpo raggiunge anche velocità troppo grandi in prossimità  della fine del suo moto) scompaiono subito: un piccolo squilibrio di massa induce piccole accelerazioni e velocità, impedendo così inutili grandi altezze di caduta e, quindi, trascurando l'azione della resistenza dell'aria.  Ma l'obiettivo di Atwood è una precisa conferma delle leggi di Newton, e se la realizzazione di pesi accuratamente bilanciati, oltre che di piccoli pesi aggiuntivi rimovibili, è lasciata all'arte di abili artigiani, il possibile attrito sviluppato dall'asse della puleggia merita un’appropriata considerazione.

"Quando l'asse è orizzontale è assolutamente necessario che sia appoggiato su ruote di attrito, le quali diminuiscono molto, o impediscono del tutto, la perdita di moto che sarebbe causata dall'attrito dell'asse, se ruotasse su una superficie immobile"

Un tale meccanismo, introdotto in precedenza probabilmente dall'orologiaio francese Henry Sully, fu installato da Atwood sulla sommità della colonna cilindrica della sua macchina, sulla quale è montato anche un orologio a peso per effettuare misurazioni del tempo, mentre un righello con "una scala di circa 64 pollici di lunghezza graduata in pollici e decimi di pollice" è aggiunto su un'altra colonna verticale per consentire la misurazione delle distanze percorse dai corpi sospesi sulla corda.  L'assemblaggio con le ruote è, curiosamente, un pezzo rimovibile della macchina: Atwood stava, infatti, creando un dispositivo in grado di studiare i movimenti rettilinei e la rotazione dei corpi, a cui è dedicata quasi la metà del suo Trattato.  Il riconoscimento di questa importante seconda parte della meccanica andrà perso nelle successive descrizioni della macchina di Atwood (e le successive copie della macchina stessa non mostreranno più l’ingranaggio rimovibile con le ruote di frizione) ma non dovrebbe cadere nell'oblio il fatto che In origine Atwood mirava a concepire una macchina "universale" adatta allo studio del moto sia rettilineo sia rotatorio. 

Ciò è chiaramente testimoniato da una serie di interessanti esperimenti, proposti nel suo Trattato, da realizzare con l'ausilio di ulteriori accessori.  Tuttavia, mentre la parte principale della macchina "fu eseguita con grande perizia meccanica, in parte dal signor L. Martin, e in parte dal signor G. Adams, costruttori di strumenti matematici a Londra", tali accessori non furono mai realizzati, probabilmente per il mutamento degli interessi dell’autore.  Pertanto, la macchina di Atwood è stata successivamente associata solo agli studi sul moto rettilineo sotto l'azione di una forza costante. 


In che modo Atwood ha ottenuto un'illustrazione soddisfacente del paradigma newtoniano con la sua macchina?  Il primo passo è, ovviamente, riprodurre la legge di proporzionalità di Galilei tra le distanze percorse
s e il quadrato del tempo trascorso t nel moto uniformemente accelerato: s ∝ t2.  Sotto “l'azione della forza costante m" (m, qui la forza mobile netta, corrisponde al peso di 1/4 di oncia di materia; è considerata una quantità standard negli esperimenti di Atwood), 

"Se i tempi di movimento sono 1 secondo, 2 secondi e 3 secondi, gli spazi descritti da fermo dal peso discendente A in quei tempi saranno rispettivamente 3 pollici, 3×4 = 12 pollici e 3×9 = 27 pollici; gli spazi descritti essendo in un rapporto duplicato dei tempi di moto" (p. 318). 

Il secondo passo è studiare la dipendenza di s dall'accelerazione a del corpo discendente, qui ottenuta, in unità del valore di caduta libera g, dal rapporto tra la massa instabile e la massa totale dei corpi sulla puleggia (in termini moderni, a/g = ∆m/mtot):   

"Risulta da questi esperimenti, che quando i tempi sono gli stessi, gli spazi descritti dal riposo sono come la forza di accelerazione" (p. 320) (“forza di accelerazione” significa qui accelerazione).  Vale a dire, s ∝ a.  Cos'altro sull'equazione del moto per quanto riguarda la distanza percorsa?  Ovviamente, che a ∝ 1/t2

"L'ultima parte dell'esperimento mostra che se lo spazio descritto rimane lo stesso, mentre la descrizione del tempo è diminuita, la forza di accelerazione deve essere aumentata in una proporzione duplicata della diminuzione dei tempi" (p. 321). 

Da questi esperimenti, quindi, è completamente derivata la legge del tempo che, in termini moderni, scriviamo come s = 1/2 at2

Atwood considera poi esperimenti idonei ad ottenere la legge della velocità, la cui misura con la macchina è particolarmente interessante. Supponiamo infatti con Atwood che la velocità istantanea del corpo discendente sia richiesta quando passa ad una certa altezza. Quindi, a tale altezza viene posizionato un anello sulla colonna con il righello, il cui anello è progettato per rimuovere la massa aggiuntiva e sbilanciata (la cui lunghezza supera il diametro dell'anello) consentendo il passaggio del corpo principale su cui è apposto.  In tal modo, e d'ora in poi, la puleggia è completamente equilibrata, ed i due corpi continuano a muoversi con velocità costante, il cui valore è facilmente ricavabile dal rapporto della distanza percorsa in un dato tempo.  Con questo trucco, la legge per la velocità può essere verificata sperimentalmente anche applicando una forza costante al corpo, e il primo risultato che si ottiene è la proporzionalità tra la velocità istantanea e il tempo trascorso: v∝t

"Durante i diversi tempi di 1 secondo, 2 secondi, 3 secondi, ecc. le velocità generate saranno rispettivamente di 6 pollici, 12 pollici e 18 pollici in un secondo, essendo nella stessa proporzione con i tempi in cui agisce la forza data" (pag. 324). 

Pertanto: 

"Sembra quindi che se forze diverse accelerano lo stesso corpo dalla quiete durante un dato tempo, le velocità generate saranno nella stessa proporzione con queste forze". (“forze”, è bene ribadirlo, significa “forze acceleranti” o, semplicemente, accelerazione), cioè v ∝ a, in un tempo costante.  Infine, come sopra, la legge completa v = at si ottiene mediante le proporzioni: 

"Se i corpi sono azionati da forze di accelerazione, che sono nella proporzione di 3:4, e per tempi, che sono come 1:2, le velocità acquisite saranno nel rapporto di 1 × 3 a 2 × 4, o come 3 a 8" (pag. 326).

Vengono poi descritti altri due esperimenti per dimostrare che, per corpi accelerati attraverso lo stesso spazio s, allora v∝√a (p. 327) e, viceversa, sotto l'azione della stessa accelerazione a, v∝ √s (p. 328).  Vale a dire, in termini moderni, v = √2as

Infine, e soprattutto, "la forza in movimento deve essere nello stesso rapporto delle quantità di materia spostate", che è la seconda legge della dinamica di Newton. Gli esperimenti per illustrare questa conclusione possono essere compresi nella tabella. 


Dalle prime tre colonne risulta evidente che la “forza mobile” è uguale al prodotto della “quantità di materia mossa” per la “forza accelerante”, o, nelle notazioni moderne, F = ma.   

L'accuratezza delle conclusioni raggiunte da Atwood dipende ovviamente dalla sensibilità della sua macchina e da eventuali errori sistematici legati principalmente all'attrito e alla prontezza dello sperimentatore per le misurazioni del tempo. Quest'ultimo punto è stato considerato solo a grandi linee da Atwood, che ha appena avvertito possibili altri sperimentatori di allenarsi con l'attivazione "simultanea" dell'orologio a pendolo con la partenza del corpo discendente. Questa è evidentemente la principale fonte di imprecisione. Il problema dell'attrito, inclusa la resistenza dell'aria, era già stato affrontato, ma vale la pena ricordare il fatto che Atwood non si era limitato ad affermare semplicemente che “gli effetti dell'attrito sono quasi del tutto rimossi dalle ruote di attrito” (p. 316), anzi, aveva quantificato tale affermazione facendo un esperimento preliminare: 

"Se i pesi A e B sono messi in perfetto equilibrio, e l'intera massa consiste di 63 m, secondo l'esempio già descritto, un peso di 11 grani, o al limite 2 grani, aggiungendo 2 ad A o B, comunicherà il movimento al tutto, il che mostra che gli effetti dell'attrito non saranno così grandi come un peso di 11 o 2 grani" (p. 316). 

Si noti che una massa di 1 m corrispondeva a ¼ di oncia, mentre 480 grani rappresentavano 10 once (e quindi 2 grani ≃ 1/240 oz), quindi la sensibilità della puleggia era estremamente alta.  Con il suo dispositivo, Atwood è stato quindi in grado di misurare accelerazioni fino a 1/64 del valore di caduta libera, una precisione senza precedenti in tali studi. Questo fatto fu anche il motivo della successiva fortuna della macchina di Atwood in tutta Europa.


La diffusione della macchina di Atwood fuori dall'Inghilterra avvenne ben prima della comparsa del
Trattato, dove veniva descritta insieme agli esperimenti da eseguire con essa.  Infatti, alcuni studiosi che ebbero l'opportunità di assistere alle dimostrazioni di Atwood a Cambridge alla fine degli anni Settanta del Settecento, intuirono subito l'importanza della macchina e ne diffusero la notizia, anche sottoscrivendo l'acquisizione di sue copie. Fu così il portoghese Magallanes il primo a pubblicare (nel 1780) un opuscolo in cui veniva ampiamente descritta la macchina, insieme a una serie di esperimenti sul moto uniforme e accelerato, sotto forma di lettera indirizzata a Volta a Pavia.  L’italiano Giuseppe Saverio Poli riportò (nel 1781) per la prima volta un'illustrazione della nuova macchina, realizzata sulla copia commissionata al liutaio Ramsden, in una pubblicazione dove sono descritti anche alcuni esperimenti. 

Il modello prodotto da Ramsden (il secondo mai realizzato, compreso quello originale di Atwood) introdusse un dispositivo aggiuntivo, suggerito da Poli, per innescare l'attivazione simultanea dell'orologio a pendolo e l'inizio della massa discendente.  Chiaramente finalizzata ad un miglior funzionamento della macchina e, di conseguenza, ad una riduzione degli errori di misura, questa leva aggiuntiva fu sempre inclusa nelle copie successive nel corso del XIX secolo, a prescindere dalla “semplificazione” della macchina di Atwood (il gruppo asportabile di cinque ruote di frizione fu sostituito da un gruppo fisso di ruote o anche solo una semplice puleggia). 

Tali modifiche avvenute sono emblematiche del diverso uso che se ne faceva.  Una volta che la meccanica di Newton fu definitivamente accettata nei corsi accademici come l'unica teoria del moto possibile, la macchina di Atwood non servì più come dispositivo di dimostrazione del successo del paradigma newtoniano.  Il suo uso cambiò di conseguenza e divenne uno strumento didattico che consentiva diversi esperimenti illustrativi sulla caduta dei corpi, o anche solo sul moto uniforme o uniformemente accelerato (ma anche su altri fenomeni come la legge di Stokes).  

Riferimento principale: 

Salvatore Esposito, Edvige Schettino, Spreading scientific philosophies with instruments: the case of Atwood’s machine, arXiv:1204.2984v1 [physics.hist-ph], 13 April 2012

venerdì 15 luglio 2022

Duminil-Copin e la matematica delle transizioni di fase

 


Hugo Duminil-Copin, matematico francese dell'Università di Ginevra, ha vinto quest'anno una delle quattro medaglie Fields al Congresso internazionale dei matematici. La Medaglia Fields è uno dei più prestigiosi premi in matematica. Viene assegnato ogni quattro anni "per riconoscere eccezionali risultati matematici per il lavoro esistente e per la promessa di risultati futuri". Duminil-Copin è stato premiato per il lavoro che ha trasformato la teoria matematica delle transizioni di fase.  

Le transizioni di fase possono essere definite come un brusco cambiamento di una o più proprietà fisiche di un materiale, in seguito a una variazione dei parametri fisici esterni. Sono pressoché onnipresenti in natura e rappresentano uno dei soggetti più importanti della fisica statistica e della termodinamica. L’esempio tipicamente utilizzato per illustrare questo fenomeno è il passaggio tra i diversi stati di aggregazione della materia, che si studia già alla scuola primaria facendo l’esempio dell’acqua, che, a pressione atmosferica costante, si trasforma in ghiaccio solido quando la temperatura scende sotto 0°C, oppure in vapore quando si superano i 100°C. Una transizione di fase si ha quando un sistema costituito da molte particelle, come un insieme di milioni di molecole d'acqua, subisce un drastico cambiamento di comportamento poiché alcuni parametri, in questo caso la temperatura, supera, o scende al di sotto, di un certo punto critico

Naturalmente, oltre a questo esempio, molte altre transizioni di fase sono state osservate e studiate. Una transizione di fase era stata studiata sperimentalmente da Pierre Curie per la sua tesi di dottorato del 1895. Una barra di ferro magnetizzata da un campo esterno mantiene la sua magnetizzazione se e solo se la temperatura T è sufficientemente bassa, o più specificamente T ≤ Tc, per una temperatura critica Tc ora chiamata punto di Curie (nel caso del ferro, abbiamo Tc ≈ 770°C.). 


1. Comportamento della magnetizzazione m in funzione del campo magnetico esterno h, nel caso T>Tc (blu) e T<T (rosso) 

In alcuni metalli i momenti magnetici tendono ad allinearsi spontaneamente in una direzione. Questa proprietà̀, detta ferromagnetica, va ricercata nel comportamento cooperativo degli spin dei loro atomi: un numero considerevole dei loro elettroni si “orienta” nella medesima direzione dando al metallo il carattere magnetico, definito dalla  magnetizzazione.  

Aumentando la temperatura osserviamo però che la loro attrazione magnetica improvvisamente sembra venir meno. L’agitazione termica impedisce agli spin di concorrere tra loro, perciò̀ il loro allineamento diventa aleatorio. Di conseguenza, nell’istante in cui viene raggiunta la temperatura di Curie, il metallo perde in modo brusco la magnetizzazione. Questo fenomeno è noto come transizione di fase ferromagnetica-paramagnetica.  

Formalmente, è possibile identificare la presenza di una transizione di fase quando è possibile individuare una singolarità nell’energia libera, cioè della quantità di lavoro macroscopico che il sistema può compiere sull'ambiente, o in almeno una delle sue derivate. Una prima classificazione, introdotta dal grande fisico austriaco naturalizzato olandese Paul Ehrenfest, definiva come transizioni del primo ordine quelle in cui l’energia libera ha una discontinuità finita in una delle sue derivate prime, del secondo ordine quelle in cui la discontinuità si presenta nelle derivate seconde, e così via. Nello schema di Ehrenfest potrebbero esserci, in principio, transizioni di fase del terzo ordine, del quarto, e così via. Questo modello era tuttavia inesatto, in quanto non considera il caso nel quale una derivata tenda a infinito. 

La classificazione moderna adotta un approccio diverso, distinguendo due categorie di transizioni: quelle del primo ordine e quelle continue. Le transizioni di fase del primo ordine includono tutte quelle transizioni che coinvolgono un calore latente (quantità di energia scambiata sotto forma di calore durante la transizione) non nullo. In questa tipologia tutte le quantità termodinamiche (energia interna, entropia, entalpia, ecc.) mostrano una discontinuità, mentre la lunghezza di correlazione, cioè l’intervallo nel quale le fluttuazioni in una regione di spazio risultano influenzate da quelle in un’altra regione, risulta finita. Esempi di questa tipologia possono essere le transizioni liquido-gas e solido-liquido. Poiché l'energia non può essere istantaneamente trasferita dal sistema all'ambiente circostante, le transizioni del primo ordine sono associate a "regimi di fase mista" in cui alcune parti del sistema hanno completato la transizione, mentre altre ancora no. Questo fenomeno è familiare a chiunque abbia mai bollito un po' d'acqua: l'acqua non diventa subito vapore, ma forma una turbolenta mistura di acqua e vapore acqueo. I sistemi a fase mista, a causa della loro dinamica violenta, sono difficili da studiare. Comunque, molte importanti transizioni sono incluse in questa categoria. 

La seconda categoria è detta delle transizioni continue: in questa tipologia non è presente una discontinuità nelle grandezze termodinamiche, ma le loro derivate risultano discontinue (le grandezze stesse risultano quindi non analitiche) e la lunghezza di correlazione diverge nelle vicinanze del punto critico. Esempi di questo genere di transizione sono quelle tra ferromagneti e paramagneti e quelle associate ai fenomeni della superfluidità e della superconduttività. 

Nel 1937 il russo Lev Davidovič Landau, essendosi accorto del cambiamento (rottura) di simmetria del sistema quando avviene una transizione di questo tipo, introdusse il concetto di parametro d’ordine, ossia una grandezza che è nulla quando il sistema è nella fase ad alta temperatura (fase disordinata e con maggior simmetria) e diversa da zero quando il sistema è nella fase a bassa temperatura (fase ordinata con minor simmetria). Si tratta di una grandezza fisica che rappresenta la principale differenza qualitativa tra le due fasi, e può essere legata alle variazioni delle simmetrie che il sistema presenta nelle due fasi. Per le transizioni di primo ordine, il parametro d’ordine varia in modo discontinuo, mentre per la seconda tipologia varia in modo continuo (e tipicamente assume valore nullo in una fase e diverso da zero nell’altra). Nell’esempio dell’acqua, il parametro d’ordine è la differenza di densità̀ tra la fase liquida e quella gassosa ρl − ρg , che in effetti si annulla al punto critico. Nel caso ferromagnetico invece il parametro d’ordine è la magnetizzazione, che, come abbiamo visto, è nulla oltre la temperatura di Curie. A livello macroscopico osserviamo la comparsa spontanea della magnetizzazione quando il sistema raggiunge temperature inferiori a Tc. Nelle transizioni di fase continue il passaggio da una conformazione ordinata a una disordinata è detto rottura spontanea di simmetria

Ciò che fanno i matematici e i fisici statistici è cercare di capire come si verificano queste transizioni di fase realizzando un modello matematico del fenomeno fisico. Un esempio di tale modello è l'utilizzo di un reticolo regolare per descrivere la disposizione del sistema che si vuole capire. In realtà, non ci sono veri e propri vincoli sulla posizione delle molecole nell'acqua liquida: esse non giacciono regolarmente nello spazio in un modo che si potrebbe realisticamente descrivere usando i punti su un reticolo. Ma per studiare questo sistema è spesso più semplice immaginare che le molecole siano regolarmente posizionate in questo modo. 

Sebbene un tale presupposto sia profondamente irrealistico, per Duminil-Copin studiare il sistema in questo modo consente di spiegare i fenomeni che si stanno effettivamente verificando. Si tratta di qualcosa legato a un fenomeno molto profondo, l'universalità. L'universalità è una predizione della teoria del gruppo di rinormalizzazione (una variazione dei parametri che permette di studiare i cambiamenti di un sistema multiscala alle differenti scale di distanza). Essa stabilisce che le proprietà termodinamiche di un sistema vicino alla transizione di fase dipendono solo da un piccolo numero di caratteristiche, come la dimensionalità e la simmetria, e che la transizione è insensibile alle proprietà microscopiche del sistema. Quindi, l'analisi delle caratteristiche di scala di sistemi anche molto differenti fra loro può essere descritta da un'unica teoria (detta per l'appunto universale). In meccanica statistica, una classe di universalità è un insieme di modelli matematici che condividono uno stesso limite invariante di scala sotto l'applicazione del gruppo di rinormalizzazione. Sebbene i modelli all'interno di una stessa classe possano differire notevolmente a scale finite, il loro comportamento diventerà sempre più simile man mano che ci si avvicina alla scala limite. In particolare, i fenomeni asintotici come gli esponenti critici saranno gli stessi per tutti i modelli della classe. Tra le classi di universalità ben studiate ci sono quelle che contengono il “modello di Ising” o il “modello della percolazione” nei rispettivi punti di transizione di fase; sono entrambe famiglie di classi, una per ogni dimensione del reticolo.  

Il modello di Ising (dal nome del fisico Ernst Ising che lo ideò negli anni ‘20 del Novecento) è un modello fisico-matematico studiato in meccanica statistica. Inizialmente è stato concepito per descrivere la transizione dal ferromagnetismo a paramagnetismo quando la temperatura cresce al di sopra della temperatura Curie. Il modello di Ising considera variabili discrete (con valori possibili opposti) chiamate spin (momento magnetico elementare). Gli spin interagiscono in coppie tramite interazioni che sono in genere limitate ai primi vicini. Il ferromagnetismo deriva quindi dal prevalere dell'allineamento degli spin a causa del termine di interazione, mentre il paramagnetismo è dovuto al prevalere delle fluttuazioni termiche. Considerate le ipotesi molto generali sulle interazioni, tale modello rappresenta il paradigma per la descrizione di fenomeni collettivi in numerosi ambiti, costituendo quindi un'importante classe di universalità. 


2. Una rappresentazione del modello di Ising sul reticolo quadrato. Ogni vertice rappresenta una particella che ha una carica con spin σi modellato come polo nord o polo sud.  La probabilità di una configurazione dipende dal numero di coppie più vicine con poli simili. 

La percolazione è il lento passaggio di un liquido attraverso un solido filtrante con percorso diramato, simile alla discesa in profondità delle acque piovane attraverso rocce permeabili. La teoria della percolazione è un concetto probabilistico che risale al 1957 con una pubblicazione dei matematici Broadbent e Hammersley, i quali la proposero come modello per descrivere in modo statistico le connessioni a lunga distanza di sistemi contenenti numerosi oggetti, collegati tra loro da relazioni aleatorie a corta distanza; in particolare essa studia la formazione di aggregati di tali oggetti (chiamati cluster) e la loro geometria. Su di esso si basa la moderna teoria della percolazione. Il modello originario assimila la percolazione al passaggio di un fluido attraverso un mezzo poroso rappresentato da un reticolo cubico. Il passaggio del fluido è modellato come un fenomeno aleatorio.  

3. Simulazione della percolazione del legame in Z2 in cui ciascun bordo è designato "aperto" con probabilità con p = 0,51. Questo processo è a malapena supercritico (da Wikipedia). 

Consideriamo un insieme di elementi, conduttori o isolanti, scelti a caso, connessi tra loro a formare un reticolo (per es., un recipiente pieno di palline, alcune di vetro, altre di metallo). Ci sarà conduzione da una parte all'altra soltanto se si realizza un circuito, vale a dire se esiste un cammino continuo di elementi conduttori tra le due parti. Si possono anche avere esclusivamente elementi conduttori, ma con connessioni variabili che in alcuni casi consentano il passaggio di corrente e in altri no (ad es., un mucchio di aghi gettati su un tavolo). La conduttività dipenderà dal numero e dalla resistenza dei cammini conduttori. Situazioni analoghe abbondano in molti contesti: per esempio, nei solidi potenzialmente magnetici, i nodi del circuito potrebbero rappresentare atomi, alcuni dei quali con momento magnetico e gli elementi conduttori realizzano interazioni che cercano di orientare i momenti magnetici parallelamente l'uno rispetto all'altro; in questo caso, l'analogo della percolazione è l'apparire di un ordine magnetico macroscopico spontaneo. 

Uno dei motivi fondamentali dell'interesse che i fisici hanno per tali sistemi sta nel fatto che la transizione dalla fase non percolante a quella percolante mostra un comportamento critico, una soglia che si può calcolare in termini di probabilità. 

Questo semplice modello si è dimostrato utile in una vasta gamma di applicazioni nei più diversi campi, che fossero riconducibili a un sistema macroscopico globalmente connesso ma le cui connessioni sono realizzate a livello microscopico in modo aleatorio. La teoria della percolazione studia le proprietà di connessione di grafi aleatori che modellizzano il percorso casuale di una particella in un reticolo. 

Questi due modelli (Ising e percolazione) coesistono all'interno di una vasta famiglia di modelli per il disordine nei sistemi fisici.  Ogni modello possiede una transizione di fase e le sfide principali risiedono nella comprensione della natura di questa transizione. La matematica di tali sistemi è ramificata, altamente tecnica e molto complessa. Molti problemi significativi sono stati superati e molti rimangono.   

I primi lavori di Duminil-Copin si basavano in gran parte sull'idea che i sistemi critici in due dimensioni sono invarianti rispetto alle cosiddette mappe conformi; che sono le mappature composte da dilatazioni e rotazioni locali. Questo argomento ha visto un'esplosione di progressi negli ultimi vent'anni, a partire dall'introduzione da parte di Oded Schramm di una famiglia di curve planari casuali chiamate SLE (Stochastic Loewner Evolution). Mentre era ancora ventenne, Duminil-Copin ha dato diversi contributi fondamentali, comprese rigorose derivazioni di probabilità critiche a lungo ipotizzate e costanti connettive. 

L'ipotesi di universalità afferma in tali contesti che la natura di una transizione di fase dipende solo dal tipo di modello e dal numero di dimensioni; quindi, ad esempio, ci si aspetta che le transizioni di fase della percolazione sui reticoli quadrati e triangolari siano di tipo simile.  Duminil-Copin ha ampliato i suoi interessi di ricerca allo studio dell'universalità nella fisica statistica, dove ha ottenuto una serie di risultati eccezionali, comprese le relazioni di scala per alcuni modelli di cluster casuali che incorporano sia i modelli di Ising sia quelli di percolazione, insieme a proprietà frattali di transizioni di fase continue. 

Andando oltre le due dimensioni, Duminil-Copin ha ideato nuovi metodi per risolvere una serie di problemi classici da tempo aperti e noti in fenomeni critici, tra cui: (a) la continuità della transizione di fase del modello tridimensionale di Ising, (b) la 'banalità' dei limiti di scala del modello di Ising in quattro dimensioni e (c) la nettezza della transizione di fase per un certo numero di modelli stocastici in dimensione arbitraria.   

Il matematico ha anche fatto molti progressi significativi e universali nella teoria delle fasi non critiche di numerosi modelli importanti di fisica statistica. Tra di essi il modello a cluster casuale, introdotto da Fortuin e Kasteleyn intorno al 1970 come unificazione di reti elettriche, percolazione e modello di Ising.  Esso è diventato un punto focale di unificazione nelle teorie di questi temi. È stato a lungo ipotizzato che il punto critico del modello a cluster casuale sul reticolo quadrato con peso del cluster q sia il punto: 


Il caso
q = 1 è un noto risultato di Harris e Kesten (1980) per la percolazione, e il caso q = 2 equivale a un calcolo di Onsager (1944) per il modello di Ising.  Alcuni progressi erano stati fatti da altri per alcuni intervalli di q, ma il risultato generale è rimasto aperto fino a quando non è stato dimostrato nel 2012 da Duminil (con Beffara). La loro soluzione ha risolto, in particolare, il valore congetturato del punto critico del modello di Potts di spin interagenti su un reticolo cristallino, una generalizzazione del modello di Ising per lo studio del comportamento dei ferromagneti e di alcuni altri fenomeni della fisica dello stato solido.  

L'universalità è quasi come desiderio che si avvera: in certe situazioni: i dettagli fini di un particolare modello matematico non influenzano il comportamento globale. Il motivo è che se un sistema coinvolge molti diversi processi casuali, come molte molecole d'acqua in movimento, i dettagli dei meccanismi sottostanti non dovrebbero avere importanza. Nell'esempio del congelamento dell'acqua in ghiaccio, si può scegliere la disposizione delle molecole che si preferisce (ad esempio che siano posizionate regolarmente in un reticolo esagonale) e la transizione di fase che si sta studiando avrà le stesse proprietà indipendentemente dalla scelta del tipo di reticolo. 

Matematicamente si può ottenere molto da questa descrizione molto più semplice del problema. Il modello matematico non è necessariamente rappresentativo della realtà fisica, ma, grazie all’universalità, si ottengono comunque gli stessi risultati come se si avesse iniziato con una descrizione fisicamente accurata. 

Immaginiamo di essere di fronte ad un alveare. La parte anteriore dell'alveare forma una tassellatura esagonale del piano e gli angoli e le linee che delimitano le pareti dell'alveare formano i punti e i bordi di un reticolo esagonale, o a nido d'ape. Immaginate di scegliere un punto di partenza nel reticolo e quindi di scegliere il percorso attraverso il reticolo seguendo una semplice regola: non si può tornare in nessun punto del reticolo in cui si è già stati. Ciò viene detto un cammino autoevitante. 

In matematica, un cammino autoevitante (self-avoiding walk: SAW) è una sequenza di movimenti su un reticolo (un percorso reticolare) che non visita lo stesso punto più di una volta. Questo è un caso speciale della nozione teorica di grafo di un percorso. Dal punto di vista matematico si sa molto poco sui cammini autoevitanti, sebbene i fisici abbiano fornito numerose congetture ritenute vere e fortemente supportate da simulazioni numeriche. 

Dove si può andare?  Abbiamo tre scelte per il primo passo.  Poi ne avremo solo due per il secondo passo, poiché non si possono ripercorrere i passi.  E per ragioni simili avremo due scelte per ciascuno del terzo, quarto e quinto passo.  Ma al sesto passaggio le cose iniziano a complicarsi e bisogna stare più attenti, poiché potremmo iniziare a percorrere potenzialmente loop di esagoni. 


4. Ci sono tre cammini che si auto-evitano di lunghezza 1. (Immagine di Charles Trevelyan) 


5. Esempi di cammini autoevitanti di lunghezza 5, 6 e 7. (Immagine di Charles Trevelyan) 

Possiamo pensare a tutti i possibili cammini autoevitanti per numeri relativamente piccoli di passi.  Come dice Duminil-Copin, le regole sono così semplici che un bambino può farlo, ma la complessità del problema appare rapidamente.  È chiaro che il numero di possibili SAW cresce in modo esponenziale con il numero di passi eseguiti, ma man mano che si fanno più passi è sempre più difficile tenere traccia di questo numero mentre si cerca di non tornare sui propri… passi.  Ci si rende conto molto rapidamente che non si può calcolare esattamente questo numero. 


Questo problema non è solo un gioco divertente.  Negli anni '40, i chimici Paul Flory (che vinse il Premio Nobel per la Chimica nel 1974) e W.J.C. Orr introdussero le SAW come un modo per studiare le molecole a catena lunga (i polimeri) e capire come si comportano.  Esso è molto legato ai fenomeni chimico-fisici, ad esempio cercare di capire cosa fanno i polimeri, come le molecole di DNA. Questi polimeri sono cammini autoevitanti per l’ovvio motivo: sono lunghe sequenze di molecole che non possono essere nello stesso luogo. 


6. Cammino autoevitante di 87 passi su un reticolo esagonale che porta a un vicolo cieco (da Wikipedia)   

Non esiste una risposta esatta nota per quanto velocemente il numero di SAW cresce su qualsiasi reticolo, sia il reticolo a nido d'ape a cui abbiamo pensato sopra, o un reticolo quadrato o triangolare del piano, o un reticolo cubico di spazio tridimensionale.  Ma unico tra questi, per il reticolo a nido d'ape possiamo avvicinarci molto a una risposta  Nel 1980 il fisico statistico Bernard Nienhuis ha ipotizzato che il tasso di crescita del numero di SAW su un reticolo a nido d'ape è quasi 


per un gran numero di passi n. Questa ipotesi è stata dimostrata matematicamente da Duminil-Copin e collaboratori. 

Poiché la congettura implica il conteggio delle cose, potrebbe sembrare che la dimostrazione dovrebbe coinvolgere la combinatoria.  Ma la risposta è arrivata da un'area molto diversa della matematica. Duminil-Copin stava lavorando su problemi in analisi complessa, apparentemente lontana dai cammini autoevitanti, quando iniziò a comprendere alcune delle idee emerse.  

Il matematico francese ha dichiarato di essere felice di lavorare in questo crocevia tra matematica e fisica. Un altro esempio è il recente progresso di Duminil-Copin e colleghi nella comprensione delle invarianze conformi, un insieme particolarmente ricco di simmetrie che possono essere presenti in un modello matematico che descrive un sistema fisico. Ha detto Duminil-Cupin in un’intervista a PlusMath: “Il motivo per cui le simmetrie sono utili è che riducono la quantità di informazioni necessarie per descrivere il modello.  Per descrivere una scacchiera, ad esempio, tutto ciò che devi dire è che i quadrati bianchi e neri sono disposti in un reticolo in modo che i colori si alternino. Se è possibile ridurre la quantità di informazioni necessarie per descrivere un modello, ciò significa anche che il comportamento del modello nei punti critici può essere descritto in modo più preciso”.


7. Trasformazioni conformi di griglie regolari (da Wolfram Mathworld) 

Dimostrare l'invarianza conforme è stata un'area di ricerca molto attiva, ma dal 2000 solo una manciata di modelli specifici (ad esempio, solo per alcuni tipi particolari di reticoli) si sono rigorosamente dimostrati invarianti conformi.  Per rendere le cose più facili, Duminil-Copin e i suoi colleghi hanno considerato solo modelli in due dimensioni, piuttosto che in uno spazio completamente tridimensionale.  "La comprensione dell'invarianza conforme in due dimensioni per i matematici è progredita così tanto che ora sta gettando nuova luce sulla teoria fisica"

Come ulteriore semplificazione, si sono concentrati solo sulle simmetrie rotazionali.  Per capire che cosa significa, consideriamo l’esempio di SAW su un reticolo a nido d'ape.  Supponiamo di essere al numero di SAW tra un punto di partenza e di arrivo sul reticolo.  Quindi è chiaro che questo numero sarà lo stesso se si ruoterà il punto finale di un terzo di cerchio attorno al punto di partenza: è solo una simmetria inerente al reticolo stesso. 

"Una meravigliosa proprietà dei sistemi in criticità, fondamentalmente quando si verificano transizioni di fase, è che il sistema guadagna più simmetrie", afferma Duminil-Copin.  Di conseguenza si è pensato che un sistema sottoposto a una transizione di fase sarebbe diventato rotazionalmente invariante sotto qualsiasi angolo, non solo quello ovvio che si vede lontano dalla criticità. Duminil-Copin e colleghi sono stati in grado di fornire una prova matematica rigorosa di questa simmetria rotazionale per un gruppo molto più ampio di modelli. Inoltre, i loro metodi potrebbero fornire l'ingrediente mancante che potrebbe portare a prove di piena invarianza conforme e a tutto ciò che comporterebbe dal punto di vista matematico.