Gödel’s unsuspected implications in Mathematics and Physics
Carlo Roselli
Le teorie fisiche sono scritte in linguaggio matematico e la loro profondità è valutabile in termini di accordo tra predizione teorica e controllo sperimentale. Tra queste, la meccanica quantistica, d’ora in avanti denotata con “QM” (Quantum Mechanics) è in grado di fare predizioni con una precisione dell’ordine di una parte su cento miliardi, e la teoria della relatività generale, denotata anche con “GR” (General Relativity), può farne con un’accuratezza ancora maggiore. Sembra perciò legittimo credere che gli strumenti matematici usati per formulare le teorie fisiche rappresentino una sorta di filo diretto in grado di mettere il pensiero logico in comunicazione con il modo di funzionare della realtà.[1] Ma, come presto si vedrà, questa fiducia risulta per certi versi discutibile.
La matematica, fino a prova contraria, è una costruzione della mente umana fondata su concetti e principi logici che affondano le loro radici nella cultura greca, e costituisce di fatto il linguaggio irrinunciabile delle teorie fisiche. Ma come spiegare perché mai l’uso corretto dei nostri linguaggi, emersi attraverso processi creativi dalla massa di dati accumulati nel corso delle esperienze, conduca il sapere in territori disseminati di stranezze incomprensibili e a sollevare domande cui non sembra possibile dare risposte sensate?
Forse il metodo di logicizzazione elaborato dai filosofi greci ed amplificatosi fino ai nostri giorni è valido ma, per qualche oscuro motivo, inadeguato a trattare questioni complesse che allora non avevano modo di essere previste. Seguendo questa riflessione e volendo salvaguardare i principi e i concetti fondamentali della tradizione, si potrebbe tentare di isolare tutte quelle problematiche che risultano estranee al linguaggio classico e ideare nuove strategie capaci di fronteggiarle.
Tuttavia, agli inizi del secolo scorso la scienza ha cominciato ad avvertire per la prima volta una totale inadeguatezza di tale linguaggio nello studio del microcosmo, tanto che per poterne fornire una descrizione efficace ha adottato un paradigma radicalmente innovativo della realtà con la formulazione della QM.
Di indigesta e controversa interpretazione, la QM ha spinto MmmmM alcuni fisici teorici, ispirarti al movimento intuizionista,[2] a negare la validità del Principio del terzo escluso, in base al quale ogni enunciato o è vero o è falso, e ad adottare una logica a tre valori chiamata “logica quantistica”, aggiungendo cioè ai due valori “vero” e “falso” un valore intermedio “né vero né falso”, ovvero indeterminato, e dunque appropriato a delegittimare qualsiasi tipo di inferenza (retro-dizione) sul comportamento e sulla natura di un sistema atomico anteriormente ad una misurazione. Ad esempio, nell’esperimento dell’interferenza descritto nel primo capitolo (figura 1.4), non si è può asserire, senza contraddirsi, che il singolo fotone attraversi una delle due fenditure o l’altra o entrambe o nessuna delle due, perché ognuna di queste quattro asserzioni è in conflitto con il formalismo della teoria fondato sul principio di sovrapposizione di stati, sul principio di indeterminazione e sui conseguenti asserti fondamentalmente probabilistici.
Francamente, la logica quantistica, oltre a non contribuire minimamente alla soluzione di certune questioni fondamentali, lasciandole in balìa dell’irrazionalismo già insito nei principi della teoria, sembra anche rispecchiare un atteggiamento piuttosto arrogante, dato che coloro che si sono adoperati a formularla e a interpretarla si sono comunque serviti del linguaggio classico, pervenendo alle disarmanti affermazioni che la QM è una teoria completa e che la realtà, qualunque cosa possa essere, è intrinsecamente inconoscibile. Non tutti gli scienziati condividono però la crudezza di tali conclusioni e alcuni di essi si sono impegnati a contrastarle contando sulla possibilità di una visione unitaria del mondo fisico.
Verso una teoria fisica unitaria
Nell’arco dei primi decenni del secolo scorso la scienza ha conosciuto il suo massimo prestigio. Servendosi della GR e della QM e sfruttandone le potenzialità, essa ha potuto dare l’avvio ad uno sviluppo straordinario della tecnologia che, a sua volta, ha permesso a fisici e ad astronomi di dotarsi di potenti mezzi per esplorare tanto la profondità della materia quanto quella dello spazio cosmico.
La scienza ha così potuto conseguire ulteriori successi di rilievo ed allargare gli orizzonti della conoscenza, ostentando un atteggiamento trionfalistico che però non ha avuto lunga vita. Infatti, agli inizi degli anni ottanta[3] la scienza è entrata in una fase di stagnazione, a causa di una serie di problemi teorici e pratici di dubbia soluzione, primo fra tutti quello di come collegare GR e QM in un’unica teoria fisica unitaria che, dovendo rappresentare una descrizione dell’universo fisico nella sua interezza, viene anche chiamata “Teoria del Tutto” o “TOE” (Theory of Everything). Molti studiosi hanno dato credito alla possibilità di quantizzare il campo gravitazionale (v. cap. V) e di formulare così una teoria di completa unificazione dei campi chiamata “gravità quantistica”, brevemente QG (Quantum Gravity).
Peraltro, a partire dai primi anni settanta del secolo scorso la QG si è prospettata come il traguardo più ambizioso della ricerca scientifica. Quasi mezzo secolo di impegno da parte di diversi scienziati in tale direzione ha prodotto un’ampia varietà di proposte a carattere speculativo, ma nessun risultato concreto, ingenerando in alcuni di essi un senso di impotenza e di frustrazione. Vedremo ora di capire se nell’ambito di questa ricerca si possano scorgere dei punti deboli responsabili della persistente situazione di impasse della scienza.
Comincerei col ricordare che negli ultimi decenni, a fronte dei vari tentativi di formulare la QG, c’è stata una proliferazione di modelli matematici sempre più astratti e complicati. Questa tendenza apparentemente inarrestabile della matematica a distaccarsi dalla realtà fisica è diventata oggi una costruzione di linguaggi specializzati talmente astrusi e diversi l’uno dagli altri da risultare difficilmente comunicabili.
Come dovrà allora regolarsi lo scienziato fiducioso, se non perfino convinto, di poter prima o poi approdare ad una formulazione soddisfacente della QG? Potrà innanzitutto contare sulla sua struttura matematica? Se gli rivolgiamo questa domanda, la sua risposta sarà sicuramente positiva. E se poi gli chiediamo da dove gli provenga tale fiducia, non esiterà a rispondere che, guardando nel passato, la struttura matematica di ogni teoria scientifica ha conservato la sua efficacia, mentre la concezione filosofica da cui è nata è stata sempre abbandonata.. Ci dirà, ad esempio, che le equazioni formulate da Maxwell per spiegare l’elettromagnetismo sono tutt’ora valide, mentre l’idea che le ha promosse, quella dell’esistenza dell’etere, è stata rifiutata come un’immagine falsa. E dirà che altrettanto valide sono le equazioni di Newton, anche se nessuno accetta più la sua idea che esistano oggetti capaci di esercitare una forza attrattiva. Un tale scienziato potrebbe continuare con altri esempi e, tirando le somme, finirebbe con l’affermare che la matematica è l’unico strumento disponibile per modellare le teorie fisiche..
Quali conclusioni si possono trarre da queste considerazioni? Ci autorizzano forse a dare per scontato che sarà sempre così, e cioè che la matematica sia infallibile, mentre l’immagine che si ha di volta in volta della realtà non possa esserlo mai?
Riterrei allora più prudente asserire che la matematica finora adottata in fisica sia uno strumento essenzialmente efficace nel fare previsioni quantitative sempre più raffinate, ma che sia inadeguata a fornire spiegazioni logicamente convincenti dei profondi comportamenti della natura. Pertanto, anziché meravigliarmi dello straordinario adattamento della matematica alla modellizzazione delle teorie fisiche, mi preoccuperei della perseverante ossessione degli scienziati nel privilegiare strutture matematiche basate sulla pura astrazione, perché queste, a mio parere, non potrebbero mai congiungersi ad alcuna immagine rappresentativa delle proprietà fondamentali che caratterizzano il mondo fisico.[4]
Seguendo questo ragionamento, mi chiedo su quali basi molti ricercatori stiano ancora rincorrendo il vecchio sogno di Einstein di combinare GR e QM in un’unica teoria autoconsistente, una teoria che possa darci un’immagine comprensibile dell’intera realtà cosmica, almeno nella sua struttura generale.
Alcuni di essi si sono invecchiati in questa impresa. Tuttavia, persuasi che la meta non sia poi molto lontana, vanno avanti instancabilmente lasciandosi guidare dalle loro convinzioni personali sulle questioni filosofiche dei fondamenti, spesso però senza farsi carico di affrontarle con il dovuto rigore.
Devo comunque dire che io stesso condivido la fiducia nella possibilità di raggiungere un tale obiettivo, ma sento di doverla temperare con alcune considerazioni. Innanzitutto, l’incompletezza di entrambe le teorie (proprio in quanto parziali) rappresenta un buon motivo per mettere in questione la validità di qualcuno dei loro rispettivi principi fondamentali, essendo evidente la loro conflittualità. Inoltre, come ben si sa, l’una e l’altra teoria hanno implicazioni che sembrano logicamente intrattabili (ne sono esempi le singolarità dei buchi neri previste dalla GR e la dualità onda-corpuscolo propria della QM).
Ma queste semplici constatazioni non sono di grande aiuto per la ricerca della teoria fisica unitaria e, come ho osservato poc’anzi, non saranno d’aiuto neanche le complicate strutture matematiche basate sulla pura astrazione. Penso invece che la ricerca seguiterà a languire fino a quando non sarà motivata da una qualche clamorosa scoperta, ad esempio, dalla soluzione di qualcuno degli enigmi che angustiano la QM, oppure dall’ideazione di un esperimento i cui risultati siano in disaccordo con quelli previsti da una delle due teorie fisiche dominanti.[5]
Non c’è dubbio che un eventuale successo di tale portata stimolerebbe in modo decisamente più concreto la corsa verso quel grande obiettivo, una corsa che vedrebbe coinvolta non più una ristretta schiera di fisici, ma l’intera comunità scientifica. Questo scenario potrebbe presentarsi nel prossimo futuro, nel qual caso sopravverrà l’urgenza di modificare una delle due teorie, ma più verosimilmente l’una e l’altra, e ciò implicherà uno scompaginamento di quell’eredità pervenutaci dai greci che costituisce la struttura fondamentale di tutta l’impalcatura logica e matematica di cui ci si è finora serviti per fare scienza.
Ci si aspetta poi che l’eventuale nuova teoria possa ricevere una formulazione razionale, e cioè basata sui concetti di spazio tridimensionale, trasformazione (tempo) e legge di causa, concetti che richiederanno di essere ripensati e ridefiniti sulla base di nuovi principi logici associati a proprietà matematiche profondamente innovative. Inoltre, l’eventuale unificazione delle leggi che governano microcosmo e macrocosmo, per avere i requisiti di una teoria completa e coerente, dovrebbe implicare anche una comprensione di quelle leggi. Credo però che la teoria finale non potrebbe essere prefigurata in una prospettiva di riduzionismo materialistico, come invece sostengono molti fisici (di alcune loro idee tornerò a parlare nel sesto capitolo), e credo anche che, se sarà formulata, essa non sarà una Teoria del Tutto, come dire una fra tante possibili, bensì la Teoria del Tutto, e cioè la sola possibile.
Per come la immagino personalmente, la TOE dovrebbe incorporare un’opportuna versione della Teoria dell’evoluzione di Darwin estesa alla Cosmologia e alle Teorie dei Campi Quantistici, brevemente QFTs (Quantum Fields Theories, alle quali accennerò nel prossimo paragrafo). Inoltre, la TOE dovrebbe metterci nella condizione di comprendere come tutte le leggi di natura discendano da un’unica legge caratterizzata da un senso di inevitabilità logica e poi, passo dopo passo, come si svolgano i processi auto-organizzativi che promuovono la transizione dai sistemi caotici a quelli ordinati (sia nella semplicità che nella complessità), nonché i passaggi dalla fisica, alla chimica, alla biologia e ai diversi livelli di intelligenza e di consapevolezza. In altre parole, la Teoria del Tutto dovrebbe offrire la possibilità di dedurre (in primo luogo, per vie puramente logiche e, in secondo luogo, per vie topologico-meccaniche) tutte le verità fisiche, e non è escluso che ciò possa avvenire gradualmente in un arco di tempo non molto lungo.
Vorrei concludere dicendo che il contributo decisivo alla futura formulazione della Teoria del Tutto potrebbe provenire da una fonte ancora insospettabile, e cioè da un’attenta riflessione sulla crisi che ha investito la matematica a partire dalla costruzione delle geometrie non-Euclidee agli inizi dell’ottocento e conclusasi nel 1931 con la pubblicazione del Teorema di incompletezza di Gödel, del quale parlerò più avanti.
Pertanto, anziché abbandonarsi a facili entusiasmi derivanti dai successi della scienza (ormai da tempo consistenti in soli termini di sviluppo tecnologico) riterrei più opportuno non appassionarsi troppo all’idea di accordo tra fisica e matematica e cominciare a interrogarsi sulle implicazioni filosofiche derivanti dalla possibile connessione delle loro rispettive limitazioni.
Nei primi due capitoli, incentrati sulla QM standard (non relativistica), si è potuto prendere atto degli aspetti problematici derivanti dai principi sui quali è fondata la teoria e dalla sua interpretazione ortodossa, e si sono anche incontrati i “paradossi” impliciti nel processo della misurazione che non viene spiegato dalla teoria, ma semplicemente dichiarato come effettivamente eseguibile nel corso degli esperimenti.
Non meno problematiche sono le teorie quantistiche dei campi (elettromagnetico, nucleare debole e nucleare forte), uno schema teorico molto generale della fisica moderna chiamato “Modello Standard”, la cui storia è iniziata con la teoria relativistica dell’elettrone formulata da Dirac nel 1928. Quest’ultima è il frutto di una combinazione di idee proprie della QM e della relatività speciale e costituisce la base della teoria chiamata “Elettrodinamica Quantistica”, brevemente QED (Quantum Electro-Dynamic), che però a quell’epoca non prendeva ancora in considerazione l’interazione dell’elettrone con la luce. Solo sul finire degli anni quaranta la QED ha ricevuto un’affinata formulazione da parte di Richard P. Feynman, Julian Shwinger e Sin Itiro Tomonaga, ed in seguito è stata presa come modello per la descrizione quantistica del campo nucleare debole[6] e del campo nucleare forte.
Le QFTs, tra le quali la QED è al momento considerata la migliore in fatto di precisione predittiva, sono basate su concetti non intuitivi e affette da anomalie. Ad esempio, si assume che le particelle materiali (il cui numero non è necessariamente conservato)[7] non sono isolate dal campo che le circonda, ma sono esse stesse a determinarne la struttura, cosicché anche in queste teorie, come in QM, è presente il problema di una dualità incomprensibile: particelle materiali e campi sono concepiti come due aspetti diversi di un’unica cosa. E mentre i campi sono immateriali e non osservabili, lo sono invece, in modo indiretto, le particelle attraverso gli effetti transeunti derivanti dalle incessanti interazioni tra campi. Questa nuova versione della dualità ha indotto alcuni fisici a concepire le particelle materiali come condensazioni di un campo continuo ovunque fremente di attività.[8]
Le QFTs si sono sviluppate (e sono tuttora in via di sviluppo) basandosi sull’idea di campi continui e sull’assunto di particelle elementari puntiformi (di dimensioni nulle) che, secondo la geometria classica, hanno la proprietà di essere esattamente localizzate.
Non c’è da sorprendersi nel riconoscere in questi due presupposti la fonte di anomalie concettuali quando si eseguono i calcoli teorici. Infatti, una qualsiasi grandezza estesa basata sulla continuità, sia essa un percorso lineare o una porzione di superficie o un volume, implica la sua divisibilità in parti sempre più piccole senza poter mai incontrare, in linea di principio, una fine, mentre una particella assunta come elementare (ad esempio un elettrone), essendo considerata zero-dimensionale, teoricamente risulta possedere una forza elettrica infinitamente grande, dato che l’intensità di tale forza varia in proporzione inversa al quadrato della distanza.
Gli scienziati che ricorrono a modelli matematici, se dovessero accettare come fondamentali nozioni di questo genere, sarebbero obbligati a considerarle come le proprietà stesse delle entità fisiche che descrivono nelle loro teorie. Pur servendosi della matematica, essi non possono perciò avere nei suoi riguardi lo stesso atteggiamento che hanno i matematici puri. Per avere un valore scientifico, le previsioni delle loro teorie devono potersi confrontare con l’esperimento, in cui le misurazioni eseguite danno sempre valori finiti (con un inevitabile margine di approssimazione).
Come già spiegato nel prologo, nel calcolo di grandezze fisiche quali la forza elettrica e la massa dell’elettrone, la proliferazione minacciosa degli infiniti, propriamente chiamati “serie divergenti”, viene aggirata con il procedimento della rinormalizzazione, un rimedio matematico ad hoc molto efficace ma insoddisfacente, perché equivale ad ignorare tout court le implicazioni paradossali di nozioni apparentemente inevitabili e allo stesso tempo prive di valore semantico, quali lo zero e l’infinito, che spoglierebbero di senso le equazioni delle teorie. Va poi ricordato che le QFTs sono rinormalizzabili finché non prendono in considerazione il campo gravitazionale, che è presente ovunque ci siano masse ed energia (e quindi anche tra le masse relativamente piccole delle particelle composite) e che a distanze molto ravvicinate, come nel caso di protoni e neutroni in un nucleo atomico, farebbe sentire i suoi effetti in modo piuttosto significativo.
Gli scienziati che studiano la materia per mezzo di acceleratori di particelle sempre più potenti ritengono di essere vicini al raggiungimento del loro ambizioso obiettivo: identificare il numero degli oggetti e delle forze fondamentali che costituiscono il mondo fisico e convogliarli, insieme allo spazio e al tempo, in uno schema matematico unitario, auspicabilmente semplice ed elegante. Indagando sempre più in profondità, al passo con le alte energie disponibili, le particelle stabili attualmente catalogate come elementari sono: i quark, i leptoni e i gluoni, la cui esistenza è prevista da una teoria dei campi chiamata “Cromodinamica Quantistica”, brevemente QCD (Quantum Cromo-Dynamic).[9]
Se il termine “elementare” significa “atomico” nel senso esplicito della lingua greca, e cioè “indivisibile”, i fisici che studiano la composizione della materia hanno a che fare con un concetto assai problematico, visto che non è disponibile una rappresentazione soddisfacente dell’elementarità. Tuttavia, i ricercatori che indagano la struttura della materia assumono (e alcuni di essi sono convinti) che i quark, i leptoni e i gluoni siano effettivamente i “mattoni fondamentali” della natura e li associano all’idea contro-intuitiva di corpuscoli materiali puntiformi.
Come si è già compreso, quest’idea, o modello, risulta senz’altro utile sul piano pratico, ma per molti fisici costituisce un notevole turbamento intellettuale. Infatti, sembra più ragionevole pensare che una particella assunta come elementare, per possedere caratteristiche quantomeccaniche, quali ad esempio la forza elettrica e il momento angolare intrinseco, implichi una qualche struttura. Di fatto i fisici si trovano a fronteggiare un problema imbarazzante: se da una parte essi non accettano l’idea di struttura come compatibile con quella di elementarità, dall’altra, l’idea di considerare una particella come priva di struttura e quindi di parti, indurrebbe loro ad assumerla come priva di proprietà.
Allo scopo di eliminare dalle teorie quantistiche anomalie concettuali di questo genere e di puntare alla formulazione di una teoria unitaria di tutto ciò che esiste, si sono fatti strada nuovi approcci che considerano le particelle fondamentali come entità estese piuttosto che puntiformi. Due teorie in particolar modo hanno impegnato per decenni alcuni gruppi di studiosi e hanno anche suscitato un grande interesse scientifico. Esse vanno sotto il nome di “Teoria delle Superstringhe“ e “Teoria dei Twistors“, la prima formulata da Michael Green e John Schwarz nell’agosto del 1984 dopo un faticoso lavoro di ricerca durato circa quindici anni e la seconda ideata dal matematico inglese Roger Penrose con la collaborazione di un gruppo di teorici dell’Università di Oxford, ma non ancora ben definita. Ad esse di affianca la più recente Teoria della Gravità Quantistica a Loop, in breve QLG (Quantum Loop Gravity), inizialmente sviluppata dal fisico Abhay Ashtekar e in seguito ripresa dai fisici Carlo Rovelli e Lee Smolin.
Lo sviluppo di queste teorie, sulle quali tornerò nel quinto capitolo, si aggancia a quella serie di intuizioni sullo spazio e sulla materia che, a partire dalla seconda metà dell’ottocento, contribuirono a preparare il terreno per la nascita della fisica contemporanea. Ma per avere una comprensione più completa del percorso che ha portato alle moderne concezioni di spazio e materia, occorre risalire agli inizi dello stesso secolo, quando la matematica ha conosciuto una svolta storica e, successivamente, uno sviluppo sempre più vertiginoso con conseguenze tanto sorprendenti quanto preoccupanti. Sarà dunque utile fornire un resoconto sommario delle diverse tappe che una dopo l’altra, a partire dalle idee che hanno dato vita alle Geometrie non-Euclidee, hanno finito col mettere in crisi l’affidabilità dell’intera costruzione logico-matematica.
La convinzione che gli assiomi della geometria di Euclide costituissero le proprietà oggettive dello spazio fisico, e che perciò tutte le asserzioni da essi derivabili fossero verità incontrovertibili, durò per oltre due millenni. Il metodo assiomatico introdotto dagli antichi greci aveva trovato una solida impostazione soltanto in geometria, ma poteva essere guardato in seguito come il modo migliore di procedere per assicurare solide basi anche ad altri ambiti della matematica. Tutto sarebbe proceduto perfettamente se si avesse avuto la certezza che gli assiomi della geometria euclidea fossero coerenti, cioè tali che da essi non si potessero dedurre teoremi fra loro contraddittori. In quella geometria si nascondeva però un’ombra: l’assioma delle parallele (quinto postulato di Euclide).
Agli inizi dell’ottocento cominciò ad insinuarsi il dubbio se quegli assiomi, pur considerati coerenti, rappresentassero un insieme completo, e cioè tale che da esso si potessero derivare tutte le proprietà dello spazio. Uno dei modi per accertarsene poteva consistere nel verificare se i fatti osservabili fossero in accordo con gli assiomi, ma non si poteva escludere l’esistenza di proprietà non ancora osservate in grado di contraddirli. Euclide, prudentemente, non si era sentito di dare per scontato che per un punto qualsiasi fuori da una data retta passasse una e una sola retta ad essa parallela. Si sarebbe trattato infatti di un’affermazione incontrollabile, in quanto concernente una proprietà estesa all’infinità dello spazio da lui considerato piano (alcuni geometri dell’antichità pensavano anche che “all’infinito” due parallele dovessero incontrarsi).
Nell’ottocento alcuni matematici dimostrarono l’impossibilità di dedurre l’assioma delle parallele dagli altri assiomi. Euclide aveva perciò tenuto una corretta posizione nel considerarlo come un assioma aggiuntivo. Infine, dalla scoperta che dalla negazione dell’assioma delle parallele non si produce alcuna contraddizione, nacquero le geometrie non euclidee ad opera di Carl F. Gauss (1777-1855), Janos Boliay (1802-1860), Nikolaj I. Lobacevskj (1792-1886), Bernhardt Riemann (1826-1866) ed altri, tutte logicamente valide al pari della geometria tradizionale. E poiché il mondo reale è uno solo, non è dato sapere a quale geometria esso si conformi. A quel tempo nessuno poteva sospettare che una tale proliferazione di nuove geometrie fra loro diverse costituisse l’inizio di una crisi che, nel volgere di un secolo, avrebbe fatto vacillare l’intero edificio matematico.
Il primo segnale allarmante per la comunità dei matematici giunse con la scoperta di antinomie (vere e proprie contraddizioni logiche) all’interno della teoria degli insiemi elaborata da Georg Cantor (1845-1918) nel suo lavoro concernente l’esistenza di diversi livelli di infinito. La più nota è l’antinomia di Bertrand Russell (1872-1970), resa possibile proprio dal concetto di “insieme”. La proposizione antinomica da lui formulata nel 1902 nella logica ordinaria è incentrata sulla distinzione fra due tipi di insiemi: (a) – gli insiemi che non contengono se stessi come elemento come, ad esempio, l’insieme delle stelle (questo insieme non è una stella e, quindi, non contiene se stesso come elemento); (b) – gli insiemi che contengono se stessi come elemento come, ad esempio, l’insieme dei concetti oppure l’insieme delle non-stelle (il primo insieme è un concetto e il secondo è una non-stella, quindi ognuno di questi due insiemi contiene se stesso come elemento).
Russell ha costruito la sua antinomia definendo “normale” ogni insieme del tipo (a) e “non normale” ogni insieme del tipo (b). Chiamando “A” l’insieme di tutti gli insiemi normali, cioè del tipo (a), ci si chiede: è A normale oppure non normale? Si comprenderà che non è possibile rispondere a tale domanda senza incorrere in una contraddizione logica. Infatti, se si risponde che A è normale, allora A è non normale; per contro, se si risponde che A è non normale, allora A è normale.
E’ degno di nota ricordare che, proprio in quel periodo, il matematico Gottlob Frege (1848-1925) si accingeva a pubblicare il suo lavoro (Grundgesetse) sui fondamenti della matematica, la cui struttura era concepita come un’estensione della logica da lui precedentemente costruita su espliciti assiomi ritenuti inconfutabili. Russell, con una lettera, poté tempestivamente informare Frege dell’antinomia, e questi si precipitò dal suo editore per fare interrompere la stampa già in corso del volume, al quale apportò le dovute modifiche abbandonando il suo tentativo di dedurre l’aritmetica dalla logica.
Nel 1900, poco prima di questa clamorosa scoperta che aprì decisamente la crisi dei fondamenti della matematica, David Hilbert (1862-1943) presentò al Congresso di Parigi quelli che considerava i più importanti problemi aperti della matematica. Nel secondo di questi problemi si chiedeva se fosse possibile stabilire che le teorie matematiche usuali siano non contraddittorie. Inoltre, Hilbert vagheggiava la possibilità di accertare la coerenza dei fondamenti della matematica poiché, in tal caso, tutte le asserzioni da essi derivabili in modo sintatticamente corretto sarebbero state riconosciute come verità assolute, pervenendo così alla realizzazione di un suo vasto progetto teso a fondare una volta per tutte la matematica su basi inattaccabili. Tale progetto doveva includere la formulazione di assiomi e regole stabiliti in modo definitivo per qualsiasi ambito della matematica.
Qual era a quel tempo lo stato generale degli strumenti logici? Dopo che le forme di deduzione logica codificate da Aristotele avevano resistito indiscusse per oltre due millenni, verso la metà dell’ottocento il matematico e logico inglese George Boole (1815-1864) pubblicò The Mathematical Analysis of Logic, in cui introdusse l’uso della logica simbolica e un procedimento algebrico, detto “Algebra di Boole”, al fine di poter trattare metodi di deduzione più accurati e generali di quelli tradizionali.
Gli sviluppi successivi degli studi sui fondamenti dell’analisi condussero molti matematici, fra i quali Russell e Frege, all’idea di poter costruire una “matematica pura”, e cioè una struttura generale che fosse esclusivamente logica (concezione logicista). La maggiore difficoltà dell’impresa consisteva nel trovare un modo per ridurre l’aritmetica alla logica, ovvero un modo per dedurre gli stessi assiomi dell’aritmetica a partire da proposizioni fondamentali chiamate “assiomi logici”. In tal modo gli assiomi dell’aritmetica sarebbero diventati semplici teoremi della logica, e chiedersi se gli assiomi dell’aritmetica fossero fra loro coerenti sarebbe equivalso a chiedersi se fossero fra loro coerenti gli assiomi logici.
Nel 1910, Russell e Alfred N. Whitehead (1861-1947) pubblicarono la grande opera Principia Matematica, nella quale sembrava di aver messo la matematica al riparo da qualsiasi contraddizione. Sebbene i Principia non offrissero garanzie di aver raggiunto questo scopo, l’opera aveva tuttavia il merito di fornire gli strumenti per investigare l’aritmetica come calcolo espresso in un sistema di segni senza significato, vale a dire in un linguaggio talmente semplificato e limpido da non richiedere di essere interpretato.
In un sistema così concepito, i segni costituiscono il suo vocabolario e questi, con l’ausilio di regole di formazione ben definite, che in un certo senso costituiscono la grammatica del sistema, possono essere concatenati fra loro per formare proposizioni formali o formule. Dalle formule così costruite sono poi derivabili nuove formule per mezzo di regole di trasformazione altrettanto ben definite e chiamate anche “regole di inferenza”.[10] Vengono infine scelte opportunamente alcune formule chiamate “proposizioni formali primitive”, o “assiomi”[11], e poste a fondamento dell’intero sistema. Dagli assiomi, con l’uso corretto delle regole di inferenza, potranno essere dedotte altre formule chiamate “teoremi”.
Si passò così ad una nuova concezione rigorosamente matematica che prese il nome di “formalismo”, i cui sostenitori principali furono Hilbert e Von Neumann. Hilbert pensò che, abbandonando le questioni sul rapporto fra matematica e natura, si poteva puntare esclusivamente alla ricerca di metodi di dimostrazione. Egli stesso si interessò a formalizzare gli assiomi logici includendovi tutti i principi della logica aristotelica, e cominciò a sentire vicino l’inveramento del suo sogno: dimostrare la coerenza dei fondamenti della matematica.[12]
Trascorso un periodo di entusiastici fermenti, un giovane matematico cecoslovacco di nome Kurt Gödel distrusse quel sogno con una sua memoria intitolata “Sulle proposizioni formalmente indecidibili dei Principia Mathematica e dei sistemi affini”. Pubblicata nel 1931, in essa è descritto quello che è passato alla storia con il nome di “Teorema di Incompletezza di Gödel”. In realtà si tratta di due teoremi, dei quali il secondo è un corollario del primo. Il primo teorema afferma, con il rigore richiesto dai formalisti, l’impossibilità di dimostrare, con un numero finito di passi, la completezza dell’Aritmetica, mentre il secondo afferma che è impossibile dimostrare la coerenza all’interno dell’Aritmetica stessa.
Come è riuscito Gödel a provare il suo primo asserto?. Il ragionamento da lui svolto rappresenta un nuovo metodo di dimostrazione basato su una strategia ingegnosamente strutturata per aritmetizzare completamente il calcolo formale, in modo che ogni espressione (segno, formula o sequenza di formule) possa ricevere un numero, detto numero di Gödel. In tal modo qualsiasi proposizione metamatematica riguardante le proprietà puramente logiche del calcolo può essere rappresentata nel calcolo.
Il procedimento architettato da Gödel per dimostrare i suoi teoremi ha tratto spunto da un noto paradosso chiamato “paradosso di Richard”[13], che consiste nella proposizione “n è richardiano se, e solo se, non è richardiano”. Sebbene si risolva in un intrigante rompicapo della logica ordinaria al pari dell’ancor più noto paradosso del mentitore[14] attribuito al filosofo greco Eubulide di Mileto (VI sec. a.C.), il paradosso di Richard (che eviterò di descrivere per non appesantire il discorso) suggerisce l’idea di poter tradurre proposizioni proprie di un dato dominio di forme d’esistenza e di proiettarle in un diverso dominio. Questo legittimo procedimento è adottato con successo per tradurre la geometria nell’algebra, in modo che le relazioni geometriche siano rappresentabili come relazioni algebriche. Infatti, la logica del sistema cartesiano consente a due coppie di numeri di essere pensate ciascuna come le coordinate di un punto in un piano; e quando due punti, designati ciascuno da una coppia di numeri, sono collegati fra loro, si individua una linea retta e questa, a sua volta, è una rappresentazione geometrica di un’equazione algebrica come, ad esempio, y = 3x. In tal modo, l’algebra è riducibile alla geometria e viceversa. In altre parole, l’algebra riguarda i numeri, ma questi possono rappresentare punti, curve e forme in genere dello spazio.
La rappresentazione permette, così, che una valida struttura di relazioni tra gli “oggetti” predicati in un dato dominio risulti valida tra gli “oggetti” predicati in un altro dominio. Pertanto, dato un sistema formalizzato dell’Aritmetica (i Principia Mathematica, ma va altrettanto bene l’Aritmetica di Peano), si possono costruire proposizioni metamatematiche che lo riguardano, per poi tradurle correttamente in proposizioni aritmetiche e proiettarle (internalizzarle) in quel sistema. Chiaramente, sarà di fondamentale importanza non fare confusione tra asserti matematici (ovvero sintattici o simbolici) e asserti metamatematici (ovvero semantici o significanti) o, più semplicemente, tra teoria e metateoria.[15].
A questo punto, ci si chiede semplicemente se le proposizioni così costruite possano essere dimostrate. Supponiamo che F sia una di queste proposizioni aritmetizzate e che rappresenti la proposizione metamatematica “gli assiomi del sistema sono fra loro coerenti”. Se F fosse dimostrabile, si realizzerebbero i sogni dei formalisti.
Gödel, per dimostrare il suo asserto, ha scoperto un modo di rappresentazione servendosi di regole di inferenza la cui coerenza può essere messa in dubbio allo stesso modo con cui può essere messa in dubbio la coerenza dell’Aritmetica stessa.
Con il suo metodo, basato su un’originale strategia di codificazione e di numerazione[16] (che non si ritiene necessario esplicitare in questo testo), Gödel ha costruito, nell’ambito dei Principia Mathematica, una formula aritmetica, G, alla quale è associato un certo numero x, detto “il suo gödeliano”, che corrisponde in modo univoco a quella formula. La formula G è costruita in modo tale da corrispondere all’enunciato metamatematico “la formula con il gödeliano x non è dimostrabile”. Essa rappresenta pertanto una proposizione che esprime la propria indimostrabilità. Se poi, usando il linguaggio metamatematico, ci si pone la domanda “G è vera?”, si dovrà rispondere “sì, è vera”, in quanto essa formula una proprietà numerica che sussiste per tutti i numeri interi (il modo con cui G formula quella proprietà è piuttosto complicato, ma lo si può dimostrare).
Ora si impongono due domande: G è formalmente dimostrabile? E la sua negazione formale ¬G?. Si dovrà rispondere che tanto G quanto ¬G sono indimostrabili, semplicemente perché se G fosse dimostrabile allora il calcolo sarebbe contraddittorio (dal momento che permetterebbe di dimostrare false certune proposizioni aritmetiche “viste” come vere dal linguaggio metamatematico). E poiché se G è vera la sua negazione ¬G è falsa, si dovrà concludere che neanche quest’ultima può essere dimostrata all’interno del sistema formale.
Per chiarire meglio questo passaggio logico essenziale, si potrà dire che, se all’interno del sistema formale esistesse una dimostrazione di G, allora sarebbe falso ciò che G rappresenta, vale a dire la propria indimostrabilità; e non va dimenticato che G è una formula aritmetica la cui verità, o meglio la cui correttezza, non può essere messa in dubbio dal punto di vista metalinguistico.
La formula G è vera non nel senso di esserlo necessariamente, ma nel senso che lo si deve credere se non si preferisce credere al peggio, e cioè che il sistema formale dell’Aritmetica sia costruito in modo così anomalo da permettere la dimostrazione di proposizioni false.
Senza entrare in dettagli tecnici, la logica formale espressa con l’Aritmetica conduce a conclusioni contraddittorie se si assume che sia completa. Se invece si assume che sia non contraddittoria, in essa esisterà sempre una formula semanticamente vera ma sintatticamente indecidibile, cosicché gli assiomi dell’aritmetica non sono completi.
E se anche si convenisse di ampliare il sistema incompleto decidendo quella formula G risultante indecidibile e includendola come assioma aggiuntivo, non si potrebbe superare il problema dell’incompletezza, perché sarebbe sempre costruibile una nuova formula indecidibile, G1, utilizzando lo stesso procedimento.[17]
Inoltre, Gödel costruisce una formula aritmetica, A, che rappresenta la proposizione metamatematica “l’Aritmetica è coerente” (il sogno dei formalisti), e dimostra che la formula ‘A → G’ (nel linguaggio metamatematico: “se A allora G) è dimostrabile formalmente. Infine, riesce a mostrare che la formula A non è dimostrabile, in quanto, se lo fosse, allora sarebbe dimostrabile anche la formula G (che invece, come si è già detto precedentemente, non è deducibile dal sistema formale ed è quindi indecidibile). Perciò, assumendo che l’Aritmetica è coerente, la formula A (che asserisce, appunto, “l’Aritmetica è coerente”) non è dimostrabile all’interno del sistema formale del calcolo.
In conclusione, con questo secondo Teorema di incompletezza (che è un corollario del primo) Gödel stabilisce che non è possibile dimostrare la coerenza dell’Aritmetica per mezzo di un qualsiasi insieme di principi logici equivalenti all’Aritmetica stessa. Per brevità, d’ora in avanti il primo teorema sarà denotato con GT1 e il secondo con GT2.
Gödel riesce poi a mostrare che questi due teoremi valgono per un qualsiasi sistema formale di assiomi sufficientemente potente, vale a dire inclusivo quantomeno dell’aritmetica elementare. A rigore, il sistema formale deve essere assiomatizzabile, il che significa che si possano indicare senza ambiguità tutti gli assiomi.
Questo resoconto estremamente semplificato dell’ingegnosa opera di Gödel di certo non consente di coglierne tutti i passaggi, le sottigliezze e il rigore, ma spero sia sufficiente a dare un’idea del suo impianto logico e delle implicazioni filosofiche che possono essere ravvisate ad un’approfondita riflessione.
Nel compiere la sua impresa Gödel si è ispirato alla concezione platonica dei numeri e delle loro proprietà, contrapponendo al concetto di verità matematica quello di dimostrabilità. Nella prospettiva dell’idealismo platonico, un qualsiasi enunciato matematico risponde ad una logica a due valori: o è vero o è falso, non è cioè ammesso un valore intermedio. Perciò, se un enunciato risulta indecidibile in base agli assiomi di una data teoria, non significa avere scoperto un’incongruenza nella struttura del mondo platonico (nel quale è contemplata la totalità infinita ed eterna delle proprietà e delle verità matematiche), ma semplicemente che quegli assiomi sono incompleti, e cioè non implicano una descrizione completa della realtà che quella teoria matematica intende descrivere.[18] Pertanto, GT1 ci fa innanzitutto percepire la natura della dimostrazione.
Prima che si conoscesse questo risultato, secondo il punto di vista classico, si definiva “dimostrazione” una sequenza di affermazioni che in un dato sistema matematico di assiomi (gli enunciati primitivi, detti anche “gli antenati” del sistema, concordemente scelti dai filosofi della matematica perché creduti intuitivamente ovvi e, perciò, veri) soddisfano le regole di inferenza, queste ultime considerate di per sé evidenti. Una tale definizione dovrebbe allora implicare che la verità degli assiomi venga trasmessa automaticamente ai teoremi, detti anche “i discendenti” del sistema. Ma Gödel ha provato rigorosamente che, all’interno del nostro modo di organizzare la logica matematica, il concetto di dimostrabilità non coincide con quello di verità, e la sua dimostrazione, una volta appresa la spiegazione metodologica che l’accompagna, risulta ineccepibile quanto qualsiasi altra dimostrazione. In altre parole, GT1 viene a sancire l’impossibilità di dimostrare formalmente ciò che dal punto di vista del sistema assiomatico deve essere vero .
Ciò non significa, come è già stato osservato, che la verità della formula aritmetica G costruita da Gödel sia necessariamente vera, ma induce i matematici a concludere che non la si può respingere se si vuole evitare il collasso di qualsiasi approccio assiomatico alla teoria dei numeri. Perciò, assumendo che l’Aritmetica sia un sistema coerente, non è possibile trovare un insieme finito di assiomi che sia in grado di dimostrare tutte le verità matematiche (tutte le questioni basate sul calcolo).
Si potrà ora cogliere con chiarezza una seconda implicazione, e cioè la prova che il nostro attuale esercizio logico-matematico non poggia su basi rassicuranti come si era sempre creduto, ma che è caratterizzato dall’incertezza e, quindi, dal dubbio. Infatti, con la scoperta delle proposizioni indecidibili e con l’indimostrabilità della coerenza interna dell’Aritmetica, il pensiero viene a trovarsi in una situazione da molti giudicata negativa perché, senza la percezione di un qualche nuovo principio logico, gli è permesso di dubitare di tutto e, quindi, di servirsi del sistema logico-matematico come di una religione, anzi, come osserva Barrow, della sola religione in grado di provare rigorosamente l’indimostrabilità delle verità professate.
La pubblicazione dei risultati di Gödel ha avuto perciò l’effetto immediato di gettare nello sconforto la parte più critica della comunità dei matematici e, soprattutto, di deludere le ambiziose aspettative dei formalisti. In realtà, non ha fatto altro che mettere a nudo una certa loro “ingenuità”, e si può anche dire che quei risultati erano già nell’aria, erano percepibili intuitivamente ed erano soltanto in attesa di un tocco di genialità per riuscire ad enunciarli rigorosamente. Infatti è noto che, ben prima della loro pubblicazione, il matematico Frege nutriva seri dubbi riguardo la coerenza interna delle teorie matematiche e che, ancor prima di lui, Russell poté prefigurare l’imminente scenario di totale incertezza con la sua scoraggiante affermazione che “la matematica può essere definita la disciplina in cui non sappiamo di cosa stiamo parlando né se ciò che diciamo è vero”.
In un primo momento, questo stato di incertezza ha dato l’impressione di avere effetti generici e innocui, in quanto le proposizioni indecidibili non sembravano toccare significativi contenuti matematici. In seguito si è però sospettato che l’incertezza potesse sferrare qualche duro colpo in tal senso. Ne è un esempio l’Ipotesi del Continuo, che ha dovuto attendere circa trent’anni di riflessioni prima di trovare una sistemazione teorica, conclusasi con la possibilità di scegliere fra due Teorie degli Insiemi fra loro incompatibili.[19]
Questa situazione rappresenta l’ultimo atto di un processo di scissione all’interno della complessa costruzione matematica che, come si è visto, ha conosciuto il suo primo sviluppo con la concezione delle geometrie non euclidee. In un certo senso, possiamo dire che il deliberato allontanamento della logica matematica dal mondo fisico, con tutto ciò che ne è seguito fino alla scoperta di Gödel, costituisca nella storia evolutiva della mente umana una di tante tappe nelle quali una certa concezione “ingenua” della scienza, in questo caso del mondo matematico, viene screditata per lasciare il posto ad una situazione disorientante: l’indecidibilità e, come sua implicazione, la caduta del principio del terzo escluso, uno dei pilastri della logica che aveva resistito indiscusso per oltre due millenni.
L’impossibilità di definire il valore-verità o il valore-falsità di certune asserzioni ricorda molto da vicino la logica che sembra orchestrare, in modo incomprensibile, il mondo quantistico e mette definitivamente allo scoperto il carattere incerto, e direi nomade, della teoria della conoscenza matematica e fisica.
Viene ora spontanea una domanda: come esser certi che il Principio del terzo escluso non sia più valido se, in ragione di GT1 e GT2, l’intera costruzione della logica matematica è caratterizzata dall’incertezza? Più prudentemente, perché non limitarsi ad asserire che tale principio è definitivamente messo fuori gioco solo all’interno del nostro vacillante edificio matematico? E’ lo stesso Gödel a far propria questa conclusione, ma in una prospettiva filosofica che pochi sono disposti a condividere. Infatti, agendo nella ferma convinzione della reale esistenza del mondo platonico, egli sostiene che l’universo perfetto e infinito delle entità matematiche e delle loro proprietà soggiace ad una logica a due valori, cosicché in esso il principio del terzo escluso è salvaguardato. Una qualunque nostra asserzione relativa a quelle proprietà nel mondo platonico può avere soltanto valore di verità o di falsità. Infatti, per Gödel l’occorrenza degli asserti indecidibili è dovuta esclusivamente all’incompletezza dei sistemi di assiomi stabiliti in terra dall’attività mentale dei matematici, i quali hanno, sì, accesso al mondo platonico, ma non possono imbrigliarlo nella sua totalità.
Noi possiamo tuttavia controbattere la posizione filosofica di Gödel dichiarando, come già fecero molti matematici suoi contemporanei appartenenti a scuole di pensiero fra loro diverse, che non crediamo affatto all’esistenza del mondo platonico e che, inoltre, dubitiamo della validità dei concetti e dei principi logici intuiti dalla mente umana sui quali è cresciuto e si è potuto sviluppare il complesso sistema matematico. D’altra parte, è il GT2 a portarci a quest’ultima conclusione!
Se poi siamo convinti (almeno io lo sono) che il metodo intuito e utilizzato da Gödel per ottenere i suoi due teoremi costituisca la sola possibilità in grado di demolire le aspettative dei formalisti, come dovremmo interpretare questa sua scoperta? Sicuramente la fede nell’esistenza del mondo platonico, essendo stata la vera fonte d’ispirazione di Gödel, può essere considerata il prerequisito essenziale al concepimento e al compimento della sua opera, soprattutto alla formulazione di GT1. Ma quest’ultimo non ha alcuna rilevanza ai fini di stabilire l’esistenza del mondo platonico, come invece sosteneva il suo “scopritore”. Mi spiego meglio. Che cosa significa avere una concezione platonica? Possiamo forse ritenere che altre concezioni della matematica (logicismo, formalismo, intuizionismo, concettualismo)[20] siano sostanzialmente diverse? In base al formalismo, che è la scuola di pensiero direttamente chiamata in causa in tutta la vicenda gödeliana, le entità matematiche e le loro proprietà sono un prodotto della mente umana, ma sono concepite come altrettanto disincarnate e immutabili di quelle platoniche. Pertanto, si può essere del tutto indifferenti alla questione concernente la natura del mondo matematico. Non si può però restare indifferenti davanti all’opera di Gödel (che alcuni filosofi della matematica paragonano addirittura all’esecuzione di una straordinaria sinfonia).
I risultati di Gödel ricevono ancor oggi una grande attenzione perché non sembrano aver esaurito la profondità delle loro implicazioni filosofiche. Sarebbe un cedimento del pensiero ignorarli come hanno fatto (e come seguitano a fare) molti matematici puri dopo aver accusato lo shock del disincanto, ma sarebbe d’altra parte una perdita di tempo far sorgere dalle ceneri lasciate da Gödel facili entusiasmi per nuove ricerche matematiche basate su interpretazioni sempliciste o fuorvianti che lascerebbero sopravvivere indisturbata l’incertezza. Ad esempio, si è sospinti con una certa superficialità a mettere l’accento su un particolare aspetto positivo del lavoro di Gödel, e cioè a sostenere che il GT1 possa rappresentare per la mente umana la garanzia di un’illimitata riserva di creatività per produrre nuove verità matematiche e nuove forme di dimostrazione, visto che egli stesso ha potuto darne un esempio. Ma questa celebrata garanzia è troppo vaga e dunque, per poter scuotere l’epistemologia dalla condizione di passività in cui è costretta dalla concezione platonica, occorrerà capire che cosa di profondo stanno cercando di dirci i due Teoremi di Gödel.
Pur condividendo l’idea che la mente umana sia fonte inesauribile di creatività, intendo sostenere che nessun nuovo approccio logico, nessuno slancio creativo potrà mai produrre una dimostrazione di assoluta coerenza per la teoria dei numeri, neanche attraverso una rivoluzione radicale della logica (che sarà pur necessaria) e l’introduzione di nuovi principi (tornerò in seguito su queste mie osservazioni).
C’è tuttavia chi non vorrebbe abbandonare del tutto la speranza di poter raggiungere tale obiettivo, una speranza che fa però affidamento su un’interpretazione parziale dei risultati di Gödel, e cito un esempio: i filosofi Ernest Nagel (1901-1985) e James Newman (1909-1966) sostengono che “la prospettiva di trovare per ogni sistema deduttivo (e in particolare per un sistema nel quale l’intera Aritmetica possa venire espressa) una dimostrazione assoluta di coerenza che soddisfi alle richieste finitistiche delle proposte di Hilbert, per quanto non logicamente impossibile, è molto improbabile”.[21]
A sostegno di questa affermazione, i due autori si appellano al fatto che Gödel ha mostrato l’impossibilità di fornire una prova della coerenza dell’Aritmetica solo nel caso che questa sia rappresentabile nell’ambito dell’Aritmetica stessa. Perciò essi non escludono affatto la possibilità, benché remota, di inventare dimostrazioni finitistiche assolute di coerenza dell’Aritmetica rappresentabili in ambiti diversi dall’Aritmetica, e cioè con l’ausilio di particolari approcci logici intuibili fra quelli che al momento sono insospettabili e per la cui eventuale scoperta Gödel non pone alcuna esplicita restrizione. Occorre però osservare che il loro ragionamento non brilla certo di obiettività, in quanto maturato sulla base filosofica del positivismo logico, rigidamente legato a quei sogni ambiziosi dei matematici di concezione formalista vanificati da Gödel. Quell’esile filo di speranza al quale sembrano aggrapparsi alcuni filosofi della matematica (quali, appunto, Nagel e Newman) per non liquidare definitivamente la possibilità di contrastare in qualche modo il secondo Teorema di Gödel (l’indimostrabilità della coerenza dell’Aritmetica), sembra più che altro indicativo di una recrudescenza di forme di ingenuità.
Ci sono poi molti filosofi che, coniugando un misto di ingenuità e leggerezza, tendono a generalizzare le conseguenze del lavoro di Gödel, ad esempio associando l’incompletezza semplicemente alla lunghezza della lista di assiomi delle specifiche teorie formali. Ma credere che la teoria dei numeri sia utilizzabile come un dominio coerente e incompleto per inseguire verità matematiche, equivale a liquidare acriticamente il lavoro di Gödel ascrivendogli un significato irrisorio.
L’incompletezza così interpretata, piuttosto che essere vista come una caratteristica universale del calcolo assiomatico, da alcuni filosofi definita anche “trascendenza” della lista di assiomi (si riveda la nota 54), finisce col tradursi in un inesauribile processo di difesa della sua coerenza interna e, tutto sommato, in un atto di fede. Chi però avverte un forte presentimento che nei risultati di Gödel possa annidarsi un messaggio di cruciale importanza per le sorti della scienza, dovrà andare ben oltre le considerazioni fin qui evidenziate.
Fin dal tempo dei filosofi greci, l’aritmetica e la geometria erano concepite in rapporto con la realtà naturale. Sembrava il modo più ragionevole per coglierne gli aspetti percepibili intuitivamente, senza ovviamente poter tener conto di caratteristiche allora insospettabili. Infatti, l’aritmetica non poteva prendere in considerazione le interazioni occorrenti tra gli oggetti del mondo fisico, mentre la geometria ignorava la natura discontinua della materia ai suoi livelli profondi. Solo in tempi recenti si è compreso che tutti gli oggetti della natura interagiscono, alterando incessantemente le loro proprietà e in particolare la loro energia.[22] Ciò implica che un dato insieme numericamente definito di oggetti materiali, che siano sufficientemente ravvicinati per poterne studiare le proprietà, è interpretabile in due modi diversi a seconda che venga osservato attraverso l’ottica di un matematico puro o quella di un fisico.
Per un matematico puro, la proprietà dell’insieme di essere un dato numero è esterna alla realtà materiale, è cioè indipendente dal fatto di poter conteggiare gli elementi che costituiscono la grandezza che esprime quel numero, ed è anche indipendente dalle loro mutue distanze e dalle caratteristiche del luogo in cui essi si trovano. Se però gli si chiede che cosa siano i numeri, non saprà rispondere in modo soddisfacente. Euclide è stato il primo a proporne una definizione: “unità è il numero uno” e “collezioni di unità sono gli altri numeri”. Altri matematici hanno tentato di renderla più interessante, ma non sono riusciti ad andare oltre una spiegazione tautologica. Ci basti ricordare Frege, che definisce numero “l’insieme di tutti gli insiemi equivalenti (cioè tali che i membri di ciascun insieme possano essere messi in corrispondenza biunivoca con quelli di un altro insieme) che hanno la proprietà di esprimere quel solo numero”. Ad esempio, il numero due è l’insieme di tutti gli insiemi che hanno la proprietà della duplicità, di essere coppie, quali i genitori, le facce delle monete, i duellanti, le paia di scarpe e via dicendo.
Diversamente, per un fisico gli elementi di un insieme sono visti in termini di globale complessità processuale, in quanto sono assoggettati a incessante attività e interazioni. Ciò implica che il numero m delle interazioni cresce al crescere del numero n degli elementi di un dato insieme secondo la formula m = ½ n (n – 1). Ad esempio, se il numero degli elementi è 10, il numero delle interazioni è 45, e se il numero è 100, le interazioni sono 4.950. Ma infine, si può considerare la circostanza in cui il numero predefinito degli elementi di un dato insieme finirebbe col perdere la propria identità dissolvendosi in un magma di processi in cui nulla è più distinguibile in termini di parti numericamente ben definite, come nel caso di un collasso gravitazionale.
Facciamo un esempio. Supponiamo di far convergere, in uno stesso volume di spazio, un numero n di chiodi con n = 1033, e di spiare ciò che accadrà tenendoci prudentemente a distanza di sicurezza. Man mano che i chiodi si avvicinano fra loro, si accrescerà l’energia potenziale, fino ad assumere un valore enorme per via del grande numero delle interazioni dei campi associati a ciascun chiodo (in questo esempio il numero delle interazioni sarà m = 5×1065).[23] Ed ecco la domanda che più ci interessa: che ne sarà del numero 1033? Dovremo rispondere che non ne resterà alcuna traccia, per via della crescente energia del campo gravitazionale, e che la sua identità andrà perduta anche molto prima che venga oltrepassata la soglia critica in cui si innescheranno le reazioni nucleari tipiche di una stella.
Queste osservazioni ci fanno capire che all’aritmetica empirica, si può ricorrere solo fintantoché ci è permesso di distinguere oggetti fisici reali (o loro specifiche proprietà) in modo così ben definito da risultare numerabili (misurabili) in linea di principio con arbitraria precisione. Sarà però utile ricordare che “se l’affermazione dell’aritmetica deve essere un’affermazione esatta nel senso matematico, l’oggetto deve risultare una cosa a contorni netti, che conserva la sua identità nel tempo senza alcuna penombra. Ma in pratica non si è mai trovata una cosa del genere, e per quanto ne sappiamo non vi è nulla che vi corrisponda”.[24]
Da quando la logica è stata concepita in una esclusiva relazione con la matematica, distaccandosi completamente dalle questioni concernenti il mondo fisico, si è sperato di poterne fare una teoria completa. Ma, come si è visto, Gödel ha dimostrato il contrario, e cioè che la matematica è, per così dire, una teoria parziale al pari delle teorie fisiche fino ad oggi formulate. Se il GT2 è indicativo di una condizione di incertezza nelle teorie matematiche, allora questa condizione si riversa anche in quelle fisiche e, più a monte (come vorrò mostrare in seguito), dovrebbe contagiare anche i principi logici che riguardano i loro rispettivi fondamenti.
Nel mondo matematico i principi logici concernono la verità. Consideriamo, ad esempio, l’Aritmetica dei numeri naturali, quella di Peano. Alla sua base vengono introdotti, senza che siano definiti, i termini primitivi “zero”, “numero” e “successore” affinché quest’ultimo, in un certo senso, possa generare l’universo dei numeri. Dopo aver fissato alcune proprietà e principi considerati intuitivamente evidenti (uno di essi è il principio di induzione logica, ovverosia il ragionamento che procede dal particolare al generale, ma si tratta di un principio discutibile), all’interno dell’Aritmetica si potranno percepire nuove proprietà e dimostrarle come verità derivanti da quelle proprietà iniziali.
Gli assiomi che “danno vita” al mondo dei numeri, pur giudicati ben fondati e fra loro coerenti, grazie al lavoro di Gödel non possono essere formalmente provati come tali. Zero, numero e successore entrano a far parte di uno schema teorico che, per quanto attentamente discusso e condiviso, non è in grado di mettersi al riparo da paradossi e forme di diffidenza. Questi termini dell’Aritmetica sono associabili, per analogia, ai termini della Geometria chiamati “punto”, “retta” (o, in generale, “grandezza estesa”), e a quelli della Fisica chiamati “corpuscolo puntiforme” e “campo” ad esso collegato. Ci sono ora tutte le premesse perché l’intuizione dell’Infinito faccia la sua comparsa. L’infinito è un concetto che può riguardare i numeri e tuttavia non è un numero, può riguardare lo spazio e il tempo, ma non è uno spazio né un tempo. Non è neanche un qualcosa di immensamente grande, poiché rimanda ad un inesauribile in atto che, come affermava Aristotele, non può essere pensato. Se per i matematici puri è stato possibile affrontare l’Infinito come una grande sfida intellettuale (a partire dalla scoperta fatta da Cantor nel 1873 dell’esistenza di due diversi livelli di Infinito),[25] per i fisici teorici è stato necessario esorcizzarlo (riuscendoci finora solo in parte, come si è visto agli inizi del capitolo con il procedimento della rinormalizzazione), ma esso si riaffaccia con tutta la sua problematicità nelle ricerche della fisica di frontiera.
Nel mondo fisico, diversamente da quello matematico, i principi logici si riferiscono alle azioni. Queste, in quanto possiedono caratteristiche spaziali e temporali, richiederanno di essere descritte per mezzo di concetti fisici concernenti la geometria dello spazio e il movimento. Il fatto che non è costruibile una teoria matematica completa non implica necessariamente che non possa esserlo una teoria fisica. Per poter raggiungere tale obiettivo, la teoria dovrebbe non solo descrivere le particelle cosiddette materiali, lo spazio, il tempo e le leggi matematiche che governano questi enti fisici, ma, come già osservato precedentemente, dovrebbe essere anche in grado di rendere comprensibili quelle stesse leggi o, più verosimilmente, quell’unica legge dalla quale queste ultime dovrebbero discendere.
I matematici di concezione formalista, nell’inseguire il loro sogno di poter definire un insieme completo e autoconsistente di strutture logiche fondamentali (inclusive di tutti i principi della logica aristotelica) hanno ritenuto opportuno di concentrarsi esclusivamente sulle questioni riguardanti i metodi di dimostrazione e fare in modo che questi fossero immuni da contraddizioni. Allo scopo, hanno ridotto il linguaggio matematico (grammaticale e sintattico) al livello più semplice, potendo così manipolare senza ambiguità i loro oggetti matematici, i cosiddetti “segni senza significato” (costanti, variabili e numeri). Queste entità sono da loro concepite come un prodotto immateriale di processi inventivi della mente umana e proiettate nella fissità permanente del mondo dell’astrazione.
Diversa, ma non proprio del tutto, è la concezione dei matematici platonisti (fra essi spicca in primo piano Gödel), che assumono quelle entità come oggetti disincarnati e atemporali, appartenenti ad un mondo di assoluta perfezione indipendente dal mondo fisico e dalla mente umana, che ha tuttavia il privilegio di accedere alla loro comprensione.
Un atteggiamento analogo appartiene anche a molti fisici riduzionisti legati alla concezione dell’atomismo radicale, e cioè favorevoli all’idea che esista un piano soggiacente alla natura costituito di entità ultime materiali, indivisibili ed eterne, della cui esistenza e delle cui proprietà vorrebbero fornire un resoconto scientifico completo. Questa loro concezione è in larga misura influenzata dalle metodologie con le quali indagano i recessi del mondo fisico. Servendosi delle alte energie disponibili negli acceleratori di particelle, essi pretendono di ottenere risposte dal mondo materiale, in un certo senso, prendendolo a calci e analizzandone le reazioni.
Vi è però una minoranza di scienziati orientati verso un monismo fisicista basato sull’idea che la realtà cosmica sia costituita soltanto di azioni e interazioni puramente immateriali radicate nel vuoto (di questo punto di vista, che sostengo in modo del tutto personale, mi occuperò nei capitoli VI e VIII). Indubbiamente, sarà difficile trovare una spiegazione razionale per la concezione di un mondo pullulante di pura attività immateriale (da non confondere con “spirituale”), ma non impossibile come per le concezioni che considero fondamentalmente antiscientifiche, perché basate su un monismo materialistico, oppure su un dualismo ontologico caratterizzato da un distacco incolmabile tra fisica e metafisica.
I fisici, nella stragrande maggioranza, non si preoccupano di spiegare come funzioni il mondo oltre un dato livello in cui non è più possibile fare distinzioni, non solo perché essi sono pragmatici, ma anche perché si sentono personalmente convinti che la natura e i meccanismi del mondo quantistico sono e resteranno sempre un mistero tombale.
Questo diffuso atteggiamento equivale ad accettare acriticamente l’interpretazione ortodossa della MQ, assumendo l’indeterminismo come principio inerente alla natura e, conseguentemente, l’aleatorietà come caratteristica fondamentale dei processi quantistici. Pertanto, quei fisici escludono la possibilità di una conoscenza completa e razionale della realtà.
Non mancano tuttavia fisici ancora disposti a contrastare questa prospettiva pessimistica del pensiero scientifico, come già fece Einstein. In questo caso, essi dovranno però adottare approcci radicalmente innovativi, basati cioè su ragionamenti o fatti ben più convincenti di quelli proposti a suo tempo da Einstein, visto che i suoi argomenti e in particolare l’esperimento EPR, (pur avendo alimentato il dibattito e contribuito a far emergere l’inatteso fenomeno degli effetti non locali di cui parlerò nel capitolo XII) non sono riusciti ad incrinare minimamente quell’oscura interpretazione, che nel corso del tempo ha alimentato concezioni dogmatiche e irrazionali, ma anche forme di scetticismo e, in alcuni casi, di misticismo.
Chi intende seguire l’esempio di Einstein, e cioè schierarsi contro l’irrazionalismo, dovrà cominciare a chiedersi quali significative debolezze possano adombrarsi tanto nelle ipotesi che sono alla base delle due teorie fisiche dominanti, quanto nei modelli matematici che rispettivamente le descrivono. La prima considerazione da fare è che la matematica sembra un mezzo irrinunciabile per la costruzione di una teoria fisica. Oltretutto, la fiducia nella matematica è legata al fatto che fino ad oggi ha funzionato eccellentemente. In questo senso, si può dire che la scienza è una disciplina matematico-dipendente. D’altro canto, va osservato che il teorema di Gödel impone alla scienza un vincolo apparentemente inevitabile. Si è però certi che tale vincolo non possa essere aggirato in alcun modo? Tenuto conto che, con i suoi teoremi, Gödel ha messo a nudo tanto l’incompletezza dell’Aritmetica quanto la sua inaffidabilità, i fisici potrebbero ancora sperare di costruire la teoria finale?
La teoria finale richiede una descrizione unitaria e coerente di tutti i fenomeni fisici, e ciò costituisce un motivo sufficiente per farci credere che la sua formulazione non potrà essere fondata sull’Aritmetica, ma potrebbe essere fondata su una qualche branca della Geometria, che forse in futuro, se saremo bravi (soprattutto ad evitare la nostra completa estinzione), sapremo inventare (o scoprire)[26] e condividere come adeguata allo scopo. Sarà allora necessario recuperare quella fiducia che i filosofi greci riponevano nella Geometria, che però dovrà essere esplorata con occhi nuovi e ravvivata da nuove idee che tengano conto delle proprietà processuali del mondo fisico, del quale possediamo oggi una descrizione ben più profonda e articolata di quanto quei filosofi potessero immaginare.
Innegabilmente, la matematica è lo strumento indispensabile alla scienza per descrivere e prevedere il comportamento dei fenomeni fisici. Ma mentre la scienza tende a modificare la versione delle sue descrizioni saltando da un paradigma a un altro, la matematica è cumulativa, accresce cioè continuamente la complessità della sua costruzione, e i matematici sono riluttanti all’idea di poterla ridiscutere fin dalle sue fondamenta. Ma questa cieca fiducia nella matematica non è più sostenibile. Il Teorema di Incompletezza di Gödel che, come già detto, sembra garantire illimitate risorse di conoscenza matematica, non può essere ignorato o liquidato senza aver prima sondato in profondità le sue implicazioni logico-filosofiche.
Ad una prima sommaria riflessione, il teorema mette a nudo la condizione di incertezza dell’intero edificio matematico e non permette neanche di accertare ciò che è stato sempre giudicato assolutamente vero: neppure asserzioni del tipo “1+1=2” possono più essere considerate verità incontrovertibili.
Se però il lavoro di Gödel si riducesse a queste conclusioni sarebbe davvero deludente, e se dovessi formulare un primo personale giudizio sul Teorema di Incompletezza, direi che esso possiede la grandezza dell’unicità. Infatti, per poter dimostrare inattuabile la pretesa dei formalisti di fondare la matematica su basi sicure, il solo metodo efficace consiste nel forzare il sistema formalizzato dell’Aritmetica a parlare di se stesso, in un certo senso ad auto-analizzarsi e, sostanzialmente, ad emulare un sistema fisico dotato di autoreferenza. L’autoreferenza è una proprietà processuale che sicuramente non appartiene al mondo concepito dai matematici, ma che indubitabilmente caratterizza la natura della mente umana, e più in generale, a mio modo di pensare, particolari livelli del mondo biologico, chimico e fisico (tornerò a discutere e ad approfondire questo argomento nei capitoli sesto, settimo ed ottavo).
Nel mondo fisico non ci sono enti immutabili ed eterni, ma esclusivamente processi dotati di proprietà auto-organizzative in grado di produrre una vasta varietà di fenomeni più o meno complessi. Uno di questi fenomeni è la nostra attività logica, che si esprime in modo autoreferenziale. Ciò non esclude, come afferma il fisico americano Lee Smolin che
[…] se davvero le leggi di natura fossero costruite nel tempo da un processo di auto-organizzazione, il vecchio sogno di ridurre la scienza alla logica potrebbe in qualche misura venir realizzato. Ma questo, se sarà possibile, non lo sarà nel senso atemporale vagheggiato dai platonisti, ma solo nel senso che la logica, che si esprime nel tempo e si complica grazie alla possibilità dell’autoreferenza, è essa stessa auto-organizzazione.[27]
Pur trovando discutibile la premessa di Smolin, condivido le sue conclusioni che qui di seguito tenterò di avvalorare, dichiarando fin da subito la mia netta sensazione che nel teorema di Gödel possa annidarsi un messaggio così profondo che, se individuato e correttamente decifrato, potrebbe contribuire ad indicare la strada da seguire per dare un nuovo volto alla scienza.
Innanzitutto, mi chiedo se la condizione di incertezza, che ora caratterizza l’intera costruzione matematica e che viene a riflettersi sulle teorie fisiche, sia in qualche modo aggirabile. Io ne sono personalmente convinto, ma, affinché ciò possa accadere, si richiederà di mettere in discussione i principi della logica e di ricercarne di nuovi. Gödel, dal canto suo, non ha scoperto nuovi principi. E’ stato però capace di usare quelli tradizionali facendo in modo che si rivoltassero contro sé stessi, mettendo così a nudo i loro limiti e la loro inaffidabilità, e non è certo poca cosa. Anzi, non è forse questo un motivo sufficiente per mettere in discussione la nostra logica, che è sostanzialmente radicata nella concezione platonico-aristotelica?
Ad un attento esame, il lavoro di Gödel permette di configurare un quadro logico comprensivo di cinque asserzioni informali, delle quali (a) e (b) rappresentano il resoconto succinto dei suoi due Teoremi di Incompletezza:
(a) è impossibile che un qualsiasi sistema formale sufficientemente potente da includere almeno l’Aritmetica dei numeri interi sia completo;
(b) è impossibile dimostrare la coerenza dell’aritmetica per mezzo di un qualsiasi insieme di principi logici che sia equivalente all’Aritmetica stessa;
(c) è possibile che nella teoria della conoscenza fisico-matematica l’Aritmetica abbia pressoché esaurito il suo compito, e che pertanto non abbia alcun titolo per andare significativamente oltre le verità empiriche che già possediamo e che sicuramente verranno ampiamente incrementate.
(d) è possibile scoprire nuovi procedimenti di dimostrazione e dunque nuovi modi per creare nuove forme di conoscenza matematica;
(e) non è impossibile che in qualche settore importante della matematica il pensiero riesca a percepire nuovi concetti associabili al mondo fisico, le cui proprietà siano in grado di trasmettere un senso condivisibile di necessità logica;
Gli asserti (a) e (b) sono ormai noti, mentre (d) enuncia una loro implicazione filosofica tanto condivisibile quanto generica. Essa suggerisce che l’indecidibilità scoperta da Gödel non è l’ultima parola nella teoria della conoscenza matematica. Il punto (e) è meno generico e più profondo di (d), in quanto ammette la possibilità di concepire “oggetti” dotati di proprietà insieme matematiche e fisiche, e tali da poter rappresentare un fondamentale modus operandi della natura. I due asserti iniziali non possono invalidare (e). Ma, soprattutto, essi sembrano costituire i presupposti sufficienti a rendere credibile l’enunciato.
Con questo schema intendo presentare la mia personale posizione filosofica riguardo l’Aritmetica. Questa non è depositaria della verità, ma un mezzo esclusivamente utilitaristico che ha permesso lo sviluppo di molte idee e di un gran numero di teorie scientifiche parziali. Ma, nel decorso futuro della fisica, essa svolgerà un ruolo subordinato ad un particolare ambito della matematica (una qualche branca della Geometria) che, se scoperto, potrebbe rivelarsi ricco di aspettative e in grado di rimettere in moto il cammino della scienza.
A mio modo di vedere, tra i motivi che hanno portato la fisica in una fase di stagnazione figurano due nozioni paradossali: da una parte, l’assunto di particelle materiali elementari associate all’idea di corpuscoli puntiformi e privi di struttura, dall’altra, l’idea di uno spazio continuo. Vedremo ora come alcuni fisici e matematici abbiano contribuito al tentativo di superare queste idee problematiche.
[1] Einstein, esprimendo un senso di meraviglia, si chiedeva come mai la matematica, che egli riteneva un prodotto del pensiero umano, si adatti così eccellentemente alla descrizione dei fenomeni della natura. Tale stupore è stato espresso da molti fisici teorici, e fra questi va ricordato il nobel Wigner che nel 1964 tenne una conferenza intitolata “L’irragionevole efficacia della matematica nelle teorie fisiche”.
[2] L’intuizionismo, i cui principali esponenti furono Luitzen E. J. Brower (1881-1966) ed Hermann Weyl (1885-1955), accetta come vere solo le affermazioni che si trovano entro i limiti della immediata intuizione della mente umana, evitando così di pervenire a conclusioni arbitrarie e prive di senso. Per gli intuizionisti, chiamati anche “costruttivisti”, possono essere dimostrate come vere soltanto le grandezze (o gli insiemi) costruibili con un numero finito di passi logici a partire dai numeri naturali. La loro concezione filosofica del mondo è vicina a quella di taluni interpreti della QM, come Bohr, secondo i quali la misura di una grandezza quantistica riflette esclusivamente lo stato di conoscenza che si ha della realtà fisica, e non la realtà in sé. Nella concezione intuizionista una formula matematica descrive l’insieme dei calcoli svolti per giungere ad uno stato di conoscenza del mondo fisico e, pertanto, la formula non ha nulla a che fare con la rappresentazione di una realtà che sussista indipendentemente dalla descrizione effettuata per mezzo del calcolo.
[3] Il 1983 segna un ulteriore grande successo della scienza con la scoperta delle particelle W e Z previste dalla teoria elettrodebole, formulata negli anni settanta dai fisici Steven Weinberg e Abdus Salam. In base a questa teoria, la forza elettromagnetica e la forza nucleare debole sono manifestazioni diverse di un’unica forza. Si sperava così di poter in seguito unificare la forza elettrodebole con la forza nucleare forte, un’impresa difficilmente verificabile per via sperimentale, date le altissime energie richieste per scandagliare la materia a distanze di circa 10–29cm, non lontane dunque dalla scala della lunghezza di Planck.
[4] Con ciò non intendo negare la possibilità di formulare la QG, ma sostenere semplicemente il mio totale disaccordo sulle linee di ricerca finora adottate nell’inseguirla (più avanti spiegherò perché le ritengo inappropriate e votate all’insuccesso). Per ora mi limito ad osservare che la QG dovrà avere i requisiti di una teoria completa e autoconsistente, altrimenti non potrebbe essere ciò che pretende di essere, e cioè una descrizione unitaria di tutte le cose esistenti nell’universo fisico, almeno nelle sue linee generali.
[5] Può anche accadere che particolari prove sperimentali forniscano risultati incomprensibili e non assolutamente evidenti. Si ricordano, ad esempio, quelli ottenuti da Aspect a Parigi nel 1982, in quanto sembrano invalidare almeno uno dei tre presupposti sui quali è basato l’esperimento EPR (il valore costante della velocità della luce, l’oggettività delle grandezze possedute dai sistemi atomici e il principio di località). Su questo argomento tornerò nel capitolo IX.
[6] La forza debole si differenzia da quella elettromagnetica per la brevità del suo raggio d’azione, che è di circa 10–15 cm. Inoltre, essa è mediata da particelle messaggere (i bosoni W e Z) simili ai fotoni, ma molto pesanti, ed è responsabile della trasmutazione del neutrone in un protone, un elettrone e un antineutrino, nonché dei processi di irraggiamento delle stelle. Una nuova teoria fisica, ancora non del tutto ben definita, fu elaborata verso la fine degli anni sessanta dai fisici Steven Weinberg e Abdus Salam, dopo aver compreso che l’interazione elettromagnetica e quella nucleare debole sono fra loro distinte a basse energie, ma che a energie che consentono di scandagliare la materia a distanze molto piccole (energie di circa 1011 elettronvolt, corrispondenti ad una massa novanta volte maggiore di quella del protone) esse risultano essere due aspetti di un’unica forza chiamata “forza elettrodebole”. L’unificazione di questa forza con quella nucleare forte è il prossimo obiettivo che la scienza si propone di raggiungere, benché essa richieda energie di circa 1023 elettronvolt, corrispondenti a una massa circa 1014 volte maggiore di quella del protone, dunque al di fuori della portata degli acceleratori di particelle realisticamente concepibili.
[7] Nella storia evolutiva del nostro universo il numero delle particelle materiali dipende dall’energia media e tende a conservarsi quando si trova, come nella fase attuale, in condizioni generali di bassa energia.
[8] L’abbandono definitivo della distinzione campo-particella avvenne non appena si comprese che lo spazio vuoto è ovunque tutt’altro che inerte, potendo da esso generarsi spontaneamente e incessantemente particelle chiamate “virtuali”, come ad esempio una coppia di particelle elettrone-positone che interagiscono fra loro scambiandosi un fotone anch’esso virtuale, per poi scomparire nel vuoto. Tale fenomeno, benché inosservabile, può essere rilevato da tracce fisiche prodotte dall’effimera esistenza di queste particelle, esistenza resa possibile da quantità di energia erogate dal vuoto per intervalli di tempo sufficientemente brevi da non costituire una violazione del principio di indeterminazione, essendo DE∙ Dt. ≥ ½ h.
[9] Nel modello standard della fisica delle particelle, queste sono suddivise in barioni, mesoni e leptoni (che dal greco significano, rispettivamente, “pesanti”, “mediamente pesanti” e “leggere”). I protoni e i neutroni sono barioni, interagiscono con le quattro forze e sono caratterizzati dalla conservazione del loro numero detto “numero barionico”; i pioni sono mesoni, interagiscono con le quattro forze ma il loro numero non si conserva; l’elettrone, il muone e il neutrino sono leptoni e sentono tutte le forze tranne quella nucleare forte. I quarks, la cui esistenza è prevista dalla QCD, designano i costituenti presumibilmente elementari e stabili di protoni e neutroni e sono di due tipi (o sapori): il quark su (up) e il quark giù (down), aventi rispettivamente carica frazionaria 2/3 e – 1/3. In base alla teoria, un protone è formato da due quark su e uno giù, dunque con carica risultante positiva (+1), mentre un neutrone è formato da un quark su e due giù, quindi con carica risultante neutra (0). I mesoni sono costituiti da un quark e un antiquark e sono instabili, mentre i gluoni sono le particelle messaggere che trasmettono la forza forte e che, come dice il loro nome (in inglese glue significa “colla”) tengono legati fra loro i quark e anche i protoni e i neutroni nel nucleo degli atomi, ma si uniscono anche fra loro per formare le cosiddette “gueballs”. Quark, leptoni e gluoni sono oggi considerati i costituenti fondamentali del mondo fisico. La QCD è una teoria molto complessa basata su una formulazione matematica che funziona egregiamente, ma che ci presenta un quadro in cui tutta la realtà sembra dissolversi in un gioco nebuloso di pura astrazione. Per gli scopi di questo libro non è richiesta una sua descrizione dettagliata.
[10] Le regole altro non sono che un insieme di precise istruzioni per poter intraprendere, con un dato numero di elementi relazionabili l’uno con gli altri, un gioco analogo a quello degli scacchi, ma su una tavola con un numero illimitato di caselle. La matematica, trasformata in un sistema assiomatico formale, assume così le caratteristiche di un esercizio completamente deterministico che potrebbe essere svolto da un computer ideale (dotato di una memoria illimitata) opportunamente programmato.
[11] Nei sistemi assiomatici non formali gli assiomi risultano intuitivamente così ovvi da non richiedere alcuna dimostrazione o alcun chiarimento del loro significato, e ciò è ritenuto sufficiente a dare per scontato che siano veri. Ma nei sistemi formali, che devono attenersi al massimo rigore e mettersi al riparo da qualsiasi genere di insidia, si richiede di rinunciare completamente all’utilizzo dell’intuizione. Il pericolo cui può esporsi con il ricorso all’intuizione la disciplina considerata la più rigorosa fra tutte, lo si è già compreso con la nascita delle geometrie non euclidee e con la teoria degli insiemi.
[12] I matematici, fin dal tempo di Euclide, si sono sempre impegnati a risolvere la questione di come assicurare le basi della matematica su regole (di inferenza logica) esattamente definite e su un numero finito di enunciati fondamentali (assiomi) scelti concordemente sulla base delle idee intuitive che si hanno riguardo ai termini primitivi che entrano negli assiomi. Agli inizi del novecento, ad una ad una, tutte le branche della matematica, prima fra tutte l’aritmetica dei naturali, pervennero alla formalizzazione (riduzione del sistema a pura manipolazione di segni senza significato per mezzo di specifiche regole di formazione e di trasformazione), nella speranza di raggiungere un traguardo: trovare il modo di decidere in modo sistematico la verità o la falsità per qualsiasi asserzione correttamente formulata concernente i numeri interi.
[13] Il paradosso fu formulato dal matematico francese Jules Richard nel 1905. E’ però sufficiente un’attenta lettura per rendersi conto che in esso si fa confusione tra enunciati aritmetici (ad esempio, “1+2=3”) ed enunciati che parlano dell’aritmetica (ad esempio, dicendo “la formula aritmetica ‘1+2=3’ è corretta”). E’ su questa netta distinzione tra linguaggio matematico e metalinguaggio (tra sintassi e semantica) che Gödel fonda la forza del suo argomento.
[14] Il paradosso del mentitore viene riferito come un’asserzione fatta da un cretese di nome Epimenide: “tutti i cretesi mentono, parola di Epimenide il cretese”. Si può tuttavia argomentare che una tale asserzione non sia autocontraddittoria come sembra, ma che lo diventi se interpretata come l’asserzione linguistica “questo enunciato è falso”.
[15] Si potrà ben presto capire che il Teorema di Incompletezza di Gödel non costituisce affatto un paradosso, come alcuni credono, ma un teorema matematico a tutti gli effetti (all’interno della teoria finitaria dei numeri). Diventerebbe invece un paradosso se si rifiutasse, alla maniera di Wittgenstein, la distinzione tra teoria e metateoria.
[16] Per un approfondimento si possono consultare alcuni testi facilmente reperibili, quali Tutti pazzi per Gödel, di Francesco Berto, Ed. Laterza, Bari, 2009; La prova di Gödel, di Ernest Nagel e James R. Newman, Ed. Bollati Boringhieri, Torino, 1992; Incompletezza, di Rebecca Goldstein, Ed. Codice, Torino, 2006.
[17] Il sistema iniziale di assiomi potrebbe essere ampliato fino ad includere, come assiomi aggiuntivi, l’insieme infinito ordinale delle proposizioni indecidibili. Chiaramente, non potendo specificare l’intera sequenza di tali assiomi, la si può riassumere in uno schema che chiameremo “Gw” (Gw = G + G1 + G2 + G3 + …). Ma anche un sistema formale così potenziato è vulnerabile, in quanto è sempre costruibile una nuova proposizione , Gw + 1, che non si trova nella lista e che il nuovo sistema di assiomi, riassunti con Gw, non può dimostrare. Questa condizione di permanente incompletezza dei sistemi formali, può essere mostrata attraverso il procedimento diagonale di Cantor, in base al quale, data una qualsiasi lista ben definita di numeri reali compresi tra 0 e 1, è sempre individuabile un numero che non è incluso in quella lista.
[18] Per un platonista i numeri costituiscono un mondo immateriale che sussiste oggettivamente nella sua infinita, immutabile ed eterna totalità. A tale mondo può accedere l’intelletto umano che può scoprire certe sue proprietà ma che non può esplorare completamente, in quanto infinitamente grande,. Faremo dapprima un esempio molto semplice: consideriamo l’enunciato “esiste almeno un numero a tre cifre avente la proprietà di essere uguale alla somma di tutti i diversi numeri a due cifre componibili con le sue cifre”. A partire dal numero 100, non sarà difficile dimostrare con un numero finito di passi, peraltro piuttosto ridotto, che il 132 possiede detta proprietà, in quanto 132=13+12+31+32+21+23. Procedendo da 131 a 999, ne scopriremo anche altri, cosicché si potrà anche dimostrare che il 132 è il più piccolo numero a tre cifre con quella proprietà. Ed ecco un secondo esempio basato sull’enunciato “nello sviluppo decimale di p esiste la successione numerica 112211332233”; per scoprire se l’enunciato sia vero ci affidiamo ad un calcolatore molto veloce programmato per fermarsi non appena trovata la risposta. Probabilmente la nostra attesa sarà stressante mentre il calcolatore seguiterà a macinare numeri senza trovare la serie e, prima o poi, saremo indotti a rinunciare alla ricerca senza poterlo dimostrare né refutare. Un matematico di concezione platonica sosterrà che nell’universo dei numeri, in cui lo sviluppo decimale di p è infinito e realmente dato nella sua perfetta completezza, il nostro enunciato deve essere o vero o falso, dato che nel mondo platonico vige una logica bivalente.
[19] Nel 1940 Gödel aveva dimostrato che aggiungendo l’assioma del continuo agli assiomi della Teoria degli Insiemi non si produce alcuna contraddizione logica. Nel 1963 il matematico Paul Cohen, che da giovane era stato assistente di Gödel, dimostrò che l’Ipotesi del Continuo è indipendente dagli altri assiomi della Teoria degli Insiemi e non è dimostrabile né refutabile a partire da quegli assiomi; ci si considera pertanto liberi di includere in quegli assiomi l’Ipotesi del Continuo oppure la sua negazione (seguendo lo stesso criterio adottato in geometria per il quinto postulato di Euclide, l’assioma delle parallele, che permise ai matematici del XIX secolo di creare le geometrie non euclidee). Sono così concepibili due diverse Matematiche degli Infiniti, una definita “cantoriana” e l’altra “non-cantoriana”, fra loro contrastanti ma entrambe logicamente valide.
[20] Ognuna di queste diverse concezioni dichiara che cosa intende con la nozione di “verità” riferita a certi enunciati matematici.
[21] Ernest Nagel e James Newman, La Prova di Gödel, ed. Universale Bollati Boringhieri, 1993, cit. p.105.
[22] Il parametro per misurare l’interazione è l’energia potenziale, il cui valore è molto piccolo rispetto all’energia delle masse dei corpi, ma che cresce più che proporzionalmente al crescere del numero dei corpi interagenti. Ad esempio, in base alla GR, i corpi materiali interagiscono attraverso il campo gravitazionale che è una realtà fisica generata dai corpi stessi (materia e campo sono concepiti come due manifestazioni diverse di un’unica cosa ed entrambi contengono energia. Si può pensare al campo come a una forma di energia diluita, una sorta di atmosfera che si estende attorno al corpo materiale che, a sua volta, è una forma di energia molto concentrata.
[23] Ciascuna pagina possiede una data quantità di energia immagazzinata sotto forma di massa a riposo, secondo la nota formula E=mc2, ed è sorgente di un camo gravitazionale in cui si trova immersa. Si ha così un campo complessivo che costituisce un tutt’uno con l’insieme delle pagine e che cambia di valore da punto a punto al variare delle posizioni relative delle (sorgenti) pagine. Queste, via via che si avvicinano fra loro, cambiano le loro proprietà, per cui non ha più molto senso dire che il loro insieme ha la proprietà di essere un dato numero.
[24] Percy W. Bridgman, La logica della fisica moderna, Ed.Bollati Boringhieri, Torino, 1977, cit. p. 60.
[25] Cantor scopre che, per enumerare tutti i punti di un segmento piccolo a piacere si devono distinguere fra due diversi livelli di Infinito: il livello del Numerabile che è rappresentato da tutti i numeri naturali e che è misurato dalla potenza “aleph-zero”, e il livello del Continuo, rappresentato da tutti i numeri reali e misurato dalla potenza superiore “aleph-uno. Pochi anni più tardi, nel 1877, Cantor intuisce anche che i punti dello spazio sono tanti quanti quelli di un qualsivoglia segmento di linea, cosicché è possibile dimostrare che un cubo ha tanti punti quanti ne ha la superficie di una sua faccia e anche tanti quanti ne ha il suo lato, in altre parole oggetti geometrici ad una, a due, a tre (ed a un qualsiasi numero di) dimensioni hanno la stessa potenza di Infinito aleph-uno. Per poter conciliare il Teorema di Cantor con i concetti tradizionali della matematica, Richard Dedekind intuì che le corrispondenze biunivoche tra i punti di oggetti geometrici con dimensioni diverse non sono continue, in ragione di una proprietà chiamata “omeomorfismo”. La validità di tale intuizione venne poi confermata dal matematico olandese Luitzen Brouwer nel 1911.
[26] Potrebbe trattarsi, come suggerirò in seguito, di un insieme ristretto di specifici oggetti matematici in grado di descrivere l’autoreferenzialità delle azioni fisiche elementari e, associata ad essa, la legge che favorisce i processi di auto-organizzazione. In questo senso le proprietà di tali oggetti potrebbero essere considerate come logicamente inevitabili e immanenti alla natura, per cui l’uso dell’espressione “scoperta” sarebbe più appropriato.
[27] Lee Smolin, La vita del cosmo, Einaudi Editore, Torino 1998, p. 242.