1- La realtà cosmica
Che cos’è l’Universo? Perché c’è? E’ finito (e forse al contempo anche illimitato) o è infinito? Esiste da sempre o ha avuto un inizio? E’ stato creato da un Essere soprannaturale o si è originato spontaneamente dal nulla in un dato istante del passato? Scomparirà infine nel nulla in un lontano futuro?
La mente umana si è sempre appassionata a domande come queste e, col fiorire delle prime civiltà nell’area del Mediterraneo, filosofi e matematici hanno cominciato a studiare l’universo in modo sistematico, ricercando spiegazioni plausibili sulla natura dei suoi costituenti fondamentali, sulle leggi che vi operano e sul ruolo che riveste la presenza di vita e di osservatori coscienti.
Nel corso delle varie epoche questa ricerca è stata approfondita e ha portato ad elaborare diverse teorie, dapprima basate sul linguaggio filosofico o religioso e, in seguito, su quello rigoroso della scienza moderna, fondata essenzialmente sull’osservazione dei fenomeni, il calcolo e le prove sperimentali. Pertanto, le questioni che non potevano essere oggetto di indagine scientifica rimanevano di esclusiva competenza della metafisica e della teologia, e tra esse, la più importante riguardava la ragione dell’esistenza dell’universo. Lungo tutto il percorso storico della filosofia, a fronte di questa profonda questione si sono imposte due principali scuole di pensiero fra loro contrastanti. Una di esse, radicata nelle culture giudaico-cristiana e islamica, sosteneva che l’universo è stato creato dal nulla ad opera di Dio, mentre l’altra consisteva nella tesi dell’universo eterno, senza inizio né fine. A quest’ultima aveva pienamente aderito il padre della Logica, Aristotele, semplicemente perché da lui giudicata di gran lunga più ragionevole della prima. Nonostante la loro spiccata diversità, queste due concezioni avevano in comune una stessa idea: l’immutabilità del cosmo nella sua complessiva struttura. Peraltro, questa credenza non è mai stata messa in discussione fino in tempi recenti, più precisamente fino a quando il mondo della scienza è stato dominato dalla fisica di Newton.
Inizierò questo capitolo riassumendo le tappe principali che, a partire dal secondo decennio del secolo scorso, hanno portato il pensiero filosofico-scientifico ad affrontare le questioni relative all’origine e alla storia del nostro universo. Farò poi alcune osservazioni sulle più recenti proposte cosmologiche, che sono indubbiamente interessanti per l’apporto di ipotesi innovative, ma che non potrebbero in alcun modo giungere ad una formulazione completa e coerente, in quanto fondate su categorie del pensiero prive di adeguate definizioni e su vecchi e consolidati principi logici, a mio parere, erronei e duri a morire.
2- Dall’universo statico all’universo dinamico.
La cosmologia odierna è la scienza che si occupa dell’universo fisico come un tutt’uno e che aspira a conoscere le leggi che lo regolano.
Questa avventura del pensiero umano è iniziata con il meccanicismo di Cartesio e ha avuto una svolta radicale un centinaio di anni or sono, quando lo studio dell’universo venne rivoluzionato dalla teoria della relatività di Einstein, pubblicata nella sua versione completa nel 1916. Le diverse soluzioni alle sue equazioni di campo gravitazionale[1] erano ben presto diventate oggetto di particolare interesse da parte di alcuni astronomi e matematici del tempo, che speravano di servirsene per individuare un modello cosmologico coerente con la nuova teoria. Naturalmente, il primo ad occuparsene fu lo stesso Einstein nel 1917. La sua ferma adesione alla tesi dell’universo eterno e globalmente immutabile lo mise però subito di fronte a un problema cruciale: dato che la gravità agisce come una forza attrattiva,[2] tutti i corpi del cosmo (da lui profeticamente ipotizzato omogeneo e isotropo)[3] prima o poi sarebbero caduti l’uno verso gli altri con conseguenze catastrofiche e paradossali, e comunque difficili da immaginare. Einstein pensò di poter risolvere questo problema ipotizzando l’esistenza di una forza repulsiva in grado di contrastare di misura quella gravitazionale. Per ottenere quel che serviva al suo scopo, introdusse nelle equazioni di campo un termine aggiuntivo che chiamò “termine cosmologico”. Questo doveva poi essere moltiplicato per un imprecisato valore numerico che egli stesso avrebbe potuto calcolare attraverso accurate osservazioni astronomiche al fine di stabilire l’intensità della forza repulsiva. Si trattava però di un’impresa pressoché impossibile a quel tempo, essenzialmente per due motivi. Il primo risiedeva nel fatto che la forza repulsiva, al contrario della gravità, doveva crescere in proporzione diretta al quadrato della distanza, dunque impercettibile nel contesto del sistema solare. Per provarne l’esistenza si sarebbero dovute scrutare le profondità della volta celeste, ma in quegli anni non si disponeva ancora di strumentazioni ottiche tecnologicamente avanzate. Il secondo motivo era legato alla generale convinzione che tutte le stelle visibili nel cielo, incluse le nebulose, facessero parte di un’unica galassia e che questa costituisse l’intero universo.
Deluso per non essere riuscito nel suo intento di proporre un modello cosmologico stazionario, nonché infastidito immeritatamente dalle critiche a lui mosse da alcuni fisici per aver introdotto nella sua teoria il termine cosmologico in modo arbitrario, Einstein decise di sbarazzarsene una volta per sempre, riconoscendolo come un imperdonabile errore, e finì poi col perdere ogni interesse per la cosmologia. Fu una grande occasione mancata per il grande genio del secolo. Se soltanto avesse messo in discussione il pregiudizio dell’universo statico, dalle sue equazioni originali di campo avrebbe potuto facilmente derivare la corretta soluzione per descrivere un modello dinamico dell’universo, prevedendone l’espansione, e a tempo debito sarebbe stato anche riconosciuto come il padre fondatore della cosmologia moderna.
Già agli inizi degli anni Venti, altri scienziati, stimolati dalla teoria della relatività generale, riuscirono a trovare soluzioni alle equazioni di campo gravitazionale in accordo con un modello di universo dinamico. Il primo a proporre un tale modello e a ipotizzare l’origine dell’universo da una grande esplosione (Big Bang) fu il matematico russo Alexandr Friedmann (1888-1925), che trovò due possibili soluzioni connesse alla densità media dell’universo e alla sua geometria: una di esse prevedeva un universo in eterna espansione, dunque aperto e infinito, l’altra lo prevedeva chiuso, finito e destinato prima o poi a contrarsi dopo una prima fase espansiva. Quale delle due soluzioni fosse corretta dipendeva dalla velocità globale con la quale si sta espandendo l’universo. Nelle soluzioni di Friedmann c’era tuttavia un problema concettualmente intrattabile: la singolarità iniziale. Infatti, risalendo all’origine, al tempo zero, l’universo da lui descritto iniziò ad espandersi da un punto, dunque da uno stato iniziale con curvatura infinita e densità infinita. Come fu mostrato in seguito negli anni sessanta dai teoremi di Penrose e Hawking, essenzialmente basati sulla validità della teoria della relatività generale, la singolarità non può essere evitata. Pertanto, qualsiasi modello cosmologico classico, e cioè costruito esclusivamente a partire dalle equazioni di campo gravitazionale, non può offrire alcuna spiegazione delle condizioni iniziali dell’universo.
Alle stesse conclusioni di Friedmann giunse in modo indipendente il matematico belga George Lemaître (1894-1966) nel 1927, ipotizzando l’origine dell’universo dall’esplosione di una sorta di atomo primigenio.
Una svolta fondamentale in cosmologia avvenne nel 1929, quando l’astronomo americano Edwin Hubble (1889-1953) eseguì le prime osservazioni del cielo con il nuovo potente telescopio (2,5 metri di diametro) di Monte Wilson in California, riuscendo a calcolare la distanza di un certo numero di nebulose, Andromeda compresa, e a concludere che tali oggetti erano galassie simili alla nostra, ma che si trovavano di gran lunga oltre i suoi confini. Più precisamente, Hubble scoprì che il fenomeno dello spostamento verso il rosso[4] della luce proveniente da stelle[5] appartenenti a quelle galassie lontane era proporzionale alla loro distanza. Inoltre, egli aveva potuto stabilire una misura approssimativa della costante di proporzionalità, oggi nota come “costante di Hubble”. Dai primi calcoli, il suo valore risultava di circa 500 Km/s per megaparsec. Tradotta in parole più comprensibili, questa espressione significa che una galassia distante poco più di tre milioni di anni luce da noi (ma anche da un qualsiasi altro punto di osservazione del cosmo) risulta allontanarsi ad una velocità di 500 chilometri al secondo, e che tale velocità cresce in proporzione alla distanza della galassia osservata. Questa previsione teorica basata su calcoli applicati su dati osservativi (a quel tempo ancora grossolani), se convalidata da un qualche esperimento, avrebbe rappresentato la conferma di un’espansione complessiva[6] dell’universo, nonché della validità dei modelli cosmologici proposti da Friedmann e Lemaître.
3- Il modello standard del Big Bang.
L’ipotesi di un universo in espansione solleva la questione di come si configurasse nel suo passato in ere sempre più remote, e poi la questione ultima: come ebbe inizio? A ricostruire l’intera storia dell’universo si prodigò un allievo di Friedmann, il cosmologo ucraino George Gamow (1904-1968), in seguito divenuto noto come l’ideatore del modello standard del Big Bang, una descrizione (in parte scientifica, in parte congetturale) di tutte le fasi significative attraversate dal nostro universo nel corso di miliardi di anni.
Nel voler dare un senso compiuto al suo modello, Gamow si propose di descrivere l’evoluzione dell’universo a partire dalla sua nascita. Ipotizzò dunque, come il suo maestro, che all’ora zero esso aveva dimensioni infinitesime (curvatura infinita) e temperatura infinita, e che iniziò improvvisamente a gonfiarsi generando un suo dominio spazio-temporale sempre più ampio. Al procedere dell’espansione, i suoi contenuti di materia (protoni, neutroni, elettroni e le loro corrispettive antiparticelle)[7] e di radiazione elettromagnetica si andavano progressivamente raffreddando, e al contempo l’universo andava incontro ad una successione di repentini e significativi cambiamenti, o transizioni di fase. Nelle primissime frazioni di secondo dopo il Big bang, la temperatura media dell’universo si aggirava attorno ai diecimila miliardi di gradi Kelvin (1013 °K), e la velocità delle particelle era tale da impedire la loro aggregazione. Anzi, dai loro urti violenti emergevano incessantemente coppie di particella-antiparticella.
Questi processi avvenivano con incredibile rapidità, tanto che il ritmo di produzione di tali coppie superava di gran lunga quello della loro annichilazione. Ma al diminuire della temperatura gli urti diventavano sempre meno energici, fino a quando il ritmo di quei due processi cominciò ad invertirsi. Il cosmo si stava così riempiendo di un numero impressionante (1087) di coppie particella-antiparticella, la cui produzione andava via via scemando. Tutto ciò accadeva in una piccolissima frazione di secondo e l’effetto finale fu una generale annichilazione della materia con l’antimateria. Quest’ultima, essendosi prodotta in quantità leggermente minore rispetto alla materia (circa una parte su un miliardo), dopo essere scomparsa lasciò sopravvivere quel numero (1078) relativamente piccolo di protoni, neutroni ed elettroni che costituiscono l’attuale universo.
Alla temperatura di un miliardo di gradi Kelvin (109 °K), la diminuita energia cinetica dei protoni e dei neutroni permise alla forza nucleare di avviare il processo della nucleosintesi, ovvero la formazione dei primi nuclei stabili di deuterio, trizio ed elio. Questo processo non andò oltre la sintesi dei nuclei di elio (formato da due protoni e due neutroni), poiché l’aggiunta di un quinto protone o neutrone avrebbe prodotto nuclei instabili. Gli elettroni restavano liberi e soggetti a incessanti bombardamenti da parte dell’enorme quantità di fotoni ad alta energia. Questi venivano assorbiti dagli elettroni e immediatamente riemessi. Nel contempo, materia ed energia radiativa si trasformavano continuamente l’una nell’altra in base alla nota formula E=mc2. Secondo le stime di Gamow, questo equilibrio (ovviamente dinamico) tra radiazione e materia si protrasse per circa trecentomila anni, fino a quando la temperatura scese sufficientemente perché la forza elettromagnetica consentisse ai singoli protoni e ai nuclei stabili di catturare gli elettroni e dar luogo così al processo di ricombinazione, ovverosia alla formazione degli atomi di idrogeno e di elio nelle rispettive abbondanze oggi osservate (75% e 23%, mentre il restante 2% costituisce gli atomi più pesanti descritti nella tavola periodica degli elementi).
Per alcune delle sue ricerche, Gamow si avvalse della collaborazione di due fisici, Ralph Alpher e Robert Herman, che si appassionarono al modello del Big Bang e che, dopo averlo studiato a fondo, giunsero a fare una previsione di fondamentale importanza, in quanto sottoponibile a prova sperimentale. Si trattava dell’esistenza di una radiazione termica di fondo pressoché uniforme proveniente da ogni parte del cielo che, in base ai calcoli pubblicati in un loro articolo nel 1948, doveva attualmente corrispondere ad una temperatura di circa 5 gradi Kelvin (5 °K ). Questa radiazione veniva da loro interpretata come il residuo fossile della violentissima esplosione che, secondo gli studi di Gamow sarebbe avvenuta poco più di due miliardi di anni or sono.
Per quasi un ventennio dopo la sua divulgazione, il modello di Gamow non incontrò un grande interesse da parte dei cosmologi. Vi erano infatti alcune incongruenze, come ad esempio la stima dell’età dell’universo (che risultava inferiore a quella della Terra). C’era poi la questione della sua origine, fatta da lui risalire ad una singolarità spazio-temporale, ma soprattutto mancavano prove convincenti per quanto previsto dalle sue osservazioni, in particolare per la radiazione di fondo a microonde e le abbondanze degli atomi più leggeri.
Finalmente, una scoperta decisiva avvenuta casualmente nel 1965, riportò il lavoro di Gamow all’attenzione della scienza sperimentale. Due radioastronomi del Bell Telephone Laboratories, Arno Penzias e Robert Wilson, servendosi di una speciale antenna conica costruita per testare la ricezione di onde radio a bassa frequenza via satellite (Echo I, il primo ad essere stato messo in orbita), concentrarono la loro attenzione sulla nostra galassia per captare eventuali segnali. La loro antenna registrava una radiazione a frequenza molto bassa corrispondente ad una temperatura di circa 3,5 °K. I due astronomi fraintesero questa radiazione come un rumore di fondo, forse di origine atmosferica, che infastidiva la loro ricerca e che essi erano determinati ad eliminare con ogni mezzo. Ma i loro lunghi e meticolosi controlli per capire da dove provenisse quel rumore furono vani. Esso restava invariante nonostante l’antenna venisse puntata in qualsiasi direzione del cielo, a qualsiasi ora e stagione.
Nello stesso periodo in cui Penzias e Wilson erano impegnati a risolvere l’enigma, un fisico teorico di Princeton, Jim Peebles, alla guida di un gruppo di scienziati seguaci della teoria di Lemaitre, dopo aver elaborato una serie di congetture e di calcoli, tenne una conferenza in cui sosteneva l’esistenza di un fondo di radiazione a microonde, nota come CMB (Cosmic Microwave Background), che doveva provenire da tutte le direzioni del cielo e rappresentare il tenue residuo dello stato incandescente dell’universo primordiale dominato dalla radiazione.
Dell’annuncio di questa previsione di Peebles, peraltro già avanzata a suo tempo da Alpher, Herman e Gamow, vennero fortunatamente informati Penzias e Wilson che, a loro volta, comunicarono al gruppo di ricercatoti di Princeton i dati effettivamente captati dalla loro antenna. La storia della CMB si concluse felicemente con una pubblicazione di enorme rilievo scientifico, in quanto inclusiva di calcoli teorici e soddisfacenti riscontri sperimentali.
La fortunata e rocambolesca scoperta di Penzias e Wilson ha così permesso di stabilire che i diversi ammassi galattici si stanno allontanando gli uni dagli altri, verosimilmente sotto la spinta di un’immensa esplosione primigenia, in accordo con il modello del Big Bang proposto da Gamow. Il modello è stato poi migliorato e molti cosmologi si sono interessati a scrivere e divulgare articoli e libri sull’argomento. Quello che ha riscosso maggior successo è “I primi tre minuti” di Steven Weimberg (pubblicato nel 1977), che descrive la storia dell’universo scandendo una serie di fotogrammi corrispondenti alle condizioni in cui si trovava in epoche significative del passato, a partire da un centesimo di secondo dopo l’ipotetica ora zero.
Da allora, la questione più dibattuta dai cosmologi ha riguardato l’origine dell’universo. E’ pur vero che essa sconfina nel dominio della metafisica o delle narrazioni poetiche, mitiche e religiose della cosmogonia, ma vi sono sempre scienziati che non intendono fermarsi davanti ad alcun ostacolo. Alcuni di essi sono infatti convinti di poter costruire una teoria cosmologica completa e autoconsistente, facendo affidamento sulle straordinarie risorse intellettuali e tecnologiche oggi disponibili, e probabilmente destinate in futuro ad accrescersi a ritmo vertiginoso. Naturalmente, la questione dell’origine dell’universo o, comunque, della spiegazione della sua esistenza, dovrà in qualche modo richiamarsi alla tematica della causalità e, quindi, dissociarsi dalle rigide interpretazioni positivistiche del mondo fisico.
4- Carenze del Modello standard
Il modello classico del Big Bang, come è stato mostrato nei paragrafi precedenti, spiega alcuni aspetti importanti della storia evolutiva del cosmo (l’abbondanza degli elementi più leggeri, il redshift della luce proveniente da galassie lontane e, soprattutto, la radiazione cosmica a microonde di fondo) ed è accettato come valido dalla maggior parte dei fisici, ma costituisce una descrizione dell’universo incompleta e lacunosa. E’ incompleta a causa della singolarità iniziale che, come già detto, non può essere evitata sull’esclusiva base delle equazioni di campo di Einstein, per cui non può spiegare in alcun modo come si sia originata la palla di fuoco primigenia. E’ lacunosa, in quanto non è in grado di giustificare alcune peculiarità dell’universo risultanti dalle osservazioni e dai calcoli che, dal tempo di Hubble ai giorni nostri, sono stati effettuati con sempre maggiore accuratezza.
Fin dalla pubblicazione del modello di Gamow, tali peculiarità sono apparse ai cosmologi come veri e propri rompicapi. Uno fra l più dibattuti riguarda l’omogeneità e l’isotropia del cosmo a livello globale, caratteristica che però viene meno localmente, e cioè man mano che si scende alla scala di un superammasso di galassie, di un ammasso e, più spiccatamente, alla scala di una singola galassia. Naturalmente, questa distribuzione non perfettamente omogenea della materia è un bene per tutti noi, perché altrimenti non sarebbe possibile la vasta varietà di forme osservabili, ivi compresa la nostra stessa esistenza. Tutto sommato, siamo immersi in uno scenario molto sorprendente, si direbbe ai limiti dell’incredibile. Infatti, l’uniformità globale dell’universo ci fa pensare che inizialmente esso doveva trovarsi in condizioni ordinate estremamente speciali, ma con quel piccolissimo grado di irregolarità calibrato in modo così fine da assicurare la formazione di galassie, stelle, pianeti, vita, intelligenza e consapevolezza. Condizioni iniziali di questo genere, che sembrano riflettere il carattere dell’unicità, non trovano alcuna plausibile spiegazione all’interno del Modello standard.
Un secondo rompicapo si presenta quando ci si chiede come mai l’universo, nel corso di quattordici miliardi di anni, abbia evitato il collasso sotto l’effetto della sua forza gravitazionale. Una risposta ragionevole è che un tale evento non può accadere fintantoché la gravità si trova impegnata a competere con una forza equivalente ma di segno opposto. Nel modello standard questa forza è associata alla sola spinta della grande esplosione primigenia. Chiaramente, una piccola ma significativa deviazione da questa equivalenza tenderebbe ad ingigantirsi esponenzialmente nel tempo. Pertanto, una cosa sembra certa: nell’universo primordiale non poteva esserci alcuna significativa deviazione dall’equilibrio tra gravità e repulsione. In base a calcoli attendibili, appena un secondo dopo il Big-Bang queste due forze opposte fra loro dovevano trovarsi a competere, se non su un piano di perfetta parità, con uno scostamento dell’una rispetto all’altra di una parte su un miliardo di miliardi rispetto al valore attuale. Una preponderanza della forza esplosiva avrebbe fatto espandere l’universo a enormi dimensioni rendendolo pressoché vuoto, vale a dire con una densità di materia sempre più piccola fino a diventare insignificante. Viceversa, un predominio della gravità lo avrebbe fatto ben presto ricadere su se stesso in una grande implosione chiamata “Big-Crunch”, in contrapposizione a Big-Bang.
In cosmologia, la variabile che esprime il rapporto tra l’energia gravitazionale (che si comporta come una pressione negativa) e l’energia cinetica della materia e della radiazione (che si comporta come una pressione positiva) è denotata con la lettera maiuscola greca W (Omega), e dal suo valore dipende la geometria e il destino dell’universo. Più abitualmente, si preferisce esprimere Omega come il rapporto tra densità dell’universo e densità critica, e cioè quell’esatta densità che impedisce all’universo sia di collassare sia di seguitare ad espandersi con velocità in progressivo aumento. Si danno dunque tre casi: se W<1, l’universo è aperto, caratterizzato da una geometria iperbolica e da un’espansione sempre più rapida; se W>1, è chiuso, in accordo con una geometria sferica, e prima o poi cesserà di espandersi per iniziare una fase di contrazione; c’è infine la possibilità di W=1, nel qual caso l’universo è piatto, corrispondente a una geometria euclidea, e si espanderà senza fine ma con velocità decrescente che andrà approssimandosi a zero. Ma visto che sono trascorsi miliardi di anni, la densità di materia dell’universo non può essere né troppo piccola né troppo grande, e quindi si presume che inizialmente il valore di Omega dovesse essere incredibilmente prossimo a uno.[8] A questo punto, alcuni cosmologi trovano più ragionevole ed elegante ritenere Omega esattamente uguale a uno. Questo equilibrio effettivamente intrigante costituisce il problema cosmologico della piattezza e non trova alcuna spiegazione all’interno del Modello standard, che si limita a riconoscerlo come una coincidenza eccezionale.
Inoltre, in questo modello c’è il problema dell’orizzonte, connesso con quello dell’omogeneità e dell’isotropia dell’universo e derivante dal presupposto che nessuna interazione fisica può avvenire a velocità superluminale. Per la comprensione di questo problema basterà un semplice – per modo di dire – ragionamento. Come tutti sanno, le nostre osservazioni degli oggetti celesti si riferiscono al loro passato, per cui se ad esempio puntiamo il telescopio su una galassia distante cinque milioni di anni luce, la vediamo com’era cinque milioni di anni or sono e, por poterla vedere come è adesso, dovremmo attendere altrettanto tempo. Se poi assumiamo come corretta la stima di 14 miliardi di anni per l’età attuale dell’universo e immaginiamo di disporre di due potenti telescopi puntati in due direzioni opposte del cielo, ad esempio uno verso est e l’altro verso ovest, e di osservare così due galassie, Ge e Go, entrambe distanti da noi 12 miliardi di anni luce, è facile capire che queste, pur essendo causalmente connesse con la nostra galassia, non possono esserlo fra loro, dato che distano 24 miliardi di anni luce l’una dall’altra. Esse potranno esserlo fra 10 miliardi di anni, a condizione che l’universo sia effettivamente piatto, abbia cioè una densità critica. Questa situazione appare piuttosto problematica dal punto di vista del Modello classico del Big-Bang, in quanto non si comprende come possa esserci stato uno scambio di informazione per conferire a queste galassie (o a regioni cosmiche più ampie) le stesse caratteristiche, soprattutto i valori pressoché uguali di densità e temperatura, nonostante la distanza che le separa sia maggiore di quella percorribile da segnali luminosi provenienti dal tempo della grande esplosione fino ad oggi.
Riassumendo, il Modello di Gamow stabilisce che la temperatura della CMB oggi osservabile in un dato punto del cosmo è stata determinata dal preciso istante in cui è avvenuta la formazione degli elementi leggeri (oggi stimata a circa 390.000 anni dal Big-Bang), dopodiché l’universo divenne trasparente alla radiazione. Poiché nel corso dell’espansione la lunghezza della radiazione andava crescendo proporzionalmente al crescere della distanza tra le varie regioni cosmiche, queste dovevano essere tutte causalmente connesse fra loro, e dunque non viene spiegato perché ci siano regioni dell’universo che non sono accessibili all’osservazione, ma che lo saranno in epoche future.
Negli anni immediatamente successivi alla divulgazione del Modello Standard, quasi tutti i cosmologi condividevano l’idea che l’origine dell’universo coincidesse con un’immensa e improvvisa deflagrazione avvenuta in un’epoca compresa tra i tredici e i quindici miliardi di anni or sono. C’erano però alcuni scienziati piuttosto insoddisfatti, non tanto per i diversi rompicapo impliciti nella descrizione delle fasi successive al Big.Bang, quanto per il problema dell’origine, ovvero per la mancanza di una spiegazione di tale dirompente fenomeno. Che cosa l’avrebbe provocato e, dunque, che cosa l’avrebbe preceduto? In linea di massima, i fisici di quel tempo consideravano questo genere di domande prive di senso, in quanto non poteva esistere un prima del Big-Bang se questo, come essi credevano, rappresentava l’origine stessa del tempo.
Il modello standard del Big Bang è fondato su prove osservative molto convincenti ed è pertanto accettato dalla quasi totalità dei fisici, ma si è visto che costituisce un resoconto incompleto della storia dell’universo, perché non spiega come possa essersi formata la palla di fuoco supercondensata prima che esplodesse. E c’è un altro mistero. I fisici non sanno dar conto delle condizioni iniziali del nostro universo, visto che dovevano essere calibrate in modo così fine da poter dar seguito ad uno scenario evolutivo di luce e materia in grado di ospitare, a tempo debito, un’ampia varietà di forme complesse e di strutture altamente organizzate, inclusive di esseri viventi e di osservatori coscienti.[9]
I cosmologi che ipotizzano l’esistenza del nostro solo universo sono costretti a considerarlo un evento unico o, per così dire, miracoloso, in quanto estremamente improbabile sulla base di una scelta casuale dei valori delle costanti che lo caratterizzano (calcoli affidabili lo darebbero con una probabilità su 10230). Se però l’universo fosse eternamente ciclico, oppure se anziché esserci un solo universo ce ne fossero infiniti (come previsto da alcuni modelli che saranno passati in rassegna fra poco), e se ciascuno di essi emergesse da condizioni iniziali casuali e fosse caratterizzato da una sua particolare durata di tempo, variabile da una piccola frazione di secondo a molti miliardi di anni, allora esisterebbe anche un sottoinsieme infinito di universi simili o identici al nostro. Ciò conseguirebbe da una legge introdotta dal fisico Lüdwig Boltzmann verso la fine dell’Ottocento (ma già ventilata un secolo prima dal fisico e matematico Ruggiero Giuseppe Boscovich) e chiamata “legge totalitaria”, in base alla quale in una realtà cosmica globalmente eterna un qualunque fenomeno compatibile con le leggi della fisica, non solo prima o poi accade, ma deve essere già accaduto e dovrà accadere un numero illimitato di volte.
5- Cosmologia quantistica:[10] l’universo inflazionistico
Le leggi fisiche attualmente note consentono di azzardare plausibili descrizioni di ciò che potrebbe essere accaduto in prossimità dell’inizio della storia dell’universo, e più precisamente fino al tempo di Planck, 10-43 secondi dopo l’ipotetica ora zero, ovvero quando tutti i suoi futuri contenuti oggi osservabili si sarebbero trovati confinati in una sorta di sfera di ampiezza corrispondente alla lunghezza di Planck,[11] e cioè 10-33 cm. In quel flash temporale relativamente breve regna il più profondo dei misteri, per cui sembra impossibile elaborare congetture sensate per descrivere lo stato dell’universo anteriormente al tempo di Planck e l’irruzione improvvisa dello spazio, del tempo e della materia. Ciò nonostante, la questione dell’origine cominciò a tormentare la mente di quei pochi scienziati non disposti ad accettare che il Big Bang potesse davvero coincidere con l’inizio del tempo. Chiaramente, una tale conclusione avrebbe segnato un preciso confine tra fisica e metafisica, e dunque scoraggiato la nascita di nuove idee. Per fortuna, l’autentico spirito della scienza suggerisce di non arrendersi davanti ad alcun ostacolo, perciò si doveva cercare il modo di ridisegnare quel confine, se non addirittura di cancellarlo.
Per avventurarsi in una simile impresa si richiedeva innanzitutto il superamento dell’ambito classico relativistico e quindi della singolarità iniziale. Infatti, solo attraverso una plausibile descrizione del cosmo primordiale senza il tempo classico non sarebbe stato più necessario conteggiare frazioni di secondo facendo riferimento a un tempo zero.
Un’idea convincente per il raggiungimento di questo obiettivo fu sviluppata dal fisico statunitense Alan Guth nel 1980. Il suo modello cosmologico si basa sul presupposto che prima del Big-Bang l’universo era costituito da un vuoto assolutamente privo di contenuti da lui chiamato“vero vuoto”. Ovviamente, Guth non intendeva riferirsi a un vuoto fisico ma a un campo non energetico, un quasi nulla che egli stesso, ahimè, fu costretto a definire inimmaginabile. Tuttavia, questo assunto decisamente oscuro del vero vuoto non intaccherà affatto l’interesse suscitato dall’idea centrale della sua teoria: il processo inflattivo che precede il Big Bang e, allo stesso tempo, lo spiega riuscendo ad eludere la singolarità. Vediamo come.
E’ possibile – si chiede Guth – che nel campo di vero vuoto accada qualcosa? La risposta gli viene offerta dalle teorie quantistiche di campo, in base alle quali tutti i campi sono soggetti a fluttuazioni imprevedibili. Trova così una valida ragione per non escludere che anche il campo del vero vuoto, sebbene spoglio di energia, possa essere perturbato da una fluttuazione, con una probabilità estremamente piccola ma non nulla. In tal caso, in esso si genererebbe una bolla in uno stato di falso vuoto, così chiamato perché dotato di una propria energia. E se possiede energia, il falso vuoto deve possedere anche una tensione, che agirebbe come una pressione positiva in grado di contrastare la forza gravitazionale, che si comporta come una pressione negativa. A questo punto entra in gioco il concetto di inflazione, che Guth intuisce riflettendo sulle GUT (le teorie di grande unificazione delle tre forze: elettromagnetica, nucleare debole e nucleare forte), che in quegli anni costituivano uno studio piuttosto avanzato. Guth basa i suoi calcoli su queste teorie e descrive il decadimento del falso vuoto come il processo inverso delle GUT,[12] vale a dire come una transizione di fase chiamata “rottura spontanea di simmetria”. Questa avviene quando la temperatura della bolla scende al di sotto di una soglia critica e la forza nucleare forte si separa dalla forza elettrodebole. Ma fintantoché non avviene la rottura di simmetria, la bolla di falso vuoto si trova in uno stato instabile,[13] in quanto dotata di una quantità di energia in eccesso che non è stata ancora spesa del tutto nel compiere il lavoro di pressione contro le sue pareti nel corso del processo inflattivo.
Senza entrare in dettagli tecnici, la bolla di falso vuoto con l’energia prevista da Guth e un raggio di circa 10–26 cm, grazie alla sua tensione, inizia ad espandersi esponenzialmente[14] raddoppiando le sue dimensioni quasi un centinaio di volte nel breve intervallo di tempo compreso tra 10–35 e 10–32s (la sua ampiezza cresce di un fattore 1027, raggiungendo all’incirca le dimensioni di una palla da tennis). Infine, decade improvvisamente rilasciando un’immensa quantità di energia sotto forma di calore e di particelle materiali, dopodiché, avendo esaurito la dirompente forza repulsiva, procede ad espandersi per inerzia nel modo descritto dal modello classico del Big Bang.
La teoria dell’universo inflazionistico, pur avendo i suoi lati oscuri ed essendo difficilmente sottoponibile a prove osservative, ha il merito di eliminare teoricamente la scomoda singolarità iniziale implicita nella relatività generale e a risolvere i rompicapo[15] poc’anzi esaminati all’interno del modello cosmologico classico, le cui previsioni sono peraltro in completo accordo con quelle del modello di Guth. Tra queste previsioni, una è particolarmente emblematica e riguarda la densità di materia presente nel nostro universo, il cui valore viene fissato esattamente uguale a quello della massa critica. Ma da tutti i calcoli finora eseguiti attraverso osservazioni dirette e indirette del cielo si ottiene, nella più ottimistica delle ipotesi, una densità pari a circa il 10% della massa critica, anche se le stime fatte da molti astronomi differiscono fra loro e sono perlopiù inferiori a questo valore. L’universo potrebbe allora non essere piatto, ma iperbolico e destinato ad espandersi sempre più velocemente, nel qual caso la teoria inflazionaria dovrà essere riveduta o accantonata.[16]
Tuttavia, le osservazioni effettuate negli ultimi decenni per calcolare l’attuale velocità di espansione cosmica sembrano deporre a favore di un universo piatto. Ma se è così, dove potrebbe nascondersi il 90% della massa mancante? Alcuni cosmologi sono pervenuti alla conclusione che debba trattarsi di forme sconosciute di materia e di energia, che per risultare inaccessibili ai mezzi attualmente disponibili per poterle identificare, sono state chiamate “materia oscura” ed “energia oscura”,[17] quest’ultima chiamata anche “quintessenza” Si è però fatta avanti anche un’altra ipotesi: l’energia oscura potrebbe non esistere affatto, e il contributo del 90% richiesto per raggiungere la massa critica verrebbe fornito dall’energia del vuoto del nostro universo, erroneamente fissata al valore zero.
Il modello di Guth ha aperto la strada a nuove versioni di cosmologia quantistica, alcune delle quali prevedono la proliferazione di un numero potenzialmente infinito di universi a partire da un paesaggio cosmico preesistente di vuoto quantistico fluttuante, e altre versioni ben più audaci che si propongono perfino di descrivere l’origine dell’universo a partire dal nulla assoluto.
6- Universi che si originano dal nulla
La ricerca di una teoria cosmologica scientifica e unanimemente condivisibile che intendesse spiegare l’origine stessa dell’universo, dovrebbe in qualche modo spingersi oltre il tempo di Planck, e descrivere quello stato fisico del cosmo pre-inflazionario che, come si presume, doveva essere dominato dalla gravità quantistica. Abbiamo però visto nel quarto capitolo che una teoria fisica descritta da un modello matematico sufficientemente complesso (inclusivo del calcolo) non può essere completa per via delle implicazioni dei teoremi di Gödel. Affinché una teoria fisica possa dichiararsi completa e autoconsistente (causalmente chiusa), si richiede che i presupposti su cui è fondata siano dimostrabili all’interno della teoria stessa.[18] Perciò, la formulazione di una teoria cosmologica completa sembra decisamente un’impresa illusoria, a meno che non si trovi il modo di sostituire il tradizionale metodo scientifico con un nuovo criterio di impostazione logica e matematica tale da rendere ininfluente il vincolo imposto dal teorema di Gödel.
In questo caso, non si escluderebbe la possibilità di rendere realistica tale ricerca. Tuttavia, anche un ripensamento della tradizionale metodologia della scienza, benché necessario, non sarebbe sufficiente. Oltre a ciò si dovrà (sperare di) scoprire l’ingrediente fondamentale della realtà fisica, la cui esistenza abbia un senso di inevitabilità logica. Ma visto che la gravità quantistica non è ancora una teoria a portata di mano e che nessuno ha la più pallida idea di come concepire e definire l’ingrediente fondamentale, alcuni fisici interessati alle questioni cosmologiche e cosmogoniche non esitano a chiamare in causa il nulla (direi in modo piuttosto spregiudicato) come “base” di partenza per costruire modelli di universo.
La prima proposta di cosmologia quantistica con la pretesa di partire dal nulla si trova in uno scritto del fisico Edward Tryon pubblicato sulla rivista Nature nel 1973 con il titolo “Is the universe a vacuum fluctuation?” (L’universo è una fluttuazione del vuoto?). L’idea innovativa introdotta in questo modello cosmologico trae spunto dalla teoria della relatività generale e si basa sul fatto che in un universo chiuso la somma algebrica dell’energia totale è zero. Tryon giunge a questa conclusione in quanto l’energia cinetica della materia e della radiazione presente nell’universo agisce come una pressione positiva ed è controbilanciata da un’uguale quantità di energia associata al campo gravitazionale che si comporta come una pressione negativa. Visto in quest’ottica, è allora possibile che il nostro universo si sia originato dal nulla circa dieci miliardi di anni fa senza violare le leggi fisiche. La sola condizione richiesta è che le leggi fisiche implichino che l’universo nascente possegga un valore nullo per tutti i suoi parametri di conservazione (energia, carica elettrica, quantità di moto, e via dicendo). In questo senso, una qualsiasi forma di energia può aumentare, purché contestualmente avvenga un corrispondente incremento di una forma di energia di segno opposto, cosicché un universo può originarsi come fluttuazione quantistica dello spazi-tempo vuoto senza richiedere da questo alcun prestito di energia, e può durare per sempre. La probabilità che si origini un universo di grandi dimensioni come il nostro è estremamente piccola, e tuttavia non nulla. Quindi non c’è da meravigliarsi più di tanto al cospetto di questo nostro universo, poiché si tratta di una di quelle cose che, per quanto rare – spiega Tryon – di tanto in tanto accadono.
L’idea che si possano produrre quantità di energia senza vincoli di restituzione costituisce la vera novità del modello di Tryon, tanto che sarà poi presa in considerazione da Guth e altri cosmologi. Tuttavia, questa sola idea non può rappresentare una spiegazione completa dell’origine dell’universo letteralmente dal nulla. Infatti, Tryon stesso ne è consapevole, dato che non può fare a meno di assumere, senza una spiegazione, un qualcosa che non è il nulla, bensì la pre-esistenza di un vuoto , o di uno spazio-tempo vuoto, prima che sopraggiunga una fluttuazione quantistica .
Un modello cosmologico ben più radicale di quello di Tryon è stato proposto da Alex Vilenkin nel 1982 con il titolo “Creazione di Universi dal Nulla”.[19] Come qualche altro fisico con cui si è trovato in contatto, Vilenkin ipotizza che il nulla sia instabile, e lo definisce come assenza assoluta di contenuti di sorta: niente materia, niente energia, niente spazio vuoto e niente tempo. Questo peculiare stato di nientità associabile ad una geometria zero-dimensioale può saltare, mediante tunneling quantistico[20] in uno stato di falso vuoto. Cosicché, il più è fatto. E’ appena nato un embrione di universo, e nella microscopica bolla di falso vuoto, le cui dimensioni sono confrontabili con la scala di Planck, si innesca il processo inflazionario e tutto procede come già descritto da Guth.
Questo modello non si limita a prevedere un unico universo, ma universi in numero forse infinito. In tal caso conviene parlare più propriamente di multiverso, ovvero di un insieme di universi coesistenti (ciascuno limitato da un proprio orizzonte cosmologico) che, per usare un’espressione cara a Vilenkin, nucleano spontaneamente da nessun luogo. Inizialmente, questo “nessun luogo” è da lui associato al nulla, ma in un secondo momento egli ha tenuto a precisare che con tale termine vuole intendere lo stato di un campo dominato dalla gravità quantistica, uno stato simile a quello concepito da Stephen Hawking, in cui i concetti classici di spazio, di tempo, di energia, di causalità, etc. non hanno alcun significato.
Nel modello cosmologico di Hawking, il campo quantistico gravitazionale non è più caratterizzato da uno spazio-tempo classico in cui la dimensione temporale è lineare e a senso unico, ma da una dimensione spaziale chiamata “tempo immaginario”, in quanto espressa da un numero immaginario (i, che è il simbolo di √–l). Percorrendo a ritroso la storia del nostro universo, non si perviene ad una singolarità iniziale, che nei vari modelli classici del Big-Bang coincide, per analogia, con il vertice di un cono, bensì in una regione rappresentabile visivamente come una calotta sferica , la cui circonferenza massima rappresenta il tempo di Planck e segna il confine che separa la regione del tempo classico dalla regione dove il tempo non possiede alcun inizio definito. La calotta sferica rappresenta la condizione della regione quantistica gravitazionale primordiale dalla quale l’universo sarebbe emerso senza specifiche condizioni iniziali e al contorno.
Si potrebbe dire: “La condizione al contorno dell’universo è che esso non ha contorno (0 confini)”. L’universo sarebbe quindi completamente autonomo e non risentirebbe di alcuna influenza dall’esterno. Esso non sarebbe mai stato creato e non verrebbe mai distrutto. Di esso si potrebbe dire solo che E’.[21]
Così si esprime Hawking argomentando sullo spinoso problema dell’origine e concludendo che, fintantoché si assume un’origine dell’universo, non si può fare a meno di richiamarsi all’esistenza di un Creatore.
Il modello di Hawking è sostanzialmente analogo a quello di Vilenkin, salvo che quest’ultimo ricorre al tunneling quantistico. Ma entrambi, come del resto tutti i modelli finora proposti, per quanto suggestivi, fanno riferimento a qualcosa di preesistente e di non spiegato. Ad esempio, nella sua proposta radicale, Vilenkin, da una parte afferma che un universo può accendersi improvvisamente da nessun luogo e, dall’altra, assume l’esistenza di un ente primordiale assoggettato a leggi fisiche probabilistiche, e dunque in grado di sprigionare l’opportuna scintilla. C’è anche da osservare che le varie teorie cosmologiche fanno troppo affidamento su astrazioni matematiche piuttosto complicate, tanto più complicate quanto più irrealistica appare la possibilità di reperire immagini adeguate alla rappresentazione del microcosmo.
Oltre ai modelli di universo riassunti in questo capitolo, ce ne sono altri degni di attenzione, Uno di questi, chiamato “Megaverso frattale”, è la teoria dell’inflazione eterna proposta dal fisico russo Andrej Linde, in base alla quale si verifica una proliferazione incessante di universi (o bolle cosmiche), ognuno con caratteristiche spazio-temporali diverse e con valori diversi delle costanti di natura.
Ancor più interessante, a mio parere, è per certi aspetti la teoria cosmologica del fisico statunitense Lee Smolin. Riprendendo un’idea suggerita da John Wheeler, in base alla quale ad un collasso gravitazionale dell’universo corrisponderebbe un rimbalzo e la rigenerazione di un nuovo universo secondo un processo ciclico senza fine, Smolin, nel suo saggio La vita del cosmo, ipotizza una proliferazione incessante di baby universi dal collasso di stelle in buchi neri. In ciascun rimbalzo il nascente universo si espanderà per formare un universo pressoché simile all’universo madre. Questo processo riproduttivo si svolgerebbe secondo regole di selezione analoghe a quelle della teoria evolutiva di Darwin, favorendo quegli universi che contengono un maggior numero di buchi neri. La nostra esistenza si troverebbe confinata in uno di questi universi limitato da un orizzonte.
I modelli di multiverso di Vilenkin, Linde e Smolin consentono di fornire una formulazione forte del principio antropico[22], in quanto il nostro universo altro non sarebbe che uno fra i tanti esistenti (forse infiniti) in grado di ospitare osservatori coscienti.
All’interno del dibattito cosmologico c’è anche spazio per una interessante proposta in conflitto con tutte le teorie basate sul Modello Standard del Big-bang.
7- C’è stato davvero il Big bang?
Come alternativa alle diverse teorie cosmologiche basate sul Big-bang, va ricordato il modello dello stato stazionario dell’universo proposto nel 1948 dagli astrofisici Fred Hoyle (1915-2001), Herman Bondi (1919-2005) e Thomas Gold (1920-2004). La loro tesi era basata sull’idea di un universo eterno e complessivamente immutabile. Benché in continua espansione, la diminuzione della sua densità sarebbe compensata da un’incessante creazione dal nulla di nuove particelle nello spazio vuoto. Questo processo avverrebbe ad un tasso così basso da non essere osservabile strumentalmente, ma sufficiente a mantenere costante la densità del cosmo.
A questa tesi, molti fisici reagirono sollevando un’obiezione: la creazione di nuove particelle rappresentava una violazione del principio di conservazione della massa-energia. Ma prontamente, gli ideatori dell’universo stazionario risposero che la tesi del Big-bang implicava una ben più clamorosa violazione di tale principio.
Confutazioni a parte, il modello dello stato stazionario incontrò i favori di diversi scienziati, soprattutto di quelli che osteggiavano la strumentalizzazione da parte della Chiesa cattolica della teoria del Big-bang, in quanto accolta come una prova scientifica della creazione divina.
Il successo del modello dello stato stazionario non fu comunque di lunga durata. Nel 1965 esso venne accantonato come incompatibile con la scoperta della radiazione cosmica di fondo (CMB). Tuttavia, il modello venne ripreso dall’astronomo statunitense Halton Arp (1927-1994) per essere rivalutato attraverso lo studio degli effetti prodotti dai quasar (radio sorgenti quasi stellari). I quasar, così chiamati per il loro aspetto quasi stellare, sono stati scoperti dallo stesso Arp negli anni sessanta mentre stava redigendo il suo Atlante delle galassie peculiari. Arp, che aveva fatto parte del team di astronomi degli osservatori di Monte Palomar e Wilson per quasi un trentennio, era anche un espertissimo fotografo, e nel suo Atlante sono descritte e documentate ben 338 galassie e un gran numero di quasar.
Questi corpi celesti straordinariamente luminosi, ancor oggi avvolti in un alone di mistero, emettono onde radio con una quantità di energia equivalente ad almeno un migliaio di volte quella emessa da una galassia di grandi dimensioni. Inoltre, i quasar sono generalmente caratterizzati da un alto valore del red shift, ovvero dello spostamento verso il rosso delle righe spettrali. In base alla legge di Hubble, il valore del red shift, denotato con z, è proporzionale alla velocità di allontanamento dei corpi celesti dal punto di osservazione. Ciò significa che, più grande è il valore di z relativo a un corpo celeste, maggiore è la sua distanza dall’osservatore e che i quasar si trovano ai limiti estremi dell’universo osservabile.
Dai dati raccolti, Arp aveva intravvisto un collegamento tra i quasar e le galassie irregolari catalogate nel suo Atlante, cosicché aveva iniziato a dubitare che il red shift fosse di natura cosmologica, che fosse cioè associato all’espansione cosmica descritta nel Modello Standard del Big-bang. Anzi, egli è stato sempre più convinto che il red shift dovesse essere attribuito a un qualche fenomeno del tutto estraneo alla recessione delle galassie. La sua ipotesi è che i quasar sono corpi eiettati dal nucleo di galassie particolarmente turbolente e, in molti casi, concentrati in galassie piuttosto vicine (M87 e NGC5128). Naturalmente, se le sue deduzioni fossero corrette, il Modello del Big-bang entrerebbe in crisi.
La comunità scientifica degli Stati Uniti, avendo visto in questo ricercatore un personaggio scomodo, cominciò ben presto ad osteggiarlo facendo di tutto per impedire la divulgazione delle sue idee. Invitato a proseguire i suoi studi sull’evoluzione delle galassie attenendosi ai metodi tradizionali, pena il divieto di servirsi dei due maggiori telescopi allora disponibili, Arp decise di lasciare il suo paese per proseguire le sue ricerche in Germania al Max Planck Institute di Garching.
A contrastare l’ipotesi che il Big-bang rappresenti l’origine dell’universo, oltre all’approccio di Arp, sono attualmente in corso nuovi studi. In particolare, vanno segnalati quelli intrapresi da un team di astrofisici guidati da Stephen M. Feeney, impegnati a ricercare la provenienza della CMB da altre fonti non associabili al Big-bang. Le loro investigazioni, come anche quelle di Arp, sono in attesa delle informazioni che giungeranno dal telescopio satellitare Planck (di recente inviato nello spazio) e che potrebbero rivelarsi decisive nell’eliminare il problema dell’origine.
Le osservazioni eseguite da Feeney e i suoi colleghi hanno individuato quattro deformazioni cosmiche circolari che sembrano suggerire l’esistenza di almeno altri quattro universi di forma irregolare che in passato avrebbero interagito, in qualche misura, con il nostro. Si è fatta così più circostanziata l’ipotesi dell’esistenza di altri universi oltre al nostro, forse infiniti, ipotesi che sarebbe, in qualche misura, concordante con quella dell’inflazione eterna proposta da Linde.
A tutti i modelli cosmologici descritti nel presente capitolo, si aggiungano le teorie delle Stringhe, delle Superstringhe e delle Brane (Teoria M, dal termine Membrane), delle quali ho dato conto nel quinto capitolo. Queste ultime sembrano però incontrare oggi meno consensi dei modelli inflazionistici, ritenuti più propriamente scientifici perché fanno previsioni sottoponibili a test osservativi. Gli attuali e futuri progetti satellitari[23] per ottenere misurazioni sempre più accurate della costante di Hubble, per catturare indizi sulle proprietà della materia esotica mancante, se esiste, e per venire a conoscenza di dettagli di non poco conto, ad esempio stabilire se i neutrini possiedono una massa, saranno decisivi per operare una scrematura delle diverse proposte.
Sarà ora opportuno riassumere le non poche difficoltà che dovrà affrontare la scienza teorica e sperimentale per sperare di uscire dall’attuale situazione di stallo.
8- Riflessioni sui problemi derivanti dallo studio del cosmo e della fisica atomica.
Abbiamo visto come l’ora zero, e con essa la singolarità, possa esse eliminata ipotizzando che anteriormente al tempo di Planck sussistesse quella condizione che i fisici chiamano “simmetria assoluta” o assenza di contenuti reali di spazio, di tempo e di materia. Tale condizione viene associata a un ordine primordiale della natura, nel quale i quattro campi di interazione noti alla scienza dovevano essere indifferenziati, e cioè unificati in un unico campo perfettamente simmetrico, un campo di gravità quantistica fluttuante, e dunque probabilistico, che avrebbe avuto un dominio incontrastato fino al tempo di Planck e nel quale non sarebbe esistito il tempo classico. Ma in questo caso quale fonte creatrice avrebbe instaurato quell’ordine primordiale e poi provocato la sua rottura, e quindi la comparsa improvvisa dell’universo?
La scienza vorrebbe dare risposte ragionevoli a tali domande, dato che il suo obiettivo ultimo è, almeno virtualmente, la comprensione della natura dell’universo, di tutti i fenomeni fisici e delle leggi che li governano. Alcuni scienziati sono convinti che tale comprensione, o un promettente avvio verso il suo raggiungimento, ci potrà provenire soltanto dalla formulazione della gravità quantistica (la teoria di completa unificazione delle quattro interazioni fondamentali della natura). Ma la sua ricerca deve fronteggiare problemi più che difficili e, secondo il giudizio della maggior parte dei fisici e dei filosofi della scienza, quand’anche fosse formulata, potrebbe non essere corretta, e quasi sicuramente non sottoponibile a prove sperimentali. Infatti, esistono profonde restrizioni di ordine sia teorico che pratico alle quali ho già accennato (V. introduzione e quarto capitolo). Le prime conseguono dal principio di indeterminazione di Heisemberg e dal teorema di incompletezza di Gödel, le seconde derivano dal fatto che la scienza si fonda, oltre che sulla teoria, sull’esperimento e procede essenzialmente con il criterio del riduzionismo, in base al quale tutte le cose materiali si ridurrebbero a particelle elementari e a interazioni. Per di più, nell’ambito della teoria quantistica l’idea di particella elementare non ha nulla a che vedere con quella che si aveva in passato, né sembra definibile con i nostri abituali concetti. In pratica, l’elementarità di un corpuscolo materiale (generalmente intesa dai fisici come assenza di struttura) dipende dal parametro energia che, a sua volta, è associato alla scala delle lunghezze. E poiché gli attuali acceleratori di particelle dispongono di energie che permettono di esplorare il microcosmo fino a lunghezze dell’ordine di 5×10–18 cm, al momento non è dato di gettare un’occhiata al di sotto di questa soglia per sapere se leptoni e quark, gli ipotetici mattoni che costituirebbero gli oggetti fondamentali della natura, dove si presume che le leggi operino in modo semplice, siano effettivamente ατομα σωματα, e cioè corpuscoli non scomponibili.
Queste limitazioni teoriche e pratiche, nonché le incomprensibili stranezze della fisica quantistica, ostacolano l’intento della scienza di conciliare i due diversi linguaggi che descrivono macrocosmo e microcosmo. I molti paradossi affioranti da quest’ultimo, ad esempio l’idea di onde che sono particelle e di particelle che sono onde, o di una singola particella che si trova contestualmente in luoghi diversi, impongono di prendere una posizione: credere che le modalità profonde con le quali la realtà si esprime siano per natura inintelligibili o addirittura irrazionali, oppure respingere questa linea pessimistica del pensiero e impegnarsi a scoprire dove possa trovarsi il punto debole, o l’errore o, comunque, il vero motivo che rende il nostro modo di ragionare inadeguato ad una comprensione unitaria del mondo fisico. Va poi ricordato che nessun ricercatore è finora entrato in possesso di indizi significativi ai quali ancorarsi per poter formulare una spiegazione razionale dei processi quantistici, e tantomeno per giustificare la loro occorrenza. Eppure questi processi, sebbene inosservabili, dal punto di vista del realismo dovrebbero costituire la tessitura fondamentale dell’universo.
9- Sulla domanda “perché esiste qualcosa anziché il nulla?”
Personalmente, avverto il sospetto che la razionalità umana sia profondamente distorta dall’uso troppo disinvolto che vien fatto di certe categorie del pensiero, come “nulla”, “essere assoluto”, “causa prima”, etc. Più precisamente, ritengo che tutti i paradossi e le anomalie che affliggono la teoria della conoscenza abbiano la loro sorgente in uno stato mentale fuorviante che si è radicato negli esseri umani in modo del tutto naturale nel corso delle loro esperienze sensibili e intellettive, e che coinvolge non solo fisici fondamentalisti e filosofi, ma anche gran parte delle persone comuni. Tale stato mentale consiste nella sensazione di totale spaesamento che pervade l’io cosciente dinanzi a sé, al proprio esperirsi, e dalla quale erompe la domanda “perché mai esiste qualcosa anziché nulla?”. Infatti, in questa domanda, spesso citata nei trattati di autorevoli uomini di pensiero e ritenuta perfino la più fondamentale fra tutte, si riflette una convinzione che chiunque giudicherebbe sensata, e cioè che il nulla sarebbe stato più ovvio di ciò che c’è, o di qualunque altra cosa.
Uno dei compiti che mi sono prefisso di affrontare con il presente lavoro consiste proprio nel contrastare una tale convinzione. Allo scopo, argomenterò qui di seguito intorno a sei nozioni che sono ricorrenti nel discorso filosofico-scientifico e che, secondo il mio modo di vedere, richiederanno di essere ripensate da chiunque voglia mettersi seriamente alla ricerca di una teoria fisica unitaria. Esse sono, nell’ordine, il nulla,[24] l’ente, la causalità, l’energia, il vuoto, la coscienza. A quest’ultima, per via della profondità e della diversità degli argomenti proposti da un’ampia schiera di filosofi della mente e di neuroscienziati, dedicherò un capitolo a parte.
10- Il nulla, figura contraddittoria del pensiero?
Il nostro Universo, attraverso una successione di transizioni di fase e di processi auto-organizzativi a noi ancora profondamente sconosciuti, ha avuto modo di sviluppare un suo apparato sensoriale e intellettivo attraverso il quale si è trovato nella condizione di un vertiginoso stupore, sorprendendosi consapevolmente come un qualcosa di troppo e, quindi, interrogandosi sulla ragione di questo suo manifestarsi. In tal senso, il nostro Universo è pervenuto ad osservarsi in una sorta di specchio come disorientato testimone di se stesso. E’ testimone, per così dire, di una destabilizzazione apparentemente ingiustificata, tant’è che si chiede perché mai un qualcosa (aliquid) stia effettivamente accadendo, e si chiede anche quale possa essere il contenuto fondamentale di questo qualcosa che, incomprensibilmente, sembrerebbe sostituirsi all’assoluta indifferenza del nulla.
Nei Principi della Natura e della Grazia, Gottfried W. Leibniz (1646-1716) si pone la domanda “perché c’è qualcosa piuttosto che nulla?”. La questione è da lui posta in tono retorico e non fa che rafforzare l’implicita costatazione che qualcosa indubitabilmente esiste e che esiste in forza di un principio di ragion sufficiente,
in virtù del quale affermiamo che nessun fatto potrebbe esser vero o esistente, nessuna enunciazione vera, senza che vi sia una ragione sufficiente del perché sia così e non altrimenti, sebbene queste ragioni ci siano il più delle volte ignote.[25]
Questo principio, che esprime una concordanza fra tutte le parti dell’universo, nella sua concezione cosmologica fondata sulle monadi, è salvaguardato da Dio.
Leibniz non indaga affatto sull’eventualità inversa, chiedendosi cioè “perché non il nulla anziché un qualcosa?”. Il nulla non viene da lui discusso semplicemente perché non sembra discutibile, anzi, viene rigettato, cancellato e dimenticato.
Ma ecco farsi strada, in tempi più recenti, alcune riflessioni di profondo pessimismo. Sarà Arthur Schopenhauer (1788-1860) il primo filosofo a congiungere la domanda “perché mai esiste qualcosa?” alla domanda “perché mai io esisto?”, avvertendo così la spaventosa consapevolezza dell’incombente annientamento, non solo delle cose, ma soprattutto dell’io. Per Schopenhauer l’esistenza è un mistero tanto affascinante quanto tragico ma del tutto insondabile, e giudica folli tutti coloro che si adoperano nella ricerca di una risposta soddisfacente alla domanda fondamentale.
Questo genere di follia sembra emergere nell’opera filosofica di Henri Bergson (1859-1941), L’evolution creatrice, dove egli osserva che l’esistenza di qualcosa costituisce di fatto una vittoria sul nulla. Ma Bergson riflette anche su quanto è implicitamente espresso nella domanda fondamentale, e cioè sulla compresenza in essa di due categorie fra loro contrapposte e apparentemente esclusive l’una dell’altra, da una parte qualcosa e dall’altra il nulla. In Bergson si va così insinuando l’idea che l’esistenza del nulla sia possibile. Si propone infine di dimostrare, con una serie di argomentazioni opinabili, che l’idea del nulla assoluto è contraddittoria e, nelle sue conclusioni, la definisce un’idea priva di senso, così come lo è la domanda fondamentale.
Sarà Friedrich W.J. Schelling (1775-1854), anticipando il pensiero di Martin Heidegger (1889-1976), a riproporre la domanda come un grido angosciante: perché qualcosa? E perché non il nulla? Qui il nulla, per così dire, è invocato drammaticamente da Schelling come una sorta di benedizione, in quanto inteso come una condizione di assoluta tranquillità e indifferenza, come riposo indolore che sarebbe al riparo dall’insensatezza di ciò che c’è o, detto altrimenti, “dello spettacolo desolante della storia umana e del suo precipitare di fallimento in fallimento”.[26]
Ma da dove viene questo qualcosa e quali leggi governano le sue trame?
E pur ponendo un principio, la domanda ‘perché un tale principio esiste piuttosto che niente?’ resta sostanzialmente invariata.[27]
Ora dovremo però chiederci che cosa sia questo niente che, lo si voglia o no, entra a far parte delle nostre riflessioni. Noi stiamo parlando di ciò che esiste e siamo interessati a comprenderlo come tutt’altro che il niente. Ma se noi giudichiamo ciò che c’è come esplicitamente estraneo al niente e ripudiamo il niente,
non gli diamo già con questo un riconoscimento? D’altra parte si può parlare di un riconoscimento se ciò che riconosciamo è il niente?[28]
Nel modello standard delle particelle, il niente viene estromesso dal linguaggio degli scienziati, in quanto rende privi di senso i calcoli teorici di particolari grandezze fisiche. Accade però che essi non trovano più alcun modo di disfarsene quando giungono ai limiti delle loro investigazioni.
Infine, non sono mancati alcuni tentativi di salvaguardare il niente o, per essere più precisi, di restituirlo al discorso scientifico. Per citare degli esempi, la nozione di supersimmetria in fisica teorica è nata come esigenza di una concezione cosmologica tale che la totalità delle grandezze fisiche in gioco nel nostro universo (U) sia in perfetto accordo con zero (U=0). Alcuni modelli della nascente cosmologia quantistica presuppongono che l’universo abbia fatto irruzione letteralmente dal nulla (mi riferisco alle teorie cosmologiche inflazionarie di cui ho parlato nei precedenti paragrafi). In fisica quantistica è generalmente accettata l’idea di creazione spontanea di particelle dal nulla. Tutto ciò fa del nulla (dello zero e del punto geometrico) un’ombra sfuggente e inquietante all’interno del linguaggio scientifico.
Che cos’è allora il niente? Come definirlo, se non sembra possibile evitarlo? Sarà Heidegger ad affrontare tali questioni in una serie di lezioni tenute nel 1935 presso l’Università di Friburgo, dove aveva ricevuto l’incarico di Rettore dopo la sua adesione al nazismo.
Far questione del niente – che cosa e come esso sia – è convertire ciò di cui si fa questione nel suo contrario. La questione si priva essa stessa del suo oggetto […] la “Logica” universale col suo principio di non contraddizione, sopprime la questione, poiché il pensiero – che è sempre pensiero di qualcosa – dovrebbe qui agire contro il suo proprio essere come pensiero del niente.[29]
cosicché non sembra possibile questionare e, tantomeno, rispondere sensatamente attraverso la Logica, la cui supremazia non può essere messa in dubbio da Heidegger, che prosegue chiedendosi:
Non è l’intelletto realmente l’arbitro supremo in questa questione intorno al niente? E’ ben con il suo aiuto che noi riusciamo a determinare il niente in generale, e a porlo come un problema, sia pure come un problema che annulla se stesso. Poiché il niente è la negazione di tutto l’essente, noi portiamo, così, il niente sotto la superiore determinazione di ciò che è affetto di nullità, e però negato. Ma il negare è […] una specifica operazione dell’intelletto. Come possiamo, dunque, noi volere, nella questione del niente […] mettere da parte l’intelletto?[30]
. Oltretutto, l’intelletto umano pone la questione del niente semplicemente perché essa si fa avanti da sé nel porre la questione di ciò che c’è. Pertanto,
Se in qualsiasi modo, sempre, il niente deve venire in questione – esso stesso – bisogna bene che, anzitutto, sia dato. Noi dobbiamo poterlo incontrare. Dove lo cerchiamo il niente? Come lo troviamo?[31]
Nella seconda parte della Prolusione al saggio Che cos’è la Metafisica?, Heidegger fornisce la sua esplicazione alla domanda “come e che cosa è il Niente?”. Egli osserva che nell’essere esistenziale dell’uomo (nel Dasein) accade, sia pure in rari momenti, di trovarsi in uno stato di sospensione, uno stato di angoscia dove il proprio esserci e l’esserci di tutti gli enti si sono momentaneamente dileguati. Ed è in questo trovarsi sospeso nell’inquietudine dell’angoscia che l’uomo (il suo puro essere esistenziale) si trova al cospetto del niente, fa cioè, in un certo senso, l’esperienza del niente.
Che l’angoscia sveli il niente, lo constatiamo noi stessi immediatamente appena se ne va. Lo sguardo, ancora fresco del ricordo, si rasserena, e noi siamo costretti a dire: di che e perché ci siamo angustiati? Non c’era, “propriamente” – niente. E, in realtà, il niente stesso – come tale – era là. […] noi abbiamo così colto quell’evento dell’essere esistenziale, in cui il niente è manifesto, e da cui deve venir fuori la possibilità della questione: Come e che cosa è il niente? [32]
Nel corso di questa digressione sulla questione del niente e delle successive argomentazioni per la sua soluzione, Heidegger palesa con crescente evidenza la sua passione per la metafisica ed elabora un sofisticato ed espressivo linguaggio filosofico che, tuttavia, fatte salve alcune rilevanti intuizioni, risulta impregnato di eccessivo intellettualismo e, quindi, nel suo complesso cavilloso, oscuro e noioso. Infine, il suo tentativo di approfondire la questione del nulla sul fronte del pathos esistenziale ci lascia insoddisfatti: sospesi nell’angoscia, la cosiddetta “esperienza del nulla” è come il flash di uno spettro che può darci, sì, un sussulto, ma niente di più.
Se l’intelletto non può eludere il nulla, dovrà pur adoperarsi nella ricerca di una sua definizione logicamente rigorosa. Ecco però che, non appena si appresta a farlo ricorrendo a tutti i suoi mezzi possibili, la ragione non sembra in grado di appropriarsene e definirlo in modo tale da non incorrere in una contraddizione. E se da una parte la filosofia e la scienza considerano sensata la ricerca di un principio unificante della molteplicità dei fenomeni del nostro Universo (anche se una comprensione del suo contenuto ultimo e del meccanismo profondo che ne governa il comportamento appare alla maggior parte dei fisici una meta irraggiungibile), dall’altra non sembrano in grado di trovare alcun appiglio per tematizzare la categoria del nulla all’interno della Logica o per stabilire una relazione comprensibile, se esiste, tra il nulla e la realtà cosmica.
Se la possibilità di disvelare questo misterioso qualcosa, ovvero ciò che c’è, non sembra essere del tutto abbandonata dalla scienza, lo è invece quella di disvelare il nulla.
Del nulla non si può dire che esiste né che non esiste, e neppure ripiegare su un compromesso dicendo, ad esempio, che il nulla è ciò che insieme esiste e non esiste. Nessuna di queste asserzioni sembra più comprensibile delle altre. Il nulla risuona dunque come un indicibile o come la massima contraddizione del pensiero. Tutto ciò è frustrante. Ma d’altro canto, non troviamo ancora un modo soddisfacente per definire il primo termine evocato nella domanda fondamentale, e cioè quel qualcosa non meglio definito, ma della cui esistenza ci dichiariamo certi.
Per ora mi limito a dire che questo qualcosa, che d’ora in avanti chiamerò “ente” (o anche “ciò che c’è”), è quantomeno tutto ciò con cui siamo abituati a convivere attraverso azioni e interazioni fisiche, e che ad esso qualunque persona di buon senso attribuirebbe un fondamento ontologico, giudicandolo pertanto come l’assolutamente estraneo al nulla. Tuttavia, riguardo a questa conclusione apparentemente sensata intendo subito confessare di nutrire seri dubbi, e tenterò più avanti di spiegarne le ragioni (v. cap. VIII) esponendo il mio personale approccio per la trattazione di questa problematica contrapposizione niente-ente.
11- L’ente
Generalmente si definisce “ente” tutto ciò che in qualche modo esiste. Ma che cosa significa esistere in un qualche modo? E in quanti diversi modi di esistenza sarebbe appropriato classificare gli enti? Esistono forse enti caratterizzati da diversi gradi di realtà, come dire, ad esempio, che i chiodi e i gas sarebbero enti fisici molto reali, mentre le onde radio e i desolati spazi intergalattici lo sarebbero molto meno? Che dire poi di altri enti che non sembrano appartenere al mondo fisico, ma a quello impalpabile (per molti filosofi di altra natura) dell’attività mentale, come le percezioni sensoriali, le idee e i ragionamenti? Infine, quanti enti potrebbero essere racchiusi in quel tutto ciò che esiste?
Se a queste domande si intende rispondere tenendosi al riparo da affermazioni logicamente confutabili, si perviene alla conclusione che c’è un solo insieme di enti la cui esistenza è immediata e certa: il flusso di esperienze mentali vissuto in modo diretto dall’io pensante che riconosce se stesso, per così dire, in un ruolo centrale di attore e spettatore insieme.
Sebbene non si possa escludere che esista qualcos’altro al di là del proprio mondo mentale, non c’è nient’altro all’infuori di questo che sia reale in modo altrettanto indubitabile.
La logica da sola non può cavar nessuno dal suo mondo sensibile, non può neppure costringerci a riconoscere l’esistenza indipendente dei nostri simili.[33]
Se però ci si attenesse alla ferma convinzione che esista unicamente il solus ipse, ovvero l’esclusivo mondo del Sé, quale senso e quale prospettiva avrebbe una tale realtà chiusa in se stessa e ridotta al soliloquio?
Nella storia degli esseri umani può anche darsi che qualcuno sia stato un convinto solipsista, ma non v’è traccia di alcun filosofo moderno (a partire da Cartesio, Locke e Hume) che lo sia stato. D’altro canto, l’eventuale filosofo solipsista, riterrebbe assolutamente priva di senso l’idea di affannarsi a divulgare un trattato autobiografico sulle proprie convinzioni. Va però anche rimarcato che nessuno dei filosofi passati alla storia avrebbe mai potuto liquidare il solipsismo in modo sbrigativo, e per ovvie ragioni: benché sembri del tutto evidente l’esistenza oggettiva di una molteplicità di enti, parte dei quali in grado di comportarsi proprio come noi, e dunque come altrettanti soggetti in grado di pensare consapevolmente, non ci è dato in alcun modo averne una conoscenza diretta, e quindi dimostrarla con mezzi logici.
Infatti, in qual modo potremmo accertarci che là fuori, ad esempio, c’è un tavolo? Ci convincerebbe forse una semplice occhiata, magari avvalorata da un calcio ben assestato? Questa sarebbe però una risposta tanto disinvolta quanto azzardata. Ciò che invece dovremmo limitarci a dire, onde evitare di esporci ad asserzioni ingiustificate, è
Sappiamo che se noi dessimo un’occhiata là fuori per controllare se abbiamo oppure no l’impressione di vedere un tavolo, riceveremmo effettivamente la giusta impressione a riguardo. Fintantoché ci atteniamo entro l’ambito del puro pensiero, quest’ultima nostra asserzione non equivale in alcun modo ad assumere una posizione a favore o contro il cosiddetto realismo oggettivo”.[34]
Naturalmente, è possibile uscire dall’isolamento angusto del proprio mondo mentale e fissare una base filosofica ragionevole da cui muovere verso la costruzione di una teoria della conoscenza. Ma ciò richiede di compiere un salto attraverso un’ipotesi di natura metafisica. Peraltro, una tale operazione può condurre a concezioni della realtà profondamente diverse fra loro.
Come già ampiamente osservato nei precedenti capitoli, lo studio della luce e della materia, e infine la formulazione della QM, ha portato la comunità scientifica a schierarsi su due principali posizioni filosofiche, sia epistemologiche sia ontologiche, riguardo il modo di concepire il mondo. In larga maggioranza si è imposto l’antirealismo (positivismo o soggettivismo), una visione della natura racchiusa nell’interpretazione di Copenaghen della QM che si limita ad assumere come reali soltanto gli atti di osservazione e le operazioni di misura da parte dei soggetti dotati di percezioni sensoriali e intellettive. I loro più cauti sostenitori si attengono al principio del rasoio di Occam, ritenendo che ulteriori assunzioni non sono necessarie alla loro concezione scientifica della realtà. A questa interpretazione si è opposta quella del realismo oggettivo. I loro seguaci pensano che, una volta deciso il salto metafisico, tanto vale farlo più in alto e assumere che, a fronte di una molteplicità di soggetti coscienti e intelligenti in grado di comunicare fra loro, esiste anche un mondo fisico situato al di fuori delle menti indipendente dal fatto che lo si osservi o meno. Essi ritengono che una tale prospettiva sia, in termini di progresso scientifico, ben più ragionevole e fruttuosa di quella degli antirealisti che, assumendo la QM come una teoria completa, non avrebbero significative opportunità di allargare gli orizzonti della conoscenza.
Da qui in poi adotterò il punto di vista del realismo oggettivo e una forma di monismo del tutto personale, che mi permetterà di prendere le distanze da tutte le forme note di idealismo e di materialismo, e che cercherò di delineare, spero in modo comprensibile, nel corso dei due ultimi paragrafi del presente capitolo.
Tornando alla domanda introduttiva, il mondo risulta popolato da una ricchissima varietà di enti che, nell’uso del linguaggio quotidiano, sono genericamente pensati e contraddistinti come “oggetti”, “fenomeni”, “soggetti animati”, “azioni”, “forme di organizzazione sociale e culturale”, “sensazioni”, “proprietà”, “idee”, “costruzioni mentali (più o meno complesse)”, e via dicendo. Potremmo redigere una lista citando gli enti più disparati, impresa che può essere però agevolmente evitata ricorrendo al dizionario. Il dizionario è un ente pensato come un oggetto che, a sua volta, è costituito da un insieme numericamente finito di altri oggetti: le parole stampate in grassetto, seguite da altre parole che ne specificano date caratteristiche o che ne esplicano il significato. Ogni parola che vi possiamo leggere è un simbolo, o un’etichetta, che evoca un concetto (conceptus, participio passato del verbo latino concipere, significa “accolto nella mente” o “compreso”), e questo identifica un ente al quale pensiamo e che chiamiamo “referente”. Come spiega con chiarezza Alberto Marradi,
Il concetto é un ritaglio operato in un flusso di esperienze infinito in estensione e in profondità ed infinitamente mutevole. Il ritaglio si opera considerando globalmente un certo ambito di queste esperienze, ad esempio, unificando alcune sensazioni visive e tattili nel concetto di ‘tavolo’ oppure alcuni stati d’animo nel concetto di rabbia. Effettuato una volta questo conglobamento di sensazioni, ci sarà più facile ripeterlo in casi analoghi, per cui riconosceremo (non senza margini di errore) altri tavoli o altri stati di rabbia. In questa maniera ridurremo gradatamente la complessità e la problematicità del mondo esterno, e quindi accresceremo la nostra capacità di orientamento nella realtà.[35]
Attraverso continue interazioni fra individui socialmente organizzati si andrà allora costruendo nel tempo un insieme sempre più complesso di concetti che formeranno il loro reticolo concettuale.
I concetti che si congiungono a esperienze sensoriali sono detti concreti. Quando invece un tale congiungimento non sussiste, il concetto viene detto astratto. Per essere più precisi, vi sono concetti che, pur essendo definiti astratti, come ad esempio “tristezza”, possiedono comunque un valore semantico, in quanto risultanti dall’unificazione di un complesso di esperienze interiorizzate, mentre vi sono alcuni concetti astratti che ne sono completamente privi, come ad esempio “corpuscolo puntiforme”, “nulla”, “infinito”, “sostanza assoluta”, “causa prima”.
Nell’utilizzazione del linguaggio, i discorsi imperniati su concetti concreti sono perlopiù condivisi in modo univoco, e dunque raramente esposti a fraintendimenti, mentre i complessi ragionamenti essenzialmente fondati su concetti astratti incontrano spesso forti resistenze in fatto di condivisione, e danno perciò adito a confutazioni e dispute che per solito inducono i vari soggetti ad arroccarsi su posizioni interpretative fra loro discordanti.
Il linguaggio basato sul realismo oggettivo distingue fra enti che hanno un’esistenza in senso singolare indipendente dai nostri atti osservativi (quel sasso particolare, quella nuvola, questo libro, quel suono, quella zanzara, quell’uomo, e via dicendo) ed enti che hanno un’esistenza in senso universale (sasso, nuvola, etc.).
Se ora volessimo tentare di quantificare l’insieme degli enti che in qualche modo esistono in natura, dovremmo tener conto della seguente osservazione: il mondo, sia che lo assumiamo come distinto in due nature diverse e irriducibili l’una all’altra, sia che lo assumiamo come un dispiegamento di enti derivanti da un’unica natura, ci risulta dinamico, metamorfico e si comporta dunque come un incessante costruttore di nuovi enti che si accrescono numericamente col passare del tempo. Per questo motivo troviamo difficile, per non dire pressoché impossibile, l’operazione di ritagliare l’insieme completo degli enti che si producono nel flusso inarrestabile dell’attività naturale.
Oltretutto, il realismo oggettivo permette di includere, fra gli enti, non solo tutto ciò che è direttamente percepibile, comprese dunque le parole scritte, le parole pronunciate e quelle che spontaneamente si riaffacciano di tanto in tanto alla nostra mente o che vengono evocate “deliberatamente”, ma anche gli enti che esistono in senso ipotetico, dei quali non abbiamo esperienza e dei quali potremmo averla in futuro o non potremmo mai averla. Possono ad esempio esistere galassie (anzi, come si è già visto nella precedente descrizione dei modelli cosmologici, ne siamo piuttosto convinti), la cui luce iniziale non ha ancora avuto tempo sufficiente per giungere fino a noi, e possono esserci particelle e forme di energia previste dal modello standard della fisica atomica e da altre teorie, la cui esistenza potrebbe un giorno trovare conferma attraverso innovativi metodi di indagine.
Esistono anche, o possono esistere, oggetti in senso immaginario, come i personaggi di una fiaba che è già stata inventata o che lo sarà in futuro, e così anche opere d’arte figurativa, letteraria o musicale. Inoltre, esistono impressioni che vanno a depositarsi nell’inconscio, e non si tralascino i sogni, che talora sono vissuti in modo talmente vivido da indurci alla convinzione di trovarci in uno stato di veglia.
Tutto sommato, sembrerebbe opportuno procedere ad una mappatura degli enti, ovvero dei concetti che li identificano, attraverso criteri di classificazione, tipologia e tassonomia o, quantomeno, a distinguerli come appartenenti a due mondi diversi del tipo concepito da Popper: gli enti del mondo fisico (mondo 1) e quelli del mondo mentale (mondo 2), che egli considera un prodotto del mondo fisico. Seguendo poi il criterio di questo filosofo, si può aggiungere il mondo 3, cui appartengono gli enti della cultura e delle società.
La tassonomia dei concetti è senz’altro utile a rendere rigoroso l’uso del linguaggio ma, oltre ad essere un’impresa molto complessa, la considero del tutto irrilevante per gli scopi delle mie future ricerche. Devo comunque dire che non condivido affatto la ripartizione della realtà in mondi che siano fra loro di natura ontologicamente diversa, e neppure l’idea di un’unica natura caratterizzata da aspetti fondamentalmente distinti fra loro in fisici e non fisici, e non riducibili gli uni agli altri; anzi, considero questi presupposti insidiose basi filosofiche che vanificano ogni autentica aspirazione della scienza ad una spiegazione unitaria e razionale della natura.
La tesi che mi propongo di sostenere consisterà invece nel concepire tutti gli enti come appartenenti ad un’unica realtà di natura puramente geometro-quanto-meccanica, e a tal fine ritengo opportuno fin da ora modificare la definizione di “ente” data all’inizio del paragrafo. Anziché dire “ente è tutto ciò che esiste in qualche modo”, preferirò dire “ente è tutto ciò che esiste nell’esclusivo modo della mutevolezza e della quantizzazione dello spazio vuoto”. A mio parere, infatti, mutevolezza e quantizzazione sono caratteristiche logicamente inevitabili per spiegare la tessitura dell’intero paesaggio cosmico. Sono insomma dell’idea che tutti gli aspetti della natura (incluse dunque le percezioni sensoriali, l’attività logica e la coscienza), affinché siano produttivi di effetti in qualche misura distinguibili (percepibili), debbano svolgersi in termini di flussioni quantizzate (o cinematiche). Al di sotto di un quanto elementare d’azione, e cioè fintantoché una minima azione non è conclusa, non si produce alcun effetto e non si può dunque avere alcuna percezione.[36]
Nel linguaggio ordinario, ma anche in quello filosofico-scientifico, oltre a termini come “effetto”, “evento” e “fenomeno”, ricorre spesso il termine “oggetto”, (o anche “struttura”), inteso in senso sia materiale che immateriale ( ad esempio, la luna e il pi greco, rispettivamente), nonché il termine “proprietà” dell’oggetto (o della struttura), in senso sia quantitativo che qualitativo (ad esempio, la massa organizzata e processuale di un essere umano e la sua consapevolezza di patirne particolari effetti). Se però, con opportuni strumenti tecnologici, ci disponessimo ad indagare operativamente in profondità un qualsiasi oggetto del mondo fisico che il senso comune definirebbe “materiale”, come ad esempio una barretta di ferro, allo scopo di formarci una sua immagine il più possibile raffinata, ci renderemmo conto di passare gradualmente dalla grossolana visione iniziale di un oggetto a contorni netti e isolato dall’ambiente circostante a quella di un oggetto via via più vago e confuso in una sorta di fumosità, fino al punto oltre il quale non sarà più possibile fare alcun genere di distinzione. In altre parole, incontreremmo una frontiera, quella implicita nel principio di indeterminazione quantistica che separa (a tutti gli effetti pratici) il visibile dall’invisibile e oltre la quale ciò che inizialmente ci sembrava un oggetto piuttosto ben definito e basato sull’idea di materialità si dissolverebbe completamente in una nebbia immateriale. Perciò, quando noi percepiamo l’immagine di un oggetto e poi decidiamo di osservarne la struttura nel modo più fine possibile, perveniamo ad un limite oltre il quale al nostro apparato sensibile non è più dato distinguere alcunché.
Per poter sbirciare oltre quel confine, credo non ci sia altro mezzo che l’immaginazione. E questa, per essere efficace, dovrebbe poter descrivere razionalmente un paesaggio irresistibilmente dinamico e autoregolativo, caratterizzato cioè da una logica interna in grado di giustificarne l’evoluzione fisica, chimica, biologica ed esperienziale.
D’altro canto, non potrebbe esserci nulla in natura che se ne stia inerte in attesa di un operatore che gli faccia fare qualcosa, come invece accade agli oggetti del mondo concepito dai matematici. Ogni benché insignificante aspetto della natura dovrebbe avere carattere processuale e non sottendere alcuna sostanza assoluta e permanente (la chora platonica o la substantia aristotelica). Tutto si muoverebbe senza posa. Anche quegli enti che gli atomisti radicali considerano ipermateriali e immutabili, e cioè gli elettroni e i quark, altro non sarebbero che processi fisici inarrestabili. E come tutti i processi della realtà cosmica incessantemente evolutiva e metamorfica, anch’essi finiranno a tempo debito col subire drastiche trasformazioni.
Quando però ci si riferisce agli enti matematici, o più in generale agli enti del mondo mentale, sembrerebbe improponibile concepirli allo stesso modo degli enti materiali. Quanti scienziati e filosofi sarebbero disposti a sostenere che i pensieri sono di natura fisica? Ma una simile domanda non potrebbe esser valida anche per molti degli enti presenti in natura? Si potrebbe forse avere un contatto visivo o tattile con un frammento di spazio vuoto? Qualcuno ha mai visto gli attori del microcosmo, e cioè le onde-particelle o, nel linguaggio della QM, le funzioni d’onda? Eppure, l’arredamento mutevole della natura che cade sotto i nostri sensi non potrebbe che essere orchestrato da questi enti elusivi. Tuttavia, di fatto essi sono così sfuggenti che non è dato sapere se siano materiali o immateriali, o se siano l’una e l’altra cosa o tutt’altra cosa ancora. Nessuno possiede insomma la più pallida idea di quale sia la natura ultima degli enti o, meglio ancora, dei processi di entificazione.
Benché impalpabile come impalpabili sono le idee, l’attività fisica del vuoto e del microcosmo può essere indagata sperimentalmente, si possono cioè misurare particolari effetti che ne confermano l’esistenza (tornerò più avanti su questo argomento). Ma un’analoga indagine può essere condotta anche sulle idee che scorrazzano nella mente degli esseri umani. Come? Semplicemente con gli strumenti disponibili in un laboratorio di neurofisiologia opportunamente attrezzato. L’evocazione spontanea o stimolata di una qualsiasi idea, risulterebbe essere una manifestazione (fisica) del cervello o, meglio, di un concorso di processi fisici che si svolgono in sue particolari regioni.
Possono aiutarci queste osservazioni a rendere credibile l’appartenenza dei processi del mondo fisico e quelli del mondo mentale ad un’unica natura? La storia del pensiero filosofico occidentale mostra una diffusa propensione a credere che, a fronte di una realtà in incessante trasformazione esista una controparte immodificabile e permanente. Ad esempio, gli enti del mondo matematico e le idee costituirebbero una realtà immateriale assoluta e indipendente dal fluire degli eventi. I matematici puri e i fisici, nonché tutte le persone interessate alle questioni concernenti la natura dei vari aspetti del mondo (prescindendo dal fatto che siano scienziati oppure no), caldeggiano in modo più o meno esplicito, spesso anche più o meno confuso, posizioni filosofiche fra loro contrastanti.[37] E queste, se indagate criticamente, tendono a convergere immancabilmente verso una qualche forma di dualismo ontologico.
Esistono sicuramente alcuni scienziati convinti che anche le idee siano fenomeni derivanti da processi fisici, e che anche la coscienza lo sia. Ma nonostante la loro apertura verso un monismo fisicista, infine anch’essi non sanno fare a meno di credere che a tali fenomeni inerisca una qualche essenza assoluta e atemporale o, quantomeno, che siano assolute e atemporali le leggi che li governano. E’ indubbio che tali convinzioni derivano da una forte dipendenza dalla storia delle idee. Ma queste idee sono giunte oggi a riconoscersi in una situazione estremamente problematica che richiede di rivedere e riformare il nostro modo di pensare, il nostro genere di razionalità, dato che non è all’altezza di far fronte alle istanze della scienza odierna.
Nonostante le investigazioni filosofiche e scientifiche, la mente non sembra in grado di appropriarsi dell’ente come determinazione di ciò che è affetto da ontità.[38] Intuitivamente, questa definizione dell’ente è richiesta come logicamente necessaria, mentre viene rigettata come logicamente contraddittoria quella relativa al niente (al paragrafo precedente definito come ciò che è affetto da nientità). Qualcuno semplicemente sostiene che il niente sia da rigettare come un “indicibile”, come un termine cui non corrisponde alcunché che possa essere oggetto di qualsivoglia indagine, e dunque da estromettere definitivamente dal discorso. Ma quale garanzia abbiamo che tali conclusioni non siano erronee? Si è già visto nel precedente paragrafo, e anche in quelli iniziali riguardanti la cosmologia e il problema dell’origine, che non sembra possibile l’estromissione della categoria del niente. Inoltre, si è anche osservato nel quarto capitolo come sia pericoloso affidarsi ciecamente alle intuizioni, in particolar modo a quelle che investono le questioni dei fondamenti. Queste ultime possono riassumersi nella forma seguente:
1 – Perché mai c’è un qualcosa?
2 – Di cosa è costituito fondamentalmente?
3 – A quale logica si conforma?
Davanti a questi interrogativi si prova un tale stordimento da essere indotti facilmente alla convinzione che il mondo sia inconoscibile nella sua essenza, e che la mente umana sia caratterizzata da un’intrinseca incompletezza. Si può comunque obiettare, come ho già suggerito nel terzo capitolo, che lo sviluppo del pensiero umano, nonché di tutte le strutture complesse del mondo fisico, sia assoggettato ad una (cieca) strategia di selezione naturale, e stia attraversando una delle sue tante fasi che definirei “di pre-crescita” , e sia dunque vincolato a limitazioni intellettive, verosimilmente derivanti da errori logici e categoriali difficilmente riconoscibili. Con ciò, intendo dire che il prefigurare la condanna permanente della mente umana a sopportare un divieto assoluto di accesso alla piena comprensione del mondo costituisce un giudizio affrettato ed esclusivamente motivato da convinzioni personali.
Di certo l’attuale descrizione della realtà è incompleta (di fatto è un insieme di descrizioni parziali), e si potrebbe dare anche per scontato che sia profondamente sbagliato il nostro modo di concepirla. Abbiamo appreso dalla storia che l’immagine del mondo che accompagna una teoria fisica parziale, per quanto convincente possa apparire in base al suo apporto di pratica utilità, è inaffidabile, e prima o poi destinata a cambiare. Se però la futura descrizione della realtà sarà davvero completa, razionale e definitivamente condivisibile, allora non si potrà escludere che essa abbia una corrispondenza con l’autentica logica della natura.
Fra i due opposti punti di vista, pare che il primo sia condiviso dalla maggioranza dei fisici, che in generale hanno un atteggiamento pragmatico e non coltivano un grande interesse verso le questioni filosofiche e metafisiche, o le affrontano senza il dovuto rigore. E tra i fisici teorici e i filosofi della scienza che si occupano di questioni fondamentali, molti sostengono la validità di una logica a tre valori operante in natura, per via del principio di sovrapposizione su cui si fonda il formalismo della QM. Infatti, in base ai collaudati esperimenti fino ad oggi eseguiti, la logica del microcosmo sembra effettivamente ribellarsi ai principi della logica classica.
A quanto pare, le rivoluzioni scientifiche dell’ultimo secolo hanno interamente scompaginato il nostro abituale modo di ragionare. In particolare, il lavoro di Gödel ha messo in luce la non affidabilità della teoria matematica, e la QM ha portato il pensiero nel regno dell’incertezza, mettendo a nudo un modo di funzionare della natura che manda completamente fuori gioco la logica dell’osservatore e che il linguaggio classico non è in grado di ridurre ad un resoconto comprensibile. Fra i concetti messi in crisi dai principi della
QM figurano non solo quello di materia, di luogo e di traiettoria, ma soprattutto quello ritenuto assai più rassicurante di causalità.
12- La causalità
Se ci si lascia guidare dalle impressioni che assumiamo provenire da un mondo esterno realmente esistente, si trova ragionevole inferire che in esso sia all’opera una rigida legge di causalità. Le impressioni però, per quanto forte sia il loro potere di ingenerare convinzioni di questo o quel genere, non sono in grado di garantire un’assoluta attendibilità circa l’esistenza di una legge di stretta relazione causa-effetto. Questa ha pertanto un valore puramente congetturale e la si può assumere come ipotesi, oppure la si può ridimensionare in qualche misura. La sua totale negazione sarebbe però un giudizio sconsiderato, perché in tal caso non sarebbe possibile alcuna scienza.
Prima di vedere come nella fisica odierna viene interpretato il concetto di causalità, comincerò col ricordare da dove esso ci proviene, in modo che si possano comprendere i suoi limiti. Allo scopo, inizierò col fare riferimento ad alcuni ragionamenti di David Hume (1711-1776) espressi nella sua prima opera dal titolo “Trattato sulla natura umana”, pubblicata a Londra nel 1739, e nella sua successiva rielaborazione pubblicata nel 1758 con il titolo “Ricerche sull’intelletto umano”.
Hume, la cui filosofia segna l’estremo sviluppo dell’empirismo inglese, parte dalle premesse che i contenuti della mente umana sono dati unicamente dalle percezioni e comprendono due diverse classi di enti: impressioni e idee. Le impressioni sono originarie e caratterizzate dalla “vivacità o forza” con la quale irrompono nella nostra mente. Le idee sono invece “immagini illanguidite e sbiadite delle impressioni”, delle quali sono una derivazione e dalle quali si differenziano per l’ordine e la successione temporale con cui si affacciano alla mente. Si comprende così come le impressioni riguardino l’apparato dei sensi, e dunque il sentire, e come le idee riguardino invece l’apparato intellettivo, e dunque il pensare.
Escludendo l’esistenza di idee di cui non vi sia stata precedentemente l’impressione, Hume liquida la questione delle idee innate. Perciò, la sua filosofia ammette solo la realtà delle idee particolari, che tendono ad aggregarsi fra loro, o perché sospinte al libero gioco della fantasia, o perché guidate da una forza riferita al principio di associazione. A questo proposito, nelle sue Ricerche Hume tiene a precisare che
Per quanto il fatto che le differenti idee sono connesse insieme sia troppo ovvio per sfuggire all’osservazione, non trovo che qualche filosofo abbia tentato di enumerare o di classificare tutti i principi di associazione […]. A me pare che ci siano soltanto tre principi di connessione fra le idee, cioè somiglianza, continuità nel tempo e nello spazio, e causa ed effetto.[39]
Il suo apporto di maggior interesse per il nostro lavoro è la critica del concetto di causa o di connessione necessaria. Circa la questione della validità o meno di questo concetto, Hume propone che, per accoglierlo con maggiore certezza, lo si debba cercare in tutte le fonti dalle quali sembra possibile che derivi, e svolge la sua indagine muovendo da una negativa constatazione, affermando cioè che ai nostri sensi
tutti gli eventi sembrano del tutto staccati e separati. Un evento tien dietro ad un altro, ma noi non riusciamo a cogliere alcun legame fra di essi. Essi sembrano congiunti, mai connessi.[40]
Nessuna sorta di connessione è infatti percepibile quando assistiamo all’avvicendarsi dei fenomeni, e prosegue affermando che
poiché non possiamo avere l’idea di qualche cosa che non si presenti né ai nostri sensi esterni, né al sentimento interno, la conclusione necessaria sembra essere che non abbiamo affatto alcuna idea di connessione. […] Ma resta ancora un metodo per evitare questa conclusione ed una fonte che non abbiamo finora esaminato. […] Dopo un caso o un esperimento in cui abbiamo rilevato che un evento particolare tien dietro a un altro, non siamo autorizzati a formare una regola generale, o a predire quello che accadrà in casi simili. […] Ma quando una specie particolare di eventi è stata congiunta con un’altra sempre, in tutti i casi, non abbiamo più alcuno scrupolo di predire l’una in base all’apparire dell’altra. […] Allora noi chiamiamo un oggetto causa e l’altro effetto. E supponiamo che vi sia qualche connessione fra di essi, qualche potere nell’uno, con cui esso produce infallibilmente il secondo ed opera con la maggiore certezza e colla più forte necessità. [41]
L’esistenza oggettiva della causalità, come di tutte le cose fuori di noi, non è oggetto di conoscenza ma di credenza , e oggetto di credenza è anche l’identità dell’io. Dalle impressioni non si è legittimati ad inferire l’esistenza degli oggetti come causa delle impressioni stesse. Il principio di causa non può avere validità teoretica, in quanto non percepibile sensibilmente e dunque inconoscibile nella sua essenza. Lo scetticismo di Hume perviene alla conclusione che tutte le ricerche, ad eccezione delle scienze astratte quali l’Aritmetica e la Geometria, riguardano dati di fatto, i quali sono constatabili ma non dimostrabili attraverso il puro ragionamento.
Hume non potrebbe tuttavia estremizzare l’empirismo fino al punto di negare la valenza ontologica del principio di causa senza cadere nell’irrazionalismo, perché tale negazione verrebbe a contraddire, in particolare, le sue asserzioni del tipo le impressioni sono causate dagli oggetti, le idee sono causate dalle impressioni, il processo di associazione delle idee ha a sua volta una causa e, più in generale, tutto il suo filosofare.
Sarà Immanuel Kant (1724-1804) ad inaugurare una rivoluzionaria era della filosofia, tesa a superare il razionalismo, l’empirismo, lo scetticismo e il dogmatismo con un radicale ripensamento critico di tutte le problematiche dell’uomo.
Nelle fasi conclusive della Critica del Giudizio (1790), Kant sostiene che la natura è conoscibile, non per quello che è in sé, ma solo fenomenicamente. La sfera della ragione domina la sfera dei fenomeni. Per quanto concerne la categoria di relazione causa-effetto, in base alla quale dato A segue necessariamente B, nella Critica della Ragion pura (1781) Kant fa riferimento ad uno “schema trascendentale” avente valore di necessità (esistono dodici schemi trascendentali, tanti quante sono appunto le categorie).
L’interpretazione di Kant della legge di causa viene saldamente condivisa dalla comunità scientifica del tempo. Il positivismo ottocentesco esprime la fede nel potere della scienza, e interpreta la realtà come un insieme di fenomeni materiali governati infallibilmente da leggi necessarie. In seguito, attraverso un approfondito studio dei fenomeni, la scienza conosce un periodo di grande sviluppo, tanto da favorire la nascita dello scientismo, ovvero di una conclamata fede nelle illimitate possibilità di conoscenza di tutti i fenomeni e delle leggi di natura che fanno capo alla legge di causa.. Questa legge recupera così un fondamento ontologico ed è stabilita in relazione alla nostra capacità di ravvisare molte regolarità nel mondo dei fenomeni, di riflettere su di esse attraverso accurate osservazioni e il ragionamento, e di provare che esse non sono il frutto di coincidenze fortuite, poiché ci è possibile fare previsioni infallibili in svariatissime occasioni.
Ma la questione della causalità, lungi dall’essere risolta, si rivela oggi assai più tormentata di quanto potesse sembrare a qualunque filosofo se ne fosse interessato fino agli inizi del secolo passato. Infatti, una delle più profonde descrizioni scientifiche, la teoria quantistica, è fondata su principi che disconoscono la legge di rigida causalità. In base alla massa di esperienze e di dati che si sono accumulati attraverso l’investigazione della natura, si potrebbe oggi essere tutti d’accordo nell’affermare che gli eventi del mondo macroscopico danno effettivamente l’impressione di conformarsi alla legge di causa, mentre quelli del mondo microscopico sembrano suggerire l’idea di fluttuare in una condizione di totale incertezza. E’ su questa idea che si dovranno oggi concentrare gli sforzi per cercare di comprendere la naturale connessione tra microcosmo e macrocosmo.
L’incertezza in fisica quantistica, secondo l’interpretazione degli antirealisti e, più in generale, degli indeterministi, viene attribuita al caso per un semplice motivo: ai singoli sistemi atomici non è applicabile il classico procedimento di misura richiesto per stabilirne le condizioni iniziali con arbitraria precisione, senza la cui conoscenza non è possibile prevedere con certezza la loro futura evoluzione.
Il formalismo della meccanica quantistica è basato sul calcolo delle ampiezze di probabilità ed è in grado di fare previsioni con un alto grado di precisione su base statistica. E poiché la teoria interpreta il regno dei quanti come fondamentalmente governato dalla probabilità, questa si trasmette al livello macroscopico, per cui anche le leggi che operano a tale livello hanno carattere probabilistico.
I fisici antirealisti liquidano così la questione della conoscibilità completa del mondo come priva di senso, e ignorano come non scientifici tutti quei concetti vaghi (tipici della speculazione filosofica) che attribuiscono il carattere probabilistico delle misurazioni alla nostra ignoranza sulle condizioni iniziali dei sistemi quantistici. Per essere più espliciti, gli antirealisti sostengono come priva di senso l’idea che gli enti quantistici possano trovarsi in uno stato ben definito prima che vengano disturbati dagli atti di misurazione. Tali enti sono intrinsecamente indeterminati, anzi, da una ragguardevole schiera di puristi non vengono neppure considerati esistenti fintantoché non sia avvenuta una misurazione. Pertanto, l’attività dei fisici che studiano il microcosmo deve limitarsi essenzialmente nel migliorare gli apparati sperimentali, nell’eseguire calcoli, nel fare previsioni e nell’effettuare misurazioni nel modo più accurato possibile. In base a questa loro metodologia a sfondo dogmatico e irrazionale, conoscere e predire significano chiaramente la medesima cosa.
Per contro, i fisici realisti, quali Einstein, Planck, de Broglie e Schrodinger, che difendono il razionalismo e non sono pertanto disposti ad accantonare la legge di causalità ravvisabile nell’ordine della natura, si sentono legittimati ad indagare e conoscere, non il mondo delle impressioni sensoriali, bensì un mondo esterno che assumono come oggettivamente esistente.
Però qui – afferma Planck – ci si para di fronte una nuova difficoltà gnoseologica. Ché il positivismo avrà sempre ragione nell’affermare che non esistono altre fonti di conoscenza oltre alle nostre sensazioni. I due enunciati ‘esiste un mondo esterno reale, indipendente da noi’ e ‘il mondo reale non è direttamente conoscibile’ formano il cardine di tutta la scienza fisica. Sono tuttavia in un certo contrasto fra di loro, e mettono a nudo così quell’elemento irrazionale da cui la fisica, come ogni altra scienza, è gravata, ed in forza del quale una scienza non è mai in grado di risolvere il suo compito.[42]
Benché il mondo dei sistemi atomici non sia direttamente osservabile, alcuni fisici teorici sono fiduciosi di poterne prima o poi fornire una descrizione razionale, basata cioè sullo spazio tridimensionale, sul tempo e soprattutto sulla legge di rigida causalità. Servirebbe però un criterio idoneo a far valere la discendenza necessaria di un effetto da una causa. Ma dove cercarlo? Lo si potrebbe forse trovare nella proposizione dalla quale Planck ha avviato le sue riflessioni sul concetto di causalità, e cioè “un avvenimento è causalmente determinato se può essere predetto con certezza”? Sembra proprio di no, poiché questa asserzione, non appena si entra nel mondo della fisica quantistica, deve confrontarsi con le relazioni di indeterminazione di Heisemberg, che asseriscono il contrario e che non possono essere evitate.
A questo punto occorre aprire una breve parentesi per ricordare l’atteggiamento filosofico di Heisemberg, in un certo senso sofferto, nel valutare la portata del principio di indeterminazione da lui stesso intuito e formalizzato. Egli era infatti uno scienziato con una mentalità saldamente orientata alla logica classica, per cui si prodigò con ogni mezzo nel tentativo di eliminare dalla teoria le ambiguità concettuali.
Consapevole che il presupposto fondamentale di ogni scienza è la razionalità, e che la razionalità non può prescindere dalla legge di causa, Heisemberg si preoccupò di confrontare le implicazioni filosofiche della nuova teoria con i ragionamenti di alcuni filosofi e, in particolare, con quelli affrontati da Kant sul concetto di causalità nella Critica della ragion pura. Qui la legge di causa viene riferita ad un concetto puro dell’intelletto, ad una lex mentis, che nella nota tavola delle dodici categorie di Kant viene chiamata causalità e dipendenza, e messa in corrispondenza con le relazioni sull’Analitica trascendentale dei dodici giudizi ipotetici. Non si tratta dunque di una legge derivabile dall’esperienza, bensì di una verità assoluta che si colloca oltre l’orizzonte della scienza, in quanto indimostrabile. Il rigore argomentativo di Kant sul tema della relazione causa effetto non può dunque soddisfare il desiderio di Heisemberg di dirottare la nuova teoria sul piano della razionalità, in quanto la scienza è pervenuta ad un limite oltre il quale è assolutamente vero che non ci sono più fatti direttamente osservabili.
La meccanica quantistica, tuttavia, pur essendo fondata su due procedimenti di evoluzione dinamica fra loro contrastanti[43] e su principi che non si accordano con gli schemi logici che sono alla base della nostra razionalità, si è rivelata straordinariamente efficace nel fare previsioni con un elevato grado di accuratezza. Allora, perché mai preoccuparsi di dover rinunciare al concetto di rigida causalità? Se è vero che la formulazione della meccanica quantistica non ci permette l’intelligibilità della natura, è anche vero che non ha gettato affatto la ricerca scientifica nello scompiglio. In fin dei conti, la legge di causalità in senso stretto è stata sostituita dalla legge di causalità statistica. Anche questa legge, quanto la prima, è inconoscibile nella sua essenza. Tale inconoscibilità è stata però finalmente chiarita dalle relazioni di indeterminazione di Heisemberg, che definiscono il limite naturale oltre il quale non è più possibile fare distinzioni.
Le relazioni di indeterminazione costituiscono l’aspetto più significativo della nuova teoria, ma a mio parere implicano la fine definitiva della metodologia della scienza contemporanea, nonostante l’indisponibilità dei fisici a modificarla. Poiché il nostro apparato delle percezioni sensibili è di fatto limitato sia nella direzione del microcosmo sia in quella del macrocosmo (l’orizzonte cosmologico), d’ora in avanti, il metodo della scienza potrà fare affidamento sull’apparato intellettivo e sulla ricchezza di tutte le informazioni acquisite nel lungo percorso delle esperienze. Non sarà un’impresa facile, ma la fiducia in una comprensione unitaria e coerente della natura e delle sue leggi, potrà ora essere sorretta soltanto da risorse dell’intelletto e dell’immaginazione che non sono state ancora attivate.
Esiste una via d’uscita per non abbandonare il progetto di una conoscenza razionale del mondo? Alcuni fisici e ricercatori credono di sì, assumendo che esista una stretta causalità a livello dei sistemi atomici, le cosiddette variabili nascoste, che però non hanno valore scientifico, non potendo essere convalidate né falsificate. Esemplare è la teoria proposta da David Bohm sulla base del concetto di potenziale quantistico, che è però spiegato con un linguaggio non proprio convincente e che, comunque, non allarga minimamente l’orizzonte conoscitivo della meccanica dei quanti.
La rivendicazione di un principio di causa da parte dei realisti è legittima, ma deve farsi valere con argomenti appropriati, ad esempio scoprendo un piano causale sottostante all’indeterminismo quantistico attraverso la pura deduzione logica accompagnata da nuovi concetti comprensibili e fortemente persuasivi, oppure formulando nuove ipotesi in conflitto con i principi della QM che possano essere provate sperimentalmente. Ma lo stesso Einstein, che fu considerato il più tenace difensore di una stretta causalità operante nei processi quantistici, nel 1933 finì con l’abbandonare il suo giovanile ottimismo riguardo le illimitate potenzialità della ragione umana, dichiarando amaramente che
Il puro pensiero logico non può fruttarci alcuna conoscenza del mondo fisico. Ogni conoscenza della realtà parte dall’esperienza e in questa si conclude.[44]
Il mondo è dunque irrimediabilmente destinato a rimanere un mistero? Come si è potuto capire, la scienza tende a considerare razionale ciò che vorrebbe ma che non può convalidare come tale. Il principio falsificazionista introdotto da Popper, sul quale si fonda l’attuale paradigma scientifico, fa della razionalità una posta che deve essere sempre rimessa in gioco, quantomeno finché il gioco si svolge con le operazioni logiche e i criteri basati sui linguaggi consolidati. Tutto ciò ha un aspetto paradossale perché, all’interno del gioco, si sta cercando un qualcosa che sembra collocarsi sempre oltre il potere delle regole convenute. E’ infatti ormai radicata, fin dal tempo di Gödel, la convinzione di avere a che fare con un gioco perennemente aperto. Ciò equivale, in un certo senso, ad una sognante e, allo stesso tempo, rassegnata partecipazione al gioco. Sognante, in quanto la fiducia in un profondo cambiamento nella concezione della realtà non viene mai abbandonato, e rassegnata per via della generale convinzione che qualsiasi nuova teoria fisica venisse in futuro formulata (tale da soppiantare la GR, o la QM, o entrambe) sarebbe pur sempre falsificabile e soprattutto incompleta, nel senso che lascerebbe irrisolte alcune questioni fondamentali della realtà. Ma, detto con molta franchezza, quante nuove teorie fisiche basate su sempre più profonde rivoluzioni del pensiero scientifico potrebbero mai essere formulate in futuro?
L’attività della ricerca viene oggi intesa come un processo aperto all’imprevedibile, alla creatività, e dunque non è necessariamente escluso che essa possa anche cambiare radicalmente, fino al punto di poter accedere ad una descrizione razionale della natura in grado di aggirare il principio di indeterminazione e di rendere ininfluenti sia i vincoli imposti dal teorema di Gödel che il criterio falsificazionista di Popper.
Se poi si potesse fornire una descrizione della realtà fisica in grado di avere come conseguenza ogni aspetto dell’universo, intelligenza e consapevolezza comprese, ebbene, difficilmente si potrebbe mettere in dubbio la sua fedele corrispondenza con il funzionamento della realtà. E’ chiaro che quella descrizione dovrebbe essere fondata su un principio che, con un senso di inevitabilità logica, possa giustificare l’esistenza della realtà cosmica e, inoltre, su un innovativo concetto fisico-matematico avente le proprietà richieste per farci comprendere la quantizzazione (in generale), le regolarità periodiche degli enti (processi) fondamentali, la loro indivisibilità, il loro momento angolare intrinseco e, infine, i loro diversi modi di assemblarsi armonicamente in sistemi fisici più o meno complessi. Estendendo poi la teoria evoluzionistica di Darwin all’intero universo, una sua immagine con tali proprietà difficilmente potrebbe essere interpretata come un prodotto di fattori contingenti, ma piuttosto come un’implicazione logicamente inevitabile dello spazio-tempo. Su questo argomento tornerò nel prossimo paragrafo e nei capitoli successivi.
13- L’energia
Che cos’è l’energia? Difficile rispondere. Al pari dei concetti di spazio e di tempo, l’energia è un concetto fisico profondamente radicato nella vita di tutti i giorni. L’energia è capacità di agire, di produrre lavoro,[45] ed è trattabile solo sul piano quantitativo, come misura delle trasformazioni occorrenti tra sistemi fisici, pur non essendo un sistema fisico e neppure qualcuno dei suoi componenti.. L’energia, la cui esistenza è fuori discussione, risulta insita in tutti gli aspetti della natura, e la sua caratteristica fondamentale consiste nel suo trasformismo e, al contempo, nella complessiva conservazione della sua quantità.
Vecchia di oltre due millenni è la convinzione che nulla si genera dal nulla e che tutto si trasforma, ma il principio di conservazione dell’energia è stato intuito solo verso la metà dell’Ottocento da Julius Robert von Meyer, e poi formalizzato da James Prescott Joule e da Hermann von Helmholtz.
Meyer fu il primo studioso a rendersi conto del Principio di conservazione dell’energia; fra le sue numerose osservazioni stabilì che l’rraggiamento solare viene immagazzinato dalle piante in forma di energia chimica e scoprì anche l’equivalenza tra calore e lavoro. Da Joule prende nome il joule (J), definito “l’unità di misura relativa alla grandezza energia e lavoro”. Un joule è il lavoro compiuto dalla forza di un Newton quando il suo punto di applicazione si sposta di un metro nella direzione della forza (J=N•m)”.[46] Joule e Helhmoltz hanno fornito una formulazione generale del Principio di conservazione dell’energia; esso afferma che la somma dell’energia cinetica, dell’energia potenziale e dell’energia termica di un sistema isolato è costante.
All’energia, oltre ai concetti di lavoro e di forza, è associato anche quello di potenza, ovvero la quantità di energia spendibile nell’unità di tempo (ad esempio, date due automobili funzionanti a benzina e aventi lo stesso peso, una ha più potenza dell’altra se consuma la stessa quantità di carburante per coprire la stessa distanza impiegando minor tempo) .
L’energia, come si è detto, è metamorfica e può assumere diverse forme: meccanica (cinetica e potenziale), elettrica, radiante, chimica, termica, nucleare, eolica, idraulica, sonora, etc.
Finora la scienza si è astenuta dal chiedersi che cosa sia l’energia, relegando la questione fra quelle di ordine metafisico. Una qualunque congettura sulla sua natura non sarebbe confutabile né dimostrabile, per cui sarebbe priva di valore scientifico. Ma prima o poi la comunità dei fisici, quando si renderà conto che lo sviluppo della scienza non potrà mai andare oltre la capacità di fare misurazioni e previsioni sempre più precise, e quando non potrà più sopportare la frustrazione derivante dalla presunta impossibilità di affrontare le questioni fondamentali, a partire da quelle riguardanti i misteri della Meccanica Quantistica e della Cosmologia Quantistica, avvertirà l’urgenza di recuperare il dialogo con gli studiosi di logica e di filosofia.
Se dunque l’energia è un aspetto fisico insopprimibile in natura ed è ritenuta immateriale, ma non è un sistema fisico, è presumibile che essa abbia a che fare strettamente con il vuoto. Credo sia difficile negare una tale associazione (o identificazione), in quanto anche il vuoto, al pari dell’energia, è un concetto fisico metamorfico e immateriale, pur non essendo un sistema fisico e neppure qualcuno dei suoi componenti. Pertanto, sarà adesso utile una breve digressione su quest’ultimo concetto.
14- Il vuoto
Galileo, nel “dialogo sui due Massimi sistemi: il tolomaico e il copernicano” (1632), la sua opera più importante nella quale affronta svariate questioni di astronomia, di cinematica e di meccanica, giunge a conclusioni che demoliscono la fisica aristotelica e che segnano l’inizio della scienza moderna. Una sezione di quest’opera è dedicata allo studio della caduta dei corpi, e in essa Galileo sostiene l’inesistenza di spazi privi di materia, per cui il vuoto viene da lui fermamente rigettato come irrealizzabile. Qualsiasi tentativo di produrre un vuoto sarebbe stato contrastato dalla natura con ogni suo mezzo.
Come per ironia della sorte, questa sua convinzione venne smentita dal suo stesso assistente Evangelista Torricelli, l’inventore del barometro, nel quale fu ottenuto per la prima volta il vuoto pneumatico. Da allora il vuoto cominciò a diventare oggetto di interesse da parte di alcuni scienziati, anche se non si trattava dello stesso tipo di vuoto che i fisici stanno ancor oggi studiando da quasi un secolo con l’ausilio di strumenti innovativi.
Con l’avvento della QM, l’idea di vuoto assoluto della tradizione filosofica è stata accantonata come priva di senso e si è giunti alla conclusione che non esiste alcuna regione del cosmo in cui un tale vuoto possa campeggiare. Per definizione, il vuoto assoluto è assenza di tutto, di materia, di radiazione e di qualsiasi altra cosa possa esserci sfuggita di mente. Ma se considerassimo un recipiente isolato (o anche il nostro intero universo) e potessimo estrarre tutti i suoi contenuti, ovverossia particelle materiali e radiazione elettromagnetica, non otterremmo infine un vuoto assoluto. Quella regione di spazio sarebbe caratterizzata da una minima energia residua ineliminabile.
Un vuoto di questo tipo viene chiamato dai fisici “vero vuoto” e il suo stato è detto “stato fondamentale”. Insomma, lo spazio vuoto non è in alcun caso completamente svuotabile o, equivalentemente, raffreddabile fino allo zero assoluto. Sarebbe perciò doveroso restituire validità al vecchio assunto di Galileo, in quanto la natura sembra comunicarci che il vuoto assoluto è inammissibile o, per meglio dire, innaturale.
In fisica quantistica, oltre al concetto di vero vuoto caratterizzato da energia di punto zero, c’è quello di falso vuoto (già descritto al precedente paragrafo 4), indicato come uno stato quantomeccanico di vuoto eccitato al quale è associato un dato livello di energia che ne compromette la stabilità e lo fa decadere in uno stato meno eccitato.[47] A sua volta, quest’ultimo sarà destinato a decadere in uno stato di falso vuoto dotato di minore energia, e infine a stabilizzarsi nello stato fondamentale proprio del vero vuoto.
Teoricamente, poiché un falso vuoto può sussistere anche ad un livello di energia molto basso purché non nullo, non gli è vietato di transitare ad un livello ancora più basso. In questo senso, non è dato dunque sapere quale possa essere il vuoto corrispondente al livello più basso possibile di energia.
Nella prima metà degli anni Ottanta I fisici Sidney Coleman e Frank De Luccia hanno pubblicato un articolo in cui ipotizzano che il nostro attuale Universo possa non trovarsi in uno stato di vero vuoto, ma in uno stato di vuoto metastabile, la cui probabilità di decadere in uno stato con minore energia sarebbe molto bassa ma non nulla. Ciò potrebbe accadere senza alcun preavviso, nel qual caso la struttura del nostro intero Universo verrebbe radicalmente scompaginata in un istante. Possiamo però stare tranquilli, visto che ciò non è accaduto nel corso di tanti miliardi di anni. E possiamo stare tranquilli anche se dovesse accadere nell’immediato futuro, perché nessuno avrebbe modo di rendersene conto. Chiaramente, questa ipotesi non ha nulla di scientifico, non perché difficilmente sottoponibile a prova, ma semplicemente per definizione, dato che nessun fisico potrebbe vantarne la conferma sperimentale. Per contro, l’idea che il nostro universo si trovi effettivamente stabilizzato in uno stato di vero vuoto, non è di fatto falsificabile.
L’energia, E, residua del vuoto nel suo stato fondamentale viene chiamata “energia di punto zero” del campo elettromagnetico ed è ovunque E = ½ hν. L’irriducibilità del vuoto oltre la soglia dello stato fondamentale è dovuta al principio di indeterminazione di Heisemberg, in base al quale due grandezze coniugate di un sistema fisico, in questo caso il campo elettrico e il campo magnetico del vuoto, non possono essere simultaneamente nulli.
Per avere un’idea più chiara di questa caratteristica del vuoto sarà utile ricorrere ad un’analogia. Immaginiamo il vuoto nel suo stato fondamentale come l’insieme di tutti gli oscillatori del campo elettrico e magnetico posizionati sulla verticale, ciascuno alla maniera di un pendolo classico fermo (sappiamo però che l’incertezza impedisce al pendolo di essere assolutamente fermo sulla verticale perché, anche se in modo del tutto trascurabile, esso è soggetto a fluttuazioni quantistiche). Il principio di indeterminazione stabilisce che la posizione e la quantità di moto di ciascuno degli oscillatori non possono avere valori simultaneamente nulli. Se la posizione di un oscillatore fosse del tutto determinata, sarebbe del tutto indeterminata la sua quantità di moto.
Va poi detto che non solo il campo elettromagnetico, ma anche gli altri campi di forza associati alle particelle definite “elementari” fluttuano incessantemente. Il vuoto fisico è dunque un ente tutt’altro che inerte, e lo si può concepire come un ambiente instabile e metamorfico nel quale appaiono e scompaiono freneticamente coppie virtuali di particella-antiparticella di ogni tipo conosciuto. Tutto ciò avviene senza che sia violato il principio di conservazione dell’energia. Una coppia di particelle virtuali, ad esempio un elettrone (e–) e un positrone (e+), per poter venire all’esistenza, richiede una data energia[48] che può essere prelevata dal vuoto a condizione che venga restituita prontamente o, più precisamente, entro i limiti imposti dal principio di indeterminazione. Quanto maggiore è l’energia richiesta, tanto più breve dovrà essere il tempo per la sua restituzione. Nell’esempio specifico, in base al principio di Heisemberg, la coppia elettrone-positone potrà sussistere entro un intervallo di tempo Δt.ΔE < h. In base all’equivalenza E=mc2, per sostituzione si ottiene Δ(2mec2).Δt <h. Infine, essendo nota l’energia corrispondente alla massa a riposo dell’elettrone, dalla relazione di Planck t = h/E si avrà:
t = h/(2mec2) @ 10–20 s.
Pertanto, l’apparizione della coppia elettrone-positrone potrà sussistere per un intervallo di tempo pari a un cento miliardesimo di miliardesimo di secondo prima di scomparire.
A quanto pare, la ricerca del vuoto assoluto risulta impossibile sia in pratica che in teoria. Se dunque in natura esiste un ente fisico ultimamente insopprimibile, e cioè il vuoto caratterizzato da instabilità, trovo ragionevole pensarlo come l’ingrediente fondamentale per la costruzione della realtà cosmica. Inoltre, in un’ottica logico-filosofica, trovo anche ragionevole concepire il vuoto come un ente increato e autosufficiente, avente cioè in sé la ragione del proprio rappresentarsi. Se così è, la scienza non potrà unificare RG e MQ in uno schema matematico coerente senza aver prima trovato risposte soddisfacenti alle seguenti domande, già poste in termini più generici al paragrafo 10:
1 – Qual è il fondamento ontologico del vuoto?
2 – Come giustificare la sua esistenza?
3 – Quale legge, verosimilmente geometro-meccanica, garantisce l’incessante vivacità del vuoto e, in particolare, di quei processi organizzativi in grado di tessere la sua storia?
Qui si sta parlando di una storia incredibilmente speciale: la storia della bolla di universo che ci ospita, una sorta di trasmissione cosmica andata in onda autonomamente, divenendo sempre più articolata e complessa, e che si trova adesso a riflettere sul senso della sua stessa rappresentazione.
A questo punto, non resta che interrogarsi sul più familiare, ma anche sul più centrale e più enigmatico di tutti i fenomeni, ovvero la coscienza, in quanto costituisce il crocevia di tutte le questioni.
[1] Il complicato e affascinante sistema di equazioni di campo gravitazionale costituisce la sintesi della relatività generale e stabilisce il modo in cui la materia cosmica incurva lo spazio-tempo. Alle incognite presenti in tali equazioni possono essere assegnati determinati valori per descrivere la forma geometrica dell’universo nel suo complesso. A molti fisici e matematici del tempo quel sistema di equazioni risultava dunque di fondamentale importanza per imprimere alla cosmologia moderna una svolta su basi scientifiche.
[2] In realtà, nella teoria della relatività generale, Einstein spiega che i corpi in movimento (riferendosi in particolar modo alle stelle e ai pianeti) non risentono di alcuna forza attrattiva. Diversamente dalla concezione di Newton, i corpi, come ad esempio la Terra attorno al sole, si muovono seguendo il cammino più breve corrispondente a una geodetica nella geometria dello spazio-tempo curvo.
[3] L’universo è definito “omogeneo” se tutti gli osservatori vedono proprietà identiche indipendentemente dalla regione cosmica in cui si trovano; è definito “isotropo” se quegli osservatori non discernono direzioni privilegiate.
[4] Questo fenomeno (in inglese red shift) fu scoperto nel secondo decennio del Novecento dall’astronomo e spettrografo Vesto Melvis Slipher (1875-1969). Questi poté verificare che una sorgente di luce in avvicinamento o in allontanamento da un osservatore si comporta in modo analogo alle onde acustiche, ad esempio quelle della sirena di un’ambulanza, il cui tono risulta più acuto quando si avvicina e più grave quando si allontana (effetto Doppler). Quando una sorgente di luce si avvicina ad un osservatore, la lunghezza delle onde elettromagnetiche risulta più corta e si ha uno spostamento verso il blu dello spettro cromatico. Viceversa, quando si allontana la lunghezza d’onda risulta aumentata e si ha uno spostamento verso il rosso.
[5] Sono stelle variabili caratterizzate da una variazione periodica e lineare di luminosità. Esse comprendono le cefeidi, che sono giganti gialle giovani, le novae e le supernovae. Questi oggetti, la cui luminosità è perfettamente nota (dunque varia di intensità in proporzione inversa al quadrato della distanza), vengono utilizzati come candele standard. Ultimamente, si è dirottata l’attenzione sulle supernovae di tipo Ia, stelle che esplodono con una luminosità intrinseca sempre uguale e che, essendo visibili a distanza un migliaio di volte maggiore delle cefeidi, consentono di misurare l’espansione dell’universo con accuratezza di gran lunga maggiore.
[6] Naturalmente, non si deve pensare che noi ci troviamo al centro dell’universo. Nel processo espansivo, nessuna galassia occupa un posto privilegiato. Un osservatore situato in un pianeta di una qualsivoglia galassia vedrebbe il cosmo come lo vediamo noi e come noi potrebbe misurare l’allontanamento delle altre galassie (più precisamente, dei superammassi di galassie) servendosi della costante di Hubble.
[7] A quel tempo, i quark e le particelle Z e W della forza elettrodebole non erano ancora conosciuti, per cui Gamow si limitò a parlare di protoni, neutroni ed elettroni. E sconosciuto era anche il bosone di Higgs, appartenente alla famiglia dei cosiddetti “bosoni di gauge” di cui fanno parte il fotone, le particelle Z e W, il gluone e il gravitone. Tranne il gravitone, essi sono stati tutti scoperti. Il bosone di Higgs, la cui esistenza fu ipotizzata dal fisico inglese Peter Higgs nel 1964, è stato ossernato per la prima volta nel 2012 in esperimenti condotti al LHC di Ginevra e poi confermato nel marzo del 2013. Il bosone di Higgs è una particella elementare mediatrice del campo di Higgs, un campo di forza che, a circa 10-11s dopo il Big-Bang, venne a formarsi a seguito di una repentina transizione di fase e a permeare tutto l’universo, congelandolo in una sorta di mezzo in grado di opporre resistenza al transito di quasi tutte le particelle, che furono così messe in condizione di acquisire una propria massa, altrimenti inspiegabile. Pare che solo il fotone non fosse in grado di interagire con il campo di Higgs. L’esistenza del bosone di Higgs, ancorché accertata al cento per cento, non costituirebbe il Santo Graal della fisica, ma verrebbe semplicemente a completare il Modello Standard. Oltretutto, la spiegazione di come le particelle acquistino massa non è proprio soddisfacente, in quanto data da una netafora.
[8] Per avere un’idea più incisiva, si consideri l’istantanea dell’universo ad appena un miliardesimo di secondo dopo il Big-Bang. Se a quel tempo la sua massa fosse stata maggiore della massa critica di una parte su 1023 (ciò equivale a dire che W=1,00000000000000000000001), il collasso gravitazionale si sarebbe già verificato da molto tempo. Con questo stesso valore di Omega ma in epoche molto più lontane, ad esempio a 10–20 s dopo il Big-Bang, l’universo sarebbe collassato in brevissimo tempo
[9] I valori delle costanti di natura note alla scienza sperimentale, quali il raggio d’azione e l’ intensità di ciascuna delle quattro forze fondamentali, nonché la massa di ognuna delle particelle stabili (elettroni, protoni, neutroni e neutrini), sono così finemente sintonizzati fra loro che, se fossero stati leggermente diversi, l’universo sarebbe stato un luogo radicalmente diverso e inimmaginabile, soprattutto perché non avrebbe di certo consentito la comparsa di osservatori coscienti che potessero contemplarlo. In base a un ragionamento proposto nel 1974 dal cosmologo Brandon Carter, che coniò l’espressione “principio antropico”, la nostra presenza non è solo determinata dai valori molto speciali delle costanti di natura, ma è anche circoscritta in un ristretto intervallo temporale della storia del cosmo, iniziato recentemente per una serie di circostanze fisiche favorevoli e destinato a concludersi in un futuro non troppo lontano.
[10] Così chiamata perché i processi quantistici avrebbero svolto un ruolo fondamentale a partire dalle primissime fasi del nostro universo anteriori al tempo di Planck e fino all’era delle GUT (Great Unified Theories).
[11] La lunghezza detta di Planck (LP), come altre grandezze fisiche riferibili all’era di Planck, è deducibile dai valori di tre costanti fondamentali della natura note alla scienza: l’intensità della forza gravitazionale, G, la velocità della luce nel vuoto, c, e il quanto minimo di azione di Planck, h. Si ha così LP = (Gh/c3)1/2 = 10–33 cm.
[12] In quegli anni, lo studio delle GUT era basato sulle ipotesi formulate da Glashow, Weinberg e Salam circa le condizioni necessarie per l’unificazione della forza elettromagnetica e la forza nucleare debole, poi confermate sperimentalmente nel 1983. Le GUT prevedono che, all’aumentare dell’energia, o equivalentemente della temperatura, le diverse forze tendono a perdere la loro individualità, andando infine a costituire un’unica forza, che alcuni fisici impegnati nella ricerca della teoria di grande unificazione (delle suddette tre forze con la forza gravitazionale) chiamano “superforza”. Si perviene così all’ipotesi che l’universo primordiale dovsse trovarsi inizialmente in uno stato di perfetta simmetria che poi, nel volgere di un brevissimo intervallo di tempo, si sarebbe spezzata nell’attraversare le tre fasi critiche di temperatura qui di seguito riassunte:
1°) t=10-43s, T=3×1031 °K, la forza gravitazionale si separa dalle altre tre forze;
2°) t=10-32s, T=1026 °K, la forza nucleare forte si dissocia dalla forza elettrodebole;
3°) t=10-12s, T=1016 °K, separazione della forza nucleare debole da quella elettromagnetica.
Per rendere queste formule più comprensibili, si ricorda che, al trascorrere del tempo t, la temperatura T dell’universo, misurata in gradi °K (Kelvin), viene fissata dalla formula T=(1010:√t2)°K..
Il decadimento del falso vuoto descritto da Guth avviene nella seconda delle tre transizione di fase sopra descritte, ovvero nell’istante in cui la forza nucleare forte si separa dalla forza elettrodebole. Fintantoché la rottura di simmetria non avviene, la bolla di falso vuoto si trova in uno stato instabile perché dotata di una quantità di energia in eccesso che non è stata ancora spesa del tutto nel compiere il lavoro di pressione contro le sue pareti nel corso del processo inflattivo.
[13] Ogni tipo di falso vuoto è caratterizzato da instabilità e decade in una piccolissima frazione di secondo in uno stato di minore energia, esplodendo in una palla di fuoco.
[14] La velocità di espansione del vuoto è di gran lunga superiore a quella della luce. Ciò non costituisce una violazione della teoria della relatività, che stabilisce un limite di velocità per le particelle ma non per lo spazio vuoto. Peraltro è proprio questa velocissima espansione a spiegare risolvere i citati problemi del modello classico, in particolare quello dell’orizzonte.
[15] Oltre agli aspetti problematici che sono stati sintetizzati in questo paragrafo, il modello classico non sa render conto dell’assenza di antimateria nell’universo osservabile e dell’ irreperibilità dei monopoli magnetici, particelle dotate di una sola polarità che avrebbero una massa 1016 volte maggiore di quella del protone e che, secondo alcuni teorici, dovrebbero essere stati prodotti in enormi quantità all’era delle GUT, e cioè appena dopo la fase di rottura della simmetria primordiale.
[16] In una bolla cosmica la gravità aspira a sé le pareti mentre la repulsione (o antigravità) preme su di esse. Questo equilibrio non dovrebbe tuttavia permanere troppo a lungo, poiché nel corso dell’espansione dello spazio la forza di gravità che si esercita fra i superammassi in allontanamento tende a indebolirsi e la repulsione a prendere il sopravvento, cosicché la bolla dovrebbe dilatarsi indefinitamente. Non è comunque dato sapere se questo sia l’effettivo destino della nostra bolla cosmica. Tutto dipende dalla quantità di massa-energia presente nella bolla. Alcuni studi recenti sembrano tuttavia dare per certo che l’espansione del nostro universo abbia iniziato ad accelerare in misura sempre crescente da circa quattro miliardi di anni, e questa non è davvero una prospettiva confortante.
[17] L’universo visibile risulta avere una massa che corrisponde al 4,9% della massa critica. Ma dalle osservazioni e dai calcoli delle velocità delle galassie, fra loro legate gravitazionalmente in un ammasso di galassie, gli astrofisici sono giunti alla conclusione che ogni ammasso debba contenere molta più materia di quella accessibile agli strumenti ottici. E’ stata perciò ipotizzata, accanto all’esistenza di materia barionica fatta di oggetti pesanti ordinari chiamati “MACHO” (acronimo di Massive Astrophysical Compact Halo Objects), come stelle brune, pulsar, buchi neri, anche l’esistenza di materia non barionica, costituita da particelle esotiche chiamate “WIMP” (Weakly Interacting Massive Particles), giungendo così a una stima complessiva della massa di circa il 30% della massa critica. Il 70% della densità del nostro universo sembra essere costituita dalla cosiddetta “Energia Oscura” che, in base ai dati raccolti dal satellite Planck dell’ESA e da WMAP (Wilkinson Macrowave Anisotropy Prope) della NASA, agirebbe come una forma di gravità negativa responsabile di un’espansione dell’universo sempre più vertiginosa.
[18] Negli anni sessanta, Goffrey Chew propose l’ipotesi del bootstrap cosmico (letteralmente, il termine “bootstrap” significa “il tirante dello stivale”) allo scopo di suggerire la possibilità di una teoria cosmologica autoconsistente, dalla quale siano derivabili tutte le leggi di natura, tutte le costanti e le proprietà delle particelle. Proposte cosmologiche orientate in tal senso sono la Teoria delle superstringhe e la più recente Teoria M-brane (che ammette, oltre all’esistenza delle stringhe, anche quella di membrane a due o più dimensioni), entrambe ancora in fase di studio.
[19] Alex Vilenkin, “Creation of Universes from Nothing”, Physics Letters 117B (1982), pp. 25-28
[20] L’effetto tunnel è un evento probabilistico previsto in meccanica quantistica e molto comune, consistente nella possibilità di una particella, ad esempio un elettrone, di superare una barriera di potenziale anche se non possiede l’energia che sarebbe necessaria da un punto di vista classico.
[21] Stephen Hawking, Dal Big Bang ai Buchi Neri, Biblioteca Universale Rizzili, Milano 1995, cit. p. 160.
[22] Il nostro universo doveva fin dal suo inizio implicare leggi e valori numerici delle costanti di natura adatti a sviluppare, ad un dato stadio della sua evoluzione, forme di vita dotate di intelligenza e consapevolezza. Allo scopo di offrire una soluzione ragionevole al problema delle coincidenze cosmiche senza appellarsi alla casualità o alla teologia, in alcuni modelli cosmologici viene proposta l’esistenza di una moltitudine o di un’infinità di universi.
[23] Il satellite Planck è stato messo in orbita nel marzo del 2012 dall’Agenzia Spaziale Europea.
[24] Nel seguito, oltre al termine “nulla”, ricorrerà spesso anche il termine “niente”, quest’ultimo essendo più incisivo come negazione di “ente”.
[25] Gottfried W. Leibniz, Monadologia, La Scuola Editrice, Brescia -1991, cit. p. 22.
[26] Sergio Givone, Storia del nulla, Editori Laterza, Roma-Bari 1998, su Schelling, cit, p. 187.
[27] Henri Bergson, L’evolution creatrice (1907).
[28] Martin Heidegger, Che cos’è la metafisica? ED. La Nuova Italia, 1979, p. 8. Questo saggio è stato pubblicato alla fine del 1929 e qui contiene il testo originale riveduto e ampliato con un Poscritto (p. 41) seguito da un’Introduzione (p. 63) presente per la prima volta in una pubblicazione del saggio nel 1949.
[29] Ibidem, p. 11
[30] Ibidem, p. 12
[31] Ibidem, p. 13
[32] Ibidem, pp. 19-20.
[33] Max Planck, La conoscenza del mondo fisico, Ed. Bollati Boringhieri, Torino 1993, p.205.
[34] Mia traduzione di una parte del ragionamento che il fisico teorico francese Bernard d’Espagnat introduce in un suo argomento dal titolo “A note on measurement” – Phys. Lett. A275 (2000)373.
[35] Alberto Marradi, Concetti e metodo per la ricerca sociale, 2002, 110a Ed.-La Giuntina Firenze, pp. 9-10.
[36] Nei capitoli IX, X e XI proporrò una serie di concetti matematici di mia ideazione che potranno essere compresi visualmente e che avranno appunto lo scopo di spiegare come il fluire incessante dello scenario naturale, se non avvenisse ovunque per salti, sarebbe privo di eventi e, conseguentemente, di autorganizzazione e di senso.
[37] In ambito matematico le diverse scuole di pensiero sono: il platonismo, il formalismo, l’intuizionismo e il concettualismo. In ambito fisico si distinguono quattro principali concezioni filosofiche: il materialismo, che si oppone allo spiritualismo e il realismo, che si oppone all’idealismo.
[38] Uso questo termine, visto che il latino ens-entis ha il suo equivalente greco όν-όντοσ.
[39] Hume, Ricerca sull’intelletto umano, Ed. Laterza 1996, cit. p. 33, 35.
[40] Id. cit. p.115.
[41] Ibid. cit. p.115.
[42] Max Planck, La conoscenza del mondo fisico, Ed. Universale Bollati Boringhieri, cit. p. 244.
[43] Da una parte si ha l’evoluzione della funzione d’onda (lineare,deterministica e reversibile) governata dall’equazione di Schrödinger e caratterizzata dal principio di sovrapposizione di stati, dall’altra si ha il procedimento di riduzione del pacchetto d’onda (non lineare, indeterministica e irreversibile) che trasforma la sovrapposizione degli stati in uno o l’altro fra quelli possibili con una probabilità data dal quadrato dei loro rispettivi coefficienti numerici.
[44] Albert Einstein, On the method of theoretical physics, The Herbert Spercer lecture, delivered at Oxford University Press June 10, 1933.
[45] Lavoro è il prodotto di una forza per lo spostamento del suo punto di applicazione.
[46] Dizionario e manuale delle unità di misura di Michelangelo Fazio, Zanichelli, Terza edizione, p. 45.
[47] Lo studio della cosmologia quantistica ha permesso di identificare tre tipi di falso vuoto nel corso evolutivo del nostro Universo: il vuoto del campo elettrodebole, che decade in circa 10–12s, il vuoto dell’unificazione di questo con il campo nucleare forte, che decade a 10–32s, e il vuoto dell’unificazione di questi due campi con quello gravitazionale, il cui decadimento avviene in 10–43s (si veda anche nota 84).
[48] La massa a riposo di un elettrone corrisponde a un’energia di 0,511 MeV (megaelettronvolt), e così anche quella di un positrone.