Aurora Project Forum -UFO-Alieni-Archeologia Misteriosa-Sumeri-Astronomia-Libera Informazione-Cospirazioni-

Halton Arp, il Big Bang e la cosmologia alternativa

« Older   Newer »
  Share  
view post Posted on 15/1/2024, 22:54     +1   +1   -1
Avatar

Historic Member

Group:
Member
Posts:
3,401
Location:
Leningrado

Status:


Nel seguente articolo vengono esposte in maniera sistematica le osservazioni del defunto astronomo americano Halton Arp, e viene anche esposta una generale visione di insieme sulla cosmologia standard e su possibili spiegazioni alternative ai fenomeni che vengono addotti dai cosmologi tradizionali come prove a favore della teoria del Big Bang. L'articolo in questione è stato ricavato dalla fusione di molteplici articoli di Alberto Bolognesi e da alcuni stralci del libro "La Relatività e la Falsa Cosmologia" di Marco De Paoli. Dal momento che il sottoscritto non condivide totalmente le teorie di Arp, in questo articolo sono state riportate soltanto le parti degli articoli di Alberto bolognesi che espongono le teorie di Arp con cui il sottoscritto si trova d'accordo. In fondo all'articolo verranno riportati tutti gli articoli e le fonti originali che sono state usate per creare questo articolo. È opportuno rilevare che tutti gli articoli che sono stati usati per creare questo mega-articolo sono stati scritti fra i 10 e i 14 anni fa. Quindi, nonostante questi articoli parlino di casi di spostamento verso il rosso anomali che non sono stati ancora smentiti da nessuno e che conservano tutta la loro validità, allo stesso tempo parlano di avvenimenti che sono poco recenti come se invece fossero molto recenti. Per esempio, negli articoli si tende a parlare di Arp come se fosse ancora vivo, anche se sfortunatamente non è più tra noi. Dunque, il sottoscritto invita a non dar tanto peso a certe affermazioni, che dipendono solo ed esclusivamente dalla vecchiaia degli articoli stessi.
Il sottoscritto, per parte sua, augura una buona lettura.


Halton Arp, il Big Bang e la cosmologia alternativa


Articolo ricavato dalla fusione
di più articoli di Alberto Bolognesi e dal
libro “La Relatività e la Falsa Cosmologia”
di Marco De Paoli



«I "primi istanti dell'Universo" sono una superstizione popolare che ha consentito ai burocrati e ai tecnocrati di mettere mano al denaro pubblico trasformando il "big bang" in una scoperta scientifica. La scienza moderna che ha smascherato l'astrologia ha finito per sostituirla con un'assurda finzione ancora più grande.»

— Alberto Bolognesi


In un celebre dibattito tenutosi il 26 aprile 1920 a Washington si affrontarono, presente Einstein, i rappresentanti di due opposte scuole di pensiero dell’astronomia moderna: H. Shapley, che riteneva che i nuovi “puntini luminosi” che sempre più apparivano in cielo al telescopio fossero stelle appartenenti alla Via Lattea coincidente con l’Universo risultante cento volte più grande di quanto si pensava; e H. Curtis, che – avendo osservato una supernova in esplosione nella nebulosa di Andromeda – sosteneva (riprendendo un’idea già di Kant e di W. Herschel) che i “puntini” fossero in realtà altre galassie lontane milioni di anni luce e esterne alla Via Lattea, cioè esterne alla galassia nella quale si trova il sistema solare cui appartiene la Terra, in un Universo di cui sottostimava la grandezza. Il dibattito sembrava indeciso, ma poi venne E. Hubble che – dopo aver a lungo scandagliato il cielo con i telescopi di Monte Wilson e di Monte Palomar in California che allora erano i più potenti del mondo – confermò nel 1925 la teoria di Curtis con la scoperta e lo studio delle variabili Cefeidi nella “nebulosa” di Andromeda che, non potendo essere interna alla Via Lattea per la sua distanza, apparve così come una nuova galassia. Hubble dunque disse che, come la Terra non è al centro dell’Universo, così parimenti non è al centro dell’Universo nemmeno la galassia nella quale (in posizione peraltro piuttosto marginale) si trova il sistema solare cui appartiene la Terra con i suoi abitanti. Egli scoprì cioè che parte non indifferente di quei puntini visibili al telescopio lassù nel cielo notturno non appartiene al sistema di cui noi siamo parte, bensì ad altri sistemi. Scoprì che una sola galassia non esaurisce l’Universo: scoprì che la Via Lattea non è l’unica galassia e che nell’Universo vi è un numero strabiliante di galassie ciascuna delle quali contenente mi - liardi di stelle.
Fin qui tutto bene: quanto basta cioè per dare ad Hubble un posto onorevole nella storia dell’astronomia. Senonché, come è noto, Hubble è andato ben oltre: poiché infatti lo spettrometro evidenziava uno spostamento verso il rosso nel rilevamento della luce proveniente dalla maggioranza delle galassie, egli (generalizzando le tesi di V. Slipher del 1913) infine lo interpretò univocamente come un effetto Doppler. Quando dunque Hubble nel 1929 notò che la luce emessa dalle galassie lontane si rivela allo spettro con uno spostamento verso il rosso, egli in ciò vide dapprima solo un moto apparente dell’Universo (parlò al riguardo di “spostamenti apparenti di velocità”) e cercò di spiegare il fenomeno come dovuto a perdita di frequenza della luce e come indicatore della distanza della sorgente. Infine però – superando le sue esitazioni iniziali – lo interpretò come un effetto Doppler deducendone (come in realtà aveva già fatto H. Weyl) che realmente tutte le galassie sono in moto e che esse si allontanano fra loro e da noi con velocità crescente con la distanza: aggiungendo che, poiché esse mantengono inalterate le loro rispettive distanze relative e proporzionali e considerate le enormi distanze reciproche, allora proprio per questo non ci si avvede di nessun cambiamento e il cielo ci appare sostanzialmente sempre lo stesso nei millenni. In questo modo grazie a siffatta interpretazione dello spostamento verso il rosso Hubble giunse definitivamente, in "The Realm of the Nebulae" (Il regno delle nebulose, 1936), a ratificare quella che ormai era una incipiente cosmologia, infine accettando la strana ipotesi «che le nebulose stiano fuggendo via a gambe levate».
Ci si domanda ora: se è indubbia l’importanza di Hubble nella storia dell’astronomia, è forse con ciò stesso indubbia ogni tesi esposta da Hubble? Tolomeo ha fatto accurate osservazioni, ma aveva forse ragione sul postulato geocentrico? Galileo ha fondato la fisica classica, ma aveva forse ragione sulle comete? Naturalmente ogni scienziato risponderebbe con Popper che le congetture scientifiche sono falsificabili, che le teorie scientifiche sono per definizione provvisorie, ipotetiche, rivedibili e che ogni scienziato può sbagliare. Senonché, quanto ammesso anche troppo facilmente in teoria è poi spesso smentito da un atteggiamento pratico dogmatico, sottilmente intollerante e troppo incline ad accettare ossequiosamente i modelli scientifici che l’establishment accademico impone grazie ai potenti finanziamenti di cui dispone. Difatti, resta un fatto incontestabile che la cosmologia del Big Bang si regge completamente sull'assunzione che lo spostamento spettrale degli oggetti cosmici rappresenti invariabilmente una distanza e una velocità di allontanamento: principio non negoziabile sebbene fragilissimo, perché basterebbe osservare associazioni di galassie interagenti (che cioè si trovino alla stessa distanza) ma con redshift discordanti per far cadere tutto il castello deduttivo. Ebbene, questi casi sono stati trovati e catalogati in gran numero da alcuni astronomi d'osservazione, ma tenuti indecentemente ai margini dell'ufficialità perché detronizzano il modello di Universo in espansione acclamato dai media come la più grande scoperta scientifica del Novecento. Se però queste osservazioni dovessero essere accolte come alla fine lo furono le imbarazzanti fasi di Venere e di Mercurio, le conseguenze potrebbero farsi così rilevanti da segnare nel profondo le nostre stesse concezioni esistenziali. Il ribaltamento del paradigma secondo il quale le galassie si sono formate tutte alla stessa epoca permetterebbe infatti di vedere la natura di questi oggetti sotto una luce completamente nuova, dando efficace risposta all'evidenza della loro grande varietà qualitativa.
I Quasar sono connessi alle galassie. Questa evidenza già segnalata da alcuni astronomi verso la metà degli anni Sessanta ha continuato ad accumularsi ininterrottamente ed è divenuta schiacciante con la messa in orbita di telescopi operanti nelle bande delle alte energie, come il rosat, l'Einstein, il Newton e il Chandra. Nell'indifferenza generale questi strumenti hanno rilevato che la stragrande maggioranza delle sorgenti X e gamma (ULX) immerse nel campo delle galassie sono state confermate spettroscopicamente come Quasar e regioni HII ad alto redshift. Una esaustiva raccolta di questi casi si trova ora nel recentissimo "Catalogue of Discordant Redshift Associations" (Apeiron, Canada 2003) dell'"incaponito" Halton Arp, che assieme ai coniugi "brontoloni" Margaret e Geoffrey Burbidge, al "rimbambito" (e defunto) Fred Hoyle e allo "stravagante" Jack Sulentic hanno compromesso le loro reputazioni cercando di confermare osservativamente queste connessioni. Quasar spazialmente annessi alle galassie significano puramente e semplicemente che l'assunzione fondamentale della cosmologia è contraddetta dalle osservazioni e che la relazione redshift-magnitudine apparente non riflette né una distanza né una velocità. Significa sostanzialmente che la teoria del Big Bang è inadeguata, che lo spazio che si dilata mantenendo ferme le galassie e facendo recedere le distanze è un "nightmare" geometrico che ha paralizzato settantanni di ricerche della struttura cosmica, e che il sogno tolemaico di chiudere la partita con l'intero Universo si è di nuovo dissolto.

Rivoluzioni senza prove?

O gli oggetti di Arp sono tutte illusioni ottiche o i cosmologi difendono un'espansione dell'Universo smentita dall'osservazione astronomica. Non è possibile una soluzione "salomonica" o di compromesso e questo rende la controversia ancora più aspra e drammatica. Poiché galassie interagenti con redshift discorde non possono essere contemporaneamente vicine e lontane, connesse e disconnesse, lente e veloci, il punto di vista convenzionale è costretto ad invocare sistematicamente effetti di prospettiva, allineamenti e accavallamenti accidentali nella profondità del cielo. Né potrebbe accontentarsi di attribuire all'oggetto con redshift eccedente uno spostamento non cosmologico assegnando a quello con minore spostamento verso il rosso un redshift sicuramente e interamente cosmologico. Giudicate voi. La prima immagine che ho selezionato (Fig. 1) da un gran numero di casi esistenti, mostra un Quasar che cade davanti a una galassia ellittica, la NGC 1199. L'oggetto compatto indicato con una freccia ha uno spostamento verso il rosso abbastanza elevato (z = 0,044) mentre quello della galassia è modesto (z = 0,009). Per la legge di Hubble e per la buona sorte della cosmologia del Big Bang l'oggetto di tipo Quasar dovrebbe invece trovarsi dietro (cioè molto più lontano della galassia ellittica).



L'immagine successiva (Fig. 2) rappresenta la galassia NGC 4319 e il Quasar Markarian 205 connesso da un visibile ponte di materia. Ma lo spostamento verso il rosso della galassia è z = 0,006 mentre quello del Quasar è di 0,07, cioè dovrebbe trovarsi undici volte più distante secondo la "legge" che tutela l'espansione dell'Universo.



La fotografia seguente (Fig. 3) rappresenta il Sestetto di Seyfert, un gruppo di galassie in interazioni che hanno all'incirca la stessa magnitudine apparente. Cinque di esse hanno più o meno lo stesso redshift (z = 0,015) ma quella indicata con la freccia presenta uno spostamento quasi cinque volte maggiore, il che la renderebbe cinque volte più lontana e di enormi dimensioni.



La quarta immagine (Fig. 4) mostra la suggestiva catena di galassie blu VV 172. Quattro di queste galassie hanno un valore di redshift che oscilla intorno a z = 0,05 mentre quella indicata con una freccia presenta uno spostamento verso il rosso estremamente elevato: z = 0,12. Chi crede davvero che questa galassia non faccia parte della configurazione e che si tratti di un lontanissimo oggetto blu che si è andato ad incastrare accidentalmente fra quattro compagne blu lungo la nostra linea di vista, alzi la mano: e chi alza la mano sostiene implicitamente che si tratta della galassia blu più grande di tutto l'Universo



La quinta immagine (Fig. 5) presenta tre Quasar nei bracci a spirale di NGC 1073. C'è una probabilità su cinquantamila che si tratti di un allineamento accidentale.



E ancora, in Figura 6 una fotografia profonda di tre Quasar intorno a NGC 3842. Qui c'è una possibilità su un milione di trovare per caso questa associazione.



La settima immagine mostra la spirale barrata a due bracci NGC 1097 con i suoi quattro getti luminosi. Ci sono almeno cinquanta Quasar attorno a questa galassia straordinariamente attiva.





La seguente immagine illustra le stupefacenti concentrazioni di Quasar individuati nel campo della "starbust" M 82 (3C 281), una celebre e vicina galassia attiva molto luminosa anche in radio e nei raggi X. L'immagine è così eloquente da rendere infinitesima la chance di un affollamento accidentale, ed è importante rilevare che i due raggruppamenti si trovano sistematicamente sulle linee di emissioni X e in radio che si diramano in direzioni opposte attraverso l'asse minore di questa galassia esplosiva.

jpg



I Quasar finora catalogati da Arp, i coniugi Burbidge e l'italiano Stefano Zibetti (Astroph 0303625) sono quindici (!) ma vi sono ancora altre sorgenti X candidate BSO da esaminare. Una di queste, rilevata dal satellite ASCA vicina al centro di M 82, suggerisce che possa trattarsi di un Quasar colto nell'atto in cui viene veicolato dal nucleo verso lo spazio esterno e del quale, secondo le stime dei ricercatori, potrebbe essere rilevato strumentalmente un moto proprio nel giro di una decina d'anni.
La "goccia nera" della cosmologia è il Quasar Markarian 205. Venne trovato nel 1970 quasi nel grembo della contorta spirale NGC 4319 da un astronomo sovietico che impiegava un piccolo telescopio Schmidt per selezionare oggetti dotati di forte emissione continua nell'ultravioletto. L'americano D. Weldman ne ottenne poco dopo gli spettri rilevando z = 0.006 per la spirale e z = 0.070 per l'oggetto Markarian, che in termini convenzionali di recessione radiale corrispondono rispettivamente a 1.700 km/sec e 21.000 km/sec. Arp esaminò immediatamente il sistema e dopo un'esposizione di quattro ore al fuoco primario del riflettore di 5 metri del Palomar, trovò una connessione luminosa fra il Quasar e la galassia, all'interno della quale era anche distinguibile un filamento sinuoso e ininterrotto più stretto. I due oggetti apparivano visibilmente connessi. Come ovvio la polemica divampò subito perché un simile collegamento minava alla radice non solo l'inviolabile assunzione che gli oggetti con spostamento verso il rosso molto diversi non possono essere fisicamente vicini, ma tutta la cornice dell'espansione cosmica. Vennero fatte prontamente circolare fotografie che non mostravano il collegamento e Arp toccò i vertici della sua crescente impopolarità quando, al Convegno d'Australia del 1973 mostrò ciò che qualsiasi fotografo del cielo è in grado di fare, e che cioè è facilissimo ottenere immagini senza mostrare le connessioni. La conflittualità si mantenne altissima fino a che Jack Sulentic alcuni anni più tardi, con le potenti risorse dei grandi analizzatori di immagini del Jet Propulsion di Pasadena, sottopose le migliori lastre ottenute col 5 metri del Palomar e col 4 metri del KPNO al vaglio elettronico, ottenendo un inequivocabile ponte luminoso fra la galassia e il Quasar di cui qui sotto riproduciamo l'immagine.

jpg



La questione sembrò finalmente risolta e si cominciò tiepidamente ad ammettere che "in qualche raro caso" fosse possibile ipotizzare un redshift anomalo di natura ignota. Nel frattempo, col rapido progresso dell'astronomia amatoriale vennero ottenute evidentissime fotografie del "ponte" fra il Quasar Markarian e la galassia, una delle quali, ottenuta nel 1998 dai cieli d'Inghilterra con un telescopio di 50 cm di apertura! sembra davvero tagliare la testa al toro.

jpg


Ma in cauda venenum. Nell'ottobre 2002 un team di osservatori collegato alla NASA ha prodotto una fotografia ottenuta dall'Hubble Space Telescope e diramato un comunicato stampa nel quale "si esclude l'esistenza di qualsiasi connessione" (Fig. 4). "Le apparenze ingannano" aggiungono i ricercatori dell'Heritage Team parafrasando una precedente opinione di Isaac Asimov: "la coppia è spaiata e separata nel tempo e nello spazio". Se mi si perdona il riferimento, appena venni a conoscenza della release chiesi a Daniele Carosati dell'Osservatorio di Armenzano di produrmi la migliore stampa possibile direttamente dal sito HST, l'appoggiai sul vetro di una finestra … e la connessione apparve evidentissima! Quasi contemporaneamente Jack Sulentic riprocessò l'immagine solo aumentando il contrasto e con lui centinaia e centinaia di professionisti e di dilettanti che immediatamente reclamarono l'esistenza del ponte. Ebbi in seguito anche uno scambio epistolare con gli astronomi Calvani e Marziani di Padova che avevano preparato un articolo sui Quasar per una rivista di astronomia in edicola e a cui avevano allegato (inutilmente) l'immagine processata da Sulentic. I due professionisti riconobbero l'evidenza del filamento e si dolsero che la rivista in questione non avesse pubblicato l'elaborazione fornita appositamente dallo stesso Sulentic, ma mi precisarono che "l'interpretazione più plausibile sembra quella di una caratteristica morfologica associata a Markarian 205, probabilmente un ramo mareale casualmente orientato verso NGC 4319". Naturalmente ribattei che il solo motivo che può indurre a respingere la connessione è la discordanza di redshift, senza la quale il punto di vista convenzionale invocherebbe immancabilmente la "fusione" tra i due oggetti.

jpg



La magra consolazione fu in pratica l'ammissione che i componenti dell'Heritage Team non guardavano con sufficiente attenzione le foto che loro stessi pubblicavano, ma fu l'analisi approfondita che ripetei personalmente sulle immagini originali che mi lasciò perplesso. La foto è insolitamente molto buia ed è stata ottenuta con tempi di posa del tutto insufficienti, mentre il filamento, inquadrato dal sensore HST meno sensibile e solitamente dedicato alle riprese planetarie, appare proprio nel canale blu come "spogliato" delle sue informazioni primarie. Mi rivolsi ad alcuni fra i migliori analisti d'immagine italiani - che qui preferisco non menzionare - e tutti furono concordi nel riconoscere che il "chip" era "deteriorato". Uno di essi mi scrisse testualmente: "È roba da barbieri, non da astronomi". Così tentai una carta estrema, telefonando a un influente amico di Los Angeles, un tempo "agnostico" ma oggi convinto "bigbanger", e la sua risposta fu che sollecitare una nuova ripresa con la più sofisticata camera ACS gli sembrava "un'idea bizzarra". Attualmente, e con l'Hubble Space Telescope avviato alla pensione, la versione ufficiale è che il filamento non c'è, e se c'è, è un ramo mareale di NGC 4319 che cade accidentalmente davanti a Mrk 205, oppure un ramo mareale di Mrk 205 che si protende accidentalmente dietro a NGC 4319.
NGC 7603 A e B, ovvero "lo strano" caso in cui due galassie collegate da un braccio di spirale, ma con redshift discorde, esibiscono due oggetti di tipo Quasar all'interno del braccio stesso. La storia di questa decisiva configurazione affonda nello scorso millennio, e ha inizio una notte senza luna del 1970 al Monte Palomar. Nel corso di una survey su galassie peculiari selezionate in precedenza, Halton Arp misurò gli spostamenti verso il rosso in un sistema binario, che viene mostrato nella Fig. 7 in una bella immagine ottenuta da Nigel Sharp e Roger Lynds. È considerato uno dei casi più sorprendenti di "redshift discordi" anche dall'ortodossia, perché nessun astronomo di credo convenzionale si è mai sentito di invocare apertamente l'accidente prospettico. Il compagno minore compare infatti perfettamente allineato alla fine del braccio di spirale dell'oggetto più massiccio ma se si assume che lo spostamento verso il rosso misuri invariabilmente la distanza e la velocità di recessione, essi devono recedere rispettivamente a 8.700 e a 17.000 km/sec e quindi trovarsi separati a enormi distanze nella profondità dello spazio l'uno dall'altro. Questa connessione è così imbarazzante che nessuno studio approfondito fu più effettuato dopo la scoperta di Arp, né con i nuovi giganti costruiti a terra né col Telescopio Spaziale.

jpg



Nota a margine: nel descrivere questo sistema Arp notò due condensazioni compatte all'interno del braccio di connessione e auspicò che gli spettrografi di futura generazione potessero ricavare ulteriori informazioni da questo caso stupefacente.
Terzo millennio: La Palma, Canarie, un'altra notte senza luna, trentun anni dopo. In una notte con seeing eccellente due giovani astronomi spagnoli, Martin Lopez Corredoira e Carlos Manuel Gutierrez con lo strumento di 2,6 metri del NOT (Nordic Optical Telescope) al Roque de los Muchachos, riescono a procurarsi gli spettri delle due condensazioni immerse nel braccio. E incredibilmente compaiono le tipiche, compatte linee di emissione dei Quasar con redshift di z = 0.391 per l'oggetto angolarmente più vicino alla galassia principale e z = 0.243 per quello più prossimo alla compagna! Il mondo avrebbe dovuto fermarsi almeno per un giorno, ma nessun referente scientifico della Big Science riportò la notizia … Ci sono altre notevoli condensazioni nel campo di NGC 7603A: in particolare una molto interessante che si intravede al "tip" di un braccio che incrocia quello principale e che si volge in direzione opposta, e un'altra proprio all'uscita del nucleo a poche decine di secondi d'arco dal Quasar con z = 0.391. Ulteriori indagini di Corredoira e Gutierrez hanno evidenziato altri oggetti ad alto redshift (!) e i risultati sono in corso di pubblicazione (Astroph 0401147vl2004); ma le richieste inoltrate da due Istituti di Ricerca per investigare a fondo il sistema con il telescopio orbitale Chandra operante nei raggi X e con l'8 metri del VLT al Cerro Paranal sono state respinte. Secondo una prassi consolidata gli astrofisici più influenti hanno evitato di commentare la scoperta di Corredoira e Gutierrez, ma un astronomo italiano associato all'Osservatorio di Arcetri ha recentemente dichiarato su un mensile "che una rondine non fa primavera (?) e che si tratta di un caso statisticamente atteso che non prova nulla". "Entia non sunt multiplicando praeter necessitatem" ammonisce citando Occam: e considerato che c'è una chance contro una cifra di nove zeri di trovare per caso una simile disposizione, è probabile che la massima non sia mai stata citata tanto a sproposito. "Ufficialmente", è l'ennesimo allineamento prospettico di quattro oggetti scorrelati e separati nel tempo e nello spazio, e poiché la galassia di primo piano deve ruotare su se stessa con tutto il braccio, i dottorandi in astronomia possono esercitarsi fin d'ora a farlo scorrere circolarmente come la lancetta di un orologio per ottenere il "jackpot" e per rendersi conto che viviamo davvero in tempi straordinari.

jpg



Nel momento in cui viene scritto questo articolo, Eleanor Margaret Burbidge sta comunicando ad Atlanta, al Convegno dell'American Astronomical Society, la scoperta di alcuni Quasar nel grembo di uno dei cinque componenti del Quintetto di Stephan. Questo spettacolare sistema ad interazione multipla è famoso anche per presentare forti discordanze di redshift in due delle cinque galassie, alle quali poi è probabilmente legata anche una piccola spirale che giace sul bordo esterno del gruppo (NGC 7320 c).

jpg



Sestetto, Tripletto o Quartetto, il Quintetto di Stephan raccoglie ormai da mezzo secolo una sterminata collezione di opinioni contrastanti. Gli spettri dei Quasar sono stati ottenuti la notte del 2 ottobre 2003 allo spettrografo del 10 metri del Keck dalla Burbidge e da Arp, ma la storia di questa ricerca che getta nuova benzina sul fuoco ha una parte tutta italiana che merita di essere brevemente riportata. Un paio di anni fa, il giovane Pasquale Galianni di Taranto che fra le pause dei suoi studi di fisica si divertiva a riprocessare le immagini HST del Quintetto, notò un paio di oggetti - uno puntiforme e l'altro di aspetto nebulare - visibili ad alcune lunghezze d'onda in corrispondenza di un jet che emerge circa 8 secondi d'arco a Sud del nucleo della galassia di tipo Seyfert NGC 7319. Avvalendosi di una mappa in alta energia ricavata da un'esplorazione della Professoressa Ginevra Trinchieri con il satellite Chandra, Galianni stabilì correttamente le corrispondenze con le controparti ottiche e coinvolse nella ricerca Arp e Margaret Burbidge, che l'anno successivo furono in grado di osservarli al Mauna Kea. Gli ULX (sorgenti X ultraluminose) sono diventati un "piatto" estremamente ambito per i ricercatori, perché potrebbero localizzare buchi neri all'interno delle galassie sotto forma di sistemi "binari", dove cioè la stella catturata dal "mostro invisibile" comincia a spiraleggiargli vorticosamente intorno rilasciando nella sua caduta una grande quantità di particelle energetiche X e gamma. Un piatto che tuttavia si è rivelato estremamente salato, perché la maggior parte degli ULX finora indagati si sono rivelati quasi esclusivamente Quasar e regioni HII. Con giovanile entusiasmo, ma basandosi purtroppo su incertezze di catalogo, Galianni rivendicò il moto proprio di una "binaria" e così alla fine la natura dell'oggetto da lui scoperta veniva forzatamente rimandata alle analisi spettroscopiche che soltanto un grande telescopio avrebbe potuto effettuare. Ora, nell'imbarazzo degli stessi educatori di fisica di Pasquale, il "Quasar Galianni" risplende al centro del Quintetto di Stephan, con z = 2.267!

Image1147

Immagine_quasar



Sul redshift cosmologico

A prima vista sembra inesatto dire che il redshift è proporzionale alla distanza: i dati puramente osservativi sono, a stretto rigore, lo spostamento verso il rosso e la magnitudine apparente. Se esiste una legge di natura per cui la luce degli astri lontani risulti sempre più spostata verso il rosso con la distanza, questa dovrebbe essere costantemente verificata proprio attraverso la relazione magnitudine assoluta-redshift. A dire il vero oggi avremmo molti elementi per sospettare il contrario, in quanto l'osservazione dimostra che sono proprio gli oggetti contraddistinti dai più forti spostamenti spettrali, i Quasar, a manifestare un'assenza di correlazione fra il valore di redshift e la loro luminosità. E' estremamente difficile determinare la magnitudine assoluta di una galassia quando questa è molto lontana: la luminosità apparente dipende senza alcun dubbio dalla lontananza dell'oggetto , ma perché tale luminosità possa essere intesa come un preciso indicatore di distanza è necessario introdurre l'ipotesi forzata che le galassie abbiano tutte la medesima magnitudine assoluta in base alla loro classe di appartenenza oltre alle medesime dimensioni. È un po' come se dovessimo determinare, di notte, le proporzioni di una città mediante i suoi oggetti luminescenti (lampade, insegne, fari, fanali,...) assumendo che tutte queste sorgenti abbiano la stessa luminosità intrinseca della fila di lampioni che ci sta davanti. Si deve tener conto inoltre della non istantaneità delle interazioni fisiche: la velocità della luce che nell'analogia con la città notturna è un elemento trascurabile, diventa una questione cruciale a livello cosmico; tanto più lontano spingiamo lo sguardo tanto più "inattuale" è l'aspetto della sorgente che osserviamo, cosicché la nostra valutazione, già gravata da un'ipotesi ad hoc, deve affidarsi all'ulteriore presupposto che l'intensità luminosa delle galassie si mantenga inalterata lungo intervalli di tempo di miliardi di anni.
Il redshift inteso come velocità di recessione produce poi un duplice, intrinseco smorzamento delle luminosità: poiché l'intervallo fra due creste d'onda risulta dilatato, viene diminuita la frequenza e con essa, naturalmente, l'energia, secondo la ben nota formula di Planck Energia = Costante di Planck x Frequenza L'abbassamento di frequenza determina una diminuzione delle onde nell'unità di tempo, diminuzione che si traduce in una ulteriore perdita dell'energia ricevuta. L'idea originaria di Edwin Hubble si basava, come noto, sulla stimolante possibilità di determinare la distanza degli oggetti remoti proprio attraverso l'incremento di questo spostamento: basandosi sull'osservazione di 18 galassie tipiche stimò le magnitudini assolute confrontandole con lo spostamento spettrale che presentavano. Come Hubble poté individuare questa "relazione lineare" fin dal 1929 è uno dei tanti misteri di cui è costellata la storia dell'astronomia: i dati si riferivano a 46 spettri ed a 18 distanze di galassie tutte troppo vicine, nessuna di esse trovandosi oltre l'ammasso della Vergine. E' chiaro che non dovremo aspettarci alcuna proporzionalità di spostamento per queste galassie: tuttavia l'enorme mole di lavoro svolta dagli spettroscopisti negli anni successivi documentò costantemente questa progressione, almeno in funzione con la diminuzione della luminosità apparente (cioè con l'aumento della magnitudine apparente). Che poi lo spostamento verso il rosso traesse origine da un movimento di recessione delle galassie o che esprimesse un processo universale di consumo dell'energia dei fotoni, era una discussione che in ogni caso non avrebbe infirmato la possibilità di misurare l'Universo visibile. Alla luce delle più recenti scoperte astronomiche non c'è dubbio però che la domanda debba essere riformulata in questi termini: lo spostamento spettrale segue la legge di Hubble?
È noto che interpretando l'abbassamento di frequenza delle sorgenti lontane come un effetto Doppler, si giunge alla conclusione che queste debbano recedere le une dalle altre in misura proporzionale alla distanza che le separa. Si tratta di un effetto del tutto particolare: ricordiamo, proprio perché nessuno lo fa mai, che l'effetto Doppler-Fizeau classico non ha alcun rapporto con la distanza; tuttavia qualsiasi dilettante può riconoscere senza difficoltà il sorprendente scivolamento di questi spettri verso le grandi lunghezze d'onda. Le stesse righe stazionarie H e K del Calcio, che negli spettri stellari non partecipano al moto radiale, qui risultano completamente ribaltate all'estremo opposto. In realtà noi non osserviamo galassie che sfrecciano a velocità crescenti: questo allontanamento viene invece attribuito alla modificazione stessa dello spazio, o meglio alla sua dilatazione. Poiché questa dilatazione non interessa né i processi della materia né la struttura delle galassie (e a quanto pare nemmeno gli ammassi di galassie), è necessario riferirla a un effetto di scala per il quale sono le distanze cosmiche ad aumentare in relazione allo stato della materia: così si deve precisare che non sono le galassie a muoversi o a fuggire verso un iperspazio, ma che è lo spazio stesso a trascinarle sempre più lontane le une dalle altre. Poco importa se in una metrica in espansione la luce rischia di fermarsi; estrapolando a ritroso questa dilatazione delle distanze si perviene a un punto del passato in cui non solo le galassie o le stelle, ma forzatamente nemmeno gli atomi o i nuclei atomici avrebbero potuto avere un'esistenza separata (singolarità, Big Bang, creazione, buco nero-buco bianco). Anche così, però, non si saldano i conti con le magagne osservative. L'accertata insistenza di ammassi, dalle regioni più remote alle zone a noi più prossime, svela agli astronomi una continuità di aggregazione, una qualche ragione fisica insomma che permette agli ammassi stessi di non sfasciarsi o disperdersi; qualcosa che li tiene legati a scorno dell'espansione delle distanze. La variazione temporale dei rapporti metrici deve dunque subire un'ulteriore, drammatica restrizione: l'espansione non interessa, come abbiamo visto, né le particelle elementari, né gli atomi, né i reticoli cristallini, né le distanze fra le stelle e nemmeno fra le galassie: ma essenzialmente e forzatamente quella che divide un ammasso dall'altro.
Che duro prezzo sta pagando l'effetto Doppler per questo spostamento verso il rosso! È molto difficile infatti procedere ad una corretta classificazione degli ammassi: molti di essi appaiono slegati o isolati mentre altri non mostrano confini significativi con ulteriori associazioni di galassie; in alcuni le galassie vi sono numerosissime, in altri vi si contano solo alcuni membri. Balza subito agli occhi, senza ulteriori precisazioni, che usando questo nuovo parametro di dilatazione si arriva a una conclusione in completo disaccordo con il Principio Cosmologico: procedendo con questo angolo a ritroso nel passato si perviene a una situazione delle densità del tutto anisotropa e difforme, che costringerebbe a postulare più Big Bang e un numero imprecisato di radiazioni di fondo fortemente discontinue. Volendo infierire, ricordiamo che il calcolo delle masse degli ammassi sulla base dello scarto dei singoli membri dal valore di redshift cosmologico, conduce a risultati talmente scoraggianti, che basterebbe questo risultato da solo per scuotere l'ipotesi espansionistica. Nei casi più drammatici, per far quadrare i conti, bisognerebbe postulare una massa fino a cento volte superiore di quella osservabile negli ammassi e che potrebbe essere spiegata (e che altro?) con l'introduzione di oggetti inosservabili, di stelle densissime, di buchi neri. Ancora più sconcertante la distribuzione di questa massa fantasma: si ritiene che gli oggetti collassati siano generalmente astri che hanno compiuto il loro ciclo vitale e che quindi rappresentino lo stadio finale di stelle vecchie, poco probabili all'interno di sistemi giovani. Il numero di questi oggetti dovrebbe così diminuire approssimativamente con la distanza e tuttavia disporsi, caso per caso, alle necessità peculiari di ogni ammasso per potersi poi accordare coi fatti osservativi!
Una delle tante occasioni perdute dalla scienza è quella, per esempio, di non aver chiesto ad Einstein se noi avremmo mai potuto osservare spostamenti di origine Doppler con valori superiori a z =1, appunto il valore che la cinematica classica attribuisce alla velocità della luce. È una vera disdetta che il più geniale fisico moderno non si sia espresso dettagliatamente su questo grattacapo spettroscopico, soprattutto oggi che gli astronomi "misurano col metro" gli spostamenti spettrali di certi Quasar. Se avesse detto esplicitamente di no, indicando anzi tale limite come una possibile verifica sperimentale della Relatività Ristretta, forse oggi sarebbero meno numerosi coloro che con tanta sicurezza organizzano tavole rotonde sull’espansione delle distanze, sulle radiazioni "fossili" e sulla "sfera di fuoco", e si sarebbero moltiplicati gli sforzi per studiare ipotesi di spostamento spettrale anche al di fuori della cinematica. Questa precisione, che talora può essere espressa con otto e più cifre significanti, deve tener conto del fatto che ogni strumento, occhio, lastra o cellula fotoelettrica, è sensibile solo ad una certa banda dello spettro, per cui se l'emissione non ha un'intensità uniforme, si determinano variazioni nella magnitudine con lo spostamento spettrale (nel nostro caso un ulteriore, intrinseco smorzamento della luminosità), variazioni che vanno opportunamente corrette per non introdurre elementi soggettivi o strumentali nelle misure. Occorre anche tener conto del fatto che queste correzioni non possono essere dirette, ma dipendono strettamente dal modello cosmologico assunto per ipotesi che, disgraziatamente, è subordinato alle misure correttive. Il guaio è che i rischi di selezione aumentano al di là di ogni limite quando la magnitudine di un astro è molto piccola: quanto più è debole l'oggetto, tanto più tendiamo ad attribuirgli una maggiore luminosità assoluta. Non è probabilmente un caso che gli oggetti contraddistinti dal più marcato spostamento verso il rosso siano contemporaneamente pessimi campioni di luminosità; così non dobbiamo meravigliarci se la maggioranza degli astrofisici li considera gli astri più distanti dell'Universo. Quando nel 1964 si esaminò lo spettro della radiosorgente puntiforme 3C 9, lo sbalordimento fu generale; lo spostamento verso il rosso superava il 200%, valore che per la cinematica classica equivale a due volte la velocità della luce.

b5e9e0c364ccdb00929710c626908bde


Se non si vuole accettare che questo spostamento sia la prova che il redshift non è di natura cinematica (e poiché sarebbe aberrante ritenere che 3C 9 stia allontanandosi da noi ad una velocità di 800.000 Km/s), in che modo si può rendere conto di tale spostamento? Lo abbiamo già visto; postulando uno spazio in espansione, cioè una metrica che si distende. Oppure, visto che lo spostamento è in alcuni casi così alto da rendere impossibile la lettura cosmologica, possiamo ripescare la Relatività Ristretta e applicare varie correzioni, cosicché, per quanto grande possa essere "z", il risultato conduce sempre a velocità inferiori a "c". Provvidenziale o mostruosa che sia l'applicazione di simili correzioni, esse consentono ai cosmologi difensori della tesi cinematica di conferire ai Quasar la natura di astri favolosi con i quali sarebbe possibile risalire la storia dell'Universo fino al suo momento più antico. Questo, naturalmente, a patto di attribuire a questi oggetti una luminosità centinaia di volte superiore alle galassie più brillanti in una regione di spazio incredibilmente piccola. Ma il Quasar OQ 172, con un valore di redshift z = -3.53, dovrebbe trovarsi nelle immediate vicinanze di quella spropositata temperatura che non permise più ad alcun elemento della materia di mantenere la propria coesione: il Big Bang appunto. Questa temperatura dovette rendere luminosissimo quell'Universo, molto più luminoso del Quasar più luminoso, e noi dovremmo vedere ancora quella luce!
Nessuna teoria di proporzionalità fra il redshift e la distanza è in grado di collocare coerentemente gli spostamenti dei Quasar, inoltre è noto da più di trent’anni che la differenza qualitativa delle galassie si esprime anche attraverso il valore di z: per esempio le galassie a spirale mostrano spostamenti verso il rosso sistematicamente più elevati di quelle ellittiche nonostante appartengano al medesimo gruppo o ammasso; nell'ammasso della Vergine sono state evidenziate differenze di z che se interpretate come effetto Doppler avrebbero per risultato velocità di centinaia e migliaia di chilometri al secondo maggiori di quelle ellittiche. Ma è solo la punta dell'iceberg. Sono stati fotografati Quasar fra bracci di galassie o emergenti dal nucleo, con valore di z talmente discordanti che nessun effetto cinematico potrebbe spiegare, riscontrate differenti distribuzioni di redshift perfino nei nuclei secondari di una medesima galassia e ovunque, dove questi oggetti appaiono in una situazione di particolare perturbazione ottica o radioemittente, si riscontrano valori di z senza alcun rapporto con la luminosità. E ancora: rileviamo sistematicamente che le galassie compagne più piccole sono sempre più arrossate rispetto alla principale del gruppo pur se poste alla stessa distanza o interagenti fra loro, e sistematicamente rileviamo che la galassia principale è sempre più spostata verso il rosso quando è radioemittente nei confronti di compagne più piccole ma radioquiete. Non si può far nemmeno un cenno alle difficoltà, all'ostruzionismo ed al grande isolamento contro cui hanno dovuto lottare alcuni ricercatori per produrre questi risultati. La ragione, tuttavia, è evidentissima: quando Halton Arp fotografa oggetti molto vicini con valori di z molto diversi e calcola che le probabilità prospettiche sono dell'ordine di due su mille o di una su un milione, i rappresentanti dell'establishment cosmologico sanno perfettamente che ci sono due possibilità su mille o una su un milione che la legge di Hubble sia valida. Così non sembrano mostrare alcuna emozione nell'osservare lastre fotografiche che hanno mille probabilità contro due, o un milione contro una, di evidenziare spostamenti intrinseci verso il rosso!
L’esistenza di un effetto intrinseco è in alcuni casi così ben documentato da far pensare che alla lunga dovrà essere riconosciuto. La prova più persuasiva è forse quella che si ottiene nell'esaminare la distribuzione del redshift della trentina di componenti, il cosiddetto gruppo locale, gruppo di cui la nostra stessa galassia fa parte. Con le debite correzioni, ed a causa dei moti orbitali di ogni membro all'interno dell'ammasso, dovremmo aspettarci di registrare mediamente tanti spostamenti verso il rosso quanti verso il blu: infatti, poiché l'espansione non può prodursi all'interno di un sistema senza disperderlo e poiché le popolazioni stellari osservate sono sufficientemente antiche per farlo ritenere stabile, lo spostamento spettrale (positivo o negativo) renderà conto dei soli moti gravitazionali dei singoli membri, almeno in relazione alla nostra visuale. Eppure, come per una sorta di magia, tutte le nostre compagne, ad eccezione della grande galassia M31, ci appaiono sistematicamente orientate verso il rosso! Se non ci fosse una componente intrinseca a determinare lo spostamento spettrale, il dato osservativo sarebbe del tutto incomprensibile, a meno di ammettere, molto artificiosamente, che a partire da un'epoca recente tutte queste galassie hanno preso a sganciarsi dal dominio di M31, manifestando un moto di deriva che è poi perfettamente radiale al nostro punto di osservazione.
I cosmologi hanno tentato di spiegare l'imbarazzante redshift delle componenti del gruppo locale postulando un enorme concentrato di materia oscura, più in là, da qualche parte. Le hanno dato perfino un nome e l'hanno chiamata Il Grande Attrattore. Sfortunatamente l'ipotesi richiede che questa enorme massa invisibile abbia cominciato ad operare in tempi assai recenti, perché in caso contrario il gruppo locale avrebbe dovuto sfasciarsi e disperdersi molto rapidamente, e non potrebbe essere lì dove ancora lo vediamo. Dopo aver cercato invano una massa nascosta pari ad almeno centomila grandi galassie in direzione delle costellazioni dell'Idra e del Centauro, i teorici del big bang hanno pensato di guardare nella direzione opposta per verificare la coerenza di questo Grande Attrattore. Sulla base della mappatura approntata dal satellite INAS, hanno elaborato una distribuzione affine di materia oscura: dal confronto fra le velocità attese e quelle misurate è emerso che nella direzione opposta le velocità sono sempre in eccesso. I dissenzienti hanno fatto osservare che ciò è esattamente quello che ci si dovrebbe attendere in tutte le direzioni se l'effetto intrinseco va a sommarsi a quello cosmologico, mentre i più scettici hanno preso definitivamente atto che la legge di Hubble non risulta verificata oramai più da nessuna parte... Attualmente il Grande Attrattore è un po' in disarmo presso gli stessi teorici, e si preferisce parlare di una misteriosa corrente cosmica, di un grande fiume che sconvolge il regolare flusso di Hubble.
Gli oppositori tuonano che anche prescindendo dall'introduzione di elementi inaccessibili all'esperienza (la materia oscura), questa terminologia mistica è inaccettabile in una rappresentazione che pretende di essere scientifica. Ma chi li ascolta? e chi pubblica i loro strali? L'eccesso sistematico di redshift è stato segnalato da diversi Autori anche per altre associazioni di galassie vicine, come quello dello scultore o le compagne di M81 (Bottinelli, Gougheneim, CollinSoufrin, Pecker, Tovmassian, Giraud, Moles, Vigier, Sulentic). Ma invece di appianare la questione, tali conferme la complicano, se possibile, ancora di più: dove il redshift è stato misurato con particolare accuratezza, l'intervallo di variabilità intorno al valore medio di +72 km/s è talmente piccolo da far sparire tutti i moti peculiari che dovremmo attenderci applicando le leggi della gravitazione universale. Dobbiamo forse pensare che queste galassie siano "in quiete" all'interno degli ammassi a cui appartengono? Dove sono finiti, è lo stesso Arp a chiederselo, tutti i moti di interazione che dovremmo attenderci? Questa è la tegola che proprio in vista del traguardo cade sulla testa dell'effetto intrinseco.

Le dita di Dio

Il Palladio, la mitica pietra della sapienza caduta dal cielo, non si trova più ad Atene o a Troia. È oggi custodito nei penetrali dello Smithsonian Center for Astrophysic ad Harvard, montato su un rozzo piedistallo in uno dei corridoi dell'ala nuova ricoperta di una smorta moquette grigia. È un cubo di plexiglass di circa un metro di lato, all'interno del quale si trovano migliaia e migliaia di palline colorate in apparente sospensione: sono rosse e azzurre, palline rosse per le galassie ellittiche e palline azzurre per le galassie a spirale. Al centro del "diorama" una sferetta bianca marca la posizione della Via Lattea, molto prossima a un nugolo di palline e più in là a un'altra concentrazione che nelle intenzioni del costruttore dovrebbero rappresentare rispettivamente l'ammasso della Vergine e il più distante assembramento della Chioma di Berenice. È la cartografia tridimensionale della struttura cosmica ottenuta attraverso la misurazione dello spostamento verso il rosso di 2.400 galassie (palline) in base all'"indubitabile" assunzione che il redshift rappresenta comunque una distanza e una velocità. Un'altra di queste mappe di profondità è mostrata nella Fig. 14 che compendia ulteriori surveys spettroscopiche di un gran numero di galassie.



Appaiono stupefacenti strutture come "grandi muraglie", filamenti e immense bolle di vuoto. Presenti in tutti questi diagrammi sono le cosiddette "dita di Dio", smisurati e inspiegabili allineamenti di galassie che puntano direttamente alla Via Lattea e che vengono giustificati come "dispersioni di effetti Doppler conseguenti a moti peculiari all'interno degli ammassi". Vedi Fig. 15).



Ma se i cartografi delle tre dimensioni avessero preso la precauzione di annotare la posizione in base alle luminosità e alle "taglie" delle galassie, avrebbero potuto constatare ad un'occhiata che le più luminose cadono sistematicamente vicino all'apice delle "dita di Dio": qualsiasi dilettante puntiglioso potrebbe facilmente dimostrarlo provando una volta per tutte che quei redshift non possono rappresentare velocità e distanze, e che queste "mappe" sono prive di significato come indicatori della distribuzione in profondità delle galassie.

Croci di Einstein, Tolomeo e Quantizzazione

L'evidenza che i Quasar cadono vicini alle galassie non è contestata dai cosmologi di credo convenzionale: viene attribuita per lo più a "vizi di selezione", a "statistiche a posteriori" e a "effetti lente gravitazionale" previsti dalla Teoria della Relatività. Anche la presenza di "materia oscura" - la cui presunta concentrazione al centro e ai bordi degli ammassi amplificherebbe la visibilità degli oggetti di fondo - è chiamata in causa; e quando si trovano coppie, tripletti, quartetti di Quasar molti vicini e con analogo spostamento verso il rosso, questi diventano automaticamente "candidati lenti". "È anche un buon modo di sfoltire i Quasar- feci notare a un influente astrofisico nel corso di un dibattito - e sarebbe istruttivo per la platea comprendere perché la loro concentrazione intorno alle galassie attive è una statistica a posteriori, mentre le lenti gravitazionali non lo sono". "Naturalmente lei è libero di non crederci - fu la risposta - ma l'ha detto un certo Einstein! Vada a guardarsi la "croce" che porta il suo nome, e poi mi sappia dire…". L'immagine della "Croce di Einstein" è riportata qui sotto, e mostra quattro Quasar centrati nel nucleo di una galassia a spirale che si trova a una distanza stimata di circa 500 milioni di anni luce.


Poiché i Quasar sono ritenuti gli astri più distanti dell'Universo e poiché l'osservazione di un simile raggruppamento profondo (dentro un secondo d'arco) sarebbe per lo meno improbabile, i cosmologi ne deducono che si tratta dell'allineamento accidentale di un unico oggetto distante nove miliardi di anni luce "spaccato" in quattro dalla massa della galassia molto più vicina a noi, che gli cade di fronte sulla nostra linea di vista. Oppure i Quasar sono quattro, e stanno emergendo ortogonalmente dal grembo della galassia con l'altissimo spostamento intrinseco. Ma così vien giù tutto, la Croce, il Big Bang e settant'anni di cosmologia. Improbabile. L'allineamento, tuttavia, dovrebbe essere così esatto che la chance prospettica è calcolabile in 2 x 10-⁶, mentre la massa richiesta per il nucleo della galassia che fa da "lente" dovrebbe essere almeno 1.1 x 10¹⁰ masse solari!! Questo valore eccede quello dei nuclei delle più massicce galassie dell'Universo, mentre qualsiasi astronomo d'osservazione, potrebbe confermare ad un'occhiata che "l'oggetto lente" in questione è in realtà una galassia nana! Il lettore che cerca affannosamente di decidere dove stanno i Quasar nell'Universo, può tornare alla Figura 9, se crede; ma questa non è ancora tutta la storia della Croce di Einstein, perché Arp e Philip Crane, riprocessando le immagini ottenute dall'Hubble Space Telescope evidenziarono una linea Lyman alpha che connetteva il Quasar di destra e quello sottostante al materiale di bassa densità della galassia "lente". La rivista "Nature" si rifiutò di pubblicare il risultato, che tuttavia apparve su "Physics Letters" (A, 168, 6) nel 1992.



La reazione finale fu che Arp e i suoi subalterni non credono nemmeno alla Relatività Generale, ma anche qui la sottile distinzione è che essi semplicemente non credono che la "Croce di Einstein" sia davvero un effetto lente gravitazionale.

Quantizzazione

Ma esiste un'altra conferma (del tutto indipendente dai dati di Arp) che i redshift delle galassie e dei Quasar non possono essere attribuiti all'espansione dell'Universo. Si tratta della quantizzazione che emerge dall'analisi dell'intera distribuzione spettrale degli oggetti cosmici, veri e propri numeri magici ricorrenti, per i quali non si può evitare di darne almeno un cenno. Uno dei risultati più raccapriccianti dell'interpretazione ortodossa è che l'affollamento dei Quasar attorno alle galassie attive comporterebbe immensi coni allungati i cui vertici puntano invariabilmente verso la Terra. Abbiamo visto che un problema analogo sorge quando si tende a rappresentare in sezioni profonde la distribuzione delle galassie in base alla relazione distanza-velocità: appaiono inspiegabili incolonnamenti in fila indiana ("le dita di Dio") intervallati da enormi "pareti" e zone di vuoto ("struttura a bolle") con la terra ancora al centro (Figure 14-15). Un'équipe di ricercatori esaminò i dati disponibili per galassie appartenenti a zone di cielo contrapposte (T. Broadhurst et alt., Nature, 343, 72, 1990) trovando fronti e muraglie di oggetti che ricorrevano in mezzo a zone quasi completamente vuote a intervalli regolari di 130 megaparsec! (Fig. 17). Questi dati inattesi provocarono enorme stupore, ma quando fu chiaro che essi contraddicevano qualsiasi teoria di formazione delle galassie in accordo col Big Bang, si obbiettò che le porzioni di cielo indagate erano troppo piccole per essere "rappresentative", e che si imponevano quindi ulteriori investigazioni su sezioni di cielo più estese e profonde, con telescopi più potenti. Che è poi un'impresa titanica, perché i telescopi di maggiore apertura hanno un campo d'osservazione ridottissimo (il 10 metri del Keck I spazia ad esempio 1/250 della grandezza della luna piena) e non è mai chiaro dove si sta guardando.



Tuttavia le numerose surveys successive hanno "confermato" l'esistenza di muraglie e di bolle di vuoto o, equivalentemente, che i picchi di redshift risultano sistematicamente quantizzati a valori preferiti. L'ortodossia rimane "abbottonata" nei confronti della periodicità, perché la presenza a intervalli discreti di muraglie e gusci concentrici di galassie riporterebbe trionfalmente Tolomeo al centro dell'Universo; le "bolle di vuoto" tuttavia sono in alcuni casi così grandi che nella cornice del Big Bang non ci sarebbe tempo sufficiente per formarle. Come ha dichiarato a più riprese l'astronoma Judith Coehn, le grandi strutture avrebbero potuto formarsi solo accordando un tempo di gran lunga superiore "alla presunta età dell'Universo", cosicché non è più chiaro nemmeno all'ortodossia quale significato accordare alle molte reclamizzate "mappe di profondità". L'evidenza che i redshift delle galassie compaiono a valori discreti era tuttavia disponibile da molto tempo. Nel 1976 l'astronomo del Caltech William Tifft rilevò da un campione numeroso di galassie binarie che le differenze di redshift cadono costantemente nell'intervallo di 72-144-216 km/sec. e multipli: il risultato venne subito ridicolizzato in quanto nessuno sarebbe stato disposto ad accordare velocità di recessioni quantizzate alle galassie binarie. Inoltre i moti reciproci di interazione avrebbero dovuto cancellare qualsiasi periodicità anche nel caso che l'effetto fosse stato reale: Arp ricorda che si ironizzò a lungo sulla possibilità di un annullamento retroattivo del titolo accademico di Tifft. Ma tutte le rilevazioni successive su coppie di galassie confermarono costantemente questo risultato, che fu nuovamente evidenziato con misure radio dell'idrogeno neutro, che sono in grado di determinare i redshift nel modo più accurato. Dove siano andati a finire i moti gravitazionali relativi resta un mistero insoluto sul tavolo degli astrofisici (e dello stesso Arp!): nel frattempo però è diventata schiacciante l'evidenza che anche i redshift dei Quasar sono fortemente quantizzati su valori preferiti. L'astronomo svedese Karl Karlsson trovò che i picchi ricorrenti potevano essere riprodotti da una formula Delta log(1-z) = costante, che nella tabella riportata qui sotto

z = 0,30 z = 1,96
z = 0,60 z = 2,64
z = 0,96 z = 3,47
z = 1,41 z = 4,49

assume il valore cost. = 0,089. Il punto di vista tradizionale non è mai intervenuto a smentire la periodicità degli spostamenti verso il rosso dei Quasar perché nella cornice cosmologica del Big Bang la loro collocazione a grandi distanze ha pur sempre un significato che è in stretta relazione con l'evoluzione dell'Universo. Ma non c'è dubbio che qualunque possa essere il meccanismo che impartisce valori discreti allo spostamento delle righe delle galassie e dei Quasar, questa è un'altra prova decisiva che il redshift non può essere attribuito a velocità.

Lo spostamento verso il rosso diversamente interpretato

Ora, dal momento che sembra poco plausibile attribuire lo spostamento verso il rosso delle lontane galassie ad un effetto Doppler, e dal momento che le osservazioni di Halton Arp e di altri astronomi – nonché le considerazioni sin qui esposte sui problemi posti dall’interpretazione cinematica dello spostamento verso il rosso – sembrano confermare che il redshift abbia una natura intrinseca indipendente dalla distanza e dalla velocità, ci si domanda: da cosa può essere causato lo spostamento intrinseco verso il rosso delle lontane galassie e dei Quasar? L’ipotesi più plausibile è che esso sia dovuto alla combinazione di più fattori, e qui di seguito mi permetto di portare alcuni esempi.
Le righe spettrali rivelano anzitutto nell’oggetto osservato e dunque nella sorgente luminosa – stella o galassia – una peculiare costituzione interna. Infatti G. Kirchhoff, analizzando gli elementi degli spettri chimici allora noti, ne concluse che gli elementi potevano essere identificati nettamente dai loro spettri: ogni atomo, ogni elemento o composto, emette una certa lunghezza d’onda sua propria e genera una serie peculiare di righe spettrali; così una riga scura nello spettro solare indica la presenza di quell’elemento chimico che scaldato in laboratorio dà la stessa riga (seppur lievemente spostata) in emissione. In tal modo la spettroscopia, che scompone le componenti della luce nelle sue diverse frequenze risultanti nei vari colori (come già nell’antica esperienza newtoniana che scompone attraverso un prisma un fascio di luce bianca), prima che un indicatore di distanza e di velocità è anzitutto uno strumento di indagine chimica: i diversi colori dello spettro corrispondono alle varie sostanze di cui è composta la sorgente (ossigeno, sodio, carbonio etc.) in quanto ogni elemento ha il suo specifico spettro atomico cosicché l’analisi delle righe spettrali indica la particolare struttura del corpo osservato, ne identifica le sostanze chimiche, fornisce informazioni sulla costituzione interna della sorgente. Ora, l’idrogeno ionizzato, che è di gran lunga la sostanza più diffusa nell’Universo e compone la maggior parte del materiale stellare e anche interstellare, evidenzia allo spettrometro delle righe scure spostate verso il rosso (si ricordi la conferenza di Bohr del 1913 ”Sullo spettro dell’idrogeno”, anche se non riguardava l’idrogeno interstellare): di conseguenza le galassie, composte di stelle e quindi di idrogeno, evidenziano quasi tutte uno spostamento verso il rosso, che è parimenti uno spostamento verso il rosso anche delle altre righe corrispondenti agli altri elementi chimici. Senonché, il fatto che le righe spettrali emesse dalle stelle, corrispondenti ai vari elementi chimici, appaiano spostate verso il rosso – ad esempio il fatto che le righe dell’idrogeno stellare appaiono spostate rispetto alle righe dell’idrogeno terrestre – non depone ancora assolutamente e sempre a favore di un effetto univocamente Doppler.
Anzitutto anche i colori dell’arcobaleno rivelano uno spostamento verso il rosso, e in questi casi certamente non si tratta di allontanamento Doppler della sorgente. Parimenti, P. Zeeman nel 1896 scoprì l’influenza di un campo magnetico sul movimento degli atomi in esso esistenti, e dunque sulle righe spettrali, mostrando come per l’azione del campo magnetico le righe spettrali degli atomi si scompongano, a causa dell’alterazione del loro movimento in diverse componenti, in una riga doppia o tripla (doppietto o tripletto): così oggi è ben nota l’influenza dei campi magnetici solari che, aggrovigliati dalla rotazione differenziale solare, causano un allargamento delle righe spettrali impresse sullo spettrometro. In certe stelle terminali lo sdoppiamento delle righe spettrali appare particolarmente accentuato: si produce un allargamento delle righe tale che le righe doppie divengono irriconoscibili e appaiono singole. L’Universo, in effetti, rigurgita di campi magnetici, ed è possibile presumere che essi abbiano un’importanza finora non riconosciuta nella produzione dello spostamento delle righe verso il rosso: se sulla Terra l’idrogeno lascia allo spettrometro un certo segno corrispondente a una data riga dello spettro e poi si trova che una stella lontana lascia una certa riga ulteriormente spostata verso il rosso allora, poiché i due elementi non si trovano sulla stessa lunghezza d’onda, diventa difficile dire con certezza che la riga spostata sia lasciata da idrogeno esattamente corrispondente a idrogeno terrestre, in quanto potrebbe trattarsi di idrogeno o di altri elementi spostati di frequenza perché sottoposti a campi magnetici, che possono rallentare la frequenza allungando la lunghezza d’onda. Va inoltre rilevato che la magnetosfera terrestre rallenta le particelle dotate di carica elettrica provenienti dalla sorgente intrappolandole e facendo loro perdere energia, il che significa un allungarsi dell’onda con conseguente impressione di redshift allo spettrometro. Infine anche la densità di una stella, se supera certi valori, può allargarne le righe dello spettro spostandole dalla loro posizione normale, e anche le numerose stelle doppie dell’Universo (spesso difficili da riconoscere se lontane da noi e vicine fra loro) possono produrre righe spettroscopiche sdoppiate e dunque spostate quando i loro moti orbitali (che possono durare centinaia di anni) avvengono in direzioni opposte; ancora, le vibrazioni molecolari nella sorgente producono bande di assorbimento spostate nell’infrarosso, rendendo lecita l’ipotesi di bande spostate nel rosso per più lievi vibrazioni. Dunque, esistono vari motivi per i quali le righe dello spettro possano risultare spostate verso la parte rossa, senza che in tutto ciò sia coinvolto l’effetto Doppler.

galaxies-07-00054-g001-550


Dobbiamo anche chiederci: di che cosa, fra le altre cose, può essere indice un redshift o al contrario un blueshift? Come sappiamo a partire da Maxwell, da Planck e dagli studi di Einstein sull’effetto fotoelettrico, la luce viene descritta come un fenomeno particolare di radiazione di onde elettromagnetiche in “pacchetti d’onda” anche detti quanti di luce o fotoni. La frequenza v di oscillazione d’onda è la frequenza periodica di oscillazioni o vibrazioni nel numero delle onde; la lunghezza d’onda l è la lunghezza fra due creste o due avvallamenti successivi ovvero fra due fronti d’onda, ed è calcolata dividendo la velocità della luce per la frequenza (l = c/v); la velocità delle onde è data calcolando il rapporto fra la distanza e il tempo intercorrente fra due creste successive. La frequenza d’onda v della particella è direttamente proporzionale all’energia di cui la particella è portatrice, cosicché l’energia aumenta con la frequenza (secondo la formula hv con h costante di Planck), ed è inversamente proporzionale alla lunghezza l per cui essa diminuisce con l’aumento della lunghezza d’onda. Quanto più la frequenza d’onda è alta (quanto più numerose sono le oscillazioni d’onda) tanto più corta è la lunghezza d’onda (fino a giungere – oltre la luce visibile la cui lunghezza d’onda è circa due millesimi di millimetro – all’ultravioletto, ai raggi x e poi ai raggi gamma la cui lunghezza d’onda è inferiore a un miliardesimo di micron: 1 micron = un millesimo di millimetro). Ciò che fa vibrare l’onda è l’intensità dell’energia di cui essa è carica: quanto più un’onda-particella è carica di energia, tanto più vibra: la maggiore frequenza di vibrazione, ovvero il maggior numero di vibrazioni, indica la presenza di un maggior contenuto energetico della radiazione e una più alta quantità di calore che, perturbando la velocità degli atomi (essendo il calore connesso a un movimento di particelle), si manifesta con una maggiore pulsazione (sono molti milioni di oscillazioni d’onda al minuto) in uno spazio d’onda minimo. Viceversa, quanto più l’onda è lunga e si dilata (quanto più lunghi sono gli intervalli di tempo e spazio fra due creste d’onda), allora tanto più bassa è la frequenza: ovvero, alla massima lunghezza d’onda corrisponde un contenuto energetico minimo, fino al limite di un’onda lunga ma in certo modo piatta che indica una debole potenza energetica (fino a giungere – oltre la luce visibile – all’infrarosso e ancor più alle onde radio la cui lunghezza d’onda può superare i mille chilometri). È un po’ come il mare: se è agitato le onde sono più frequenti e veloci, mentre quando le onde sono più lente e lunghe allora è piatto e calmo.
Dunque: + frequenza e – lunghezza = + energia mentre viceversa – frequenza e + lunghezza = – energia. Come si diceva questi valori corrispondono a vari colori nelle righe dello spettro di emissione della luce. Lo spettrometro è una specie di prisma newtoniano che provocando una rifrazione scompone il fascio di radiazione luminosa incidente (in cui sono sovrapposti fotoni di diverse lunghezze d’onda) deviandone i raggi e separandone le diverse frequenze e lunghezze d’onda e così evidenziandone i rispettivi colori. Le diverse lunghezze d’onda stampano sullo spettro le corrispondenti righe o linee spettrali, che consentono l’identificazione dell’elemento: lo spettrometro capta a terra la piccola parte di radiazione visibile, e cioè le onde luminose con lunghezza d’onda fra 4000 e 8000 angstrom (ovvero fra 0,4 e 0,8 micron). Alle due bande opposte dello spettro vi sono il violetto e il rosso (mentre più oltre vi sono rispettivamente le onde non visibili più corte di 0,4 e più lunghe di 0,8 micron). I fotoni che rivelano un colore rosso possiedono soltanto la metà dell’energia propria dei fotoni che rivelano un colore violetto, e parallelamente l’onda che provoca lo spostamento delle righe verso il rosso ha lunghezza doppia di quella che lascia uno spettro violetto. Così, la frequenza e la lunghezza d’onda, nonché i colori e i correlati spostamenti delle righe sullo spettro, forniscono indicazioni circa la sorgente luminosa ed attestano la recezione di un quantum energetico. Questo valore energetico è naturalmente connesso alla temperatura perché l’elemento chimico della sorgente lascia la sua impronta, ovvero la sua riga corrispondente ad una data lunghezza d’onda, in quanto riscaldato rispetto al corrispondente elemento terrestre essendo riscaldata la sorgente stellare emissiva. Al riguardo la legge di spostamento di Wien (originariamente riferibile a un corpo nero, ma applicabile anche alle stelle) definisce precisamente la proporzione fra la temperatura T di un corpo e la frequenza v del suo spettro di emissione: ai diversi tipi spettrali corrispondono diversi valori della temperatura, in modo che a un’alta temperatura di emissione del corpo corrisponde uno spostamento delle righe spettrali verso frequenze più alte e lunghezze d’onda minime, mentre invece al diminuire della temperatura della sorgente corrispondono frequenze più basse con il crescere della lunghezza d’onda.
Per quanto la validità della legge di Wien si fosse in seguito rivelata limitata (poiché mal si applicò alle misurazioni all’infrarosso), essa mantiene comunque il suo valore generale nello stabilire una correlazione fra la temperatura e i valori spettrali. Inoltre il diagramma Hertzsprung-Russell (diagramma HR), ponendo in ascissa la temperatura di superficie delle stelle secondo la classe spettrale con valori decrescenti da sinistra a destra, e in ordinata la loro magnitudine e luminosità, stabilisce tramite le righe spettrali una correlazione fra luminosità e temperatura di superficie delle stelle: così nella cosiddetta Sequenza Principale (Main Sequence) in alto a sinistra si trovano le stelle di maggior massa più calde e luminose e in basso a destra le stelle di massa minore più fredde e meno luminose, mentre invece in alto a destra del diagramma si trovano le stelle molto grandi e luminose ma di bassa temperatura come le terminali giganti rosse, e in basso a sinistra le stelle caldissime ma piccolissime e poco luminose come le nane bianche.

hr-diagram-credit-nso


Poiché le righe degli spettri corrispondono ad onde di determinate lunghezze, e segnano i diversi livelli energetici riscontrabili nei rispettivi atomi, di conseguenza le onde corte ad alta frequenza producono righe che segnano la parte blu dello spettro mentre le onde lunghe a bassa frequenza producono righe nella parte rossa dello spettro: ove in tutto ciò è anzitutto questione di temperatura e di valore energetico della sorgente e solo in secondo luogo di effetto Doppler. Poiché infatti le righe spettrali attestano una frequenza, allora anche il loro spostamento indica anzitutto uno spostamento della lunghezza e della frequenza d’onda. In particolare quando lo spettro subisce l’impressione nel rosso vi saranno necessariamente righe spostate nella parte rossa dello spettro. Nel caso del redshift, come sappiamo, questo spostamento della lunghezza d’onda verso la banda rossa dello spettro indica un allungamento della lunghezza e una diminuzione della frequenza. Tale allungamento della lunghezza d’onda ci dice anzitutto soltanto questo: che viene registrato un certo valore energetico, che generalmente è un valore piuttosto basso. Di conseguenza ciò significa in prima istanza che la sorgente luminosa (nella fattispecie stella o galassia) possiede un intrinseco tasso energetico – in termini di luminosità, temperatura, massa – relativamente modesto: assumendo la lunghezza d’onda come un indice della temperatura e del livello energetico della sorgente a cui è inversamente proporzionale, l’onda sarà tanto più lunga e lo spettro tanto più spostato verso il rosso quanto più la temperatura della fonte energetica è modesta. In tal modo lo spostamento delle righe spettrali, oltre che un rilevatore di distanza, diventa un indice della temperatura della sorgente.
Nell’Universo vi sono stelle molto grandi e luminose e di altissima temperatura, stelle molto più grandi e più luminose del Sole, con massa anche 40 volte maggiore di quella solare e temperatura superficiale di 30.000 gradi (senza considerare le enormi giganti rosse terminali il cui raggio può essere pari alla distanza Terra-Sole). Però la maggior parte delle stelle è piuttosto simile al Sole, che è una stella media. Esso rivela un’emissione prevalente nella parte giallo-verde dello spettro, con un’inflessione di spostamento verso il rosso: si tratta in effetti di una stella, che ha superato la metà del proprio arco vitale (circa dieci miliardi di anni), di potenza energetica piuttosto bassa (con temperatura superficiale di 5700 gradi) e di modeste dimensioni. Così le stelle con massa, luminosità e temperatura piuttosto basse (cioè le stelle medie come il Sole) tendono a rivelare un tipo spettrale fra il giallo e il rosso. Dunque, poiché la lunghezza d’onda è inversamente proporzionale alla temperatura secondo la legge di Wien, e poiché le righe spostate verso il rosso rivelano l’allungamento della lunghezza d’onda, allora lo spostamento verso il rosso delle lontane galassie può anche indicare una temperatura non troppo elevata della fonte stellare: poiché nell’Universo abbondano stelle medie come il Sole e stelle piccole e fredde come le nane rosse, e poiché gli spettri delle galassie non sono altro che la somma degli spettri delle singole stelle componenti, allora appare normale che le galassie (tranne quelle vicine o in avvicinamento) rivelino righe spettrali spostate verso il rosso. Lo spostamento verso il rosso esprime così anche la normale temperatura di una stella media. Ma anche il fatto che la radiazione di fondo sussistente nell’Universo, su cui torneremo, riveli (e non nell’ottico, bensì ancora più in basso nella scala, nel regno delle radioonde) uno spostamento molto forte verso il rosso indica essenzialmente la bassa temperatura sussistente nell’Universo, e solo in minima parte un Doppler dovuto al moto della Via Lattea.
Parimenti, lo spostamento verso il rosso può anche al contempo indicare, in linea generale, una certa antichità delle stelle: sappiamo infatti al riguardo che, in generale, le stelle più vecchie e di modesta temperatura, in cui è ormai iniziato o avviato il processo di raffreddamento (che dovrebbe condurle a morire come “nane bianche”), e che dunque per questo rivelano uno spostamento verso il rosso, dunque le stelle che si formano per prime nella originaria nebulosa roteante sulla base di forze centripete, sono generalmente collocate al centro della galassia, proprio nel nucleo rigonfio (come per primo rilevò W. Baade), mentre invece le stelle a spettro blu più giovani e energeticamente più calde e attive (che dopo breve vita dovrebbero implodere come “supernovae”) sono per lo più collocate nel disco, ovvero sui bracci delle galassie dove si formano per ultime. Per quanto riguarda invece le galassie sembra probabile che, almeno in linea generale, esse si formino come caotiche galassie ellittiche (quando esse non siano la risultante di uno scontro fra due galassie spiraliformi), quindi evolvano come più ordinate galassie a spirale ed infine degenerino nel tempo spesso ritornando all’originaria forma ellittica prima di sciogliersi e dissolversi in sparse nubi di gas. In questo senso le galassie ellittiche possono essere antiche (e cioè galassie spirali degenerate e tornate ellittiche come all’inizio) o giovani (e cioè galassie spirali in fieri), mentre invece per le galassie a spirale dovremmo sempre presupporre una certa antichità, proprio perché già strutturate a forma di spirale dall’originaria forma ellittica in cui sembrano destinate a tornare degenerando: e proprio le galassie più antiche (più generalmente a spirale) appaiono connesse ad uno spostamento verso il rosso sistematicamente elevato. Dunque lo spostamento verso il rosso di stelle e galassie può semplicemente indicare, oltre il basso coefficiente energetico, anche l’antichità delle sorgenti in questione. Appare così chiaro perché le galassie più lontane evidenzino uno spostamento delle righe spettrali verso il rosso: semplicemente perché di tali galassie – viste da molto lontano a distanza di centinaia di milioni di anni luce – è essenzialmente visibile solo il nucleo più denso e compatto ad alta popolazione stellare, e tale nucleo è in genere precisamente la parte originaria e più vecchia della galassia che in quanto tale rivela uno spostamento verso il rosso.
Insomma, appare plausibile sostenere che lo spostamento verso il rosso intrinseco sia dovuto alla combinazione di più fattori anziché ad una sola causa, come invece sostengono i cosmologi del Big Bang e come, purtroppo, molto spesso tendono a fare anche gli astronomi e i cosmologi dissenzienti che sostengono teorie alternative a quella espansionistica. Il redshift delle lontane galassie appare così essere un fenomeno complesso e non riducibile a singole cause, e del quale sarebbe opportuno studiare dettagliatamente la natura evidentemente molteplice.

Dalla parte del torto: Tully & Fisher vs Hubble

Allan Sandage è l’astronomo che ha ereditato “gli orizzonti che si allontanano” di Hubble: è il depositario dell’Universo in espansione e a buon diritto viene soprannominato Mister Cosmology. L’unica volta che mi riuscì di parlargli, molti anni fa, mi disse: “Lei è uno strano dilettante. Mi aspettavo una domanda sui marziani e invece mi viene fuori con gli effetti di selezione”. Col passare del tempo ho continuato a peggiorare. Di recente mi è capitato di assistere a una conferenza di cosmologia allestita da teorici di fresca nomina e da professori di scuola che ammettevano di non aver mai fatto osservazioni al telescopio. Uno di essi inaugurò così il suo intervento sui problemi della cosmologia: “Cosa fa un astronomo quando intende determinare la distanza di una galassia lontana? Beh, la fotografa. Poi va a misurare la luminosità apparente sulla lastra, la moltiplica per pi greco al quadrato e trova la luminosità assoluta. Nota la luminosità assoluta, basta rovesciare il tutto sotto radice ed ecco la distanza. Poi può effettuare la prova del nove andando a misurare lo spostamento verso il rosso”. Un gioco da ragazzi. Ma di lì a poco, un successivo relatore invitò con forza il pubblico “desideroso di approfondire davvero le proprie conoscenze” a rinunciare a qualsiasi concetto di distanza. “Tutte le formule cosmologiche relative alle galassie – soggiunse sprizzando astuzia da tutti i pori – possono essere scritte in termini di redshift e di luminosità senza che vi sia bisogno di far entrare nei calcoli alcuna distanza”. “Infatti – sbottai dall’audience – non conosciamo con esattezza neanche una distanza! Che succede se mescoliamo insieme galassie con luminosità molto diverse?”. Ricordo che ci fu un attimo di panico, acuito dal fatto che nessuno mi conosceva e che quindi quella frase, come un macigno che si abbatte inaspettatamente sul palcoscenico, sembrò venire giù dal cielo. Provai io stesso una punta di disagio per la mia impulsività, ma poiché nessuno si mise a indicarmi dicendo “è stato lui, è stato lui!”, l’oratore poté riprendersi dallo sbandamento e condurre in porto la sua tormentata teorizzazione delle distanze. L’omertà salvò il contestatore e l’eccezione fu cancellata dagli atti.
Nessun libro di divulgazione si sofferma volentieri sulla debolezza congenita dell’astronomia extragalattica, che non può misurare con due sole dimensioni ciò che senza contare il tempo ne ha almeno tre. E’ la storia triste della “distanza secondo luminosità” che assume tinte drammatiche in cosmologia: alle frontiere del visibile si rivelano solo gli oggetti più brillanti e si è indotti facilmente a scambiare un gigante dello sfondo per una galassia nana più vicina o un oggetto debole per un oggetto molto lontano. I filosofi hanno fatto un rispettabile sforzo per impadronirsi delle complessità concettuali della fisica quantistica e delle sue relazioni di incertezza, ma hanno completamente trascurato – o almeno non hanno ponderato a sufficienza – l’indeterminazione “classica” di cui soffre il macrocosmo osservabile che pende come una spada di Damocle sulle extrapolazioni della cosmologia deduttiva.
Come oramai sanno anche i profani, il diagramma di Hubble visualizza l’eccitante possibilità che il mondo fisico abbia preso le mosse da un punto e che le galassie continuino a separarsi da quel punto le une dalle altre, e proporzionalmente alle loro distanze, come frammenti di una primordiale esplosione. Certo, si può sempre rappresentare con una velocità radiale uno spostamento spettrale applicando per convenzione la formula Doppler Vr = c*/ = cz. Se osserviamo due galassie di diversa luminosità apparente ma con il medesimo spostamento spettrale deduciamo che si trovano alla stessa distanza, mentre se osserviamo due galassie di eguale luminosità apparente ma di diverso spostamento spettrale assumiamo che quella con lo spostamento più alto sia la più lontana, anche nel caso che sia apparentemente la più luminosa. E quando si osservano galassie del medesimo tipo morfologico e della medesima luminosità apparente ma con diverso redshift e in differenti regioni di cielo assumiamo l’esistenza di “espansioni asimmetriche dell’Universo …”.

jpg



Il grafico è dunque fondato sul presupposto che debba esistere sempre una relazione diretta fra la distanza della galassia osservata e lo spostamento verso il rosso che si misura sullo spettrogramma. Viene così annotato il redshift di tutti gli oggetti esaminati in funzione della luminosità apparente (Fig. 1): in ascissa è riportata la magnitudine visuale (corretta), mentre in ordinata vi compare il logaritmo cz dello spostamento verso il rosso, che nell’ipotesi cosmologica rappresenta una velocità Vr di recessione nei confronti dell’osservatore. In prima approssimazione una galassia che giace sulla retta tre volte più lontano fugge tre volte più rapidamente. In diagonale è tracciata la retta teorica che può adattarsi a tutti i modelli di Universo quando gli spostamenti verso il rosso non sono elevati. Va anche rammentato che le correzioni apportate alle magnitudini sono riferite a un fondo del cielo che non è mai completamente buio; che è necessario tener conto dell’assorbimento prodotto dalla nostra stessa galassia (A°), e che il redshift interpretato come velocità di allontanamento tende a raccogliere radiazioni sempre più lontane dell’ultravioletto. E’ molto evidente che tutte le stime di luminosità e il loro posizionamento sul diagramma dipendono prima di tutto dalla corretta determinazione della magnitudine e della distanza delle galassie vicine, M 31 e M 81, assunte come prototipi di luminosità in base alla loro morfologia. Poi si deve tener conto dell’effetto Doppler prodotto dal moto solare attorno al centro della nostra Galassia e di tutta una serie di incidenze minori (l’accertato movimento rispetto alla media delle stelle più vicine verso il centro galattico, verso la direzione di rotazione e fuori dal piano). Anche lo “spostamento eliocentrico” (il moto di rivoluzione della Terra attorno al Sole) va eliminato, e poi sarebbe lecito attendersi moti e deviazioni peculiari della Via Lattea in base alle leggi della gravitazione.
La conoscenza di tutti questi moti è preliminare a qualsiasi collocazione sul diagramma di Hubble: il valore complessivo – vicino a 300 km. al secondo in una direzione che accidentalmente coincide con la posizione di M 31 – solleva problemi di cinematica all’interno del Gruppo Locale per la nostra Galassia, che qui non esamineremo. Ci limitiamo a ricordare che alla distanza stimata (692 chiloparsec) e con una costante di espansione Ho compresa fra 50 e 100 km. al secondo per megaparsec, M 31 dovrebbe allontanarsi a una velocità oscillante fra i 35 e i 70 km. al secondo, mentre lo spettro che si osserva è esattamente di segno opposto, fortemente orientato nel blu. Se vogliamo trascurare questo “dettaglio” assumendo che l’espansione cosmologica non operi all’interno degli ammassi, cominciamo a disegnare la maestosa galassia in Andromeda in corrispondenza della suamagnitudine apparente, in basso, a sinistra del diagramma di Hubble, per poi proseguire posizionando una ad una le compagne del Gruppo Locale lungo la diagonale retta. Non ricorderemo ancora che questa pendenza deve identificare una relazione lineare fra la quantità di redshift di una galassia e la sua distanza spaziale rispetto a noi: se la relazione esiste, ci sarà una concentrazione di tutte queste compagne adiacenti a M 31 sopra la posizione che occupa nel grafico.
Per le galassie del Gruppo Locale non abbiamo bisogno di ulteriori calibrazioni: sono gli oggetti meglio conosciuti e più accuratamente esaminati dell’Universo. Da molte generazioni gli astronomi sanno bene che appartengono alla “circoscrizione” di M 31. Per annotarli sul diagramma all’inizio della “salita” basta solo controllare i loro spettri. Gli scarti in eccesso o in difetto, i redshift o i blueshift, renderanno conto dei loro movimenti peculiari rispetto al baricentro del gruppo stesso. Trattandosi delle galassie “di casa” e della mutua gravitazione che ci tiene tutti insieme, andremo in pratica a misurare un effetto Doppler depurato di qualsiasi incidenza cosmologica. La fig. 2a è una grossolana schematizzazione dell’Universo locale e del nostro suburbio: con una facile battuta possiamo dire che “noi siamo lì”. Chi non si accontenta può apporre una freccetta in corrispondenza dei punti che delimitano la Via Lattea e indicare anche la posizione della propria nazione o del paesello natale, ma se passiamo alla fig. 2b, che riporta in dettaglio la distribuzione degli spostamenti verso il rosso di tutte le più importanti compagne di M 31, noi compresi (MW), la voglia di scherzare ci passerà subito. I dati relativi a queste galassie sono disponibili da molto tempo. Sono stati controllati e ricontrollati per decenni ma mantengono inalterata la loro spettacolare evidenza. Se mi si perdona il riferimento, fu proprio la pubblicazione di questi dati, venticinque anni fa, a farmi perdere “la fede” nei confronti del redshift cinematico. Prima ancora che Arp e Sulentic scrivessero articoli di fuoco sull’argomento, Gratton e Maffei venivano importunati dal seccatore che state leggendo.

2020-04-14__1_



Tutte le compagne del Gruppo Locale mostrano un sistematico spostamento verso il rosso nei confronti della galassia dominante M 31! Non occorre il dottorato in astronomia per accorgersi dell'assenza di qualsiasi moto in avvicinamento (blueshift) che dovremmo pur attenderci almeno da parte di qualche componente in base alla gravitazione: un'aggregazione di galassie che ruota secondo le leggi note attorno ai suoi membri massicci dovrebbero apparirci più o meno equamente ripartite in spostamenti verso il rosso e spostamenti verso il blu, perlomeno rispetto alla nostra visuale! Halton Arp ha calcolato che la possibilità statistica di osservare una simile distribuzione delle orbite è una o due su due milioni, e afferma che la fig. 2b rappresenta la prova definitiva dell'esistenza di uno spostamento verso il rosso intrinseco. Possiamo invitare il giovane astrofilo addestrato ormai a tradurre le percentuali di spostamento delle righe spettrali in chilometri al secondo, a collocare sul diagramma di Hubble tutte le compagne note di M 31. Con sua presumibile sorpresa egli vedrà che queste compagne gli si dispongono sì lungo il quadrante inferiore sinistro, ma in un modo che il loro spostamento verso il rosso aumenta all'aumentare della magnitudine apparente. Cioè al diminuire della luminosità, non al crescere della distanza! (fig. 3).

jpg



"Se non sapessimo niente su questi oggetti - scrive Arp - diremmo che sono meno luminosi di M 31 e più spostati verso il rosso proprio perché rappresentano un gruppo più lontano. Pertanto - conclude - la relazione tra il loro redshift e le loro magnitudini imita semplicemente la legge di Hubble". Per fare la rivoluzione non basta cambiare la legge. Se sorvoliamo sulle probabilità milionarie calcolate da Arp, resta pur sempre una miserabile chance (o due) che la distribuzione delle orbite dei compagni di M 31 sia accidentale. Certo non è facile assumere che con tutto l'Universo a disposizione il caso abbia potuto colpire proprio qui, nel cortile di casa, ma non possiamo ignorare che con l'accettazione del redshift "intrinseco" è in ballo un nuovo sistema del mondo. Occorrono dunque altre prove, altre conferme. Per esempio: come si comportano i sistemi di galassie a distanze differenti? La domanda consente una spettacolare riprova, priva di equivoci. La pubblicazione della fig. 4 non è che l'ennesima conferma di una serie ininterrotta di conferme dell'esistenza di redshift "anomali", emersi chiaramente fin dagli anni Sessanta. È stata ostacolata dai referees delle riviste professionali di mezzo mondo, ma ora anche i lettori di episteme possono esaminarla senza timore di scomuniche. Si riferisce all'altro gruppo di galassie a noi più prossimo, centrato sulla grande spirale M 81 in Ursa Major: e anche qui, come si vede, la prevalenza di spostamenti verso il rosso delle compagne rispetto alla dominante è fuori discussione. Se questa conferma non è abbastanza impressionante, il lettore può consultare l'Astrophysical Journal, 291, p. 88, 1985, dove vengono presi in esame 40 gruppi differenti e 159 compagne, per convincersi che il redshift della galassia più luminosa appare sistematicamente inferiore al redshift medio dei componenti l'ammasso.

jpg



Impietosamente, questo suona a martello per la proporzionalità del redshift con la distanza. La retta di Hubble non è stata tracciata soltanto per mostrare come dovrebbe apparire la grande spirale M 31 - o la sua "gemella" M 81 - a distanze sempre più grandi: se questa relazione dovesse adattarsi a un solo tipo morfologico di galassie (le spirali Sb, appunto), che ne sarebbe di tutte le altre, delle Sc, delle Sd, delle nane, delle ellittiche, delle irregolari? Che ne sarebbe delle loro distanze e del parametro che sostiene tutta la cosmologia? Che ne sarebbe delle loro "velocità"?
Al di là dell'ammasso della Vergine le galassie cominciano a diventare macchioline indistinte. Non c'è modo di stabilire oltre un certo limite se ci sono bracci di spirale avvolti o aperti, se si tratta di grandi ellittiche o di galassie nane. Come se non bastasse - lo abbiamo già ricordato - entrano in gioco effetti di selezione che penalizzano gli oggetti poco luminosi e che tendono a mescolare galassie "medie" ai giganti più lontani; si parla in proposito della "distorsione di Malmquist" (dal nome dell'astronomo svedese Gunnar Malmquist che la descrisse), da sempre in agguato sulle estrapolazioni della cosmologia. Ai confini dell'invisibile la sola possibilità è rappresentata dalla determinazione dello spostamento verso il rosso: pochi grani di luce da disperdere ulteriormente, alla ricerca di "righe" da giustapporre a uno spettrogramma di riferimento che ci siano familiari. Se questo spostamento - o anche solo una parte di questo spostamento - non ha a che fare con moti di allontanamento come già ci dimostrano le compagne di M 31 e di M 81, come possiamo affermare che un vago bagliore catturato sulla lastra sia pari a un quarto o a un centesimo di un altro perché recede a una velocità due o dieci volte più grande? Ma se cade il diagramma cade l'espansione, Sandage e ... tutti i filistei.
"Un dilettante - mi è stato autorevolmente rimproverato non ha nulla da perdere quando produce dati o ricerche che possono decretare l'interruzione di programmi che promuovono alta tecnologia e lavoro qualificato. E non lo posso negare, ma questo rimprovero non trova riscontri in tutta la storia della fisica. In fisica nessuna impresa può essere "distruttiva". La possibilità di verificare e quindi di poter confutare qualsiasi affermazione scientifica è il requisito che ancora distingue la ragione dalle opinioni: se una teoria non è suscettibile di verifica, di controlli, di critica, o se nessuna evidenza contraria è abbastanza forte da falsificarla, allora non c'è niente al mondo che possa dimostrarla come vera, e i cosmologi possono attingere le loro certezze anche dai fondi di caffè. Se però l'appunto ci è stato mosso per sollecitare altre prove contro "la retta di Hubble", non ci facciamo certo pregare. La possibilità di rincarare la dose ci viene offerta dall'indicatore di distanze proposto negli anni Settanta dagli astronomi Brent Tully e Richard Fisher. Pur limitato alle sole galassie a spirale, si tratta di un metodo entrato prepotentemente nella prassi professionale, e costituisce una delle più accreditate alternative alla stima della distanza secondo redshift e luminosità. Tully e Fisher ritengono che la luminosità intrinseca di queste galassie sia proporzionale alla quarta potenza della velocità rotazionale, cioè in pratica che ci sia una correlazione fra la velocità di rotazione di una galassia e la sua luminosità. Quanto più rapidamente ruota una galassia, tanto maggiore dev'essere la quantità di materia che la tiene insieme. Poiché tale velocità è desumibile da osservazioni spettroscopiche (in ottico e in radio), dalla luminosità apparente possiamo risalire a quella assoluta e quindi alla distanza.
La possibilità di operare un cruciale confronto fra il redshift e l'indicatore Tully-Fisher (TF) è offerta dal "Revised Shapley-Ames Catalog" di Allan Sandage e Gustave Tamman. Vi sono comprese le 1.246 galassie più luminose del cielo fino alla magnitudine apparente 13, magnitudini apparenti da cui è stato eliminato il moto solare, gli effetti di assorbimento e di inclinazione (A° e Ai ), convertite nel sistema di de Vaucouleurs (T). Rappresentano la più accurata collezione di magnitudini apparenti corrette e di redshift, disponibili in astronomia extragalattica. Effettueremo fra un attimo la comparazione fra la "distanza di redshift" e quella che si ottiene con l'indicatore rotazione-luminosità di Tully e Fisher: ci preme ricordare che la qualità di questo catalogo consente di confrontare anche in funzione delle "classi di luminosità" (I, II, III etc.) il comportamento del redshift su differenti tipi di galassie (Sa, Sb, Sc, ellittiche). È un altro invito per l'astrofilo rigoroso che ha appena finito di collocare le compagne di M 31 e quelle di M 81 al di là della linea di Hubble, nei territori "eretici" dello spostamento verso il rosso intrinseco. La fig. 5 mostra un eloquente raffronto fra le distribuzioni di redshift per galassie di tipo spirale Sb (quadrante superiore) e galassie di tipo spirale Sc (quadrante inferiore). È tratta dallo studio di Halton Arp "Differences between Galaxy Types Sb and Sc" (pubblicato da Astrophysics and Space Science, 167, 1990), forse uno dei più fondamentali lavori di tutta l'Astronomia extragalattica. Abbiamo qui la scelta fra due differenti costanti di Hubble (una per tipo morfologico di galassie). Oppure possiamo dire - ma sarebbe il colmo - che questa costante è incostante dal momento che tende a deviare fortemente con la distanza. Avremmo in pratica un flusso di espansione Ho che trascina ordinatamente le spirali Sb nello spazio ma che impartisce vistose accelerazioni alle Sc e a tutte le altre...

jpg



Valtonen e Byrd [3] hanno tentato di spiegare il mistero degli eccessi di redshift trovati negli ammassi. L’idea è che se i gruppi di galassie osservate sottendono un angolo apprezzabile di cielo, allora osserveremo un volume maggiore alle spalle del gruppo dal più lontano sfondo: ciò può essere facilmente visualizzato dalla fig. 6, che mostra come il cono di vista in direzione di un ammasso è più stretto davanti che dietro.

jpg



In questo modo il punto di vista convenzionale ha tentato di spiegare anche gli eccessi sistematici di redshift presenti nelle compagne di M 31 e M 81 che abbiamo visto in precedenza, sostenendo che l'effetto è causato dal fatto che particolarmente per il Gruppo Locale noi subiamo la conseguenza di far parte integrante (cioè di trovarci all'interno) di un sistema in espansione. Ma passata l'euforia per il salvataggio del Big Bang, le conseguenze appaiono in tutta la loro drammaticità. Intanto per il Gruppo Locale è evidente che non si può parlare di "contaminazione del fondo": questa, infatti, è esattamente la nostra regione dell'Universo, quella delle galassie che assieme alla nostra formano l'aggregazione "di casa". È l'album di famiglia, siamo solo noi, e dunque non può esserci alcuno sfondo! Inoltre, ciò non giustifica perché le sole Sb riescano a collocarsi correttamente sulla linea di Hubble e apre anzi l'ulteriore interrogativo del perché queste galassie appaiano immuni da "contaminazioni" e da "distorsioni di Malmquist". La catastrofe è tuttavia rappresentata dal fatto che se le velocità delle compagne di M 31 sono reali - come pretende la cosmologia dell'espansione - esse dovrebbero svuotare un volume sferico di raggio approssimativamente pari a 2-3 megaparsec nel tempo abitualmente attribuito all'età dell'Universo: insomma, non potrebbero essere più là dove le osserviamo, perché il Gruppo Locale dovrebbe già essersi disperso nello spazio!
Ma ci attende adesso la cruciale comparazione della "distanza di redshift" con l'indicatore Tully-Fisher. Questo confronto è decisivo per il modello in espansione a simmetria sferica e per lo stesso Big Bang. Abbiamo già anticipato che il nuovo criterio si basa sulla relazione esistente tra la larghezza della "riga" dell'idrogeno neutro e lo splendore assoluto: è assunta per ipotesi in base a considerazioni di meccanica newtoniana ma è ben documentata dalla radioastronomia per le galassie a spirale più vicine. L'ipotesi è che la dispersione della riga, cioè il suo allargamento intorno al segnale di 21 cm. sia proporzionale alla massa della galassia stessa. Tramite l'effetto Doppler, la differente direzione dei due estremi dei diametro dell'oggetto che ci appaiono l'uno in avvicinamento, l'altro in allontanamento, verrà captata ai due lati della riga: se il radiotelescopio è sintonizzato sulla lunghezza d'onda tipica di 21,106 cm., per esempio, esso rileverà soltanto quegli atomi di idrogeno che non si stanno né avvicinando né allontanando, mentre se viene sintonizzato a 21,105 o a 21,107 cm. identificherà rispettivamente quelli che si stanno avvicinando e quelli che si stanno allontanando dal nostro punto di osservazione. Se non agiscono forze complementari, se cioè la rotazione delle spirali è totalmente controllata dalla gravitazione, questa velocità rotazionale e la magnitudine apparente ci forniranno la luminosità assoluta e quindi il modulo di distanza della spirale esaminata. Ci avvarremo ancora del Revised Shapley-Ames Catalog di Sandage e Tamman, invitando il lettore stesso ad un'appassionante riduzione dei dati. Limiteremo al minimo il nostro commento: la costante H è quì fissata in 65 km. al secondo per magaparsec, mentre le tavole sono tratte ancora una volta dallo studio di Arp, "Differences between Galaxy Types Sb and Sc". L'ennesimo saccheggio ha come unica giustificazione il fatto che nessuna rivista scientifica italiana acconsentirebbe alla loro pubblicazione. L'elenco identifica la galassia, il tipo morfologico e la classe di luminosità; la megaparsec totale , la stima di distanza secondo redshift (dz) e la stima di distanza Tully-Fisher (dTF). In base all'osservato redshift viene anche fornita la deviazione dalla relazione di Hubble, espressa in chilometri al secondo (HR).

jpg

jpg

jpg



Le divergenze sono stupefacenti solo per chi non ha mai dubitato dell'espansione dell'Universo. Per alcune galassie le distanze di redshift eccedono quelle ottenute con il metodo Tully-Fisher di 20, 30 e più megaparsec!! Queste tabelle visualizzano nel modo più impietoso la precarietà della relazione che sorregge tutta la cosmologia deduttiva del XX secolo, e restituiscono dignità alle riserve sempre manifestate dallo stesso Hubble sull'origine cinematica dello spostamento verso il rosso. Le galassie che presentano le più elevate discrepanze sono quelle col più elevato spostamento verso il rosso: se i redshift esprimessero davvero delle velocità di recessione, il rapporto massa-luminosità dovrebbe variare per il solo fatto di trovarsi a distanze crescenti dall'occhio dell'astronomo! Il commentatore che volesse stemperare lo shock con l'ironia potrebbe rilevare che sul campione esaminato di 125 galassie, 82 hanno dispersioni in eccesso e 43 in difetto. Per le 82 galassie con eccesso di redshift si hanno 60 casi in cui la distanza dz risulta superiore alla dTF ma 22 in cui l'indicatore Tully-Fisher dà distanze più grandi. Per le 43 galassie in cui il redshift è inferiore alle attese "cosmologiche" abbiamo 31 casi in cui la dTF produce distanze superiori, 11 in cui la dTF è lievemente inferiore alla dz e perfino un caso in cui i due metodi coincidono... Un burlone direbbe che le differenze sono troppo forti perché i due metodi siano sbagliati.

Edited by Sojuz Koba 1961 - 29/2/2024, 01:46
 
Web  Top
view post Posted on 16/1/2024, 19:44     +1   -1
Avatar

Historic Member

Group:
Member
Posts:
3,401
Location:
Leningrado

Status:


L’invenzione dell’inflazione, le velocità fluttuanti e gli universi a tavolino

Come parziale, parzialissima risposta a tutti i problemi e le anomalie che la teoria evidenziava, i difensori-correttori-revisori del modello standard hanno inventato, a partire dagli anni ottanta con A. Guth e poi con A. Linde, la “teoria dell’Universo a bolle” o “inflazionario” o “gonfiato” (The Inflationary Universe), definito da R. Penrose «una moda che i fisici teorici hanno imposto alla cosmologia». Nella sua versione della teoria inflazionaria, Linde (non senza una certa convergenza con alcune idee dell’ultimo Hoyle) abolisce il “Primo Big Bang” assumendo un Universo eterno che mai avrebbe avuto inizio ma al contempo, visto che evidentemente un solo Big Bang non bastava, moltiplica gli universi e i botti di primo dell’anno postulando infiniti universi “paralleli”, tutti nati da altrettanti Big Bang e sempre autoriproducentesi a “frattale” o a grappolo in altrettante espansioni “locali”, ciascuna diversa dall’altra (per i diversi valori delle costanti fisiche) e nessuna omogenea e uniforme. In ciascuno di questi universi una asimmetria inaugurale connessa a fluttuazioni quantistiche, complice la forza repulsiva ora denominata “quinta forza”, determinerebbe immediatamente dopo il Big Bang una quasi istantanea espansione-lampo iniziale vertiginosamente accelerata fino a superare la velocità della luce (idea, si ricorderà, che fu già di de Sitter), con conseguente enorme dilatazione dell’Universo (di 10⁴³ volte) che, in tale microscopico intervallo (fra 10-³⁶ e 10-³⁴ sec), aumenterebbe addirittura dalle dimensioni di un protone a dimensioni maggiori dell’intero Universo osservabile; poi vi sarebbe una decelerazione che porterebbe alla “normale” espansione del modello standard con un continuo rallentamento. Per più recenti modelli, invece, all’inizio dell’Universo vi sarebbe stata non un’espansione superluminale dello spazio bensì (variando alcune speculazioni di Dirac e Dicke sull’iniziale variabilità della costante G) un’accelerazione della stessa luce a velocità superluminale poi ricondotta al normale parametro c. Ancor più recentemente, poiché il valore della costante di Hubble non quadra bene con l’età presunta del cosmo, si è ipotizzato che il nostro Universo – pur avendo cessato la fase di inflazione – sia ancora piuttosto vicino alle velocità iniziali dell’espansione e stia dunque procedendo a velocità piuttosto alta, seppur sufficiente alla formazione in senso opposto degli agglomerati, ciò per cui la sua età potrebbe tornare ad essere 20 miliardi di anni: come dire che un’automobile, che partita da Milano impiega due ore per andare a Venezia, procedendo più velocemente potrebbe anche impiegare lo stesso tempo partendo da Torino. È infine a rilevarsi che nella maggior parte dei modelli la teoria dell’inflazione presume che l’espansione produca alla fine uno spazio “piatto” o euclideo: poiché infatti la curvatura diminuisce col crescere del raggio allora in una sfera enormemente dilatata lo spazio risulterebbe euclideo alla rilevazione proprio come piatta appare a noi la superficie terrestre, ed inoltre se nell’Universo la densità di massa è piuttosto scarsa (ben al di sotto di un atomo in media per metro cubo, e del resto già nel modello di de Sitter l’Universo era assunto come mediamente quasi vuoto) allora per la stessa teoria della relatività lo spazio sarà euclideo in quanto non “curvato” dalle masse (donde la possibilità di quantificare co me nullo il grado di curvatura nelle equazioni di Einstein così riottenendo le equazioni di Newton o di Poisson).

jpg


Il problema di queste teorie, evidentemente, è tarare e calibrare la velocità di espansione dell’Universo in modo da renderla anzitutto compatibile con la formazione degli agglomerati. Al riguardo certo non potevano più bastare le consuete e contraddittorie valutazioni della velocità dell’espansione in base alla quantificazione della “costante di Hubble” in quanto con tale valore si presupponeva un moto recessivo dell’Universo costantemente accelerato, secondo la rigida proporzione meccanica distanza doppia – velocità doppia, che non poteva rendere ragione né delle specifiche varietà né della formazione degli agglomerati. I “correttori” insomma si sono resi conto – non è mai troppo tardi, ed è meglio tardi che mai – che in realtà l’espansione dell’Universo impedirebbe la formazione di atomi, stelle, sistemi planetari, galassie, e allora hanno pensato – mantenendo ferma una certa età stabilita dell’Universo – di accelerare a tutto gas l’espansione quando ancora non si formano le particelle e di decelerarla subito dopo rallentandola sempre più, e in pari tempo differenziandola, al fine di consentire la formazione degli aggregati. L’idea è che alle aporie della cosmologia standard si possa cercare di ovviare all’interno di un modello evolutivo solo introducendo velocità iniziali superluminali e velocità differenziate successive: da un lato un’espansione iniziale superluminale, posta anzitutto per spiegare l’omogeneità e l’isotropia dell’Universo poco comprensibili in base alla teoria classica del Big Bang, consentirebbe una successiva decelerazione tale da permettere a più basse velocità di espansione la condensazione altrimenti impossibile delle particelle e delle galassie; dall’altro lato una serie di espansioni mai omogenee e non uniformi genererebbe uno spazio più espanso là e meno espanso qua, cosicché le varietà locali dell’espansione potrebbero rendere ragione delle diverse fenomenologie in modo da consentire là la recessione e qua la formazione di atomi e galassie.
Con questi escamotages si è cercato dunque di giustificare, nonostante l’espansione, la formazione degli agglomerati e l’isotropia dell’Universo senonché, come ognun vede, la teoria dell’inflazione appare altamente speculativa ed atta non a “salvare i fenomeni” bensì solo a salvare la teoria standard riscrivendola. Puramente speculativi sono i concetti base di queste teorie: la forza repulsiva, l’espansione inflazionaria superluminale, gli infiniti universi “paralleli”. Circa questi ultimi poi si può dire tutto quello che si vuole. Noi non conosciamo che in minima parte l’Universo e ancor meno possiamo sapere di ipotetici universi “paralleli”: possiamo dire che v’è un Universo, che ve ne sono tre, o mille, o infiniti, possiamo immaginare altri universi in cui la velocità della luce o la gravitazione abbiano valori diversi, o in cui Giulio Cesare non varca il Rubicone e si fa un bel bagno, possiamo immaginare tutto quello che vogliamo, del tutto sicuri che quanto diciamo non sarà mai né verificato né smentito. Ma, anche a prescindere da queste considerazioni generali, notiamo quanto di inverosimile vi sia nei presupposti delle teorie inflazionarie. Infatti i revisori del modello standard, dopo l’inflazione, possono decelerare e rallentare sempre più la loro espansione ma mai abbastanza: come si è visto infatti soltanto una velocità d’espansione minore dei moti propri (cioè veri) delle galassie, come ad esempio una velocità minore di circa 300-500-1000 Km/sec, potrebbe consentire i ravvicinamenti e scontri galattici: mentre invece a grandi distanze la “legge di Hubble” prevede velocità recessive anche enormemente superiori. Né questo basta ancora perché nel tempo, in flagrante contraddizione con la “legge di Hubble”, sono risultate galassie vicine e più giovani con alto redshift e galassie vecchie e lontane con basso redshift, mentre dovrebbe essere il contrario. In particolare S. Perlmutter nel 1999 ha osservato delle galassie che (in base all’esame di supernove in esse contenute) si rivelano molto lontane, e che parimenti sono ritenute molto antiche per il lunghissimo tempo che la loro luce ha impiegato per giungere a noi che le vediamo ora come erano allora: siccome però esse evidenziano uno spostamento verso il rosso molto meno marcato di galassie più vicine allora questo significa che, se il loro redshift va interpretato come un Doppler, esse procedono a velocità più bassa delle galassie più vicine e ciò in contraddizione con la cosiddetta legge di Hubble per cui le galassie più distanti devono procedere sempre più velocemente in quanto sarebbero le più antiche risalenti all’epoca della grande accelerazione iniziale dell’Universo.
Senonché, certo i teorici dell’espansione non si sono lasciati spaventare da questa quisquilia. Essi infatti, dopo aver posto dopo l’inflazione un’espansione decelerata per spiegare gli agglomerati, si sono inventati un’espansione nuovamente e improvvisamente accelerata e hanno detto: se la galassia lontana e antica ha un redshift e una velocità a valori troppo bassi allora ciò vuol dire che in quella lontana epoca l’espansione aveva rallentato dopo la fase inflazionaria; poi però, poiché la massa che dovrebbe frenare e arrestare l’espansione si è nel frattempo sempre più diluita, rarefatta e dilatata con l’allargarsi dello spazio espanso con conseguente allentamento della resistenza gravitazionale, allora l’Universo, la cui espansione era sempre più rallentata da miliardi di anni fin quasi ad arrestarsi, all’improvviso in mancanza di attrito e di freni riprende in ultimo a nuovamente accelerare ed ecco perché le galassie più recenti e più vicine – il cui redshift appare spesso stranamente accentuato rispetto alle rilevazioni passate – procedono con velocità maggiore. Del resto già in Lemaître c’era quella strana espansione che accelera, poi frena come un autobus (fase di coasting) perché incontra la resistenza di masse gravitazionali giusto in tempo per consentire agli elementi e alle stelle di formarsi, e quindi – una volta superata la resistenza gravitazionale – riprende a correre “come prima, più di prima”. Così secondo alcuni ultimi scenari l’Universo rallentato non solo, per la scarsa densità della massa che si è diluita, non avrebbe la forza gravitazionale sufficiente a arrestare l’espansione volgendola in contrazione (secondo la vecchia idea del futuro Big Crunch, a cui veramente nessuno oggi sembra più credere), ma addirittura e al contrario spingerebbe l’Universo non più “frenato” dalla materia dilatata ad accelerare sempre più cosicché infine questa espansione accelerata produrrebbe un Big Rip finale del cosmo, ovvero un taglio definitivo, un Final Cut dei legami atomici con allontanamento irreversibile di tutte le particelle del cosmo (ove è evidente la ripresa della vecchia idea di Eddington sullo scoppio finale, anziché iniziale, del “palloncino gonfiato”).
Senonché, se la “legge di Hubble” dice che le galassie più lontane viaggiano più velocemente di quelle più vicine, e poi si scoprono galassie molto lontane che al contrario in base al redshift letto come Doppler risultano muoversi più lentamente di quelle più vicine, allora siamo qui probabilmente in presenza di un’anomalia (l’ennesima) che inficia la “legge di Hubble”. Si dovrebbe allora dire che, poiché la relazione stabilita da Hubble fra velocità e distanza non è il risultato di alcuna misurazione diretta bensì discende da un postulato teorico che troppe volte appare smentito, in realtà fra distanza e velocità non c’è di per sé il minimo rapporto in quanto il movimento di una galassia può essere veloce o lento del tutto a prescindere dal fatto che questa galassia si trovi a noi vicina o da noi lontana. Ma questo non si può dire e allora subentra la variazione della velocità d’espansione. L’idea della decelerazione finale del moto d’espansione è stata formulata solo per salvare la “legge di Hubble” dalle evidenze osservative che (contrariamente a quella “legge”) rivelano galassie lontanissime a basso redshift e dunque – secondo l’interpretazione Doppler – procedenti con bassa velocità, mentre al contrario l’idea della successiva accelerazione dell’espansione deve solo rendere ragione dei più alti redshift di varie galassie meno lontane e però più veloci: così, siccome per la teoria non sono le galassie ad allontanarsi bensì lo spazio che espandendosi le trasporta, allora si è stati costretti a postulare ora un rallentamento ora un’accelerazione dell’espansione. In realtà nulla verifica l’accelerazione o il rallentamento o comunque la variazione di velocità della pretesa espansione dell’Universo: si sono semplicemente trovate galassie lontane o vicine il cui redshift, unilateralmente interpretato come un Doppler, indicherebbe velocità di allontanamento ora maggiori ora minori di quanto ci si attendeva in base alle previsioni della “legge di Hubble”. Si tratta qui di una nuova e inverosimile complicazione ad hoc atta a salvare con la legge di Hubble anche l’idea dell’espansione: trovando galassie i cui redshift non sono quelli che in base alla presunta distanza dovrebbero essere per la legge di Hubble, allora si rallenta o si accelera d’ufficio l’espansione per non dichiarare falsa quella legge.
Certo si possono sempre inventare argumenta ad hoc, rallentando o accelerando a piacere l’espansione onde salvare al tempo stesso i dati osservativi e la teoria. In questo modo gli astrofisici possono giostrare a piacimento i parametri, variando le velocità in modo da rendere ragione di qualsiasi anomalia e così rendendo infalsificabile la legge di Hubble: senonché alla lunga questo modo di procedere, moltiplicato per mille casi, diventa un gioco troppo facile e financo intellettualmente disonesto. Si trova una galassia con z = 0,3 (con z quantificatore di redshift), mentre per la sua presunta distanza dovrebbe avere in base alla legge di Hubble una velocità maggiore, e allora si dice: la galassia avrebbe dovuto avere in effetti una velocità maggiore, ma qui l’Universo ha rallentato; se ne trova un’altra con z = 1,2 mentre per la presunta distanza il valore dovrebbe essere minore, e allora si dice: effettivamente la galassia avrebbe dovuto avere una velocità minore, ma qui l’espansione ha dato una bella accelerata; se ne trova una terza con z = 1,95 e si dice: quello è Dio stesso che si è messo al volante. In questo modo, noi non avremmo semplicemente un’espansione che accelera superluminalmente e poi decresce costantemente (che naturalmente è già ipotesi ad hoc con testabilissima), bensì avremmo un’espansione che continuamente accelera e rallenta come un ubriaco. Sarebbe come se, rilevando la velocità delle auto in autostrada, dicessi: non è x che va a 200 km/h, y che va a 90 km/h, z che va a 130 km/h, bensì è l’autostrada che nel punto di x va a 200, nel punto di y va a 90 e nel punto di z va a 130 km/h: si torna ancora così al fatto che in realtà la rilevazione della velocità di una stella ci dice la velocità della stella e non la presunta velocità di espansione dello spazio. Cosicché, tralasciando di considerare se sia vero che le galassie più lontane siano sempre le più antiche e le più vicine sempre le più giovani, semplicemente domandiamo se non sia meglio rifiutare l’escamotage dell’espansione e accettare la conclusione che in realtà è erronea la pretesa di Hubble per la quale le galassie più lontane siano anche sempre le più veloci.

La radiazione di fondo diversamente interpretata

Una pretesa prova del Big Bang, come si sa, è l’esistenza della cosiddetta “radiazione cosmica di fondo a microonde” (Cosmic Microwave Background). R. Tolman negli anni trenta disse che la temperatura dell’Universo sarebbe diminuita in presenza di un’espansione, e nel 1948 G. Gamow, R. Alpher e R. Herman pensarono che, come dopo un’esplosione nucleare la zona interessata rimane per decenni contaminata radioattivamente, così nell’Universo attuale doveva pur esservi l’eco della inverosimile temperatura “infinita” dell’istante zero a cui dopo l’esplosione e con la successiva espansione dell’Universo doveva aver fatto seguito un continuo raffreddamento progressivo. Più tardi Alpher e Herman e poi Gamow valutarono che se l’Universo fosse nato con l’esplosione vari miliardi di anni fa allora la sua temperatura attuale dovrebbe essere circa 5 gradi Kelvin. Quindi A. Penzias e R. Wilson, peraltro in tutt’altre faccende affaccendati (dovevano semplicemente rilevare la fonte di certi disturbi nelle comunicazioni), incidentalmente e per puro caso rilevarono nel 1964 una radiazione cosmica di fondo a microonde abbastanza isotropa e ovunque diffusa di quasi 2,7°K (2,7 °K) ovvero –270 °C (0 °K equivale a una temperatura di – 273,15 gradi centigradi: per passare da una scala in gradi centigradi a una scala Kelvin basta aggiungere 273 al valore in gradi centigradi). Immediatamente si interpretò questa radiazione come l’eco e il residuo fossile e dunque quale verifica alla teoria del Big Bang, e Penzias e Wilson furono presto insigniti del Nobel «for their discovery of Cosmic Microwave Background Radiation».
Ancor prima che Penzias e Wilson pubblicassero i loro dati nell’Astrophysical Journal, iniziò la gara per accordare 3°K con la temperatura “infinita” o comunque altissima e con l’antichità dell’Universo. Alla fine il premio Nobel S. Weinberg, nel suo testo su “I primi tre minuti dell’Universo”, ha addirittura ritenuto in tutta serietà di poterci dare la radiocronaca minuto per minuto, a partire dal primo centesimo di secondo, della nascita e della formazione dell’Universo manco egli fosse stata una divinità testimone dell’evento. La chiama familiarmente “ricetta per un Universo caldo”, un Universo in cui dopo il botto la temperatura si dimezza con il raddoppiamento delle dimensioni dell’Universo stesso. Particolarmente importanti risultano i primi tre minuti, piuttosto che una mezz’oretta, ma questo è logico: sappiamo bene che il tre è un numero sacro. Ci si può chiedere ora: come fa Weinberg a sapere cos’è accaduto miliardi di anni fa con tanta precisione, fino a spaccare il secondo? Egli stesso confessò una volta: «devo ammettere che provo un vago senso di irrealtà scrivendo sui primi tre minuti come se veramente sapessimo di cosa stiamo parlando». E, in effetti, noi sorridiamo oggi di J. Lightfoot che nel 1642 proclamò che la creazione era sicuramente avvenuta il 17 settembre del 3928 a.C., e parimenti sorridiamo dell’arcivescovo T. Usher che invece (in base a un diverso conteggio delle generazioni elencate nella Bibbia) disse che la creazione era avvenuta sabato 22 ottobre del 4004 a.C., alle nove del mattino (secondo altri, a mezzodì): perché non dovremmo sorridere di un premio Nobel che addirittura cronometra per la genesi dell’Universo il primo centesimo di secondo?

jpg


Qui anzitutto va fatta una prima obiezione: va detto cioè che non era difficile “prevedere” che nell’Universo e negli spazi siderali vi fosse una temperatura media. Praticamente tutti l’avevano “previsto”: per primo Guillaume, che nel 1896 valutò in 5,6°K la temperatura dell’Universo, naturalmente limitatamente allo spazio interstellare della Via Lattea che allora si riteneva coincidente con l’Universo. Poi venne Eddington che nel 1926 in base ai suoi calcoli stimò la quantità di luce proveniente dalle stelle come equivalente a 3,18 °K se tradotta in equilibrio termico, ancora scrivendo l’anno seguente che «al di là di una certa distanza dal Sole la temperatura di un solido o di un liquido scende a –270°C, cioè a 2,7°K sopra lo zero assoluto». Quindi nel 1933 E. Regener, analizzando l’energia dei raggi cosmici, valutò la temperatura media dello spazio – questa volta intergalattico – in 2,8°K. Inoltre con la radioastronomia fin dal 1931 l’inascoltato K. Jansky aveva rilevato il fondo di emissione di onde radio che ora si sa provenire dalla Via Lattea, mentre in seguito si rilevarono (dapprima sempre all’interno della Via Lattea) le radiosorgenti di origine stellare. Parimenti si conosceva la temperatura del Sole e di molte stelle e si aveva un’idea, via via sempre più precisa, delle temperature dei pianeti del sistema solare e dei loro satelliti: ad esempio fin dal 1870 si sa che la temperatura della faccia della Luna non illuminata dal Sole è circa 270 °K ovvero poco sotto 0 °C; parimenti si sa che la temperatura media della Terra è circa 287°K = 14°C; che l’emisfero di Mercurio non esposto al Sole è 92,7°K = –180°C; che l’atmosfera di Giove è –195°; di Saturno –190°; di Nettuno e Urano –200°, di Plutone –236°.
Dunque – sapendo che lassù fa freddino, sottraendo le temperature nei dintorni stellari, riguardando il vecchio Eddington – non era forse così difficile “prevedere” la temperatura media degli spazi siderali intorno a 2,7°K: se 0°K è un punto fuori della scala a cui corrisponderebbe un corpo immaginario privo di calore, se la temperatura si abbassa con il decrescere dell’energia cinetica e se la temperatura assoluta è 0 °K corrispondente ad una condizione estrema in cui gli atomi, quasi privi di energia cinetica, sono praticamente fermi e non esistono temperature ad essa inferiori, allora poteva ben essere ipotizzabile che negli spazi siderali la temperatura dovesse essere solo di poco superiore a 0°K. Così nel 1937 – dunque ben prima di Alpher e Herman, e un po’ dopo Eddington – W. Nernst aveva presupposto un etere ovunque diffuso che, così come assorbiva la luce causandone il rallentamento di frequenza e il redshift, così assorbiva anche la radiazione cosmica causando un riscaldamento del mezzo interstellare valutato prima in 0,75°K e poi in 2,8°K. Quindi nel 1940 una vasta nube interstellare rivelò una temperatura di 2,2,7°K e nel 1941 un astrofisico australiano, A. McKellar, stimò la temperatura dello spazio interstellare in 2,4 °K, valore poi confermato da G. Herzberg: ove il fatto più interessante è che McKellar (come Nernst) fece questa previsione non in base alla teoria del Big Bang con la sua espansione e la sua eco di fondo, bensì studiando le righe nere di assorbimento interstellare rivelate alla spettroscopia; del resto negli anni cinquanta alcuni radioastronomi in Francia e in Russia notarono l’esistenza di un rumore di fondo.
Dunque era sufficiente un’attenta analisi spettroscopica a rivelare la radiazione di fondo, a prescindere dal Big Bang: gli scienziati suddetti non stavano affatto cercando l’eco del Big Bang (a cui Eddington per primo, come sappiamo, non credeva affatto) bensì stavano ipotizzando la temperatura di un supposto mezzo interstellare o ancor più semplicemente stavano misurando il grado di assorbimento interstellare della luce proveniente dalle stelle (d’altronde lo stesso Wilson, nel ’64, era un sostenitore del modello stazionario e non pensava al Big Bang). Poi venne R. Dicke che, nel 1946, scoprì addirittura una radiazione cosmica di fondo con una temperatura inferiore a 20°K (il limite inferiore del suo dispositivo). Per Dicke l’Universo passava attraverso cicli successivi di espansione e contrazione, pur senza un vero e proprio Big Bang iniziale, e tuttavia egli non pensava affatto di misurare una radiazione fossile: «non pensavamo alla radiazione del Big Bang – fu il suo eloquente successivo commento – ma solo a un possibile bagliore emesso dalle più distanti galassie dell’Universo». Più tardi Dicke stimò addirittura in 45°K la temperatura dell’Universo, mentre nel 1951 Alpher ed Herman (fautori invece dell’evento inaugurale) proposero 28°K. Quindi Finlay-Freundlich, che interpretava il redshift in termini di luce stanca, disse nel 1954 che la temperatura T dello spazio intergalattico doveva essere «vicina allo zero assoluto» (near the absolute zero), come pensava anche Hoyle, finendo però per quantificarla come oscillante fra 1,9°K e 6°K. Poi altri ancora esaminarono il grado di assorbimento della luce interstellare e sempre videro che, qualunque fosse stata la stella considerata, il grado di assorbimento della sua luce oscillava fra 2,5 e 3,5°K.
Parlare di “previsione” della radiazione di fondo da parte della teoria del Big Bang è decisamente incongruo perché, a parte le eccezioni del tutto indipendenti da esigenze di riprova del postulato espansionista di cui si è detto, i ricercatori successivi in cerca di prove del Big Bang previdero in realtà valori diversi, e talora molto diversi, da quelli poi effettivamente riscontrati. Come abbiamo visto, vi furono incongrue previsioni di 28°K o financo di 45°K, e solo nel 1948 Alpher e Herman previdero una radiazione base di 5°K a cui si sarebbe dovuto aggiungere «l’energia termica derivante dalla produzione di energia nucleare nelle stelle»: tale valore, senza aggiungervi l’energia stellare, sarebbe dovuto essere «interpretato come temperatura di fondo che risulterebbe solo dall’espansione universale» («interpreted as the background temperature which would result from the universal expansion alone»). Da parte sua Gamow, sostenitore del Big Bang, nel suo libro del 1952 “The Creation of the Universe” previde 7°K, poi nel 1956 previde addirittura 50 °K e infine nel 1961 scese a 5°K. Invece J. Peebles, collaboratore di Dicke e sostenitore del Big Bang, nel 1965 fece una stima di 10°K.
I due ricercatori cominciarono a costruire un’antenna a microonde a Princeton nel 1964 per rilevare effettivamente quanto fosse la radiazione di fondo, ma furono battuti sul tempo da Penzias e Wilson che misero fine alla girandola delle cifre. Come si vede, il problema non era tanto “prevedere” più o meno esattamente (decisamente meno esattamente nel caso dei teorici dell’espansione e del Big Bang) che nell’Universo vi fosse una radiazione e quindi una temperatura, visto che in realtà era piuttosto ovvio che vi fosse: il problema era rintracciare effettivamente tale radiazione e soprattutto dimostrare (ciò che molti non ritenevano affatto) che essa fosse la traccia di un’esplosione originaria. Quando Penzias e Wilson rilevarono i 2,7°K, Gamow e i teorici del Big Bang vi misero subito le mani sopra dicendo che essa era proprio la conferma della loro previsione e la riprova dell’espansione e del Botto: ma in realtà – come abbiamo visto – Guillaume, Eddington, Regener, Nernst, McKellar, Herzberg, FinlayFreundlich previdero l’esistenza di una radiazione di fondo e financo previdero i 2,7°K con ben migliore approssimazione, in vari casi molto prima, e senza vedervi alcuna riprova del Big Bang.
Veniamo ora a un secondo rilievo, con il quale si mostra come dietro tutta questa faccenda della “previsione” dei 2,7°K c’è il trucco. Torniamo a Weinberg: egli non è certamente partito dalla supposta temperatura e dall’età iniziale dell’Universo per ricavarne i 2,7°K attuali, bensì al contrario è risalito a ritroso dai 2,7°K attuali per cercare di stabilire in base a quelli la temperatura al primo secondo dell’Universo e l’età dello stesso. Ovvero: presupponendo l’Universo attuale con i suoi 2,7°K come una sfera, dal diametro di circa trenta miliardi di anni luce, che è andata via via raddoppiando di raggio con l’espansione (per Eddington ad esempio l’Universo in espansione raddoppia di raggio ogni 1300 milioni di anni), Weinberg ha rifatto i conti al contrario nella supposizione che, andando nel passato, la temperatura sarebbe dovuta aumentare in maniera inversamente proporzionale al raggio del cosmo. Così, riducendo questa sfera alla metà del suo raggio attuale come secondo lui doveva essere un tempo stabilito, ha detto: 1300 milioni di anni fa l’Universo era metà di quello attuale e quindi aveva un diametro di quindici miliardi di anni luce, una densità otto volte maggiore (in quanto aumenta come 1/R3, ovvero come l’inverso del cubo del raggio dell’Universo) e una temperatura doppia cioè 6°K; parimenti quando l’Universo era dieci volte più piccolo, la temperatura di fondo era dieci volte più grande dell’attuale e cioè non 2,728°K bensì 27,28°K; quando era mille volte più piccolo, la temperatura era mille volte maggiore e dunque 2728°K. In tal modo, andando sempre più a ritroso nel tempo, quanto più Weinberg dimezzava l’Universo dimezzandone il raggio (si vuole ad esempio che il diametro dell’Universo nei suoi primi 760.000 anni di vita sarebbe stato di 18 milioni di anni luce) tanto più ne raddoppiava la temperatura: così quando l’Universo sarebbe stato 400 milioni di volte più piccolo, allora la temperatura sarebbe stata circa un miliardo di gradi Kelvin, e a un secondo dall’esplosione sarebbe stata 10 miliardi °K.
E ancora, dimezzando-raddoppiando e dimezzando-raddoppiando, e cioè dimezzando sempre più o ad infinitum quel secondo e parallelamente raddoppiando sempre più o ad infinitum quei 10 miliardi °K, si giunge a un tempo T = 0 con volume nullo e temperatura infinita. In tal modo l’età dell’Universo diventa esattamente quella che si voleva diventasse, compatibile cioè con quanto sappiamo sull’antichità di stelle e galassie: ovvero circa 15 miliardi di anni. A questo punto, Weinberg poteva fare la prova del nove ridiscendendo la scala al contrario e fornendo tutti i valori desiderati: cinque minuti dopo il Big Bang la temperatura era diciamo un miliardo di gradi centigradi, un giorno dopo era 40 milioni, dopo 300.000 anni era poniamo 6000°C, dopo 10 milioni di anni era 300°C, e così via fino a giungere a 2,7°K chiudendo il circolo. Senonché, risorge qui il problema già detto: il dimezzamento delraggio e del tempo dell’Universo con concomitante raddoppio della temperatura fino ad avere da una parte un valore nullo e dall’altra un valore infinito è un semplice ed innocuo gioco matematico, come il calcolare la crescita infinita delle oscillazioni di un ponte, privo però di una corrispondente realtà fisica in quanto è impossibile che tutta la massa condensata e contratta dell’Universo stia in un volume nullo o praticamente nullo.


Ma soprattutto non vi è chi non veda qui che questa spiegazione, ben lungi dall’essere una “prova” del Big Bang, in realtà lo presuppone: la supposta età dell’Universo, la pretesa temperatura al primo secondo, il raddoppio del raggio, tutti i valori iniziali sono stati posti in modo da farli combaciare con i 2,7°K attuali; qualunque fosse stata la temperatura attuale dell’Universo (5°K, 20°K o che altro) sempre si sarebbe fatto il giochino, alzando o abbassando la temperatura del primo secondo, allungando o accorciando l’età dell’Universo, dando questo o quel valore del raggio in un tempo dato, in modo da far combaciare i valori. Che verifica è mai questa? Se ad esempio si fosse trovata una radiazione di 12 °K, dunque piuttosto altina, allora evidentemente si sarebbe ringiovanita l’età dell’Universo di qualche miliardo di anni, e si sarebbe detto che l’Universo ha poniamo sette miliardi di anni; se invece si fosse trovata una radiazione di un millesimo di °K allora si sarebbe detto che l’Universo è vecchio poniamo di trenta miliardi di anni visto che in esso la radiazione è ormai così estenuata. Insomma i conti sarebbero tornati comunque: risorge qui quell’“imperialismo algebrico” che pretende di dedurre a priori il mondo.
Veniamo ora a una terza obiezione, e domandiamo: con quale diritto, trovando nell’Universo una certa temperatura media che relativamente a noi considereremmo molto bassa, ne deduciamo che illo tempore l’Universo doveva avere una temperatura un miliardo o dieci miliardi di volte più elevata? Anche qui si tratta di un ragionamento aprioristico, per cui si dice: la temperatura dell’Universo appare di 2,7°K alla rilevazione, ma essa un tempo era molto più alta. Alla domanda “perché?” si risponde: perché la teoria del Big Bang esige un’altissima temperatura iniziale; perché la teoria dell’espansione esige una temperatura in costante e continua diminuzione. Noi non applicheremmo facilmente altrove lo stesso ragionamento: se la nostra temperatura corporea è 37° noi non ne ricaveremmo che dunque il mese scorso era 74° e che quindi 20 anni or sono era putacaso 10.000°, così come sarebbe un po’ difficile vedere in un filo d’erba bruciacchiato la prova di un Grande Incendio passato. In breve, l’interpretazione della radiazione di fondo come un residuo del passato presuppone circolarmente quella teoria che vorrebbe dimostrare. Certamente la temperatura media dell’Universo, considerandone la parte osservabile, diminuirebbe in presenza di un’espansione che ne dilati ed estenda la densità di massa: ma dire questo presuppone e non dimostra l’espansione.
In realtà, cadendo (come per noi cade) la teoria dell’espansione, viene naturalmente meno ogni motivo di postulare una diminuzione della temperatura e della radiazione di fondo. Senonché anche qui, evidentemente, opera potentemente il modello della bomba atomica: la radiazione di fondo sarebbe un’eco dell’Esplosione primordiale, proprio come la decennale contaminazione radioattiva ad Hiroshima è il residuo dell’esplosione nucleare del 6 agosto 1945. L’analogia però è fuorviante: mentre infatti l’esplosione nucleare del 6 agosto 1945 ad Hiroshima è certa, l’esplosione del Big Bang è soltanto postulata. Il risalire genealogicamente a ritroso la radiazione credendo così di giungere a una radiazione originaria di ben diversa intensità non è sempre valido. Certo, conosciamo il metodo del Carbonio 14 in geologia: il carbonio 14 radioattivo assorbito dagli esseri viventi si dimezza dopo la loro morte in un tempo dato (5730 anni) fino a disintegrarsi, cosicché la misurazione del 14C residuo presente in un resto fossile di organismo vegetale o animale ne consentirebbe la datazione (parimenti anche il calcolo del tempo di decadimento dei minerali radioattivi presenti nelle rocce ne consente la datazione). Senonché: col metodo del Carbonio 14 abbiamo fra le mani un fossile che sicuramente è il resto di un organismo vivente cosicché non illegittima ne appaia la misurazione della radioattività onde tentarne la datazione (seppur poi tale metodo risenta in realtà di alti margini di incertezza); invece in cosmologia all’osservazione della radiazione di fondo assolutamente niente, se non una preliminare adesione a una determinata teoria cosmologica, ci dice che tale radiazione sia un “fossile” residuo di una condizione originaria assolutamente diversa.
Quarta obiezione: poiché la radiazione di fondo, che si pretende sempre decrescente da circa 15 miliardi di anni, in fondo è stata scoperta quasi mezzo secolo fa, allora diventa lecito obiettare che essa oggi dovrebbe essere di una frazione infinitesimale più bassa di quanto non fosse nel 1964. Certo si può rispondere che tale minima variazione non può essere rilevabile, ma intanto noi non abbiamo alcuna prova che fra 10.000 anni la radiazione – lungi dallo scendere come dice la teoria – non sia ancora 2,7°K, proprio come oggi, senza la minima variazione. Per intanto sappiamo che, ovunque si guardi in avanti nello spazio e all’indietro nel tempo, la radiazione appare sempre 2,7°K. Certo vi sono lievi oscillazioni e variazioni di temperatura, impercettibili fluttuazioni e asimmetrie nella radiazione di fondo, piccole increspature nel mare di radiazione come onde che perturbano leggermente la superficie dell’oceano: infatti alla rilevazione negli anni settanta la radiazione risultò lievemente più intensa – circa una parte su mille – da un lato del cielo che non dal lato opposto (in termine tecnico si parla di “anisotropia di dipolo”); il satellite Cobe (Cosmic Background Explorer) nel 1992 rilevò ancora più lievi e impercettibili variazioni di temperatura – con scarti di uno su centomila, ovvero pochi decimillesimi di Kelvin – quantificate nel numero Q che vale 10 alla -5; e ulteriori recentissime rilevazioni satellitari hanno rilevato fluttuazioni ancora più sottili.
I teorici del Big Bang hanno visto in queste oscillazioni e increspature una nuova prova dell’esplosione primordiale: essi hanno infatti affermato che le increspature sarebbero il riverbero dell’asimmetria caotica inaugurale prodotta dall’esplosione, e in pari tempo sostenuto che esse una volta prodotte dal Big Bang sarebbero state un miliardo di anni dopo la causa delle condensazioni protogalattiche. Nulla da obiettare sul fatto che queste fluttuazioni, che come una sorta di clinamen epicureo consentono gli scontri delle particelle e le condensazioni, possano essere all’origine della formazione delle galassie, purché si intenda che non lo siano state una sola volta e lo siano tuttora. Ma che a loro volta queste fluttuazioni siano state prodotte dal Big Bang, questa è un’estrapolazione inverosimile: non fosse per il motivo che queste oscillazioni sintomo di asimmetria sono molto e troppo lievi, quando invece dovrebbero essere ben più marcate se fossero l’effetto di quella traumatica e mitologica conflagrazione iniziale. In realtà queste fluttuazioni appaiono spiegabili diversamente, senza bisogno di alcun Big Bang. Innanzitutto l’anisotropia di dipolo è dovuta al moto del sistema solare e della Via Lattea attraverso il mare di radiazione, cosicché la radiazione appare lievemente più calda nella direzione del moto e più fredda in quella opposta; ma anche le ancor più minuscole increspature e fluttuazioni rilevate da Cobe e in seguito, lungi dal richiedere un Big Bang esplicativo, sembrano essere il normale ondeggiare della “materia sottile” di cui l’Universo è pregno. Certamente la radiazione di fondo pur apparendo piuttosto omogenea non può essere totalmente omogenea, stante le galassie diffuse nell’Universo, e sembra del tutto naturale che essa appaia lievemente più densa in caso di lieve avvicinamento a un sistema galattico che non altrove: così è probabile che le nebulose e le condensazioni protogalattiche, oltre che esserne determinate, determinino esse stesse le minuscole destrutturazioni asimmetriche nella radiazione di fondo. Nulla comunque verifica che tali fluttuazioni, veramente troppo piccole, siano il riverbero del Big Bang.
Dunque, anziché essere in costante diminuzione, anziché apparire più alta nelle regioni più lontane del tempo e più bassa nelle regioni più vicine, la temperatura media dell’Universo appare invece – entro lievissimi margini di fluttuazioni – uniforme ovunque si guardi, in un equilibrio termodinamico. La radiazione di fondo non rimanda ad alcuna sorgente identificabile: e proprio il fatto che tale radiazione sia sostanzialmente omogenea, uniforme, isotropa, diffusa e continua fa pensare che essa definisca un equilibrio termico generale risultante da sorgenti più o meno uniformemente distribuite nell’Universo e non sia affatto l’eco di un singolo e catastrofico squilibrio iniziale ad altissime temperature. Difficilmente un Universo dinamico in espansione nato da una traumatica esplosione (o anche da un inverosimile allontanamento di tutti i punti senza alcun Big Bang o con mille Big Bang) potrebbe generare un siffatto equilibrio termico. Se la radiazione oggi è sostanzialmente uniforme, perché non pensare che probabilmente lo sia stata nel più lontano passato ed anzi da sempre? Non è necessario cercare una sorgente unica e antica della radiazione nella mitica singolarità iniziale, bensì piuttosto occorre pensare a sorgenti plurime ovunque mediamente diffuse. La radiazione di fondo appare così una costante nello spazio e nel tempo e non una variabile in continua diminuzione: l’Universo potrebbe essere definito come un corpo che, avendo una temperatura costante, ha una radiazione uniforme. Con ogni probabilità, la radiazione di fondo ovunque diffusa non è il riverbero sempre decrescente di un’altissima temperatura iniziale: essa invece definisce semplicemente la normale temperatura media dell’Universo presente, passato e futuro.

Sul paradosso di Olbers

Heinrich Wilhelm Matthäus Olbers era un medico, ma questo conta poco. Infatti quando non faceva il medico faceva l’astronomo, e questo viene ricordato nelle storie dell’astronomia. Rinchiuso nel suo osservatorio di Brema il dottor Olbers frugava nella vasta plaga fra Marte e Giove. La legge di Titius-Bode, che intendeva rinvenire una progressione matematica nelle distanze dei pianeti, prevedeva che in quell’area fosse nascosto un pianeta: il pianeta a dire il vero non si trovava, ma il 1 gennaio 1801 G. Piazzi aveva rintracciato in quella plaga Cerere, la cui orbita fu poi meglio definita in base ai calcoli di Gauss. Quindi l’anno seguente, il 28 marzo 1802, Olbers nella stessa area scoprì un altro pianetino che chiamò Pallade. Più tardi ancora, il 1 settembre 1804, venne scoperto Giunone e ben presto l’area fra Marte e Giove risultò sempre più misteriosamente piena di pianetini o asteroidi. Lo stesso Olbers tre anni dopo ne scoprì un altro che denominò Vesta e, molto felice, comunicò la cosa a Bode in una lettera del 3 aprile 1807: «Con la più grande gioia mi affretto a informarvi, mio carissimo amico, di esser stato così fortunato da scoprire, il 29 marzo, un nuovo pianeta della famiglia degli asteroidi». In quella stessa lettera Olbers, volendo spiegare la fascia di asteroidi, fece l’ipotesi che in quel punto il pianeta che avrebbe dovuto esservi secondo la legge di Titius-Bode vi fosse in effetti stato in epoche primordiali, all’origine della formazione del sistema solare, e si fosse poi frantumato – in seguito a una terribile collisione con un asteroide gigante – in migliaia di frammenti vaganti costituenti l’attuale fascia di asteroidi. Questa ipotesi – ampiamente discussa sulla Monatliche Correspondenz – piacque anche agli scrittori e al pubblico, anche se in seguito si rivelò criticabile dal punto di vista scientifico: oggi, in effetti, si preferisce pensare non a un pianeta frantumato ma al contrario a asteroidi risalenti all’epoca della formazione del sistema solare non coagulati in pianeta bensì dispersi a causa della perturbazione gravitazionale di Giove, che sembra non sopportare un pianeta a lui troppo vicino. Invece Olbers, evidentemente, era attratto dall’idea del “pianeta in più”: altri, del resto, cercheranno Vulcano nei dintorni di Mercurio, e ancora oggi v’è chi cerca il decimo pianeta del sistema solare in un punto dello spazio ben oltre Plutone.
Va ricordato inoltre che Olbers fu anche, nella sua epoca, uno dei principali studiosi di comete. Fin dal 1797 al riguardo egli pubblicò a Weimar un lavoro (“Über die leichteste und bequemste Methode, die Bahn eines Kometen aus einige Beobachtungen zu berechnen”). Nel 1812, suggerì correttamente che la coda rettilinea delle comete orientata in direzione opposta a quella del Sole fosse la conseguenza dell’espulsione di materiali durante l’avvicinamento della cometa al Sole: oggi si indica in effetti nel “vento solare” la causa del fenomeno. Nel 1832 infine Olbers mise a soqquadro l’opinione pubblica perché, calcolando la traiettoria di una cometa, ne previde un pericoloso avvicinamento alla Terra: ancora una volta, ma ora in termini più pressanti, si presentava l’idea di collisioni catastrofiche e il direttore dell’Osservatorio di Vienna dovette rassicurare l’opinione pubblica che ancora non era l’ora del Dies irae. Dunque Olbers era veramente un buon ricercatore che, partendo da piccoli corpi celesti come asteroidi e comete, speculava su cosa potesse essere avvenuto illo tempore. Scrive al riguardo C. Böhm: «come facesse quest’uomo, che esercitava coscienziosamente anche la professione di medico, a seguire tante attività contemporaneamente, non è dato sapere. Alcuni riferiscono che gli bastasse dormire solo pochissime ore per notte, cosa che non gli impedì di giungere alla ragguardevole età di 81 anni».

C0528322-Heinrich_Olbers,_German_astronomer


Questo dunque il personaggio di cui parliamo. Ma soprattutto Olbers è oggi noto perché, e con ciò entriamo in medias res, oltre a indagare le comete e a speculare su cosa fosse stata un tempo la fascia di asteroidi fra Marte e Giove, poneva anche domande cui è difficile rispondere (le domande a cui è difficile rispondere sono quelle che amava molto Socrate e che sempre fanno arrabbiare gli “esperti”: Socrate, a quanto pare, fu messo a morte perché faceva troppe domande). La domanda che dunque Olbers pose nel 1826, ma che in realtà fu già di Keplero e di Halley e poi di Cheseaux e di altri ancora, ha la semplicità e l’ingenuità sconcertante delle domande dei bambini: dimmi, perché il cielo è buio di notte? In effetti, quanti di noi ci hanno pensato? Pochi, diciamo la verità. Forse, soltanto qualche idiota nel senso di Dostoevskij o qualche leopardiano pastore errante in Asia possono porsi domande simili. O qualche scienziato di genio: come Einstein che a 16 anni si domandava che effetto farebbe cavalcare un raggio di luce. Perché praticamente chiunque risponderebbe alla domanda di Olbers: il cielo di notte è buio perché è buio, è così e basta, smettila di fare domande. Il cielo è buio così come l’acqua è bagnata e il fuoco è caldo. Hai mai visto un fuoco freddo? Ma il punto è che la domanda, proprio come certe domande apparentemente assurde dei bambini, è tutt’altro che stupida. Certo non si può rispondere dicendo che da noi è notte quando l’emisfero terrestre su cui siamo, nel suo moto di rotazione assiale, volge sdegnoso le spalle al Sole. Olbers infatti vuol sapere perché la luce, che proviene non solo dal Sole ma da tutte le stelle e da tutte le galassie propagandosi in tutte le direzioni, non illumina a giorno e per sempre il cielo e gli spazi tutti. Bisognerà pur rispondergli, e questo tenteremo.
La domanda doveva essere particolarmente ardua per Keplero e per tutti gli Antichi per i quali il cosmo, sia nella prospettiva geocentrica sia in quella eliocentrica, era una sfera cristallina, chiusa, compatta, finita, al di là della quale poteva solo esservi l’Empireo o il Motore Immobile. Il cosmo di Keplero, che aborriva gli spazi infiniti di Giordano Bruno che sgomenteranno Pascal, era una specie di stanza: il Sole al centro, i pianeti intorno, le stelle “fisse” appese alle pareti. Per quanto il mondo di Copernico e di Keplero fosse ben più grande di quello di Tolomeo, era sempre troppo piccolo e non vi era alcuna autentica idea delle immensità spaziali. Copernico in effetti, nel “De revolutionibus orbium coelestium” (I.10), definiva il Sole la “lampada del mondo”: ebbene, perché questa lampada e tutti gli altri luminari appesi al soffitto non illuminano la stanza del cosmo? Perché questa piccola stanza non è illuminata a giorno dalla luce del Sole e delle stelle? Non si illumina forse una stanza con un camino acceso al centro e tante fiaccole accese alle pareti?
Certo, anche da ciò si poteva dedurre che il mondo non è poi così piccolo. Infatti: se fosse così piccolo, chiuso, finito, limitato, allora veramente esso dovrebbe essere illuminato a giorno da quelle migliaia di stelle che si vedono in cielo a occhio nudo, e che col cannocchiale appaiono in numero di gran lunga maggiore come ben sapeva Galileo a partire dal 1609. Dunque evidentemente in realtà l’Universo non è finito ma infinito. Eppure Olbers rifiuta l’idea di un Universo infinito: in uno spazio infinito – dice – vi sarebbero probabilmente o sicuramente non qualche migliaio di stelle bensì infinite stelle e la concentrazione luminosa di infinite stelle dovrebbe veramente illuminare il cielo a giorno. Per questo per Olbers l’Universo è sicuramente molto grande, ma non infinito: altrimenti verrebbe illuminato a giorno. Oggi si dice: la luminosità delle stelle diminuisce con il quadrato della distanza, ma l’effetto è esattamente compensato dal fatto che il numero delle stelle (e dunque la loro luminosità) aumenta col quadrato della distanza, per cui il cielo in un Universo infinito dovrebbe essere illuminato a giorno. Ma noi diciamo: strano ragionamento, quello di Olbers e successori. Se un tale accendesse diecimila candeline di notte nella pianura padana, e poi domandasse perché la pianura padana non ne viene illuminata a giorno, certo la sua domanda verrebbe considerata molto strana. Eppure, proprio questo è il ragionamento di Olbers. Egli ragiona come chi chiedesse perché una candela accesa a Marsiglia non si vede a Parigi.
Un adulto giudizievole potrebbe rispondere a Olbers che fa domande impertinenti: guarda, un Universo chiuso avrebbe maggiori possibilità di essere illuminato a giorno che non un Universo infinito. Mille candele possono illuminare il salone di casa ma non il deserto del Gobi. Uno spazio infinito sarebbe “ancora più infinito” delle infinite stelle che pur potrebbe contenere, proprio come la serie dei numeri interi è in certo senso “ancora più infinita” della serie dei numeri pari che contiene, e proprio questa immensità impedirebbe l’illuminazione a giorno dell’Universo. D’altronde, cos’altro per Newton impediva (beninteso, fino al Dies irae) che le stelle precipitassero gravitazionalmente le une sulle altre se non l’immensa distanza che le separa? Questa immensa distanza come rallenta l’opera della gravitazione così indebolisce la luce: e chi garantisce che il numero delle stelle dovrebbe aumentare col quadrato della distanza guarda caso proprio in modo da compensare esattamente e miracolosamente l’affievolirsi della luce col quadrato della distanza? E poi: infinite stelle non potrebbero comunque illuminare l’Universo a giorno per il semplice fatto che se in qualunque direzione rettilinea si guardi vi saranno infinite stelle, per così dire l’una dietro l’altra, allora esse si copriranno e si occulteranno fra loro in una specie di eclissi stellare. Dunque ponendo un Universo infinito, non ne viene affatto che allora esso sarebbe inondato dalla luce di infinite stelle e così illuminato a giorno. Non fosse che per un altro semplicissimo motivo: la luce viaggia a velocità finita e dunque la luce proveniente da stelle infinitamente lontane non ci ha ancora raggiunto e non ci raggiungerà mai cosicché noi, pur vivendo in un Universo infinito, di fatto siamo raggiunti solo da una quantità finita di luce emessa da un numero finito per quanto alto di stelle. Senza considerare il fatto che le stelle non sono eterne, si spengono anche, smettono a un certo punto di erogare la luce che così non può raggiungerci.
Invero che un Universo chiuso, finito e sferico, per quanto grande, debba essere illuminato a giorno, lo dice anche il premio Nobel Steven Weinberg. Egli infatti, ottimo fisico delle particelle ma anche autore di un infausto libro su I primi tre minuti che ha dato la vulgata della teoria del Big-Bang, trae in questo libro una conclusione logica da un assunto discutibile: se l’Universo un giorno si contrarrà in un Universo più chiuso tendente come Lessie a tornare a casa, al mitico punto iniziale, allora – egli dice – «i nostri posteri [...] troveranno il cielo intollerabilmente luminoso». Insomma: quando l’espansione sarà diventata contrazione, quando lo spazio sarà più ristretto e le stelle si saranno riavvicinate, allora sai che calore! E soprattutto: sai che luce! Lo spazio, ristrettosi, sarà tutto illuminato a giorno. Così, a Olbers che forse preferirebbe vedere il cielo e gli spazi tutti sempre illuminati a giorno e domanda perché non lo siano, Weinberg come un professionista indaffarato risponde: ripassi domani. Si vuole comunque che la teoria del Big Bang abbia risposto al paradosso di Olbers: infatti – si dice – un Universo espanso, in cui le galassie si diradano fuggendo lontano nello spazio così risplendendo sempre meno, spiegherebbe perché il cielo non è illuminato a giorno. Ma – si potrebbe obiettare – un Universo in espansione a forma di sfera dovrebbe al contrario essere illuminato dai raggi di luce che attraverserebbero geodeticamente la sfera così tornando indietro, ciò che non è. Certo basterebbe supporre che lo spazio si espanda a una velocità superiore a quella della luce, per impedire che la luce delle galassie lontane giunga a noi, ma questa è una risposta convincente? Va così veloce l’Universo? Se sì, bisognerebbe allora multarlo per eccesso di velocità. Insomma: come si vede, anche teorie che van per la maggiore non rispondono adeguatamente al paradosso di Olbers. In realtà né un Universo finito né un Universo in espansione, bensì solo l’ammissione di un Universo infinito sembra costituire una prima risposta al paradosso.
Certo si potrebbe rispondere a Olbers che la sua domanda rivela una mentalità un po’ ristretta. Infatti proprio come un provincialotto Olbers sembra chiedere perché il suo villaggio di periferia non sia illuminato di notte come il centro di New York. Di più: egli sembra credere che, poiché è buio l’angolo in cui vive, allora ovunque sia buio. Ma (senza ripassare domani come suggerisce Weinberg) se noi fossimo al centro della galassia, al centro della Via Lattea, dove la densità dei sistemi stellari è molto più alta, allora probabilmente vedremmo il cielo molto più fortemente punteggiato di luci e molto più luminoso, anche di notte. Parimenti, se noi fossimo in uno dei tantissimi sistemi stellari binari che popolano le galassie, allora due soli insieme, magari dandosi il cambio di giorno e di notte, farebbero una bella luce. Olbers potrebbe leggere il racconto di Asimov, “Cade la notte” (vero è che è del 1941): ove si racconta del pianeta Saro in cui gli uomini si godono la luce di ben sei soli. Questo farebbe contento Olbers? C’è qui abbastanza luce? Perché qui, infine, si ha il sospetto che il caso sia da psicoanalisi: sembrerebbe che Olbers non riesca a sopportare quel buio degli spazi siderali che già inquietava Pascal. Come i bambini, ha forse paura del buio: ha paura dell’Orco che lo porta via, e vuole il lumino sempre acceso. Verrebbe da dire, a Olbers che ripete in veste scientifica le domande dei bambini: sono umane, molto umane, le radici psichiche dei problemi scientifici! E però, noi non siamo in un sistema stellare doppio né triplo né sestuplo e nemmeno siamo al centro della galassia: siamo invece in un angolino un po’ periferico e buio. Certo, se Olbers vivesse nei dintorni del Sole nemmeno si sarebbe posto il suo dilemma. D’altra parte è anche vero che se per assurdo vivesse sul pianeta Venere allora troverebbe ancora più buio che non sulla Terra, visto che i raggi solari difficilmente riescono a penetrare la spessa coltre atmosferica che ricopre il pianeta. Insomma, Olbers non vuole capire che gli è andata abbastanza bene, stando sulla Terra.
Tuttavia non è il caso di psicoanalizzare Olbers, ed è preferibile prendere sul serio la sua domanda sul piano scientifico. Certo la questione sembra un po’ complessa: forse sarebbe meglio non fare tante storie, e dire che in realtà il cielo è buio di notte perché di notte Dio spegne la luce. Ma Olbers non si accontenterebbe di questa risposta e insisterebbe. Del resto egli ha sempre cercato di far valere la forza probante del suo paradosso, e nei suoi scritti dice come prevenendo ogni obiezione: anche dalle stelle più lontane, la luce deve giungere a noi. Perché ciò non succede? Come può un raggio di luce estinguersi? E qui che dire? Certo se si getta un sasso nell’acqua a Genova nessuno chiederebbe perché le onde che si propagano non arrivano fino in Africa: invece Olbers chiede perché le onde luminose emesse da stelle enormemente lontane non si propaghino all’infinito, giungendo a noi intatte.
Al riguardo possiamo rispondere notando tutti i casi in cui la luce viene non solo indebolita e rallentata di frequenza, ma proprio oscurata e annullata dal mezzo in cui passa. Così un gas ionizzato assorbe e disperde fortemente la luce. Gli atomi e le particelle assorbono i fotoni tramutandoli in massa ed energia. Così lo scontro fra fotoni e particelle, come verifica la fisica delle particelle, produce opacità: in particolare (effetto fotoelettrico) la radiazione luminosa incidente, investendo un corpo e percuotendone gli atomi, può (se la frequenza è superiore a una data soglia) strapparne via gli elettroni cedendo loro l’energia con cui essi si svincolano e si liberano (ionizzazione), e parimenti (effetto Compton) un fotone urtando un elettrone libero ne viene deviato e sempre, mentre ne aumenta la lunghezza d’onda, perde energia cedendola all’elettrone: in entrambi i casi il fotone perde energia e, nell’effetto fotoelettrico, in quanto tale scompare. Poiché gli elettroni sono, fra le particelle conosciute, le più diffuse nell’Universo, ben si comprende l’alto coefficiente di assorbimento di fotoni nell’Universo con conseguente produzione di cielo buio. Ancora, nella collisione (scattering) fra due fotoni si ipotizza la generazione di una coppia elettrone-positrone e nuovamente i fotoni in quanto tali scompaiono. In termini più classici si deve rilevare invece che per le “frange di interferenza” le onde luminose – passando attraverso una doppia fenditura posta in un ostacolo – interferendo e sovrapponendosi fra loro possono rinforzarsi producendo più luce (quando le loro creste “in fase” si sovrappongono e si sommano) ma anche annullarsi reciprocamente producendo opacità (quando le creste corrispondono “fuori fase” agli avvallamenti). Così, ogni qual volta la luce trova un ostacolo nel percorso interstellare (materia nebulare etc.), essa troverà in genere dei varchi, delle fenditure multiple attraverso cui passare, in tal modo producendo i fenomeni di interferenza il cui esito può essere l’annullamento della luce. Dunque, come le interferenze fra le onde acustiche producono un rumore di fondo con perdita di informazione, parimenti le interferenze fra onde luminose possono produrre perdita di visibilità: in questi casi, è proprio l’eccesso di luce a generare il buio; sovrapponendosi alla luce, la luce può produrre oscurità. In questo modo la luce è dispersa, assorbita. Continuamente nell’Universo le onde luminose non solo rallentano la frequenza ma perdono la loro energia cedendola alle particelle urtate.
Ma Olbers a questo certo avrebbe qualcosa da obiettare, come si legge in un articolo da lui scritto dal titolo “Sulla trasparenza dello spazio cosmico” (Über die Durchsigtigkeit des Weltraumes) e pubblicato nel 1823 nell’Annuario astronomico di Berlino. In questo articolo egli dice infatti che l’assorbimento della luce interstellare c’è, ma è molto minore di quanto ritenesse Jean Philippe de Cheseaux e dunque non è quello il problema. In effetti il valore dell’assorbimento interstellare proposto da Olbers è assai vicino a quello oggi adottato. E ancora si potrebbe aggiungere: la luce è senz’altro in parte assorbita dalla materia interstellare ma in molti casi essa non può essere completamente assorbita per il semplice fatto che la luce riscalda con la conseguenza che dunque il mezzo interstellare, assorbendo la luce, dovrebbe riscaldarsi e quindi illuminarsi così rendendosi visibile. Senonché si potrebbe qui rispondere ad Olbers con la radiazione di un corpo nero: l’Universo con i suoi bui spazi siderali appare come una specie di “corpo nero” che assorbe l’energia luminosa sparsa in ogni direzione da stelle e galassie così in effetti riscaldandosi pur senza giungere alla visibilità nell’ottico. Se si obietta dove sia l’energia e il calore emessi dall’Universo sotto forma di radiazione, allora si può oggi rispondere: è la famosa “radiazione di fondo” di circa 3 gradi Kelvin, ignota a Olbers perché scoperta da Wilson e Penzias nel 1965 e troppo frettolosamente catalogata come eco del cosiddetto Big-Bang. Si dirà: non è un gran riscaldamento questo 3°K che corrisponde poi a – 273 gradi Celsius. Ebbene sì: nell’Universo fa un po’ freddino. Ma pensiamo a quanto più freddo farebbe se non ci fosse l’assorbimento della luce stellare e il conseguente riscaldamento del mezzo intergalattico. Che cos’è la luce se non calore, energia? Dunque, il fatto che l’Universo sia buio ci dice soltanto che in esso c’è poco calore, poca energia.

La formazione degli elementi senza il Big Bang

Uno dei problemi che si pongono, per una cosmologia che voglia essere alternativa al Big Bang, è quello di spiegare la formazione degli elementi. I teorici del Big Bang dicono che, nelle fasi immediatamente successive alla misteriosa esplosione, la temperatura permane altissima (enormemente più elevata della temperatura del nucleo solare) e che questa altissima temperatura spiegherebbe la formazione – altrimenti dichiarata incomprensibile – delle particelle e successivamente degli elementi sia semplici che pesanti. Così a un secondo dal Big Bang, quando la temperatura sarebbe stata 10 miliardi °K, si sarebbero formati protoni, neutroni, elettroni, fotoni, neutrini; ed entro i primi tre minuti dopo l’esplosione, quando la temperatura sarebbe stata 1 miliardo di °K, si sarebbero formati i primi nuclei atomici. Ma è lecito dubitare della verità di tale asserzione. Già Eddington, ai critici che gli obiettavano che solo ad una temperatura enormemente superiore a quella da lui stimata si sarebbero avute le reazioni nucleari all’interno delle stelle, rispose dicendo loro di andare a cercarsi un posto più caldo nell’universo: quel posto più caldo i cosmologi hanno ritenuto di trovarlo nell’inferno del Big Bang, senonché è lecito dubitare che ve ne fosse davvero bisogno per spiegare la formazione degli elementi sia leggeri che pesanti. Pretendere infatti che sia necessaria una temperatura di dieci miliardi di gradi Kelvin per formare i protoni, i neutroni, gli elettroni, i fotoni, i neutrini e che occorra una temperatura di un miliardo di gradi Kelvin affinché i protoni e i neutroni possano unirsi per formare nuclei atomici, è incongruo: di fatto fotoni e neutrini vengono continuamente prodotti dal Sole che certo (temperatura del nucleo = 13 milioni di °K; di superficie = 6000 °K) è ben lontano da quelle temperature, e nemmeno esse vengono raggiunte negli acceleratori ove si producono e si annichilano artificialmente le particelle.
Con il Big Bang inoltre si vuole spiegare non solo la formazione delle particelle bensì anche la formazione degli elementi semplici dell’universo, quali l’idrogeno e l’elio nonché l’idrogeno pesante (deuterio) e il litio. Soprattutto, si pensa al riguardo che un problema particolarmente difficile sia costituito dall’elio. Si è rilevato infatti che nell’universo e in particolare nelle nebulose sparse esiste non solo molto idrogeno (oltre a percentuali di carbonio, azoto, ossigeno, metano etc.), ma anche (per circa un terzo) molto elio: ora, poiché l’elio è un elemento molto particolare che si forma all’interno delle stelle alla temperatura di dieci milioni di gradi e poiché esso appare in nebulose e luoghi diffusi dell’universo ove non esistono stelle né temperature così alte (essendo in genere la temperatura di una nube interstellare solo di pochi gradi sopra lo zero assoluto), ci si chiede da dove provenga tutto questo elio e si risponde che quelle altissime temperature atte a formare questo particolare elemento, se non sono quelle delle stelle, sono evidentemente quelle del Big Bang. Se infatti non vi fosse mai stato alcun Big Bang e l’universo fosse eterno allora, se dall’eternità l’idrogeno confluisce nelle stelle ove si trasforma in elio e dunque in luce, si domanda perché l’idrogeno non sia tutto trasformato in elio e quindi da dove provenga l’abbondanza di idrogeno ovunque riscontrabile nell’universo in quantità ben maggiore dell’elio, in tal modo traendone argomento per addebitarne la grande produzione direttamente e in toto all’esplosione primordiale.
Al riguardo è stato piuttosto facile approntare i calcoli ad hoc e, inserendo certi dati sull’età dell’universo e la sua densità nei primi presunti istanti, ricavarne tautologicamente proprio quella quantità di elementi leggeri che corrisponde al valore attualmente rilevabile. Senonché, non è necessario spiegare con l’enorme calore del Big Bang la formazione degli elementi semplici dell’universo. Invero, per quanto riguarda l’idrogeno, non sembrano sussistere particolari problemi tali da chiamare in causa il Big Bang: l’atomo di idrogeno è infatti il più semplice, essendo costituito dall’incontro fra un protone e un elettrone con successiva orbitazione di quest’ultimo, e i protoni e i neutroni abbondano nell’universo. L’associazione dei nuclei e degli elettroni in atomi come l’atomo di idrogeno può avvenire con 1000 °K ma anche decisamente meno: la temperatura delle nubi molecolari ove l’idrogeno è di casa è circa 10 °K. Anche per quanto riguarda gli isotopi dell’idrogeno, quali il deuterio, si tratta infine di atomi di idrogeno nel cui nucleo si è associato un neutrone che è pur esso (assieme ai protoni e agli elettroni) una particella molto diffusa nell’universo. Anche la formazione di una semplice molecola stabile di idrogeno (H2) avviene piuttosto facilmente, almeno là ove vi sia una certa densità di atomi di idrogeno (superiore alla densità minima che è un atomo per centimetro cubo); parimenti l’ossigeno (sia pur ben più raramente) si forma anch’esso negli spazi in quanto l’atomo di questo gas richiede per la sua formazione l’associazione di otto protoni, otto neutroni e otto elettroni.
La formazione dell’elio (He) è invece più complessa, ma non costituisce un problema irrisolvibile al di fuori del quadro del Big Bang. Il nucleo dell’atomo di elio è composto di particelle a e precisamente di due protoni e, per gli isotopi elio-3 e elio-4, rispettivamente uno o due neutroni: ora, è vero che è assai difficile che (nella forma più complessa di elio) queste quattro particelle – due protoni e due neutroni – si riuniscano a dieci milioni di gradi con esatta proporzione per formare in una stella di piccola massa un nucleo di elio, così come è difficile che il nucleo di elio unendosi con due elettroni formi l’atomo di elio (due protoni, due neutroni, due elettroni), ma è anche vero che, essendo i protoni e i neutroni (come gli elettroni) le particelle più diffuse nell’universo, allora, con l’aiuto di altre particelle agenti come catalizzatori chimici (che nelle stelle di massa maggiore è il carbonio), è comprensibile che infine protoni e neutroni in certe proporzioni e condizioni date generino il nucleo dell’elio e questo di fatto avviene nelle stelle. Così due nuclei di deuterio (costituiti ciascuno da un protone e un neutrone) urtandosi alla temperatura di dieci milioni di gradi anziché rimbalzare si fondono (è il processo della fusione nucleare solare) in uno di elio (due protoni, due neutroni).
Questo però non significa che si richieda sempre una temperatura di dieci milioni di gradi, data dal supposto post-Big Bang, per formare l’elio: infatti l’elio non si forma soltanto nelle stelle compiute bensì anzitutto in quei luoghi delle nebulose protosolari in cui, in uno spazio ampio quanto un intero sistema solare, si sono già attivati i processi destinati a generare le stelle in quanto la contrazione gravitazionale ha acceso le prime reazioni termonucleari con conseguente produzione di elio. Così l’elio si trova sui pianeti gassosi come Giove e Saturno, ove certamente le temperature non sono alte quanto quelle interne al Sole, e sulla Terra (ove peraltro è praticamente assente) può essere formato quando, certamente non a milioni di gradi, si accende un pezzo di legna nel camino e il carbonio si mescola con l’ossigeno. Peraltro l’elio che si trova nelle nebulose oltre che nelle stelle può anche essere il residuo rilasciato da precedenti formazioni stellari in quanto esso una volta formatosi viene espulso nell’universo dalle stelle morenti (come nelle esplosioni di supernova). Dunque per la formazione dell’elio nelle nebulose si richiede certamente un’alta temperatura, che però può formarsi senza la necessità di postulare nessun Big Bang a monte.
Il presupposto più semplice è dunque che da sempre esistano le nubi di polveri e gas che ovunque vediamo nell’universo, principalmente contenenti l’idrogeno che vi si forma e l’elio che vi si conserva una volta formatosi nelle stelle precedenti: è più semplice pensare che l’idrogeno, l’elio e gli altri elementi semplici si formino nelle nebulose primordiali, e anche nelle stelle precedenti, che non ritenerli l’effetto poco comprensibile della singolarità esplosa. Infatti se l’elio una volta espulso e diffuso nell’universo può sopravvivere per molti milioni di anni (così come sopravvivono i raggi gamma e gli atomi di carbonio espulsi dalle supernove che formeranno altre stelle), diventa invece difficile pensare che esso possa sopravvivere fino ad oggi per 13 o 15 miliardi di anni dopo il Big Bang in quanto in un periodo siffatto esso si sarebbe probabilmente da tempo diluito e sciolto nell’universo nei suoi protoni e nei suoi neutroni di partenza attraverso i processi di decadimento a, cosicché anziché dire che l’elio sia stato prodotto dal Big Bang occorrerebbe domandarcisi come esso sia potuto sopravvivere per così tanto tempo al Big Bang: anziché un elio residuo di un Big Bang avvenuto 15 miliardi di anni fa è più concepibile un elio in una nebulosa quale residuo di stelle precedentemente attive, oltre che formatosi ex-novo nelle nebulose in procinto di generare stelle alle opportune temperature.
Il fatto poi che non tutto l’idrogeno sia diventato elio (come si vorrebbe fosse in un universo eterno) si spiega proprio con le particolari condizioni in cui si genera l’elio: l’atomo di elio non si forma comunque e ovunque, ma si forma solo alla opportuna temperatura stellare data la fusione di due atomi di idrogeno o solo dato il legame fra due e solo due protoni e due e solo due neutroni; soltanto una minima parte (meno del 5%) dell’idrogeno e del gas presente nelle nubi interstellari si trasforma in stelle, e comunque esso si riscioglie in gas sparso con la morte delle stelle. Il paradosso dell’eternità – nel quadro di un eterno ciclo di nascita e morte degli elementi e delle stelle – non deve colpire più di quanto colpisca la singolarità iniziale, incomprensibilmente concepita come eterna o creata dal nulla, cosicché eterno per eterno è preferibile il più semplice in modo da non introdurre con l’incredibile singolarità iniziale un elemento del tutto arbitrario e speculativo: noi sappiamo che le particelle vi sono, cosicché possiamo anche pensarle da sempre e per sempre esistenti in un continuo gioco di generazione e annichilazione e trasformazione reciproca, mentre invece è assai più ipotetico e fantastico supporre a monte una specie di SuperParticella da sempre esistente che poi esplodendo le generi. In realtà la teoria del Big Bang non fa altro che attribuire in un sol colpo ai primi secondi immediatamente susseguenti la presunta esplosione primordiale con le sue altissime temperature la formazione degli elementi semplici che invece si formano in un lungo processo all’interno delle nebulose e nelle formazioni protostellari. Gli astrofisici che vogliono spiegare con il calore del Big Bang – anziché con le combinazioni chimiche dei protoni, dei neutroni e degli elettroni nelle condensazioni sprigionanti calore – la formazione degli atomi del gas dell’idrogeno e dell’elio non si rendono conto della circolarità, perché a sua volta l’alta temperatura del Big Bang richiede di essere spiegata con quelle particelle che dovrebbe spiegare.
Per quanto riguarda invece la formazione degli elementi pesanti, la spiegazione ad opera di R. Alpher e R. Herman (1948) e poi di G. Gamow – celebrata come uno dei più grandi successi della teoria del Big Bang – non convince più. Infatti gli scienziati suddetti, sapendo che la costruzione degli elementi pesanti richiede (ben più di quelli leggeri) condizioni di temperatura e densità estremamente alte, hanno rinvenuto a ritroso nei primi minuti ad altissima temperatura susseguenti al cosiddetto Big Bang, naturalmente accortamente calibrandone la temperatura compatibile per la bisogna, l’atto di battesimo degli elementi pesanti. Allora si è detto: vedete? questa portentosa teoria, oltretutto, spiega anche la formazione degli elementi pesanti. Ma in realtà già a partire dal 1957 (in un fondamentale articolo di Hoyle, W. Fowler e G. e M. Burbidge) si è compreso che gli elementi pesanti dal carbonio in poi si formano esclusivamente nelle stelle, particolarmente nelle reazioni nucleari proprie delle fasi terminali da gigante rossa e supernova (segnatamente nella supernova, quando si esaurisce l’idrogeno e prima che essa esploda, avvengono reazioni per cui tre atomi di elio fondendosi ne producono uno di carbonio e poi ancora si produce azoto, ossigeno, ferro): anche qui, non sono necessari i miliardi di gradi Kelvin immediatamente seguenti al Big Bang, bensì bastano e avanzano i cento milioni di gradi di un nucleo di supernova (o anche, per quantità infinitesime, i dieci milioni di gradi all’interno di una stella). Nemmeno le esplosioni da raggi gamma vengono più spiegate come residui dell’“Esplosione primordiale”: dunque proprio non serve nessun Big Bang.
Invero si domanda: se dall’eternità l’elio continuamente prodotto nelle stelle viene a sua volta in esse infine trasformato in elementi pesanti, e se poi le stelle dopo aver consumato l’idrogeno e l’elio esplodono scagliando gli elementi pesanti così generati nello spazio, allora perché l’elio non è tutto trasformato in elementi pesanti, e da dove proviene l’abbondanza di elio e la scarsezza di elementi pesanti ovunque riscontrabile nell’universo, visto che l’idrogeno e l’elio costituiscono rispettivamente il 68% e il 28% degli elementi dell’universo? Come si vede questa obiezione è la replica della precedente: prima si domandava perché tutto l’idrogeno non si sia trasformato in elio, ora si domanda perché tutto l’elio non si sia trasformato in elementi pesanti. Ma certo, circa la sorte degli elementi pesanti formati dall’elio nelle stelle terminali, è ipotizzabile che essi, dopo essersi così formati e dopo essere passati attraverso i più traumatici cambi di temperatura, non sussistendo più le altissime temperature stellari che li hanno generati, tornino a frantumarsi e a sciogliersi per molteplici vie negli elementi di partenza – protoni, neutroni, elettroni – così costituendosi a tutti gli effetti un ciclo: ciò che spiegherebbe la continua produzione e abbondanza di idrogeno e elio nell’universo e la concomitante scarsezza di elementi pesanti.
Per quanto riguarda infine – dopo la formazione delle prime particelle, degli elementi semplici e di quelli complessi – la formazione delle nebulose protogalattiche, qui sappiamo con certezza che le dissolventi altissime temperature iniziali sono esiziali e si richiedono invece temperature decisamente più basse (le alte temperature vengono semmai dopo, quando si innesca il processo di fusione nucleare con trasformazione dell’idrogeno in elio che forma le stelle). Per questo nella teoria del Big Bang diventa indispensabile un raffreddamento successivo, che sarebbe avvenuto un miliardo di anni dopo il Botto, onde spiegare la successiva formazione delle stelle e delle galassie: l’inferno del Big Bang impedirebbe la creazione. Ma allora ci si chiede a che cosa serva la teoria del Big Bang: una teoria cosmologica, alla fin fine, dovrebbe spiegare anzitutto – dopo gli elementi – la formazione delle nebulose originarie da cui si dipartono stelle e galassie, e se per spiegare questo si richiedono temperature non così alte allora sembra inutile immaginare a monte di quelle temperature una temperatura altissima che poi si è abbassata, un Grande Incendio che poi si è spento. In questo caso, Dio sarebbe un cuoco maldestro che per preparare un piatto tiepido lo fa prima bruciare scaldandolo fino all’inverosimile e poi lo fa raffreddare: ora, come diceva Einstein, il Signore è sottile ma non malizioso e – aggiungerei – nemmeno stupido.
Qui si tratta proprio di un elementare principio di economia del pensiero: entia multiplicanda non sunt praeter necessitatem, simplex sigillum veri. Non a caso il saggio re Alfonso X di Castiglia, agli astronomi di corte che gli mostravano le nuove complicatissime tavole dei pianeti su base geocentrica (le tavole alfonsine che sostituivano le ormai inservibili tavole toledane), sbottò dicendo: se fossi stato Dio avrei fatto le cose in modo più semplice. Certo sappiamo che il mondo è complesso e che la teoria assolutamente semplice che lo spieghi non v’è: ma ciononostante rimane lecito il sospetto su una teoria quando essa appaia ridondante, sovraccarica e insomma inutilmente complicata. Nella fattispecie: se ciò che necessita per spiegare la formazione degli elementi e delle protonebulose e protogalassie è un piatto non caldissimo, che necessità v’è di supporre prima un piatto bollente poi raffreddato? Perché non assumere direttamente questo “piatto semifreddo” (o insomma non caldissimo) come condizione iniziale senza immaginare alle spalle una inverosimile e assolutamente inutile conflagrazione cosmica?

L’Universo mancante

Come si è visto, il tentativo di salvare la teoria dell’espansione dalle anomalie sempre più insorgenti, e in particolare il tentativo di spiegare le condensazioni e le interazioni di particelle e corpi celesti nonostante l’espansione che tutto allontanerebbe, ha portato negli ultimi decenni alla teoria dell’inflazione e poi ad una proliferazione sempre più incontrollata di modelli matematici ad hoc. Uno degli ultimi tentativi volti a salvare la teoria dell’espansione ha chiamato in causa la “materia oscura”. Poiché la difficoltà teorica riguardava soprattutto i superammassi galattici, che veramente non si capisce come possano tenersi gravitazionalmente insieme a distanze non “locali” ma veramente enormi se parimenti agisse una contraria forza repulsiva dovuta all’espansione, allora i teorici del modello standard, appellandosi ai calcoli per i quali solo una massa gravitazionale dieci o cento volte maggiore di quella osservata potrebbe giustificare questi elevatissimi redshift e tenere insieme gli ammassi e i superammassi nonostante l’espansione, hanno inventato un autentico coup de théâtre. Essi infatti avrebbero dovuto dire: poiché la massa gravitazionale effettivamente rilevata nell’Universo con una certa densità media per metro cubo (0,015 atomi per metro cubo) è veramente bassa, poiché l’Universo è in media quasi vuoto, poiché è sottopeso mentre la teoria dell’espansione sta in piedi solo se esso è bello pienotto, poiché in esso la densità media di massa rilevata è dieci o addirittura cento volte minore di quanta ne occorrerebbe per tenere uniti a enormi distanze ammassi e superammassi in presenza di un’espansione dell’Universo, allora evidentemente non esiste nessuna espansione dell’Universo. Invece hanno detto: no, c’è veramente nell’Universo una massa gravitazionale che è dieci o addirittura cento volte maggiore di quella che si rileva. Alla domanda: e dov’è questa “massa mancante”, questa missing mass, se non solo non si vede ma nemmeno si rileva in nessun modo?, la risposta è stata: è una invisible mass, una Dark Matter, una fantomatica e misteriosa Materia Oscura. Così la materia oscura, ipotizzata originariamente negli anni trenta da Zwicky come massa suppletiva atta a spiegare un problema concreto come l’assorbimento interstellare e il conseguente fenomeno della “luce stanca”, nonché le eccessive velocità delle stelle periferiche nelle galassie, è diventata in seguito la stampella principe della teoria dell’espansione e del Big Bang.
La prima menzione di "massa mancante" appare nelle ricerche effettuate dal grande astronomo olandese Jan Oort intorno al 1932 sulla densità media della nostra galassia. Oort si proponeva di calcolarne la massa complessiva attraverso un conteggio statistico del gas e della componente stellare in un determinato volume di cielo. Al di là delle difficoltà che implica un conteggio del genere, la ricerca si presentava di enorme interesse, perché in pratica andava a verificare il limite ipotetico al di sotto del quale la Via Lattea dovrebbe sfasciarsi e disperdersi nello spazio. Oort trovò solo il 40% della materia necessaria a mantenere stabile il sistema. A quell'epoca la disgregazione precoce dell'Universo non sarebbe stata drammatica, perché il modello del Big Bang non era così strenuamente difeso come lo è oggi: il problema era causato dall'osservazione di popolazioni stellari con età dell'ordine di molti miliardi di anni. Se la densità era quella, insomma, non si spiegava come un'aggregazione così antica come la Via Lattea avesse potuto restare in equilibrio per tanto tempo con così poca massa. Le sole ipotesi possibili erano di ammettere l'esistenza di una materia che era sfuggita all'indagine, oppure di rassegnarsi all'evidenza che la legge di gravitazione, così accurata nel descrivere i sistemi planetari, non è più valida quando la si applica all'ordine di grandezza delle galassie. Ai tempi delle misurazioni di Oort gli scienziati erano troppo rigorosi per inventarsi materia; si credeva tra l'altro di avere a portata di mano una Teoria Unitaria in grado di rappresentare la Natura a ogni livello di scala.

jpg


Inoltre, la densità delle aggregazioni stellari poteva essere ricavata con un altro metodo, cioè ricercando le curve di rotazione delle galassie a spirale attraverso l'analisi spettroscopica. Questa indagine, resa affidabile dallo straordinario progresso tecnologico degli ultimi quarant'anni, ha consentito di stabilire con grande accuratezza le dinamiche di rotazione e i profili di brillanza delle regioni esterne di un gran numero di spirali. Gli spettrografi più sensibili sono infatti in grado di rilevare i moti di avvicinamento e di allontanamento delle stelle lungo la nostra visuale: quando la fenditura d'ingresso dello spettrografo è allineata all'asse maggiore della spirale esaminata, lo spostamento verso il blu della luce delle stelle che muovono verso di noi e lo spostamento verso il rosso di quelle che ruotano in direzione opposta distorcono i dettagli dello spettro conferendogli una tipica curva a S. Queste distorsioni possono essere rilevate anche nella banda radio, sulla riga di 21 cm. dell'idrogeno gassoso - presente solitamente anche a grande distanza dal centro galattico. Un altro metodo di scansione - assai delicato - è possibile nelle onde millimetriche del monossido di carbonio, a 2,6 mm. Ora, se si ammette che la velocità della materia orbitante è determinata dalla massa che sta all'interno dell'orbita - come siamo abituati ad aspettarci dai tempi di Newton - e che tutta la materia mostri all'incirca lo stesso rapporto tra massa e luminosità, allora allontanandosi dal centro della galassia presa in esame, la distribuzione delle velocità di rotazione delle stelle dovrà raggiungere un picco al di là del quale vi sarà necessariamente una caduta di tipo kepleriano. Si assiste invece ad un fatto straordinario che va in qualche modo a coincidere con la discordanza trovata da Oort: la velocità rimane quasi costante, indipendentemente dalla distanza del punto che si osserva dal centro. Nei casi più drammatici lo spostamento per difetto dal limite atteso è dell'ordine delle centinaia di volte. Ma dov'è allora tutta questa massa?
È difficile sottrarsi dal sospetto che su strutture macroscopiche come quelle delle galassie siano in gioco dinamiche più complesse della semplice gravitazione: a differenza della fisica newtoniana o della stessa Teoria della Relatività Generale, questa apparenza è indotta dall'osservazione. La sperimentiamo direttamente dalle galassie "in azione". Rischiando l'annullamento retroattivo dei loro dottorati, e pur di non introdurre materia invisibile, J. Bekenstein, M. Milgrom e R. Sanders hanno esaminato soluzioni al di fuori della gravitazione universale: forse i processi che conducono alla formazione delle galassie seguono modalità e dinamiche di "condensa" che non è possibile descrivere col solo ausilio della gravitazione; la scoperta dei plasmi, per esempio, le loro proprietà per effetto della ionizzazione sono così diverse da quelle dell'idrodinamica classica, che gli astrofisici sono costretti a riformularle radicalmente, fra grandi difficoltà, con ipotesi aggiuntive. Milgrom e Sanders, in particolare, hanno avanzato l'ipotesi che su scale rapportabili alle galassie e alle loro interazioni (milioni di anni luce), l'attrazione gravitazionale non diminuisca al crescere del quadrato della distanza, ma semplicemente al crescere della distanza. Un'altra ipotesi alternativa, ben in linea con i dati dell'osservazione, è quella di ammettere la presenza di una grande quantità di polveri e nubi molecolari, non rilevabile coi mezzi attuali. Non è proponibile per le giganti ellittiche, nelle quali gli indizi dell'esistenza di polveri sono scarsissimi, ma può ben essere applicata alle galassie a spirale e alle irregolari, solitamente molto ricche di materiale diffuso. Risposte cruciali giungeranno dai futuri telescopi all'infrarosso, installati su satelliti, in grado di rilevare molecole di idrogeno molecolare anche alle più basse temperature.
Esiste comunque un metodo del tutto indipendente per calcolare le masse, ed è quello che i cosmologi chiamano il computo delle velocità residue. Se si ammette, infatti, che la causa del redshift delle galassie è determinata dall’espansione dell'Universo, le eventuali oscillazioni di velocità intorno al valore medio di recessione renderanno conto dei moti peculiari delle galassie satelliti intorno alle più massicce, almeno per quel che riguarda la componente della velocità secondo la nostra visuale. Appariranno cioè sommate o sottratte al valore fissato dalla costante di Hubble per quella distanza e per quell'ammasso, in funzione dei loro moti relativi, e cioè del potenziale gravitazionale dell'ammasso stesso di cui fanno parte. Ma questa cruciale verifica ha condotto a risultati ancor più imbarazzanti. Non solo le masse complessive non coincidono affatto con quelle già così carenti ottenute sulle curve di rotazione delle singole galassie, ma la differenza è dell'ordine delle decine e delle centinaia di volte! Per visualizzare questa ulteriore, abnorme carenza di massa, si può prendere come esempio l'ammasso della Chioma di Berenice nel quale sono state contate dagli astronomi circa 1700 galassie. Ebbene, per renderlo "stabile", cioè per far quadrare i conti con l'espansione e con la presunta età dell'Universo, si può dire grossolanamente che occorrerebbero almeno altre 10.000 galassie in quell'ammasso... In altri raggruppamenti il risultato ottenuto è stato più o meno drammatico: complessivamente l'applicazione dei teoremi della gravitazione universale ad una metrica in espansione, pone i cosmologi del Big Bang nella paradossale situazione di dover ipotizzare un Universo di "materia oscura" almeno cento volte più massiccio di quello luminoso. Ce n'è probabilmente abbastanza per far rifare i conti a tutti, Gamow compreso... Questo, in breve, il deficit accumulato dai cosmologi dell'espansione nei confronti dell'osservazione. Ma come colmarlo?
Nel gennaio del 1993 i giornali di mezzo mondo hanno annunciato "la scoperta della materia oscura" per mezzo del satellite ROSAT. Val la pena di darne un breve cenno, perché la vicenda è tipica del modo con cui i media divulgano scienza, amplificando e deformando a proprio piacimento ipotesi e rilevazioni strumentali. È avvenuto che un'équipe di ricercatori americani che sollecitava indagini in astronomia X per alcune associazioni di galassie, si è vista assegnare un tempo di osservazione ROSAT strettamente limitato a tre piccole galassie, NGC 2300 e compagne. Ma il nastro contenente le rilevazioni ha lasciato di stucco il gruppo capitanato da R. Mushotzky: l'indagine del satellite rivela che queste galassie si trovano sulla stessa linea di una sorgente estesa che emette raggi X e che, se posta alla medesima distanza del terzetto, avrebbe un diametro di oltre un milione di anni luce, una massa equivalente a 500 miliardi di Soli ed una temperatura di una decina di milioni di gradi. Un bel colpo, non c'è che dire, per un'occhiata tanto fugace! Ma lo "scoop cosmologico" è un altro. Assumendo che l'associazione non sia prospettica, il potenziale gravitazionale delle tre galassie non avrebbe mai potuto trattenere la nube individuata da ROSAT a partire dalla data di nascita abitualmente ipotizzata per tutto l'Universo: se ne deduce che poiché la nube è ancora lì, ci deve essere una gran massa di materia invisibile nei dintorni della nube e di NGC 2300... a vigilare sull'ipotesi cosmologica! Quale commento dare a "razionalizzazioni" del genere?
Ora, lungi da noi il credere che la sola materia esistente sia quella effettivamente visibile e rilevabile. Certamente esiste nell’universo una materia “oscura” e invisibile: basti pensare alle “nane brune”, ai sistemi planetari di altre stelle, alle comete e agli asteroidi lontani, ai “buchi neri”, alla radiazione non visibile, alle particelle come i neutrini, ai gas e alle polveri non rilevate. Chi ci crede aggiunga pure tutto quell’“alone oscuro” di materia nascosta alla periferia delle galassie, che secondo molti autori ne accelera i sistemi stellari periferici, così spiegandone le eccessive velocità incompatibili con la legge newtoniana per cui esse dovrebbero decrescere con la distanza dal centro gravitazionale galattico. Ma affermare che la quasi totalità della Natura deve trovarsi allo stato invisibile di "materia oscura" perché è il solo modo per saldare i conti col divenire cosmico e con gli eccessi di redshift, equivale ad annunciare scoperte mai avvenute. Però il punto di vista convenzionale è costretto a pretenderlo, e vi rovescia dentro ogni cosa: particelle esotiche, rocce, plasmi primordiali, corone oscure, buchi neri e oceani di gas intergalattico... Questa massa, introvabile a qualsiasi lunghezza d'onda, dovrebbe aumentare con prodigiosa esattezza al crescere del raggio ed al diminuire della materia luminosa, disponendosi sempre nella quantità giusta, sia intorno a galassie isolate che a sistemi binari, sia intorno a piccole associazioni di tre o quattro membri che fra i grandi ammassi di centinaia e migliaia di galassie. Quanto più si osservano regioni lontane e deboli, tanto più si dovrebbe supporre uno schermo crescente di materia oscura fra noi ed il mondo visibile: data la formidabile concentrazione di massa nascosta e la popolarità di cui gode l'effetto lente gravitazionale, ci si dovrebbe attendere uno straordinario affollamento di oggetti, di archi ed anelli alle grandi distanze. Avremmo, in conclusione, una materia oscura che cresce linearmente con la distanza in scrupolosa sincronia con la costante di Hubble. La facile profezia è che perfino gli astrologi ne faranno largo uso: in particolare quando i loro pronostici si discosteranno clamorosamente dagli avvenimenti.

Energia oscura e scienza moderna

Il celebre fisico Richard Feynman non disdegnava di dialogare anche con i dilettanti più improbabili. Una volta gli scrissi che le sue particelle che andavano indietro nel tempo erano un trucco grossolano e lui mi rispose prontamente su un cartoncino che ho conservato “well Alberto, may be”. Ma quando gli tesi un agguato con la complicità dell'allora console di San Marino Josè Riba, mi liquidò seccamente. “Lei vorrebbe scambiare la relazione di Hubble con un idealistico niente” mi sibilò girando sui tacchi, cosicché fui quasi costretto a urlargli dietro con il mio inglese da emigrato in Australia: “Meglio niente che altri cent'anni di fiction?” A distanza di sicurezza Feynman si sporse appena e fece con un sorriso o con una smorfia: “La scienza non è mai stata in mano agli scienziati”. Sono passati più di trent'anni, Feynman ahimè è morto e la scienza continua a non essere in mano agli scienziati. Sono costretti a dichiarare che abbiamo una visione “panoramica” e rappresentativa dell'intero Universo, che è lo spazio che si dilata a spostare le righe degli spettri delle galassie e che l'espansione cosmica deve ora essere intesa come un'accelerazione. La “scoperta” di questa nuova forza può essere sintetizzata con poche parole: quando si cercò di estendere le misure cosmiche alle più grandi distanze impiegando le Supernovae come candele standard, sempre tenendo ferma l'ipotesi che il redshift fornisse la distanza attuale, si constatò che alcune SN erano troppo deboli rispetto ai loro spostamenti verso il rosso mentre altre implicavano potenze inconcepibili. Poiché questo determinava inevitabilmente una costante Ho troppo bassa ... fu rapidamente deciso che l'Universo doveva aver accelerato per raggiungere il valore attuale di Ho= 72km/sec, dedotto da Cefeidi (stelle variabili) osservabili in galassie più vicine! Fu così definita “la misteriosa energia del vuoto”, “l'elusiva dark energy” che in collaborazione con titaniche quantità di un'altra sostanza invisibile, “l'onnipervasiva materia oscura”, teneva in piedi l'imbroglio dell'espansione accelerandola o rallentandola alla bisogna. È ciò che Robert Oldershaw denunciava già negli anni Ottanta “come incontrollabilità totale della cosmologia”: il modello del Big Bang può essere modificato a piacere in modo da poter recuperare sempre l'accordo con gli esperimenti e con l'osservazione attraverso congetture che vengono presentate come scoperte. Possiamo allora augurarci che tutta questa scienza surrettizia, quotata ormai anche sulle borse asiatiche e che alimenta la costruzione di costosissimi collisori supertecnologici “in grado di riprodurre le pesantissime particelle della Creazione” vada tranquillamente alla malora con tutti i tecnocrati, gli inventori di particelle e i faccendieri senza scrupoli che dal Big Bang ad Atlantide l'hanno irrimediabilmente pervertita? Ma chi se la sente di cassare tanti programmi, tante carriere e tanti destini in nome della “verità scientifica”? Se Feynman poteva ancora svignarsela, gli specialisti delle supersimmetrie che abitano negli acceleratori sono lì apposta per dar conto del fotino, del neutralino e del dilatone ... La verità è che non ci sono stipendi per passione ed è ovvio che anche i fisici tengano preliminarmente alle loro professioni prima ancora che alla collocazione spaziale dei Quasar. Chi ha veramente nostalgia della “scienza povera”?

Conclusione

Credo sia inutile continuare nella disamina: in realtà la teoria del Big Bang appare non tanto un modello scientifico quanto piuttosto una fantastica mitologia, rispetto alla quale allora preferiamo Esiodo. Questa teoria lascia irrisolti mille problemi e, puntellata alla bell’e meglio con appositi epicicli, sembra ormai più un dogma indiscusso e un articolo di fede che non una teoria scientifica. Molto probabilmente, la strana idea che l’Universo venga dall’esplosione di una capocchia di spillo generante uno spazio misteriosamente in espansione, verrà ricordata dai nostri posteri come un colossale abbaglio della scienza novecentesca. Eppure la teoria del Big Bang , e il suo correlato espansionista, nelle sue varianti multiple gode oggi di un consenso quasi universale, eccezion fatta per la condanna da parte della cosmologia sovietica dell’età staliniana che – di contro i sovietici Friedmann prima e Gamow poi – opponeva l’eternità e l’infinità dell’Universo ad ogni idea di generazione). Probabilmente tale consenso è anche dovuto al fatto che, pur essendo l'“atomo primordiale” di Lemaître o la “Singolarità iniziale” strutture che di per sé non richiedono una divinità a monte, la teoria del Big Bang è comunque infine facilmente apparsa quale trascrizione laica del creazionismo religioso che pone un principio del mondo: infatti Lemaître era un religioso, e Pio XII (in un discorso del 22 novembre 1951 alla Accademia Pontificia delle Scienze di cui Lemaître divenne presidente) avallò decisamente la teoria «testimone del Fiat Lux iniziale» suscitando le apprensioni e infine le rimostranze dello stesso Lemaître (Congresso Solvay 1958) che temeva che la Chiesa potesse nuovamente rischiare la propria credibilità, sancendo come indubitabile con la propria autorità una teoria che poi potesse rivelarsi errata come già era avvenuto con il caso Galileo.
In ogni modo la fortuna della teoria del Big Bang venne assicurata, e nel 1982 un cosmologo sovietico dichiarò che il Big Bang era un fatto certo come è certo che la Terra giri intorno al Sole. Si è costituito così un inattaccabile paradigma normativo in senso kunhiano, al punto che in Occidente le pochissime voci critiche dei dissenzienti sono ormai da decenni isolate e messe a tacere: Halton Arp, per aver dato una diversa spiegazione del redshift dei Quasar, si è visto negare l’uso dei migliori telescopi per il timore che ciò potesse turbare i sonni dogmatici della comunità scientifica; Hoyle, il noto oppositore della teoria del Big Bang, pur avendo compiuto insieme a W. Fowler e più di lui scoperte di fondamentale importanza circa le reazioni nucleari che nelle stelle producono gli elementi pesanti, si vide negare il premio Nobel che fu dato nel 1983 al solo Fowler, e ben si capisce visto che Hoyle (contrariamente a Fowler) traeva da questa scoperta la conseguenza che non occorreva alcun Big Bang per spiegare la formazione degli elementi pesanti. Vi sono in effetti enormi finanziamenti in gioco, che evidentemente si teme possano essere drasticamente decurtati se mai il dubbio serpeggiasse. Vi sono troppe carriere scientifiche costruite sulla favola del Big Bang, vi sono troppi astronomi di fama che da decenni ripetono salmodiando la litanía sull’esplosione e l’espansione e che, incapaci di autocritica, non accettano discussione su questo tema. In pratica nessun giovane astronomo oggi ha speranza alcuna di farsi conoscere se non accetta il dogma, il tributo da pagare per la “carriera”. L’americano E. Lerner, uno dei pochissimi critici del Big Bang (cui oppone una “cosmologia del plasma”), pubblicando nel ‘91 “The Big Bang Never Happened”, scrive: «entro la fine degli anni settanta [ma le cose non sono molto cambiate nemmeno in seguito] praticamente non un solo scritto suscettibile di costituire una sfida al Big Bang veniva accettato per essere presentato ai congressi principali o pubblicato dai principali periodici scientifici. Diventò semplicemente inconcepibile l’idea che il Big Bang potesse essere errato: era una questione di fede».
Il punto è che, in una critica alla teoria cosmologica dominante, in fondo non è mai in questione la fondatezza scientifica: semplicemente, troppo chiaro appare in questi casi l’imbarazzo e la reticenza (a suo tempo anche da noi sperimentata) nel pubblicare una critica al modello cosmologico dominante. Senonché: non dovrebbe la scienza essere un costante e continuo esercizio di critica e di discussione? E dove va a finire la libertà e l’indipendenza intellettuale, se la critica è ostacolata? Stando così le cose, l’impresa scientifica rischia di diventare un’ortodossia dogmatica imposta attraverso i pulpiti universitari e la distribuzione delle cattedre accademiche, nonché attraverso le riviste specializzate e i gruppi editoriali. Sembra che dunque a ragione T. Kuhn dica che la “scienza normale” sia costituita da “paradigmi” non semplicemente teorici ma in ampia misura condizionati da determinati orientamenti sociologici, politici, economici, psicologici che, imposti dalla gerarchia scientifico-accademica, costituiscono e delimitano con atto d’autorità e di potere l’ambito delle ricerche lecite, legittime, accettate, di fatto costituendo in dogma inattaccabile, rigido e chiuso, una determinata prospettiva di ricerca difesa ad oltranza anche censurando e riducendo al silenzio le critiche e le alternative. Ma allora, se le cose stanno così, pur non credendo noi all’incommensurabilità totale dei paradigmi tutti e pur difendendo una visione sostanzialmente continuista della scienza, diciamo che indubbiamente in certi frangenti occorre valutare positivamente le rivoluzioni scientifiche di cui parla Kuhn in quanto esse, prendendo finalmente sul serio le molteplici anomalie emergenti all’interno di un dato paradigma scientifico, hanno la capacità di imporre un nuovo paradigma rovesciando quello precedente in cui l’atteggiamento dogmatico (per quanto per Kuhn psicologicamente comprensibile e giustificabile nelle vicende della “scienza normale”) diventa sempre più inaccettabile.
Vorrei concludere questa mia esposizione con due aneddoti di natura sociologico-osservativa, se così si può dire. Il primo è a lieto fine, e riguarda il braccio che collega le due galassie con redshift altamente discorde NGC 7603 A e B e i due Quasar che vi sono immersi, di cui ho già parlato in precedenza. Appena mi fu nota, comunicai questa decisiva scoperta anche a un insigne fisico relativista di Bologna, invitandolo senza mezzi termini a prendere una posizione. La cortese risposta fu: "Non rifiuto di guardare nel cannocchiale di Galileo, e, delle due, di fronte all'immagine trasmessa sono incline a dar ragione a lei. Ma non posso giurarci. Qui vident sciunt? Mah … nel cannocchiale si vedevano le stelle medicee, ma anche Saturno tricorporeo … Aspettiamo. Il tempo farà (forse) giustizia". Avrei dovuto accontentarmi? "Aspettiamo … che cosa? - replicai prontamente - Io guardo galassie da quarant'anni e a meno di dubitare delle fasi dei pianeti interni, giurerei che le due galassie in questione sono connesse da un visibile ponte di materia. Lei no? Può anche tenere i due Quasar nello sfondo, se crede, confidando in una possibilità su un milione, ma non può allontanare le due galassie senza sopprimere l'astronomia osservativa. Il tempo servirà solo a mantenere lo status quo. Dobbiamo convenire che la storia che si ripete non ci insegna nulla?". Dopo qualche tempo ricevetti una comunicazione che mi preannunciava l'inserimento dei dati di Arp in un'importante Seminario sulla Cosmologia per il dottorato in fisica, e sarò eternamente grato a quel Professore per il suo atteggiamento costruttivo.
Il secondo episodio è assai meno incoraggiante ed è un esempio tipico di come l'establishment cosmologico reagisce di fronte a osservazioni di segno opposto. La seguente immagine mostra una mappa in raggi X ottenuta da W. Pietsch nel 1994 con il telescopio orbitale tedesco ROSAT centrato sulla galassia attiva ed espulsiva di tipo Seyfert NGC 4258.


Si notano immediatamente due intense emissioni X allineate ai due lati della galassia che è a sua volta una forte emittente di raggi X. Due sorgenti così perfettamente speculari avrebbero meno di una probabilità su mille di appaiarsi accidentalmente nello sfondo e in modo così esatto ai due bordi della galassia su una linea che passa per il nucleo. Era dunque di straordinario interesse astrofisico approfondire subito la natura di queste due sorgenti: ma un radioastronomo dichiarò preventivamente che le due emissioni erano in realtà "echi elettronici dovuti al sistema di rivelazione quando si gira lo strumento, ben noti a chi conosce la tecnica nel dettaglio"! Disgraziatamente per lui le due emissioni avevano controparti ottiche che Pietsch, Vogler, Kahabaka, Jain e Klein ("Astronomy and Astrophysics Letters, 1995) confermarono subito come candidati Quasar. Io non ebbi più notizie del radioastronomo e commentai la cosa su un giornaletto amatoriale, rammaricandomi che "dopo trent'anni di allineamenti prospettici nel visibile, abbiamo adesso false eco nei raggi X che possiedono controparti ottiche che poi risultano essere Quasar …". Ma la storia era ancora ben lontana dalla conclusione, perché nessuno voleva prendere gli spostamenti verso il rosso dei candidati Quasar. Arp riferisce nel suo recente ultimo libro "Seeing Red" che numerose Istituzioni richiesero l'analisi spettroscopica degli oggetti, senza alcun esito. Ci riuscì alla fine, due anni dopo, Margaret Burbidge, che con il riflettore di tre metri di Monte Hamilton rilevò z = 0,65 per il Quasar a sinistra e z = 0,40 per quello di destra.

Articoli e libri usati per creare questo articolo:

“La Relatività e la Falsa Cosmologia” di Marco De Paoli
“La cosmologia osservativa di Halton Arp” di Alberto Bolognesi
“Dalla parte del torto: Tully & Fisher vs Hubble” di Alberto Bolognesi
“Cosmologia al bivio” di Alberto Bolognesi
“L’Universo mancante” di Alberto Bolognesi
"Il codice celeste" si Alberto Bolognesi

Edited by Sojuz Koba 1961 - 29/2/2024, 15:53
 
Web  Top
view post Posted on 16/1/2024, 21:19     +1   -1
Avatar

Historic Member

Group:
Member
Posts:
3,401
Location:
Leningrado

Status:


L’altro Hubble: un astronomo vero fra mito e realtà


di Alberto Bolognesi



Il detto malizioso "cosmologists are always wrong but never in doubt" - i cosmologi sono sempre in errore ma mai in dubbio - non può certo applicarsi alla figura carismatica di Edwin Powell Hubble. Le migliaia di articoli e libri che gli sono stati dedicati hanno tuttavia contribuito a fornire di lui e del suo famoso "programma" un'immagine molto artificiale che in qualche caso sconfina nella mistificazione vera e propria. Hubble fu autenticamente ed essenzialmente il cosmologo del dubbio, e concluse degnamente nel dubbio tutta la sua pionieristica ricerca sulla natura dell'Universo. Lottò duramente per decenni con gli strumenti e con la sua schiena armeggiando per un numero sterminato di notti nelle gabbie dei grandi telescopi di Monte Wilson e di Monte Palomar, si cavò gli occhi sulle lastre a "grattare" Cefeidi immerse in bracci di spirale che si vedevano appena e a stabilire funzioni di luminosità per tipologie di galassie "là dove forse lo spazio si incurva" fino a che il suo cuore d'atleta cedette una prima e poi una seconda fatale volta. Ma quando la morte gli presentò il conto, Edwin Powell ("Power" per i suoi fans) aveva già redatto il suo testamento spirituale: "Le nostre conoscenze della struttura cosmica diminuiscono rapidamente al crescere della distanza". "C'è un limite alla nostra comprensione - confessò una volta al suo giovane allievo Allan Sandage - che non è quello di natura strumentale".
Astronomo per vocazione, Hubble (1889-1953) è quasi universalmente noto come "colui che scoprì l'espansione dell'Universo nel 1929". E' sorprendente che questa frase ribadita come uno slogan su quasi tutti i libri e i manuali di cosmologia non trovi riscontro in nessuna delle sue dichiarazioni e delle sue relazioni scientifiche: "ma - come ebbe a dire in seguito l'astronoma Beatrice Hill Tinsley (anch'essa prematuramente scomparsa) - tant'è: anche Cristoforo Colombo non fu immediatamente all'altezza della sua effettiva scoperta". Quinto di sette figli (o terzo di otto) di un avvocato del Missouri che operava nel campo delle assicurazioni, Hubble frequentò gli studi a Chicago laureandosi poi in legge a Oxford in Inghilterra, beneficiando di una prestigiosa borsa di studio come Rhodes Scholar al Queen's College. Alto quasi un metro e novanta e con una spiccata somiglianza all'attore inglese George Sanders, Hubble è anche accreditato di un curriculum d'atleta di tutto rispetto: salto con l'asta, lancio del disco, corsa ad ostacoli, cestista e pugilatore. Il folklore divulgativo gli attribuisce addirittura un match con il campione francese Georges Carpentier e perfino l'improbabile offerta di disputare un incontro con l'allora campione dei pesi massimi Jack Johnson … Eppoi arruolato volontario in Francia, ferito da schegge al braccio destro o al piede sinistro, aspirante dentista, maestro di scuola nel Kentucky e allenatore di pallacanestro di un team dell'Indiana. Frequentatore di Aldous Huxley e Igor Stravinskij, la sola cosa certa è che l'avvocato Hubble aveva sempre palesato grande interesse verso la fisica e l'astronomia. Il suo diploma in astrofisica, regolamentare o ad honorem, è una disputa di secondo piano che non deve distogliere dall'intraprendenza, dalla volitività e dall'autorevolezza che Edwin Hubble seppe rapidamente esprimere: negli anni in cui faceva pratica astronomica presso lo Yerkes Observatory venne immediatamente notato da un altro Edwin, l'allora Direttore E.B. Frost e poi dallo stesso George Ellery Hale, l'astronomo che rivelò il ciclo doppio delle macchie solari in funzione dell'attività magnetica e che, fra un esaurimento nervoso e l'altro, riuscì a progettare e a realizzare i più grandi telescopi riflettori del suo tempo.
La storia di Hubble è arcinota e molto variamente raccontata, ma due sono soprattutto le rivoluzioni che le sue ricerche hanno imposto alla scienza dell'astronomia. La prima fu la dimostrazione "galileiana" che molti oggetti classificati sommariamente come "nebulose" erano in realtà enormi sistemi stellari esterni e analoghi alla Via Lattea; la seconda fu la scoperta di una sorprendente relazione fra il loro generale spostamento verso il rosso e la loro magnitudine apparente. Val la pena soffermarsi un attimo sulla prima dimostrazione di Hubble che venne anche a chiudere una lacerante controversia fra il famoso astronomo della Carnegie Harlow Shapley (1885-1972) e il suo collega del Lick Observatory, Heber Curtis (1872-1948), che ne uscì vincitore, perché il fatto costituisce un importante elemento nella questione largamente dibattuta se sono i telescopi o le persone che fanno le scoperte cruciali. Per far questo occorre riandare a quel ricco astronomo dilettante londinese, di nome William Huggins (1824-1910), che per primo decise di estendere l'impiego dello spettroscopio - fino a quel momento impiegato per lo studio della luce solare e delle sorgenti luminose prodotte in laboratorio - all'analisi delle stelle e delle "nebulose". Ne montò uno sul suo telescopio privato, lo orientò a turno su Aldebaran e Betelgeuse … e restò senza fiato. Vi scorse una foresta di righe vicinissime e quasi sovrapposte le une alle altre che ricondusse correttamente ai noti elementi del calcio, del sodio, del ferro, del manganesio e del bismuto. "Erano stelle simili al Sole!" Così, pieno di emozione, decise di concentrarsi sulle "nebulose" che da oltre un secolo Kant aveva intuito trattarsi di remotissimi "universi-isola" costituiti di stelle. "Stavo forse per gettare lo sguardo sui recessi più segreti della creazione?" si domandò Huggins. E poteva Huggins, ci chiediamo noi, precedere la scoperta di Hubble? Per un caso che potremmo definire "disgraziato", l'astronomo dilettante puntò lo spettroscopio proprio su una vera nebulosa gassosa, vi notò una sola riga ininterrotta e ne dedusse - ahimè correttamente - che doveva essere prodotta da un gas luminoso, non da una moltitudine di stelle. Fece di un filo d'erba un fascio, concluse frettolosamente che tutte le nebulose fossero gassose e gettò Kant alle ortiche.
Il pregiudizio si fissò rapidamente e fu ulteriormente corroborato dai calcoli che l'astrofisico James Jeans applicò a nubi di gas collassate: ed ecco un caso sconcertante, si potrebbe commentare, in cui l'esordio di uno strumento insostituibile come lo spettroscopio, fece fare un passo indietro alla conoscenza. I primi contributi alla restaurazione kantiana vennero forniti da un altro dilettante, il carovaniere Milton Humason (1891-1972) che trasportava pezzi di ricambio a dorso di mulo fino all'osservatorio di Monte Wilson. Privo di istruzione ma versatile e ricco di talento, Humason divenne rapidamente custode, poi assistente osservatore all'Hooker e abile spettroscopista. Negli anni in cui faceva pratica di fotografie sotto la direzione di Shapley, prese numerose immagini di M31 e vi notò alcuni puntini di luce che cambiavano di intensità. Sospettò che potesse trattarsi di stelle variabili Cefeidi, annotò la loro posizione sul dorso delle lastre e le portò trepidante al suo autorevole Direttore. Shapley le esaminò, spiegò pazientemente a Humason che M31 era un vortice di gas molto vicino e che quei puntini non potevano essere stelle: prese un fazzoletto dalla tasca e cancellò i segni di identificazione delle variabili sopra le lastre. Poi la storia è nota: nel 1923 Hubble arrivò a Monte Wilson con le credenziali di Hale, ottenne la storica immagine n. 335 di M31, contrassegnò le inequivocabili Cefeidi che vi comparivano con punti esclamativi e Shapley non poté più ricorrere al suo fazzoletto. Accettò fatalisticamente l'evidenza, e il genio precognitore di Kant ritornò al suo posto. Heber Curtis festeggiò molto discretamente con un bicchierino, le "nebulae" presero le distanze dalle nebulose e il mondo scientifico si aprì alla nuova immagine di un Universo costellato di galassie.
Ma naturalmente è la seconda "scoperta" - anch'essa preannunciata - che ha trasmesso fama imperitura a Edwin Hubble. E' la relazione empirica che lega lo spostamento verso il rosso delle galassie alla loro magnitudine apparente, relazione che ha poi fornito il cardine a tutta la cosmologia moderna e che, forse in omaggio alla istituzione d'origine di Hubble, prende oggi il nome di "legge". Già agli inizi del Novecento alcuni astronomi avevano notato un anomalo posizionamento dello spettro delle "nebulose" verso la parte rossa. Nel 1914, Vesto Melvin Slipher (1875-1969) che lavorava con uno spettroscopio montato sul riflettore di 60 pollici dell'Osservatorio di Percival Lowell, aveva collezionato una dozzina di spettri di "nebulae" la cui luce presentava un evidente "redshift". Ad eccezione della grande spirale in Andromeda e di alcune nebulose vere e proprie, questo "strano fenomeno" si mostrava sistematico, anche se di difficile soluzione. Se interpretato come un effetto Doppler le velocità implicate risultavano per quei tempi incredibilmente alte, in qualche caso ben al di là della soglia del migliaio di chilometri al secondo. Qual era dunque la causa di quello spostamento? Quale meccanismo lo generava? Nella mente di Slipher e di altri astronomi cominciò a farsi strada la possibilità che il fenomeno potesse essere messo in relazione con la loro enorme distanza. Quando Hubble arrivò a Monte Wilson, ben consapevole di questi primi risultati, sapeva esattamente cosa cercare. Aveva "il programma già in tasca", come dichiarò, e l'"Hooker", il gigante di 2 metri e 54 realizzato da Hale, gli offriva più che una formidabile opportunità, un appuntamento vero e proprio con la Storia.
Il suo notevole acume gli aveva già suggerito tutto il quadro generale: quando si mise al lavoro con il fido Humason, Hubble sapeva che stava tracciando il futuro dell'astronomia. Le alternative erano almeno due: se lo spostamento verso il rosso delle galassie poteva essere messo in relazione con la distanza, gli astronomi si sarebbero liberati per sempre della loro miopia bidimensionale e il redshift avrebbe immediatamente fornito la sospirata terza dimensione, la misurazione in profondità di tutta la struttura cosmica osservabile! La seconda possibilità poi appariva, se possibile, ancor più inebriante. Se la "distanza di redshift" esprime contemporaneamente anche una velocità di allontanamento (e se la velocità era proporzionale alla distanza), allora poteva essere a portata di mano perfino "il grande segreto", il frutto proibito della conoscenza cosmica, "l'inverso dell'espansione": l'origine del Mondo. Ma Hubble era uno scienziato estremamente cauto e rigoroso per natura, e non intendeva farsi sconti di alcun genere. Conosceva perfettamente il punto debole di tutta la grandiosa impalcatura e non lo nascondeva. Il punto debole infatti era la "circolarità": come distinguere una galassia debole da una galassia lontana? Come adottare una luminosità per dimostrare una distanza, o una distanza per dimostrare una velocità? Il rischio di mescolare erroneamente insieme oggetti di luminosità intrinseche molto diverse era altissimo "e perfino mortale", come confidò al suo allievo Allan Sandage: come poter dimostrare che le dimensioni angolari delle galassie mutavano progressivamente e in proporzione esattamente inversa all'entità dello spostamento verso il rosso?
Quando le luminosità erano inferiori alle attese rispetto ai redshift misurati le galassie diventavano "nane", quando erano più elevate le galassie diventavano "giganti". Alle grandi distanze poi, doveva determinarsi un drammatico effetto di selezione in cui solo gli oggetti intrinsecamente più luminosi sarebbero emersi dalle lastre, la cosiddetta "distorsione" descritta dallo svedese Gunnar Malmquist (1893-1982). Infine, l'effetto Doppler-Fizeau noto in fisica, non ha alcun rapporto diretto con la distanza. Come avrebbe commentato di lì a poco Fritz Zwicky, "il fudge factor stava diventando una prassi in astronomia". Hubble sapeva. E non si nascondeva. Era questo "l'altro" Hubble, quello che la divulgazione ha sempre sistematicamente oscurato. La sua "relazione lineare" era in fin dei conti fragile o almeno assai poco rappresentativa dal momento che era stata ottenuta in base a 48 spettri di galassie nessuna delle quali si trovava al di là del vicino ammasso della Vergine. Come poté annunciare l'espansione dell'Universo nel 1929 - si è chiesto quarant'anni dopo il premio Nobel Steven Weinberg - con dati così manchevoli? La verità, sorprendente solo per chi non ha letto tutte le sue relazioni, è che Hubble non annunciò mai l'espansione dell'Universo e che sette anni dopo la memorabile scoperta di cui viene accreditato, scriveva sull'Astrophysical Journal del 1936 (84-517): "Se i redshift sono velocity shifts che misurano il ritmo con cui si espande l'Universo, i modelli sono del tutto inconsistenti con le osservazioni … e l'espansione è un'interpretazione forzosa dei risultati sperimentali". Incredibile? Ma vero! Chi ha mai riportato queste considerazioni sui libri di cosmologia?
Quando i divulgatori ritorneranno ad essere rigorosi si dovrà pur ricordare che Hubble parteggiò a lungo per un indebolimento della radiazione luminosa (la "luce stanca" di Born, Findlay Freundlich e Walter Nernst), prendendo in considerazione "l'antichità della luce delle nebulose", costretta a vibrare lungo le distanze cosmiche per milioni o per miliardi di anni. E che fino al termine della sua carriera prese accuratamente e sistematicamente ogni cautela sulle "presunte velocità" delle galassie. Occorrerà una rivoluzione profonda nella comunicazione della scienza per evidenziare tutte le mistificazioni del suo percorso scientifico e del suo famoso "programma". Ecco cosa riesce a dire uno dei più celebrati giornalisti scientifici contemporanei dalle colonne della Rivista "Discovery": "Edwin Hubble aveva compiuto tutto il suo lavoro ignorando Einstein, che in effetti aveva già brillantemente predetto che le galassie erano come uvette in una torta che lievita, e che si allontanavano tra loro in conseguenza della misteriosa esplosione dello spazio e del tempo". Se c'è una Musa anche per i divulgatori, Dennis Overbye dovrebbe riconoscere che gli scambi fra Einstein e Hubble furono invece assai frequenti, che lo stesso Einstein non sopportava l'idea di un Universo in espansione (a rigore non ci si adattò mai) e che l'idea stessa di uno spazio che si dilata ortogonalmente al tempo era così contraria alla sua soluzione della gravità ("le proprietà dello spazio e del tempo sono interamente determinate dalla materia") da fargli temere il tracollo dell'intera Teoria. Einstein rese partecipe Hubble di questi timori che certo pesarono sullo stesso Hubble: e resta un capitolo non scritto tutto l'itinerario accidentato che il padre della Relatività intraprese contro l'idea di una metrica che lievita col tempo. Si scagliò inizialmente sulle soluzioni di Friedman e poi senza mezzi termini contro l'ipotesi dell'uovo cosmico in espansione di Lemaître ("Vos calcus sont corrects, mais votre physique est abominable"); perfino al termine della sua vita, dopo aver ritirato dalla circolazione la costante che consentiva la soluzione statica delle sue equazioni, ribadì che "l'impostazione cosmologica attuale non tiene in alcun conto le più fondamentali alternative" ("On the Cosmological Problem", Einstein, 1945).
E' interessante a questo proposito ricordare come "l'altro" Hubble, sotto le pressioni di Einstein pubblichi nel 1935 assieme a Tolman un lavoro in cui sostiene la necessità di "calare la cosmologia nell'ambito della Relatività", precisando che la scelta fra un modello statico e uno in espansione "è al momento indecidibile". L'articolo (A.J. 82, 302, 1935) precede di un anno quello già citato in cui Hubble prende chiaramente le distanze dalle "presunte" velocità delle nebulose. Nei suoi pellegrinaggi in California Einstein discusse con Hubble le scale di tempo del tutto insufficienti che un'espansione del sistema delle galassie comportava rispetto alle reali età delle stelle (le prime stime di luminosità integrate alle "velocità presunte" fornivano una costante di espansione Ho fra i 600 e i 500 Km/sec per Mpc e un'età dell'Universo non superiore ai due miliardi di anni), ribadendogli che le sue soluzioni originarie implicavano "un raggio dell'Universo indipendente dal tempo". "Senza queste condizioni - scrisse in proposito - ci si addentra inevitabilmente in speculazioni senza fine". "Lottiamo con le ombre", ammise nervosamente Hubble ficcandosi la pipa fra i denti. "Sono i telescopi che fanno la storia del cielo o sono gli uomini che li adoperano?" Questo dilemma attribuito a George Hale è la croce e delizia di tutti gli astronomi veri. C'era un punto sul quale la deferenza e la profonda ammirazione per la genialità di Einstein da parte di Hubble non era disposta a transigere: e questo punto era il primato delle osservazioni. "Potremo inoltrarci nel dominio vago delle congetture teoriche solo quando avremo dato fondo a tutte le risorse empiriche" è infatti il monito con cui concluse il suo celebre "The Realm of the Nebulare" del 1936. Negli anni che seguirono, Hubble moltiplicò gli sforzi per uscire dalle incertezze del quadro osservativo. L'Universo poteva essere statico o in espansione, ma nemmeno un'ombra doveva permanere sulla "relazione lineare che lega il redshift alle magnitudini apparenti". Luce stanca, velocità radiali o altro, l'"effetto Hubble" - così veniva chiamato prima di diventare "legge" - era la più importante scoperta astronomica dai tempi di Galileo. E se "si doveva usare un bel po' di magia per trasformare le distanze in velocità" (la frase è di Zwicky), le magnitudini apparenti si potevano finalmente convertire in magnitudini assolute.
Lo studio sistematico degli ammassi di galassie che condusse assieme all'instancabile Humason gli suggerì di lì a poco il passe-partout per fissare definitivamente le distanze cosmiche. Con il consueto intuito Humason aveva notato che lo splendore assoluto delle galassie più brillanti sembrava dovunque lo stesso negli ammassi più ricchi. Era come se la natura si fosse data un limite di potenza per compiacere agli astronomi: e se era davvero così - pensò Hubble - era arrivato anche il tempo di staccare la mela dall'albero. Sarebbero bastate rilevazioni fotometriche accurate integrate alle misure spettroscopiche per determinare con esattezza la distanza effettiva di qualsiasi ammasso. E con le distanze la finale risposta all'omogeneità dell'Universo, la sua eventuale curvatura, la velocità di espansione e la sua ipotetica decelerazione. Forse la pendenza del suo diagramma dimostrava soltanto che la luce si affaticava e l'Universo era realmente quello della prima cosmologia di Einstein, o forse l'Universo si espandeva come l'uovo di Lemaître e le galassie sprofondavano in un orizzonte che si allontanava alla velocità della luce. Forse c'era una creazione continua (Hubble non nascose le sue simpatie anche per l'emergente Teoria dello stato stazionario) o forse l'inverso della sua costante d'espansione portava dritto al giorno della Creazione. "Siamo sul limite dell'incertezza", dichiarò con compassata eleganza, ma sapeva perfettamente che nel dirlo stava tracciando il solco di tutta la futura ricerca astronomica.
Dopo il 1940, come membro anziano e con la fama all'apogeo, fu coinvolto nel completamento del fantascientifico telescopio Hale di Monte Palomar, dotato di uno specchio di 5 metri di diametro. Vi lavorò solo pochi anni purtroppo, gli ultimi della sua vita, e li spese a osservare ammassi, a migliorare il suo diagramma, a perfezionare lo schema di classificazione delle galassie e a cercare la "curvatura". E naturalmente a istruire e a designare i suoi successori più degni. "Chiunque l'avesse seguito - confessò il prescelto Allan Sandage - sapeva già che avrebbe percorso tutta la carriera nella sua ombra. Ma c'era una montagna di lavoro da fare ed era un lavoro esaltante che chiedeva di essere fatto. Che altro avrei dovuto fare? Sarei stato un folle a sottrarmi alla chiamata…".
Hubble suscitava naturale ammirazione e rispetto, emanava autorevolezza, buona educazione e un fare aristocratico. Era colto, intelligente, corretto, compassato e misurato. Tutti quelli che lo hanno conosciuto parlano di lui come di un uomo del destino, eccentrico ma elegante, grave ed estremamente cauto. Hubble non parlava, "comunicava". Pur essendo del Missouri aveva mantenuto l'accento oxfordiano acquisito durante i suoi studi di diritto. "Ma era terribilmente impettito e troppo solenne - dice una malalingua di Pasadena -, non ti frustava il sangue nelle vene". Nel mondo sublunare dei "si dice" circola anche una storiella attribuita improbabilmente alla sua graziosa e devotissima consorte Grace Burke, risalente al primo attacco di cuore che Hubble subì. Pare che fu quella triste occasione a indurlo a rifiutare una sepoltura tradizionale, che in effetti non è mai stata trovata. Si parla di un'urna di rame, ma non è chiaro se le sue ceneri siano state interrate o disperse sui contrafforti della Sierra Madre che guardano ai grandi telescopi. "Così almeno - avrebbe sospirato Hubble - nessuno orinerà sulla mia tomba". Si era ricordato di essere americano? E' invece storica la dichiarazione che rilasciò a un cronista del Los Angeles Time quando gli fu chiesto se lo Hale di 5 metri, appena inaugurato, gli avrebbe fornito tutte le risposte che cercava. Anche questa volta il grande Hubble non smentì il suo valore di uomo e di astronomo: "Mi piacerebbe, ma non posso conoscere le osservazioni di domani … La storia dell'astronomia - aggiunse citando se stesso - è una storia di orizzonti che si allontanano".

Fonte: www.cartesio-episteme.net/ep8/ep8-h...Powell%20Hubble.
 
Web  Top
view post Posted on 26/2/2024, 15:18     +1   -1
Avatar

Historic Member

Group:
Member
Posts:
3,401
Location:
Leningrado

Status:


Cosmologia - ALTHALIMAIN


Alberto Bolognesi, gennaio 2015



Nella guerra hi-tech fra Chicago e Ginevra, l'ultimissima è che l'Universo è "un rumore olografico", un miraggio a 2D che risuona come cassa armonica di extradimensioni nella trama quantistica dello spazio-tempo. Tranquilli, stipendi e pensioni non sono "pixelati". Sebbene l'ipotesi sia "maledettamente" seria (Fermilab), la maggioranza dei premi Nobel ci rassicura che siamo "sostanzialmente" qui perché ci fu un Big Bang propiziato da una specialissima particella che se non ci fosse bisognerebbe inventarla, e che per caso finì per essere il bosone che non poteva essere lì a caso. Equivoco dono degli Dèi, dunque, o ancor più inverosimile riffa della contingenza, "il robusto scenario" fece esplodere da un punto (che precedentemente non esisteva) il tempo e lo spazio, le stelle e le galassie, lo spazio-tempo di Minkowski e via via i dottori Higgs, Englert e Brout, l'autore di questo articolo e Peppa Pig. Dalla scalmanata Palla di Fuoco che si gonfia più-veloce-della luce al flusso "quieter" di Hubble, dalla "esotica" ed elusiva "dark matter" che nessuno sa cos'è alla ancor più fantasmatica "Energia Oscura", capace perfino di accelerare l'espansione per far tornare i conti, tutto, ma proprio tutto era già iscritto nelle condizioni iniziali, che emergono come palizzate sul ciglio del nulla 13,8 miliardi di anni fa. La domanda è: come è potuto accadere? Come è potuto accadere che una teoria così ridicola si sia impadronita delle Università più famose, dei Centri di Ricerca più avanzati, dei più potenti mezzi di comunicazione e che sia stata fatta passare per una scoperta a 5 sigma in grado di attingere a vertiginose quantità di denaro pubblico? Può sembrare incredibile, ma è esattamente questa bazzecola da cui tutto ebbe inizio che alimenta la raffinatissima caccia alle particelle simmetriche del "fiat lux". Ventisette chilometri di sottosuolo franco svizzero, a partire dal costo base di svariati miliardi di euro scavati all'interno di una superstizione popolare, mentre è già pronto il progetto di un acceleratore di 100 chilometri "per spingerci oltre i limiti della conoscenza" (CERN). "Io tra Dio e il Big Bang" dichiara la neo Direttrice Fabiola Gianotti a un giornale di grande tiratura: "Possono privarci del lavoro, dello stipendio, della casa, ma nessuno può portarci via il nostro cervello" (La Repubblica). Ciò è tanto più sorprendente quando si ha a che fare con un'audience di miliardi di persone che sperimentano sulla propria pelle la crisi di sistema più profonda della storia, e una disoccupazione generalizzata a cui non sembra esservi rimedio. "Quanto pesavano le particelle un bilionesimo di secondo dopo la Creazione? — mi canzona un giovane studente di fisica — Se mi date uno stipendio sono pronto a sostenere qualsiasi teoria".
Per i salotti che contano la soluzione è lo sbarco su Marte. Una danza di supereroi che si danno il cinque fra dune rossastre e al chiarore di due lune, con un sottofondo alla gioia provato in studio fino all'esasperazione. Tutto rigorosamente in differita, data la grande distanza. Ma come si fa a salvare il Mondo e l'"umanesimo del terzo millennio" con i putipù del Big Bang o con rischiosissime passeggiate su un gelido deserto? Molto meglio e senza rischi potrebbero fare le sonde automatiche di nuova generazione, che vedono meglio, che analizzano meglio, che hanno un margine di miglioramento illimitato e che dopotutto sono fatte per essere sostituite con macchine che funzionano meglio. Con la dovuta ammirazione per gli ardimentosi che si stanno allenando duramente nei simulatori o al fondo di qualche piscina in attesa di finanziamenti, il futuro della" conquista dello spazio", anche quello dalle finalità più palesemente mediatiche, appartiene alla tecnologia e agli uomini di vicinanza militare che la progettano. Però non sarebbe la stessa cosa. "Morte su Marte" è certo un titolo da brividi, ma vuoi mettere un'odissea di senzienti duri e puri disposti a barattare il ritorno a casa per il canto delle Sirene a confronto dell'ipotetico crash di un supertecnologico robot, annunciato con professionale distacco nel telegiornale della sera? Non è neanche il caso di scomodare il Mondo 3: questo è precisamente il luogo degli incubi di Orwell e Aldous Huxley, teorizzato dal filosofo della comunicazione Marshall McLuhan. Evidentemente abbiamo ancora bisogno di sacrifici umani, oppure si dovrebbe dire che i danni collaterali sono l'anima del commercio. E allora, o tutto è davvero un insensato ologramma, o la più penetrante conquista dell'umanità che ci distingue e ci eleva rispetto alle altre forme di vita conosciute, dalle scimmie ai cani, ai cavalli, alle piante, ai microrganismi, ai virus è — se non ci scappa da ridere — la consapevolezza che veniamo dal nulla per mezzo di un'esplosione prodotta dal caso. Un po'poco per alzare i calici: Dio è caso, il caso è un'esplosione ed entrambi vengono dal nulla. I fisici delle alte energie possono staccare serenamente la spina ai loro ottovolanti grandi come contee e ai loro magneti alti come palazzi: al di là dell'ultima particella non troveranno che il nulla.
Oppure? Oppure anche al CERN gli scienziati potrebbero sorprenderci, ammettere che la teoria del Big Bang non vale un centesimo e che l'assunzione fondamentale che mantiene "in espansione" l'Universo — che i redshift delle galassie lontane misurino velocità proporzionali a distanze — è il più grossolano epiciclo mai introdotto dall'astrofisica moderna. L'evidenza era disponibile già ai tempi di Christian Doppler quando fu rapidamente chiaro che il suo effetto, riscontrabile anche nelle onde luminose, era puramente cinematico e non aveva alcun rapporto con la distanza. Furono complesse e stringenti motivazioni politico strategiche ma anche religiose e commerciali a sancire verso la fine degli anni Settanta, con una vera e propria "intesa di Aspen", l'interdisciplinarietà fra microfisica e modello standard del Big Bang aprendo a immediate, straordinarie opportunità di sviluppo e di ricerca tecnologica. Ciò ha permesso di programmare la progettazione e la realizzazione di enormi telescopi a terra e nello spazio, satelliti nelle alte energie, apparecchiature sofisticatissime e nuovi acceleratori accreditati di poter rivelare l'origine dell'Universo. Una geniale americanata alla Dan Brown, si potrebbe commentare, sfociata nella ricerca della particella "finale" definita" di Dio" e "recentemente scoperta" secondo il CERN e centri collegati, ma apertamente contestata da un gran numero di Università americane. Ecco qua, nell'opinione di Fred Hoyle e dei coniugi Burbidge, la storia condensata dell'irresistibile ascesa della teoria del Big Bang, costruita quasi sistematicamente su estrapolazioni e simulazioni al computer presentate come scoperte scientifiche, ma contraddette empiricamente nel modo più severo dai cosiddetti "redshift anomali", dalle impossibili" superluminosità dei Quasar", dalle inverosimili" dita di Dio", dalle stravaganti “ accelerazioni simultanee dell'Universo". Un contenzioso terrificante che basterebbe a bollare "il paradigma della Grande Esplosione come l'età delle forze oscure", dove ciò che non si vede e non si può provare serve a provare ciò che si vede e che si può provare. O le diecimila galassie con blueshifts catalogate nel NASA Extragalactic Database sono tutte "errori di algoritmo" o l'Universo non si espande. O sciami di "stelle iperveloci" stanno congedandosi dalla Via Lattea per emigrare nello spazio profondo o i loro spostamenti spettrali non hanno a che vedere con le velocità di fuga. O le innumerevoli discordanze dei redshift extragalattici rilevate da astronomi prestigiosi sono invariabilmente" accidenti di prospettiva" o la legge di Hubble è abrogata nei fatti. O il Quasar "più distante" e più spostato verso il rosso — che deve recedere radialmente a velocità prossima a quella della luce — ci "sferza" con flussi controcorrente di particelle spostate verso il blu (U.F.O.) o l'effetto Doppler non c'entra. O "l'arazzo" di 93 Quasar (aka Huge-LQG e aka CCLQG) individuato fra Hercules e Corona Borealis con redshift medio z 1.3 ha un diametro e una distanza di 10 miliardi di anni luce — e allora l'età dell'Universo è confutata empiricamente — oppure i Quasar sono semplicemente oggetti piccoli, vicini e poco luminosi, associati fisicamente con le galassie di primo piano. O la scienza delle simulazioni continuerà a inventare nuovi posti di lavoro scialacquando il denaro pubblico e dissestando l'economia reale, oppure i “buchi neri supermassicci" non hanno altro scopo che quello di rendere i Quasar così luminosi da poter essere visti alle loro inverosimili distanze di redshift.
 
Web  Top
3 replies since 15/1/2024, 22:54   120 views
  Share