Dissertazioni intorno all’origine della vita

L’adattamento dissipativo e altre cosucce…

Immagine di Shaila Fish per Quanta Magazine

L’adattamento dissipativo

Un fisico teorico americano, Jeremy England, sulla base di analisi statistiche estremamente complesse, ha elaborato una serie di equazioni (una formula, insomma) che descrivono cosa accade ad un gruppo di atomi quando è soggetto ad una fonte di energia esterna e immerso in un ambiente caldo.

Se riportiamo tutto ciò all’ambiente caldo che potevano offrire gli oceani primordiali o la stessa atmosfera terrestre più o meno 4 miliardi di anni fa, e consideriamo il Sole la fonte di energia illimitata necessaria (illimitata almeno dal punto di vista della vita), la formula di England potrebbe descrivere cosa è accaduto durante la cosiddetta abiogenesi, ovvero durante i processi che hanno dato origine alla Vita (con la maiuscola, come spiegato nel mio post precedente).

Ma cosa predice questa formula? Che nelle suddette condizioni gli atomi e le molecole semplici tendono inevitabilmente a strutturarsi in modalità complessa crescente, a formare quindi, autonomamente, molecole via via più complesse aventi inoltre la straordinaria capacità di catturare energia e dissiparla in entropia. In sintesi: lasciate un gruppo di atomi al Sole e in breve tempo potreste avere amminoacidi, lipidi, nucleotidi ed altre molecole fondamentali: i mattoni della Vita.

clip_image004Il processo è ovviamente abbastanza più complesso e tempo fa, in un mio post, avevo trattato brevemente questa sorta di spontaneità nella formazione di composti via via più complessi. In altre parole, sulla Terra, ai primordi, c’era quanto necessario, sia nativo che sicuramente portato dallo spazio esterno a bordo degli asteroidi che impattavano col pianeta.

England ha definito tutto ciò adattamento dissipativo o adattamento guidato dalla dissipazione, ovvero dal processo di dispersione dell’energia nell’ambiente circostante (processo noto anche come dissipamento, o distribuzione). Uno dei tanti aspetti dell’inesorabile ed inevitabile “Secondo principio della termodinamica”.

Questa teoria considera quindi l’origine della vita come un risultato inevitabile della termodinamica.

L’esistenza della vita, quindi, non sarebbe un mistero o un colpo di fortuna, ma deriverebbe piuttosto da principi fisici generali
.

Inevitabile?

clip_image006Una volta che il processo è iniziato, spinto da una sorgente di energia, la materia grezza tende inesorabilmente a organizzarsi e ad acquistare le caratteristiche fisiche associate con la Vita. Quello che spinge gli atomi in questa corsa è una tendenza intrinseca della materia, in talune circostanze, (ampia disponibilità di energia e ambiente caldo), a organizzarsi per consumare sempre più energia per dissiparla in entropia. Per far questo, gli atomi devono dar luogo a strutture sempre più complesse, quelle che sono alla base della Vita. La conseguenza è che il processo diventa sempre più efficiente e più veloce, come se si sostenesse e si autoalimentasse. In altre parole, al verificarsi di certe condizioni, si manifesta una caratteristica intrinseca della materia, cioè quella di evolvere in forme molecolari di Vita. Ovviamente non stiamo ancora parlando di organismi ma delle molecole alla base della Vita, cioè del processo di abiogenesi. Il processo formazione di molecole utili, innanzi tutto autoreplicanti, non sarebbe quindi puramente casuale, bensì guidato da una forza che accelera di continuo.

Una delle implicazioni di questa teoria è che verrebbe risolto anche un altro problema, quello del tempo a disposizione affinché tutto questo possa essersi verificato, in un lasso di tempo complessivamente piuttosto breve, rispetto all’età della Terra.

Se gli anni vi sembrano pochi…

clip_image008Abbiamo visto nel post precedente, che in poche (in termini geologici) centinaia di milioni di anni, in un periodo compreso tra i 4, o poco più, e i 3,5 miliardi di anni fa, si è passati dalla non-Vita alla Vita. E’ un tempo sufficientemente lungo a consentire tutto ciò? Qualcuno dice di no. Quello del tempo insufficiente è sempre stato uno dei crucci maggiori anche agli albori dell’evoluzionismo: lo stesso Darwin sapeva che, per spiegare l’estrema variabilità della Vita, la Terra avrebbe dovuto essere estremamente più vecchia di quel che si reputava allora.

Non molto tempo fa, una delle figure più autorevoli della moderna biologia, Lynn Margulis, si è cimentata in una serie di calcoli. Scriveva:

«Se c'è stata qualche forma di processo pre-cellulare, esso deve essere originato dall'assemblaggio casuale di aminoacidi o nucleotidi. Tra tutti questi eventi casuali, uno in maniera fortunosa deve aver portato alla formazione di un gene o di una proteina con qualche forma di vantaggio rispetto alle altre forme casuali. Quanto tempo ci sarebbe voluto? Facendo un po’ di utili assunzioni, una proteina (o gene) simile si sarebbe formata una volta ogni 10500 volte che si formava una proteina casuale. Cioè ci sarebbero voluti 10500 tentativi per formare una proteina/gene “utile”.»


A conti fatti, che qui omettiamo, il tempo necessario affinché ciò sarebbe potuto accadere è di circa 10450 anni.

Un numero inimmaginabile. L’Universo ha 1,4x1010 anni, stando alla teoria cosmologica oggi più accreditata ovvero, un ordine di grandezza di 10440 volte maggiore dell’età stessa dell’Universo per avere un qualsiasi primo gene (o proteina) utile.

“1” seguito da 440 zeri: pressoché impossibile.

Anche ipotizzando che abbiano ragione coloro i quali sostengono che la Vita sulla Terra abbia origine extraterrestre (panspermia, che è una teoria tutt’altro che frutto di una qualche pseudo-scienza) il problema del tempo non viene risolto, ma solo spostato dalla Terra allo spazio, dove ci sarebbe voluto esattamente lo stesso tempo. E anche se nello spazio avrebbero potuto esserci condizioni chimiche e fisiche tali da accorciare il tempo necessario, sempre in base al calcolo originario, una riduzione di un fattore 10440 appare decisamente difficile da immaginare, lo stesso dicasi ipotizzando che il calcolo sia corretto ma che non lo siano le assunzioni fatte e i parametri usati per effettuarlo: uno scenario plausibile che possa accorciare il tempo di 10440 è altrettanto inimmaginabile.

Lasciamo da parte le speculazioni, anche se scientificamente supportate in teoria, di multiversi, cicli infiniti di nascita, morte, rinascita di infiniti universi. Adottare l’infinito (qui un vecchio mio post) metterebbe a disposizione altrettante possibilità e quel fattore impossibile diverrebbe forse possibile, ma paradossale. Una singolarità che i fisici non amano.

Eppur ci siamo!

clip_image010«Il nostro numero è uscito alla roulette: perché dunque non dovremmo avvertire l’eccezionalità della nostra condizione, proprio allo stesso modo di colui che ha appena vinto un miliardo?» (Jacques Monod).

Poi c’è tutta la faccenda del cosiddetto principio antropico. Siamo qui e stiamo qui a parlarne, evidentemente l’evento così inimmaginabile è accaduto. Nulla esclude che la remotissima probabilità pari a una volta su 10500 possa essersi verificata nei primi tentativi, addirittura al primo! I più rigidi obietteranno che sarebbe un evento quasi impossibile ma la risposta è inconfutabile: se stiamo qui a parlarne è proprio perché l’impossibile è accaduto, altrimenti non saremmo qui. Attenzione però. Il disagio che si prova con una spiegazione del genere è normale: in realtà la cosa non spiega nulla, ribadisce soltanto, in forma diversa, quel che vorrebbe spiegare: la chiamano tautologia. A questo punto tanto varrebbe chiamare in causa una qualche forma di intervento divino.

Francis Crick, molto più razionalmente, scrisse nel suo libro “L’origine della vita”:

«Un uomo onesto, munito di tutte le conoscenze attuali, può solo affermare che […] l’origine della vita appare quasi un miracolo […]. Ma questa considerazione non è una ragione valida per credere che la vita non ha avuto origine sulla Terra, utilizzando una sequenza coerente di comuni reazioni chimiche.
Il tempo a disposizione è stato troppo lungo, i vari microambienti presenti sulla superficie della Terra troppo diversi, le possibilità chimiche troppo numerose, la nostra conoscenza e la nostra immaginazione troppo labili per permettere di decifrare esattamente come l’origine della vita ha potuto, o non ha potuto, aver luogo tanto tempo fa, in particolare perché non abbiamo dati sperimentali di quel periodo per verificare le nostre idee.»

Chiudiamo il cerchio

A quanto pare la teoria di England fornisce la spiegazione cercata, qualcosa di plausibile che spieghi che le cose non sono state guidate unicamente dal caso. Un qualcosa che ci permetta di pensare che il calcolo della Margulis non si applica all’abiogenesi perché questa non è determinata in maniera puramente casuale. Senza introdurre entità più o meno metafisiche, perché nella scienza ciò non è ammissibile e dobbiamo invece trovare leggi, regole e logiche compatibili con le leggi dell’Universo per fornire delle ipotesi.

Ogni tanto spunta fuori qualcuno che afferma che gli esseri viventi violano il “Secondo principio della termodinamica”: semplificando, e con riferimento alla riproduzione sessuata, dalla fusione di un paio di cellule, maschile e femminile, organizzazione e complessità vanno via via aumentando per tutto il corso della vita: ma un organismo vivente non è un sistema chiuso, c’è all’origine del suo apparente violare le leggi dell’entropia, la fruizione continua di energia. Un sistema semplice formato da una pianta, dal Sole e dall’Universo tutto ne è la prova: è grazie al fluire continuo dell’energia radiante dal Sole che la pianta sintetizza quanto occorre per crescere e sostenersi, e se al posto della pianta inseriamo la Vita tutta avremo che gli animali erbivori mangiando le piante avranno tutto ciò che serve loro per costruirsi; i carnivori mangeranno gli erbivori e ne estrarranno energia e materia loro necessaria per costruirsi. Se il sistema Vita mantiene sempre alta la propria energia e quindi bassa la propria entropia è perché la fonte primaria di energia è il Sole, una fonte pressoché inesauribile dal punto di vista della Vita.

Quella tra Vita e termodinamica è quindi una contraddizione apparente.

Inoltre tutte le specie viventi dissipano calore, cioè energia, e altre forme di materiali disordinati, in un processo la cui efficienza non può ovviamente essere del 100 percento, fino al termine del proprio ciclo vitale, laddove con la morte ogni organismo si decompone e restituisce al disordine tutto l’ordine costruito in precedenza.

La Vita è un’isola privilegiata dove è concesso, temporaneamente, un accumulo di energia. Ma alla fine vince l’entropia.

Possiamo dunque definire le caratteristiche fondamentali che definiscono la Vita.

1. Capacità di catturare e immagazzinare energia dall’ambiente.
2. Capacità di disperderla, ovvero dissiparla, nell’ambiente sotto forma di calore.

Se England ha messo nero su bianco che, con le debite condizioni, atomi e molecole riescono a formare molecole che sono sempre più vive è palese che se c’è qualcosa che sa fare le due cose suddette molto meglio di un comune ammasso di atomi sono proprio le forme di Vita, indipendentemente dalla loro complessità.

Ma c’è ancora tantissimo da fare. La teoria di England, ancorché teoricamente esatta, al momento è solo una serie di equazioni, di dimostrazioni matematiche effettuate in sistemi matematici modello. Grandi attenzioni e altrettante critiche corredano le necessarie evidenze sperimentali anche se qualcosa inizia a muoversi. Inoltre l’adattamento dissipativo descrive cosa accade ma non lo spiega: non è noto da cosa dipenda questa tendenza intrinseca della materia ad auto-organizzarsi.

Dopo tutto, occuparsi spesso del come piuttosto che del perché delle cose è compito preciso della scienza e del suo metodo. Non è un limite. Ci sono oggetti fisici conosciutissimi su cui, a tutt’oggi, le idee sono tutt’altro che chiare. Mettereste in discussione la gravità? L’energia? Il tempo? Eppure anche essendo in grado di misurarle, sapere cosa fanno, conoscerne le proprietà, dire esattamente cosa siano, nessuno ancora lo sa.

L’uovo e la gallina

clip_image012In questo paragrafo farò uso di nomi e sigle che meriterebbero ognuna pagine di approfondimento: ma quel che ci interessa è il quadro complessivo, lasciando quindi a voi la voglia e la volontà di approfondire o di ripassare il manuale di biologia delle superiori. Qualcuno ha detto che «la gallina è solo un mezzo con cui un uovo fa un altro uovo» e qui stiamo parlando di livelli di complessità inimmaginabili rispetto a quelli che vengono comunemente definiti come “mattoni” della Vita: essenzialmente nucleotidi, geni/proteine, metalli catalizzanti, lipidi, in un ammasso informe di molecole in continua trasformazione e polimerizzazione e laddove, alcuni, divennero auto-replicanti e auto-sostenenti.

Ma anche per la Vita più semplice che conosciamo, come un batterio con qualche centinaio di geni appena (e ne esistono), occorrono sistemi autoreplicativi che contengono l’informazione (acidi nucleici, DNA e RNA), un metabolismo capace di produrre molecole ed energia (tutto basato su enzimi, ovvero su proteine) e, infine, membrane, formate da lipidi, per separare la cellula dal resto del mondo, proteggendone il contenuto ma al tempo stesso in grado di selezionare cose che possono entrare da cose che devono uscire.

E serve tutto insieme. In una ipersemplificazione, si veda anche il diagramma precedente, il DNA, per mezzo dell’RNA, assembla le proteine a garantire le funzioni cellulari, ma il tutto è sottoposto al metabolismo energetico e alle funzioni di replicazione, traduzione e trascrizione effettuate da proteine specifiche, enzimi compresi. Insomma se fosse nato prima l’uovo, l’RNA (la famosa teoria del RNA World, ne scrissi qui), un candidato ideale dato la sua versatilità e flessibilità, come avrebbe questi potuto generare codice utile ad assemblare proteine…senza le proteine necessarie? E se fossero nati prima gli amminoacidi a formare proteine, cosa avrebbe potuto codificarle correttamente senza gli acidi nucleici?

In laboratorio, o come amano dire i biologi in vitro, si è riusciti a simulare e creare le condizioni prebiotiche necessarie a produrre tutti i componenti, ma un gruppo alla volta. Ovvero, in tutte le sintesi prebiotiche, ottenute in laboratorio, le condizioni sono talmente diverse tra loro da essere reciprocamente incompatibili. Se si fanno amminoacidi non c’è verso in quelle condizioni che si facciano nucleotidi o lipidi, e così via.

Le condizioni per fare tutto insieme per moltissimo tempo non sono mai state ottenute e questo ha spinto a pensare che, nel mondo reale, uno dei sistemi dovesse essersi sviluppato per primo, a seguire gli altri, in una sorta di gerarchia necessaria.

- L’evoluzione necessita di autoreplicatori che contengano l’informazione per la Vita, quindi la replicazione deve essere emersa per prima (replication first).
- La cosa non si può fare senza metabolismo ed energia, quindi il metabolismo deve essere venuto per primo (metabolism first).
- E come fai una cellula senza separarla dal resto? I lipidi devono essere venuti per primi (lipid first).

E come avrebbe fatto un sistema ad inventare gli altri? Se le condizioni nelle quali si sviluppa il primo evento, uno qualsiasi tra quelli elencati, sono incompatibili con lo sviluppo del secondo, come si fa ad arrivare ad avere tutte le componenti necessarie?

Tutti primi, nessun primo. Non ha senso porsi la domanda paradossale, se sia nato prima l’uovo o la gallina, perché alla fine, o meglio all’inizio, uovo e gallina sono la stessa cosa.

Out of the blue

Fortunatamente è arrivato un altro pilastro della moderna biologia: John Sutherland. Abbandonando l’assunto che occorrono condizioni diverse per generare i diversi componenti, e non accontentandosi di accettare l’idea che le sintesi prebiotiche dei vari mattoni siano incompatibili tra loro è riuscito a creare le condizioni per farli tutti insieme, o almeno per farne un buon numero. Partendo da due soli elementi, probabilmente disponibili sulla terra prebiotica (essenzialmente acido cianidrico e acido solfidrico, HCN e H2S), associati a quanto già presente, e utilizzando raggi UV come unica sorgente di energia, lo scienziato ha dimostrato l'esistenza di una serie complessa di reazioni che possono portare alla sintesi di aminoacidi (12 dei 20 esistenti in natura), nucleotidi (2 su 4) e una molecola precursore dei lipidi. Tutti allo stesso tempo e dallo stesso ambiente! Ha inoltre dimostrato che il processo può essere accelerato in presenza di rame, stante il ben conosciuto ruolo di catalizzatore che possono avere i metalli, ruolo sicuramente presente quando le proteine enzimatiche non erano ancora sviluppate: enzimi che oggi spesso contengono al loro interno atomi di vari metalli.

I lavori di Sutherland descrivono uno scenario nuovo, impensato fino a poco tempo fa. Un pianeta reduce da una catastrofe cosmica, l’ultimo grande bombardamento meteoritico subito, ribollente di pozze acide, con un’atmosfera rarefatta e tossica e bersagliato da letali radiazioni UV: ma tutto è pronto per dar luogo alla sintesi simultanea di tutte le molecole della Vita. E, come la chimica dimostra, il fatto che tutto sia pronto significa semplicemente che avviene.

L’acido cianidrico, una delle componenti fondamentali, in tedesco è noto come “acido blu”. Ecco perché Sutherland ha denominato il suo modello Out of the blue, giocando con la traduzione letterale “che viene fuori dal blu” e col reale significato “che accade inaspettatamente”.

Riassunto delle puntate precedenti, giusto qualche centinaio di milioni di anni

clip_image014Il 1° febbraio 1871, Charles Darwin scrisse al suo amico e corrispondente Joseph Hooker, discutendo la sua ipotesi sull’origine della vita:

«Ma se (e che grande se) potessimo concepire in un piccolo stagno caldo con tutti i tipi di sali di ammonio e fosforo, – luce, calore, elettricità, ecc. – presenti, che un composto proteico fosse chimicamente formato, pronto per subire trasformazioni ancora più complesse, oggi tale materia verrebbe istantaneamente divorata, o assorbita, cosa che non sarebbe avvenuta prima che si formassero gli esseri viventi.” (Charles Darwin)

L’intuizione fenomenale del grande scienziato ricorda quel che molti avranno certamente sentito nominare: il cosiddetto brodo primordiale, che dovette essere però qualcosa di ben più complesso del miscuglio usato da Miller e Urey nel loro famoso esperimento, nel quale galleggiavano poche molecole elementari in attesa di qualche scarica elettrica. Era più probabilmente un minestrone nel quale avvenivano reazioni chimiche, catalizzate da metalli e sostenute da energia disponibile in abbondanza.

clip_image016Nel corso di queste reazioni prendevano forma i mattoni della Vita, e forse si formavano contemporaneamente senza che un sistema dovesse necessariamente precederne un altro. L’assemblaggio di alcuni di queste mattoni (i nucleotidi) potrebbe aver portato alla formazione delle prime molecole in grado di replicarsi. Ma oltre a queste emergevano circuiti proto-metabolici, anch’essi capaci di autosostenersi e forse anche di autoreplicarsi. E piccole proteine (i peptidi) che potrebbero aver contribuito all’autoreplicazione delle prime forme di RNA che a loro volta fornivano supporto a queste. Il tutto in una sorta di co-evoluzione.

Man mano che le reazioni procedevano diventavano sempre più complesse, al punto di dare il via alla produzione su scala planetaria. La svolta avvenne quando alcuni RNA acquisirono la possibilità di controllare e direzionare la sintesi delle proteine. L’equilibrio di mutua assistenza si ruppe e si stabilirono le prime gerarchie di sintesi, in cui l’RNA prese il controllo delle proteine così come stabilito dal famoso dogma centrale della biologia molecolare. A questo punto le condizioni per avere il mondo a RNA erano disponibili: a partire da questo, la Vita.

clip_image018Un’interessante alternativa, o forse un percorso in parallelo, ad uno sviluppo sulla superfice della Terra esposta agli agenti atmosferici, è data dalle ricerche condotte intorno agli ambienti dei cosiddetti camini idrotermali, sia quelli delle profondità oceaniche che quelli più superficiali. Questi potrebbero aver fornito le condizioni necessarie affinché i mattoni fondamentali potessero essere prodotti e successivamente organizzati in livelli di complessità crescenti, fino ai primi organismi unicellulari appena abbozzati: niente più che una membrana lipidica che racchiude un genoma primitivo, costituito da DNA, qualche proteina e l’immancabile RNA. Probabilmente una rete di organismi che si scambiavano pezzi di codice genetico per mezzo del “Trasferimento genico orizzontale” (vedi qui), a formare un insieme di LUCA, Last Universal Common Ancestor, di cui abbiamo scritto nel mio post precedente: un ammasso confuso di organismi indistinguibili che si sono poi evoluti seguendo modelli interdipendenti.

clip_image020

E’ successo davvero?

Per ora sono ipotesi avvincenti e anche se suffragate da alcune evidenze sperimentali non sappiamo ancora se tutto ciò sia avvenuto davvero. Molte delle scoperte sembrano portare in questa direzione e, ribadiamolo, non ci sono mai stati un uovo e una gallina. L’uovo e la gallina sono la stessa cosa. Se c’è stata una sorta di discontinuità nel passaggio tra Vita e non-Vita è questa una comodità arbitraria. In realtà sembra proprio che ancora una volta natura non facit saltus, e in una progressione graduale con passaggi appena distinguibili l’uno dall’altro, la materia sia andata continuamente trasformandosi.

clip_image022La ricerca del primo vivente, antecedente a LUCA, continua, inarrestabile, soprattutto grazie al lavoro del team di Jack Szostak che spera di ottenere in laboratorio un giorno la prima cellula autoreplicante con genoma costituito da RNA: sarebbe la specie più primitiva di ogni altro essere vivente sulla Terra, una scoperta monumentale. Per molti il problema dell’origine della Vita sarà in gran parte risolto.

Ma, citando Enrico Fermi, «è questo il modo in cui potrebbe essere avvenuto, o è davvero successo così?».

Carl Sagan ricordava quanto accadde durante un dibattito pubblico nel 1960. Qualcuno chiese agli scienziati quando avrebbero risolto il problema dell’origine della Vita, riproducendo il processo in provetta. Uno degli oratori rispose che ci sarebbero voluti almeno altri 1000 anni. Il secondo 300. Il numero continuò a scendere finché uno degli scienziati affermò che era già stato fatto.

A seconda del punto di vista la risposta a come potrebbe essersi formata la Vita è sempre stata dietro l’angolo oppure talmente complessa non poter mai essere davvero trovata.

Ma la scienza non smetterà mai di cercare una risposta e anche se tuttora ignota, ancora una volta la scienza ci ha raccontato qualcosa sulla sua stessa natura e anche su quella di noi stessi.

«La Natura, spiegata in tutta la sua estensione, ci presenta un quadro immenso, in cui tutti gli ordini degli esseri sono rappresentati da una catena, che regge un seguito continuo d’oggetti vicini, e simili sufficientemente, perché le loro differenze sieno difficili da comprendere.» (Georges-Louis Leclerc, conte di Buffon, 1770).

Riferimenti bibliografici.

Breve storia della creazione. Bill Mesler e James Cleaves II. Bollati Boringhieri. 2016.
La vita inevitabile. Pier Paolo Di Fiore. Codice. 2022
I motori della vita. Paul Falkowski. Bollati Boringhieri. 2015

Omne vivum ex vivo...et omnia ex LUCA

Dopo moltissimo tempo dal mio ultimo post in tema, torno alla biologia: mia grande passione.

Omne vivum ex vivo sembra abbia detto Pasteur mettendo la parola fine alla controversa storia della teoria della “generazione spontanea”. E anche se l’affermazione pare sia apocrifa resta il concetto chiave: ogni essere vivente proviene da un altro essere vivente. Se volete approfondire tutta la faccenda, qui potete trovare un articolo ben fatto che ripercorre la storia delle idee e delle ricerche, con i vari esperimenti ben descritti ed illustrati. La cosa curiosa è che sembra che parecchio tempo prima di illustri pensatori come Aristotele o Copernico, persino Leonardo, ci sia stato qualcuno che, pur cieco come vorrebbe la tradizione, ci aveva visto giusto!

«Ma timor mi grava che nelle piaghe di Patroclo
intanto vile insetto non entri,
che di vermi generator la salma (ahi! senza vita!)
ne guasti sì che tutta imputridisca»
(Omero, Iliade, XIX)

Uno schema di ramificazione. Al centro l’origine comune

Circa tre miliardi e mezzo di anni il primo qualcosa definibile come vivente ha fatto la sua comparsa sul nostro pianeta, questo è quel che sappiamo. Da quel momento l'evoluzione ha iniziato a fare il suo lavoro, dando vita ai 2,3 milioni di specie conosciute e catalogate ad oggi dalla scienza (2,3 milioni su un totale di specie viventi e vissute inimmaginabile, come vedremo): animali, piante, funghi e batteri, imparentati e interconnessi tra loro, che oggi sono stati organizzati in un enorme e completo “albero della vita” o, più tecnicamente, un albero filogenetico.

Tempo fa in un mio post si raccontava di come la Vita, (con la V maiuscola, ad indicare il processo globale che ha portato dalla non-Vita ad ogni singola vita che ci circonda) sembra quasi essere ineluttabile e pressoché inevitabile conseguenza della presenza di molecole disseminate ovunque nell’Universo e trasportate a spasso dalla polvere interstellare e dai meteoriti; e anche allora si cercò di definire la Vita.

Una definizione di vita cui spesso si fa riferimento è quella fornita dalla NASA: la vita è un sistema chimico che si autosostiene ed è soggetto a evoluzione darwiniana. Questa definizione non incontra grosse obiezioni ma è in errore: la vita non si autosostiene, per farlo assorbe ed elabora energia dall’esterno e lo fa non come sistema bensì come processo e un processo non può evolvere perché, formalmente, è esso stesso qualcosa che evolve. Un’analisi formale di oltre 100 definizioni di vita ha portato a questa meta-definizione: la vita è autoriproduzione con variazioni che, pur priva di valore assoluto valore assoluto indica cosa la scienza ritenga essere la materia vivente. Vale non solo per quanto è terrestre ma applicabile ad ogni forma di vita che l’immaginazione possa concepire: vita extraterrestre, forme di chimica alternativa, modelli di computer, forme astratte. E la sua unica base comune è questa: è vita tutto ciò che copia se stesso e cambia. Ma una definizione che sia completa non può aversi se non si tiene conto che il processo dell’insieme delle reazioni chimiche coordinate, selezionate nel tempo e integrate con reazioni preesistenti pone la vita nel dominio dei processi caratterizzati da proprietà emergenti, che non erano presenti prima che il sistema raggiungesse un dato livello di complessità. La vita è dunque complessità auto-generata basata su informazione che riproduce se stessa.

clip_image004[7]

clip_image006[7]Ma torniamo al tema dell’albero della Vita. Il primo che ne intuì l’esistenza e che ne abbozzò uno schema sul suo taccuino fu Charles Darwin, che ve lo dico a fare. E man mano che i dati sono andati accumulandosi con la ricerca questo ha assunto forme sempre più ramificate e complesse fino a poter essere rappresentato sia con che senza radici, come nella figura qui sopra.

Il punto cruciale di questa rappresentazione è che, se accettiamo che omne vivum ex vivo, la rappresentazione della vita come un albero ci porta inevitabilmente a postulare l’esistenza di un antenato comune a tutte le forme di Vita oggi esistenti. E questo organismo primordiale, alla base dell’albero della Vita lo hanno simpaticamente chiamato LUCA (Last Universal Common Ancestor). Il bisticcio è solo apparente. Per come si guarda al tempo passato dovrebbe essere il primo degli antenati, ma la scelta di last non dipende dal fatto che fuca (con la f di first) suona decisamente male, ma perché LUCA non è il primo assoluto, ma è effettivamente l’unico iniziale a cui si può risalire, il primo (…) della sequenza vissuto tra i 3,5 e i 4 e qualcosa miliardi di anni fa, ripercorrendo a ritroso l’albero della Vita. Prima di LUCA potrebbe esser benissimo essere esistita una Vita, anche diversamente variegata, della quale non restano tracce perché spazzate via dall’ultimo bombardamento da parte di grandi meteoriti (davvero enormi, con diametri tra 100 e 1000 km) avvenuto più o meno 4 miliardi di anni fa o, chissà, magari dante origine ad un ramoscello che ha portato a LUCA. Ma il punto è un altro.

L’idea alla base di tutto ciò è chiara. C’è stato in passato ovviamente chi la pensava diversamente, come quelli che affermavano che le specie che vediamo sono sempre esistite e state così come sono (li chiamavano fissisti), o quelli che postulavano che ogni ramo principale avesse un suo particolare antenato comune. Ma entrambe queste ipotesi sono state da tempo ampiamente confutate.

Ovviamente LUCA non ha lasciato fossili e la sua esistenza è stata inferita dallo stato attuale delle forme viventi oggi esistenti sulla Terra; fu certamente una forma di Vita ma sulla quale possiamo soltanto fare delle congetture, sulla base dei fatti disponibili.

image

Uno schema di ramificazione. Alla base l’origine comune

Semplificando con un colpo di scure è stato calcolato che tra LUCA e il presente, noi compresi, si siano evolute qualcosa come 5 miliardi di diverse specie. 5 miliardi! Per aumentare il capogiro si pensi che oggi sono state catalogate appena poco più di 2 milioni di specie ed è un mistero che probabilmente resterà irrisolto, considerando che se ne perdono continuamente, sapere quante specie esistano. Si stima che solo per il dominio degli Eucarioti (organismi formati da cellule con nucleo, protozoi, funghi, piante, animali…) ci siano circa da 10 a 30 milioni di specie; ovvero, ci è ignoto almeno il 90 percento delle specie di questo Dominio. Gli altri due sono ancora più complicati da analizzare anche solo con simulazioni matematiche; si stima esistano qualcosa come 1000 miliardi di specie di batteri! 

E da tutto ciò, come non bastasse, escludiamo i virus, il cui stato di "vivente" è tuttora oggetto di controversie e di cui se ne conoscono circa 5.000 specie stimando ne esistano milioni a formare un gruppo a sé stante che qualcuno ha definito virosfera.

Ma l’aspetto fondamentale che ben conosciamo è che di tutte le specie viventi esistite sulla Terra se ne sono estinte più del 99 percento!

clip_image010[7]Adesso proviamo a pensare al risultato dell’evoluzione delle specie come ad una sfera formata da più strati, una sorta di cipolla, con LUCA al centro, e strato dopo strato arriviamo all’ultimo, sottilissimo, dove ci siamo noi e tutte le specie oggi viventi a noi contemporanee. E se in questa sfera tracciamo una linea, come quelle rosse della figura seguente, che va da noi a LUCA, il raggio della figura geometrica, quello che rappresentiamo su quel segmento è il tempo trascorso. Ma in quanto raggio della sfera la lunghezza è la stessa (nella figura ovviamente l’effetto prospettico rende le linee disuguali) anche per la quercia o per la zanzara che vi ho rappresentato, o per qualsiasi altro vivente, microbi compresi!

L’unico metro in evoluzione è il tempo, il tempo profondo, profondissimo, che ci porta fino a quei circa 3,5 miliardi di anni fa, e questa constatazione evidente, ha una prima fondamentale conseguenza: tutte le specie oggi presenti sulla Terra, incluso Homo sapiens, sono ugualmente evolute! Ogni popolazione umana è ugualmente evoluta, tanto quanto la zanzara che ci infastidisce nelle notti estive, tanto quanto l’albero che ci offre riparo e frescura, o il batterio che altera il nostro metabolismo o che ci aiuta a digerire. Attenzione ai limiti del linguaggio: evoluto non sta a significare più complesso.

Non voglio complicare ulteriormente la faccenda facendo il riassunto di tutte le evidenze che nel corso dei decenni, dei secoli direi, di ricerca, sono andate accumulandosi a comprovare ed accettare LUCA come radice comune dell’albero della Vita ma qualcosa va detto. Ecco le principali evidenze.

Molecolari. Tutta la Vita usa componenti e meccanismi chimici simili se non identici, con somiglianze sorprendenti tra specie del tutto diverse. Il famoso dogma centrale della biologia vale per tutti i viventi, e la straordinaria unitarietà del macchinario molecolare testimonia un’origine comune. Qualora fosse scoperta, non mi sorprenderebbe affatto sapere che c’è DNA in una specie aliena: «Ha il DNA!» gridò entusiasta il ricercatore che stava analizzando il povero ET nel simpatico film di Spielberg.

Paleontologiche. Per quanto raro il processo di fossilizzazione i fossili forniscono da sempre le prove di un’origine comune, a chi ha saputo vedercele senza ritenerli bizzarre testimonianze del diluvio universale o scherzi della natura. Prove provenienti dalla comparazione e dall’analisi della comparsa o della scomparsa di certe caratteristiche, strato geologico dopo strato geologico, come un libro che racconta la storia della Terra, e in epoche recenti, le datazioni geochimiche o addirittura, soprattutto in paleoantropologia, l’analisi del DNA.

Anatomiche ed embriologiche. Un solo esempio: i cosiddetti organi vestigiali. La presenza di strutture rudimentali e non funzionali, o con funzionalità ridotte rispetto all’originale, e che invece erano sviluppate nelle specie precedenti. Il nostro coccige è quanto resta della coda presente nelle specie che ci hanno preceduto, i denti del giudizio o l’appendice ne sono esempi. L’embriologia offre inoltre prove a volte spettacolari se si confronta lo sviluppo embrionale di specie anche lontanissime tra loro o quello di specie imparentate.

Biogeografia, selezione artificiale, esperimenti, studi di speciazione e modelli matematici. Impossibile elencare o anche solo riassumere tutti gli studi condotti in diverse discipline, spesso l’una a confermare l’altra, che hanno fornito prove a sostegno e rafforzamento dell’idea della discendenza comune.

Genetica e genomica. Ma queste due discipline, di nascita relativamente recente, sono quelle che hanno maggiormente contribuito, oltre ogni ragionevole dubbio giacché la parola certezza non fa parte del linguaggio scientifico, a confermare la radice comune. Le tecniche di sequenziamento del materiale genetico, giunte ormai a poter essere eseguite in un solo giorno e con minima spesa per un intero genoma, hanno contribuito, oltre a permettere enormi progressi in medicina, a dimostrare che specie simili possiedono genomi simili, e che quanto più indietro nel tempo si va tanto maggiori sono le differenze: Homo sapiens condivide con gli scimpanzè il 95 percento del genoma, con i gatti il 90, l’85 con i topi, con i polli il 65, con le api il 45 e con i batteri del lievito di birra il 25! E non solo: la genomica ha scoperto come calcolare il tempo in base al numero delle mutazioni che come il ticchettare di un orologio (anche se oggi gli orologi non ticchettano più…) si susseguono durante le replicazioni. E i risultati cronologici che distanziano le ascendenze che derivano dalle informazioni molecolari coincidono con quelle stratigrafiche o paleontologiche.

E infine, quale maggior prova di discendenza comune, che quella che viene dalla composizione e dall’utilizzo che viene fatto, in qualsiasi specie vivente, delle quattro basi azotate della struttura degli acidi nucleici? E il fatto che tutti gli organismi sono tutti fatti di cellule? Non è forse questa una delle prove più importanti della profonda connessione evolutiva che unisce tutti gli organismi sulla Terra?

Lo stesso dappertutto e in ogni tempo.

E’ dunque LUCA il primo vivum? No. Se omne vivum ex vivo allora prima di LUCA deve esserci stata Vita. Ma LUCA è un ottimo inizio, in tutti i sensi, anche sperimentali. Ma questa è un’altra storia, perché andando a ritroso nel tempo la discontinuità tra vivo e non vivo si perde in miriadi di passaggi che sembrano proprio voler dire che il processo fu continuo e...inevitabile!

Tutti ugualmente evoluti è la storia che ci interessa. Una lezione di umiltà che deve darci la consapevolezza dell’unicità e della preziosità della Vita e che deve ancora una volta farci riflettere sulla nostra responsabilità.

Jacques Monod, nel 1970, nel suo famosissimo saggio “Il caso e la necessità”, scrive la sintesi perfetta di quanto meravigliosa possa essere la consapevolezza di questa responsabilità.

«La probabilità a priori che, fra tutti gli avvenimenti possibili dell’universo, se ne verifichi uno in particolare è quasi nulla. Eppure l’universo esiste; bisogna dunque che si producano in esso certi eventi la cui probabilità (prima dell’evento) era minima. Al momento attuale non abbiamo alcun diritto di affermare, né di negare, che la vita sia apparsa una sola volta sulla Terra e che, di conseguenza, prima che essa comparisse le sue possibilità di esistenza erano pressoché nulle.

Quest’idea non solo non piace ai biologi in quanto uomini di scienza, ma urta anche contro la nostra tendenza a credere che ogni cosa reale nell’universo sia sempre stata necessaria, e da sempre. Dobbiamo tenerci sempre in guardia da questo senso così forte del destino. La scienza moderna ignora ogni immanenza. Il destino viene scritto nel momento in cui si compie e non prima. Il nostro non lo era prima della comparsa della specie umana, la sola specie dell’universo capace di realizzare un sistema logico di combinazione simbolica. Altro avvenimento unico che dovrebbe, proprio per questo, trattenerci da ogni forma di antropocentrismo. Se esso è stato veramente unico, come forse lo è stata la comparsa della vita stessa, ciò dipende dal fatto che prima di manifestarsi, le sue possibilità erano quasi nulle. L’universo non stava per partorire la vita, né la biosfera l’uomo. Il nostro numero è uscito alla roulette: perché dunque non dovremmo avvertire l’eccezionalità della nostra condizione, proprio allo stesso modo di colui che ha appena vinto un miliardo?»

E ancora:

«L'antica alleanza è infranta; l'uomo finalmente sa di essere solo nell'immensità indifferente dell'Universo da cui è emerso per caso. Il suo dovere, come il suo destino, non è scritto in nessun luogo. A lui la scelta tra il Regno e le tenebre.»

clip_image012[7]

Immagine realizzata dall’autore del post

Nota

clip_image013[7]A scanso equivoci, voglio richiamare qui lo stesso mio post citato in apertura. Quando si parla di evoluzione come discendenza con modificazioni (altra cosa evidenziata per primo da Darwin) significa che non ci siamo evoluti da nessuno degli animali che sono vivi oggi! Le scimmie non si stanno evolvendo per diventare umane!

Il vero significato è che qualsiasi essere vivente oggi condivide con altri esseri viventi, sempre oggi, un antenato comune vissuto nel loro passato, spesso milioni di anni prima (per esempio, tra 6,5 e 9,3 milioni di anni fa per quel che riguarda noi e le scimmie). Questo in breve, per approfondire il già citato post.

Insomma, non mi stancherò mai di mettere in evidenza che il meme illustrato qui, dallo scimmione brutto e gobbo, al bel maschione bianco e alto, è sbagliato per un sacco di motivi: l’evoluzione non procede linearmente e non c’è progresso né in senso cinematico né culturale, tanto per cominciare. Purtroppo ancora oggi sono numerosissimi coloro che ancora lo adottano, persino in certi testi di biologia per le scuole!

Vi lascio con un meraviglioso filmato, che in me suscita le stesse emozioni che mi provocava, da ragazzo, la lettura di libri di avventure o la visione di certi film di fantascienza. Tutto quel che qui è stato rappresentato avviene continuamente, con gli stessi meccanismi, in qualsiasi cellula di qualsiasi organismo vivente, e così come avviene oggi è avvenuto -semplificando- nei viventi a partire da quei 3,5 miliardi di anni fa.


Riferimenti bibliografici.

Breve storia della creazione. Bill Mesler e James Cleaves II. Bollati Boringhieri. 2016.
La vita inevitabile. Pier Paolo Di Fiore. Codice. 2022
I motori della vita. Paul Falkowski. Bollati Boringhieri. 2015


La fortuna aiuta le menti preparate

a tutti i nati oggi, per il loro futuro
Premessa
Speranza e aspettativa sono due cose diverse. In altre occasioni su queste pagine (qui e qui, ma anche qui) si è messo in evidenza come il cambiamento climatico in atto porti, oltre ad una serie di interrogativi tuttora irrisolti, ad alcune conseguenze che possono essere definite certezze, nonostante il futuro possa presentarsi sotto forma di alternative tra scenari probabili, plausibili o possibili, con linee di confine ben poco nette. 

Uno dei paradossi più inquietanti e sgradevoli che emerge è che, considerando che le prime regioni a sperimentare già da ora il riscaldamento globale su base annua sono quelle tropicali ed equatoriali, esse includono le nazioni che meno hanno contribuito alle cause scatenanti: Nicaragua, Ghana, Kenya, Bangladesh, Zambia, Gambia, Madagascar, Etiopia, Mali, Cambogia, Ciad e India tra i tanti, tutti paesi da emissioni annuali zero virgola. E sono quelle meno in grado di attenuare gli effetti del riscaldamento globale.

Se vi sorprende l’aver inserito l’India date un’occhiata al grafico interattivo seguente. Indubbiamente è la Cina il paese ad emettere la maggior parte di quelle circa 36 miliardi di tonnellate l’anno di CO2, ma ha iniziato da pochissimo tempo, e quindi, dal punto di vista delle responsabilità, gli USA sono al primo posto come maggior responsabile  individuale, considerando il totale delle emissioni nel tempo. Spesso poi si sente parlare dell'India come paese tra i più preoccupanti ma delle due l'una: o ha appena iniziato o, nonostante sia popoloso quanto la Cina, ha ancora un substrato economico in maggioranza tutt'altro che industrializzato. 

Di conseguenza il suo contributo alle emissioni è scarso e pressoché nullo in confronto ai danni diretti che subirà dal cambiamento climatico.

Osservate per tutti la flessione del 2020: effetto COVID.

Nella mappa interattiva successiva ci sono invece le emissioni pro capite, con dati aggiornati al 2022. E’ cromaticamente evidente che i paesi individuati nella fascia equatoriale e tropicale, soprattutto l’Africa subsahariana, sono quelli che meno emettono in termini di CO2 (e altri gas serra), ma che saranno quelli che più soffriranno: il cosiddetto mondo occidentale dovrà necessariamente prepararsi all’accoglienza. Nella stessa mappa lasciano piuttosto perplessi i tassi pro capite superiori alle 20 t annue di paesi come gli Emirati Arabi Uniti, il Kuwait o…il Brunei!

Può essere utile visualizzare anche il grafico (cliccare su chart) per avere la visione di come le emissioni pro capite siano cambiate nel tempo, paese per paese, con alcuni andamenti controtendenza. Dal menu a tendina in alto a destra è possibile selezionare e visualizzare i dati dei singoli continenti.

Località…globali
Così come speranza e aspettativa anche meteo e clima sono due cose completamente diverse, e lo si è ribadito spesso. Il famoso matematico e meteorologo Edward Lorenz diceva che “Il clima è ciò che ti aspetti, il meteo è ciò che ottieni[1].

Gli eventi meteorologici sono localizzati nel tempo e nello spazio: una nevicata in giugno non significa che si sta andando verso un’era glaciale, né una giornata particolarmente calda a fine gennaio è prova di riscaldamento globale. In altre parole è come un’analisi sociologica in grado di mediare su grandi numeri di esseri umani pur sapendo che, presi singolarmente, potrebbero comportarsi imprevedibilmente.

Ma persino un qualche tipo di evento meteorologico, come la temperatura in una determinata ora del giorno, la quantità di millimetri di pioggia caduta o il valore della pressione atmosferica, se cumulati a formare una base di dati sufficientemente grande da poter applicare la cosiddetta legge dei grandi numeri, sono stati in grado di fornire un’evidenza statisticamente significativa del cambiamento climatico in atto, a partire da dati giornalieri.

La cosa più difficile da realizzare in questi casi, allo scopo di ottenere un segnale chiaro che dimostri una determinata tendenza, è isolare il rumore. Negli eventi meteo di una singola località, ad esempio, la temperatura può variare di decine di gradi rispetto alla media misurata in un intervallo temporale sufficientemente lungo.


La figura precedente (lo studio completo, del 2020, è disponibile su Nature) illustra in modo evidente quanto è venuto fuori da studi di questo tipo. Sono stati utilizzati due modelli e due metodi di analisi statistica basati su altrettanti archivi di dati diversi, ma è chiaro che sia il primo che il secondo abbiano fornito risultati sovrapponibili (gli istogrammi in a,b e in c,d rispettivamente).

Nella colonna di sinistra ci sono le registrazioni della variazione di temperatura giornaliera in una località e confrontata con la temperatura giornaliera media, mentre a destra ci sono i risultati dei dati raccolti per un intervallo di molti giorni, allo scopo di ottenere una buona statistica per la distribuzione media delle variazioni giornaliere della temperatura locale.

Il fatto che in entrambi i grafici, indipendentemente dal modello, ci siano distribuzioni tipicamente normali è atteso, a significare qualità dell’analisi e inoltre, come ci si aspetta, la distribuzione delle variazioni di temperatura media in un singolo giorno per una singola località è molto più ampia della distribuzione delle variazioni registrate nello stesso giorno ma mediate globalmente.

Insomma, il vecchio proverbio inglese che dice che la Gran Bretagna ha un tempo orribile ma un clima fantastico torna ancora.

I risultati sono evidenti. Le distribuzioni di temperatura media giornaliera dei periodi 1951-1980 e 2009-2018, confrontate con i dati del periodo 1979-2005, sono tali da dimostrare che un giorno medio nel periodo 1951-1980 è stato più freddo che non nel periodo 1979-2005, mentre tra il 2009 e il 2018 il giorno medio è stato più caldo del medesimo periodo di riferimento.

Ci sono studi analoghi per regioni della Terra e per periodi diversi, ma i risultati sono i medesimi. Da questo punto di vista assumono grande valore quelli condotti nelle regioni citate in precedenza, tropicali o equatoriali, che godono di un rapporto segnale/rumore molto alto, ovvero hanno variabilità molto contenute rispetto ad altre aree del pianeta: non a caso durante la stagione calda ai tropici le previsioni meteo sono sempre le stesse.

Ed ecco che torna il messaggio citato all’inizio: le prime regioni a sperimentare fin d’ora il riscaldamento globale su base annuale sono quelle equatoriali e tropicali: il rapporto segnale/rumore per il riscaldamento globale sembra essere, e lo è, in relazione inversa con il livello di sviluppo di un paese.

La situazione non può che peggiorare. Entro il secolo, per quanto in media farà complessivamente più caldo ovunque, in queste regioni, che stanno già oggi sperimentando gli effetti del cambiamento climatico, rispetto al resto del pianeta, la temperatura media estiva sarà più alta per quasi il 100% del tempo rispetto all’estate più calda mai registrata.

Ci stiamo riferendo alle regioni con la più alta percentuale di malnutrizione, dipendenti fortemente dall’agricoltura, e che subiranno gli effetti più devastanti.

Sarebbe, sarà. Potrebbe, potrà.

In numerosi post su queste pagine ho messo più o meno direttamente in evidenza come, nonostante le famose risposte non lineari, che possono terrorizzare l’analista numerico, una simulazione può essere ridotta a piccolissimi intervalli di tempo durante i quali le risposte sono generalmente lineari, tenendo quindi sotto controllo il famigerato effetto farfalla, come ebbe a dire appunto il già citato Lorenz. Ma alla Natura i modellisti interessano poco: esistono senza dubbio meccanismi di risposta che influenzano il clima e sono difficili da modellare a causa delle variazioni improvvise che possono apportare. La chiave per risolvere tutto questo è saper riconoscere le incertezze. Le affermazioni fisiche che contengono incertezze sono quelle più virtuose.

Le predizioni fondamentali della climatologia sono basate su principi fisici ben consolidati: ciò basti a convincere che questa scienza non è una specie di vudù né che per comprenderne i significati e le conseguenze occorrano supercomputer. Cause, effetti e rischi di tali predizioni sono alla portata di tutti, e a tutti deve essere chiaro che la causa primaria è l’attività umana.

Nel già citato post precedente abbiamo visto come esistano dei già ben conosciuti “punti di non ritorno”, a cui possiamo aggiungere gli effetti su ecosistemi su vasta scala, quali ad esempio quelli dovuti all'acidificazione degli oceani, la fusione del permafrost, la deforestazione e molto altro ancora. Per quanto alcuni possano portare a disastri sul breve termine, mentre altri, come il potenziale scioglimento dei ghiacci della Groenlandia, richiederebbero forse secoli se non millenni, è la loro interazione che ha conseguenze spesso incerte. Un esempio viene da alcuni studi che dimostrano come, nella metà dei casi, il raggiungimento di un punto di non ritorno in un’area del pianeta innescherebbe un aumento del rischio in un’altra.

Pur essendo questi relativi al futuro come potrebbe, derivanti da scenari non direttamente modellabili, non possiamo trascurare l’impatto sul breve termine e, ancora una volta, emerge la necessità di un’azione politica globale perché globale è il problema.

Azione di cui non c’è traccia evidente.

Strategia

La Natura non fa piani, ed è indifferente sia alla nostra esistenza che a quella dell’intero pianeta. Ma noi umani sappiamo pianificare strategie per il futuro, capacità unica tra tutte le forme di vita. E soprattutto sappiamo sviluppare strumenti scientifici in grado di predire l’esito delle nostre azioni, oltre che strumenti tecnologici che ci danno un controllo senza precedenti sull’ambiente. Anche se è a causa delle nostre azioni se ci troviamo a questo punto non è detto che si sia sull’orlo di un precipizio: crisi è anche opportunità.

Per una frazione significativa degli esseri umani l’impatto del cambiamento climatico sarà devastante, già a breve termine. Ma ciò non deve farci assumere inutili e controproducenti posizioni catastrofiste, spesso strumentalizzate ora dall’una ora dall’altra corrente politica, né deve indurci all’inazione. Lo abbiamo visto durante la recente pandemia globale, in cui l’interconnessione dell’umanità si è manifestata pienamente e l’importanza di agire con urgenza di fronte all’evidenza è stata chiarissima. Possiamo avere maggiore o minore fiducia nei politici ma le persone razionali non hanno mai perso la fiducia nei confronti dei medici e degli scienziati che furono e sono in grado di stilare linee di azione per metterci in sicurezza.

Sono certo che scienza e tecnologica forniranno le risposte e i mezzi opportuni per mitigare gli impatti a breve termine e soprattutto per favorire l’adattamento al cambiamento. Anche se il futuro ci sta arrivando addosso come un treno fuori controllo lo fa su binari da noi costruiti. Se non si inizia davvero non sapremo mai se siamo ancora in tempo. Sono certo che scienza e tecnologia forniranno le risposte e i mezzi opportuni per mitigare gli impatti a breve termine e soprattutto per favorire l’adattamento al cambiamento. Anche se il futuro ci sta arrivando addosso come un treno fuori controllo lo fa su binari da noi costruiti. Se non si inizia davvero non sapremo mai se siamo ancora in tempo. Gli australiani, preoccupati per il flusso migratorio di qualche barchetta ogni tanto in arrivo dall’Indonesia, dovrebbero prendere coscienza seriamente del flusso di milioni di potenziali rifugiati climatici che, con le navi da crociera o con i mercantili, arriverà sulle loro coste, e sbarcheranno, fuori controllo. Lo stesso si può dire per l’opulento nord America nei confronti dei centroamericani, o per Europa, Turchia o repubbliche caucasiche nei confronti dei magrebini e delle popolazioni subsahariane. Perché saranno le regioni più povere ad essere maggiormente colpite, soprattutto se prive di aiuti e di accesso ad eventuali nuove tecnologie.

Diceva Pasteur: «la fortuna aiuta le menti preparate» (in questo post c'è un approfondimento su questo tema) e ciò, pur non essendo una garanzia offre solo maggiori probabilità che si arrivi ad avere risposte ed azioni concrete.

Capire la scienza del cambiamento climatico e i suoi effetti, ancorché probabili, è il primo passo per ottenere questa preparazione

Note bibliografiche:
Lawrence M. Krauss - La fisica del cambiamento climatico
Susan Solomon - Irreversible climate change due to carbon dioxide emissions
Our World in Data - CO₂ and Greenhouse Gas Emissions Data Explorer


[1] E’ lo stesso Lorenz che coniò la storica citazione: “Può un battito d'ali di una farfalla in Brasile causare un tornado in Texas?”

Il futuro è già qui - Tipping Point

Premessa

«E’ difficile fare delle previsioni, soprattutto sul futuro». Questa ironica affermazione, quasi paradossale, che l’abbia o meno davvero pronunciata Niels Bohr, uno dei padri fondatori della moderna fisica atomica (pare sia apocrifa), apre comunque a degli scenari da non sottovalutare affatto, anche se forse sarebbe opportuno fare previsioni solo su quel che accadrà tra dozzine di miliardi di anni, quando il cosmo sarà buio e freddo, e soprattutto senza nessuno a controllare la qualità del predetto.

Ma ci sono delle previsioni che, con altissima probabilità di accadimento, sono come affermazioni scolpite nella pietra. E queste generano a loro volta degli assunti che gli anglosassoni chiamano tipping point. Punti di non ritorno. Eccone alcuni relativi ad uno dei tanti effetti collaterali inequivocabili del cambiamento climatico: la fusione dei ghiacci[1].

Il ghiaccio galleggiante della banchisa fonde a causa del cambiamento climatico. Ma questo espone le acque sottostanti più scure, che quindi riflettono meno luce solare e ne assorbono di più, causando un ulteriore scioglimento del ghiaccio, e così via.
Sta succedendo nell'Artico.

Il ghiaccio delle calotte fonde e riduce l'altezza della calotta, ma la temperatura a quote più basse è più alta, dunque la sommità del ghiaccio scende di livello, si riscalda ancora di più e si scioglie più velocemente.
Sta succedendo in Groenlandia.

Le acque calde causano l'erosione delle piattaforme glaciali galleggianti e le frantumano, ma queste ultime facevano da contrafforte a enormi ghiacciai, che ora sono liberi di riversarsi in mare destabilizzando ulteriormente la calotta retrostante.
Sta succedendo in Antartide.

Quale futuro?

clip_image002Nel conosciutissimo racconto “Canto di Natale” di Charles Dickens è il Natale Futuro lo scenario più inquietante di tutti, perché prospetta a Scrooge le possibili conseguenze future, chiedendogli di impegnarsi affinché non accadano, col Natale Presente che lo invita da immaginare a ciò che potrebbero portare le scelte di quel giorno. Il Natale Passato è intoccabile, ciò che è stato è stato e nulla potrà cambiarlo, né sarebbe possibile cambiare alcune delle attuali e future conseguenze delle azioni compiute in passato.

Per quanto riguarda il futuro del riscaldamento globale siamo divisi tra scenari probabili, plausibili o possibili, spesso con linee di confine ben poco nette: ma la differenza tra ciò che sarà e ciò che potrebbe essere, come disse Dickens, è abissale.

Cosa accadrebbe se smettessimo di emettere gas serra adesso? Indipendentemente dalle considerazioni fatte in altri post, soprattutto in questo, sappiamo che la temperatura superficiale è aumentata di un grado nel secolo scorso, a causa dell’emissione di circa 450 Gt di carbonio in atmosfera; anche qualora smettessimo immediatamente, la maggior parte di quanto emesso resterà in atmosfera per lo meno fino al 3000. Salvo inventare nuove tecnologie, o perfezionare e rendere efficienti le tecniche di cattura e stoccaggio tuttora pressoché sperimentali. C’è un enorme inerzia planetaria che è coinvolta nel ciclo, soprattutto per quanto riguarda l’assorbimento da parte degli oceani, con cicli che superano i 1000 anni.

Nel mio precedente post abbiamo visto, dalla curva di Keeling, un aumento nel tenore di CO2 in atmosfera, di circa il 30 percento in 60 anni: lo 0,5% l’anno.

Certezze

Ma questo accadeva. Ci sono studi che dimostrano che, a partire dal 2008, i tassi annuali sono passati al 2% raggiungendo concentrazioni, tra il 2050 e il 2100 (praticamente domani…), tra le 450 e le 1200 ppm. Il grafico riassuntivo seguente è chiaro (in ascissa l’anno di riferimento): che ci si fermi subito (2050) a 450 ppm o si continui imperterriti fino a 1200 ppm (2100) si ha dapprima una rapida diminuzione di CO2 del 20 percento in circa un secolo, dovuta all’assorbimento da parte della biosfera, e che la restituirà circa un altro secolo dopo, ma passato questo periodo iniziale avremo comunque, dopo circa altri 1000 anni, il valore iniziale di 280 ppm (livello preindustriale) maggiorato di circa un 40% in eccesso. Studi simili dimostrano scenari analoghi pur partendo da ipotesi diverse. Ed ecco che il Natale Passato si affaccia per lo meno sulle prime due curve in basso, con picchi a 450 e 550 ppm, di un futuro che, in pratica, sembra essere già qui.

Passare da questi dati di concentrazione di CO2 pressoché certa, a scenari di aumenti di temperatura non è cosa semplice, ma assumere più che plausibile lo scenario riportato nel grafico seguente non è affatto sbagliato. Osservate le prime due curve, i soliti scenari a 450 e 550 ppm, con aumenti tra 1,5 e 2 °C (in ordinata le temperature sono espresse in gradi Kelvin, equivalenti ai centigradi). Vi ricorda qualcosa? E già, proprio quello, il famoso “Accordo di Parigi” della COP21 del 2015, accordo che, con il condizionale voluto, impegnerebbe a mantenere l’innalzamento della temperatura sotto i 2° e – se possibile – sotto 1,5° rispetto ai livelli preindustriali.

clip_image006

clip_image008Il messaggio è chiaro: l’aumento di temperatura relativamente recente coincide con le emissioni continue di CO2 degli ultimi 50 anni, ma si arresterà se queste cesseranno, prima possibile. Questo però non significa che la temperatura inizierà a diminuire in modo apprezzabile, anche qualora i livelli di biossido di carbonio dovessero diminuire lentamente nel corso del prossimo millennio. E questo perché gli oceani continueranno a scaldarsi impiegando molto tempo per rimescolare ed equilibrare il calore aggiuntivo accumulato dal pianeta. Per molte centinaia di anni dopo che il calore in eccesso sarà scomparso gli oceani continueranno a scaldarsi mentre le masse continentali si raffredderanno più rapidamente. Fatte le debite distinzioni, chi conosce il fenomeno dell’alternanza lungo le coste della brezza di mare alla brezza di Terra, avrà certamente compreso come il mare possa trattenere calore latente.

La figura illustra il fenomeno di questa sorta di inerzia planetaria, proprio e ancora una volta, a dimostrazione che la Terra non è soltanto un sasso al sole. Molto sarà dovuto alla distribuzione delle terre emerse rispetto agli oceani, e l’emisfero australe contiene molto più oceano e molta meno terra del boreale. Nella parte superiore della figura le variazioni relative di temperatura tra il 1850 e il 2105, da uno scenario di emissioni continue fino al 2100, mentre nella parte superiore tra il 2015 e il 2995. Inizialmente il riscaldamento avrà un impatto maggiore nell’emisfero boreale, molto più ricco in terre emerse, e soprattutto nell’Artico, dove un oceano poco profondo è circondato da terre emerse; ma centinaia di anni dopo (figura in basso) l’Artico avrà già iniziato a raffreddarsi mentre l’Antartide e l’oceano che lo circonda continueranno a scaldarsi ancora molto dopo che il biossido di carbonio avrà cessato di aumentare.

Nelle profondità oceaniche è trattenuto un enorme calore latente e si stima che se le emissioni non cesseranno prima del 2100 la temperatura media delle acque aumenterà fino a 3 °C.

E sale e salirà...

Ma c’è uno scenario certo. Quello in cui le emissioni cessavano nel 2010, col futuro che sarà, anzi peggio, visto che nel frattempo dal 2010 le emissioni sono proseguite. Un aumento di temperatura media degli oceani di 0,5 °C è scolpito nella roccia visto che questo calore è stato depositato nel corso dell’ultimo secolo.

Non amo essere plateale ma la differenza di temperatura misurata (ribadisco, mi-su-ra-ta) e confrontata tra il 2019 e la media 1981-2010, pari a 0,075 °C, corrisponde al calore prodotto da 3,6 miliardi di atomiche come quella di Hiroshima fatte esplodere nell’oceano: 5 esplosioni al secondo, 24 ore al giorno per 365 giorni negli ultimi 25 anni!

C’è un altro effetto scolpito nella roccia: l’espansione termica dell’acqua all’aumentare della temperatura.

Ogni volta che si parla aumento del livello medio dei mari a causa del cambiamento climatico si fa spesso riferimento solo alla fusione dei ghiacciai continentali, delle calotte polari e della Groenlandia. In realtà la causa principale dell’innalzamento del livello del mare in tempi recenti è dovuto all’espansione termica seguita all’aumento della temperatura degli oceani.

Ed ecco gli scenari, in analogia con i due grafici precedenti. Più tardi si smette più alta sarà la crescita del livello. E se 1 m o 1,5 m vi sembrano pochi vi ricordo quel che ho scritto in questo post, prendendo ad esempio il delta del Mekong.

Più della metà dell’effetto di innalzamento registrato ad oggi è causato dall’espansione termica e, mentre possiamo avere incertezze sulle modalità e le tempistiche che riguardano la fusione dei ghiacci, non ce ne sono in questo caso. Anche molto tempo dopo la cessazione delle emissioni di gas serra il livello del mare continuerà a salire.

clip_image010

Last but not least, come effetto indiretto causato dalla modifica delle correnti oceaniche, in parte dovuta alla variazione differenziale[2] della temperatura globale, dal rimescolamento termico di profondità e dall’aumento di acqua fredda proveniente dalla fusione dei ghiacci, si avrà inoltre una variazione della distribuzione geografica e temporale delle precipitazioni, con impatto significativo su varie regioni della Terra: pioggia e neve, siccità, inondazioni, stagioni monsoniche modificate o abolite, tutto rimescolato e cambiato.

Quaranta generazioni
E tutto ciò perché la CO2 resterà in atmosfera molto tempo dopo che le sue emissioni saranno cessate. Almeno 1000 anni.

La fonte dei grafici è tratta da un lavoro disponibile qui.

clip_image012La COP21 auspicava come minimo un tetto a 1,5 °C. Siamo già al 90% del percorso da fare per arrivarci e restano meno di 10 anni. E’ estremamente probabile che l’obiettivo resti utopia. La stessa COP più realisticamente parlava di 2 °C. Indipendentemente dai pretestuosi messaggi che dichiarano inapplicabile economicamente tale obiettivo se continuiamo a rimandare di anno in anno i tentativi di limitare l’aumento di temperatura dovuto all’effetto serra, diventerà sempre più difficile, e sempre più costoso, raggiungere l’obiettivo.

Lasciamo, ancora una volta, la parola ai grafici, implacabili.

clip_image014

Il diagramma precedente è detto a “pista da sci” (un approfondimento qui).

Se vogliamo restare entro i 2 °C di aumento rispetto ai livelli preindustriali con una probabilità del 66% abbiamo che: se avessimo iniziato nel 2011 (pista da principianti) avremmo dovuto tagliare le emissioni del 3,7% l’anno, nel 2015 (intermedia) del 5,3% l’anno e infine, nel 2020 (esperti) del 9% in meno ogni anno! Inesorabilmente siamo già al 9%.

Ed ecco la situazione simile con proiezioni fino al 2035. Più si aspetta più la pista da sci si trasforma, continuando ad usare il linguaggio di questo sport, in un difficilissimo muro insuperabile.

Anche qualora le emissioni si stabilizzassero, senza aumentare né diminuire, dovremo fermarle del tutto, cosa ovviamente del tutto impossibile.

clip_image016

Una di quelle curve è il futuro e tanto minore sarà l’impegno politico nei confronti del cambiamento climatico tanto peggiore saranno gli scenari futuri, dal mantenere tutto così com’è fino all’attuale e forse irrealizzabile obiettivo di sostenere un aumento di 3,6 °C!

clip_image018

clip_image020I numeri dimostrano in maniera inequivocabilmente convincente che le emissioni di gas serra di origine antropica non sono insignificanti su scala geologica globale. Nel giro di 200 anni gli esseri umani avranno emesso un quantitativo di CO2 doppio rispetto a quello presente in atmosfera per gran parte dell’arco temporale coperto dai dati geologici.

I due grafici successivi, tratti da “Climate Action Tracker” riassumono i concetti espressi.

Se, parafrasando il famoso film, a qualcuno piace caldo, non è questo il caso, nemmeno di riderci su.

 

clip_image022

clip_image024

Note bibliografiche:
Lawrence M. Krauss - La fisica del cambiamento climatico
Susan Solomon - Irreversible climate change due to carbon dioxide emissions
Our World in Data - CO₂ and Greenhouse Gas Emissions Data Explorer


[1] Nel testo e in questo blog si usa a volte il verbo “sciogliere” per indicare la fusione del ghiaccio. Tempo fa un "negazionista", volendo dimostrare di saperne più di me, ha tentato di deridermi facendomi notare che avevo usato il verbo sciogliere, o il sostantivo scioglimento, in alternativa a fondere o fuso, per parlare di fusione dei ghiacci. Sappiamo tutti che (di)sciogliere non è un passaggio di stato quel è invece fondere, ma non stiamo tanto a cavillarci su e accettiamone di buon grado l’uso comune. Anche in inglese si usa melt sia per sciolto che per fuso.

[2] Parti diverse del pianeta si scaldano e reagiscono diversamente nei modi e nei tempi.

Il lavoro di Charles D. Keeling. Ripassino per climascettici.

Scrivere questo post oggi, 21 febbraio 2024 sembra ancora una volta un puro esercizio di stile, pressoché inutile, vista l’esperienza che ognuno di noi ha fatto della scorsa torrida estate e che sta tuttora facendo, al termine ormai di questo non inverno. Un inverno caratterizzato da temperature pressoché primaverili, con massime tipiche del mese di aprile, una grave crisi di precipitazioni che sta creando le premesse per un anno a venire decisamente siccitoso e, non ultimo, un danno economico enorme per il settore turistico della montagna, degli sport invernali, con impianti che in Appennino non hanno praticamente mai aperto e sulle Alpi si apprestano a chiudere con almeno due mesi di anticipo. In tempi non sospetti e recenti si scriveva di siccità, prevenzione e adattamento, il governo attuale ha da poco varato il PNACC (Piano Nazionale di Adattamento ai Cambiamenti Climatici). Ma sono decenni che il quadro è completo, che ci sono i dati, fin da 1965 l'allora presidente USA Lyndon Johnson era stato messo al corrente dei cambiamenti climatici in atto e misurabili. 

Eppure ciò nonostante ci si scontra pressoché quotidianamente con le legioni di imbecilli di cui ci aveva avvisato Umberto Eco molto tempo fa. Ma, come scrivevo un paio di giorni fa, provo a non mollare.

Iniziamo da alcune assunzioni che, nonostante ogni qual si voglia tipo di evidenza, inequivocabilmente, dimostrano il contributo antropogenico del cambiamento climatico in atto, ma stentano ad abbattere il muro del negazionismo, soprattutto quello ignorante.

a) per quanto riguarda l’ammontare di biossido di carbonio[1] (CO2) nell’atmosfera del pianeta, rispetto al trascorso ultimo milione di anni, l’era attuale non ha precedenti;
b) a livello geologico le variazioni nella concentrazione di CO2 fanno parte della storia del pianeta, ma di ampiezza molto minore e su scale temporale molto maggiori (l’ultimo picco, pari a circa 300 ppm, risale a 350.000 anni fa, e le variazioni si distribuiscono su fasce temporali di migliaia se non decine di migliaia di anni);
c) livelli maggiori di CO2 nell’atmosfera sono correlati a epoche più calde, mentre livelli più bassi sono correlati a ere glaciali;
d) l’aumento è coinciso con l’inizio della moderna era industriale, con una velocità ed una ampiezza dell’aumento che corrisponde al consumo di combustibile fossile dovuto alle attività umane;
e) ci sono segni evidenti che le vicissitudini politiche ed economiche dell’umanità si riflettono nelle recente oscillazioni della concentrazione di CO2 atmosferico;

Che il consumo di combustibili fossili abbia dato una notevole spinta alla crescita della produzione industriale è un fatto, così come sembra inequivocabile e ampiamente dimostrato che questo consumo incrementa la concentrazione di CO2 nell’atmosfera. L’epoca attuale è quindi una novità assoluta, dal punto di vista qualitativo e quantitativo, nella storia dell’umanità. Un cambiamento quantitativo destinato ad essere significativo dal punto di vista del clima globale.

clip_image002

Charles David Keeling

clip_image004Ho già avuto modo di citare Charles David Keeling su queste pagine (qui e qui). Un chimico statunitense a cui un giorno capitò di dover risolvere un problema di geochimica: in una miscela di calcare, acqua e CO2 atmosferico come raggiunge l’equilibrio il carbonato? Con i primi due valori semplici da ricavare occorreva misurare il tenore di CO2 atmosferico. E quindi, costruendosi da solo uno strumento di precisione, iniziò le misure già alla fine degli anni Cinquanta.

Passando direttamente a ciò che più ci interessa Keeling fece innanzi tutto un paio di scoperte interessanti: la prima che di notte c'è più CO2 nell’aria, perché di notte i processi fotosintetici non avvengono, e quindi questo gas non viene utilizzato, a cui aggiungere il contributo in CO2 dovuto al ciclo ossidativo delle piante (che avviene tutto l’anno, di notte e di giorno)[2]. Inoltre lo strato a diretto contatto con il suolo, a causa della minor temperatura notturna è più denso e quindi più sottile, creando quindi un incremento nella concentrazione.

In occasione dell’International Geophysical Year (1957-58) Keeling ed altri suoi colleghi, grazie al contributo di organismi di prestigio quali lo Scripps Institution of Oceanography e al US National Weather Service, diedero il via ad uno dei più significativi progetti scientifici a lungo termine mai portato avanti sulla Terra: iniziare una serie di misurazioni della concentrazione di biossido di carbonio in luoghi remoti della Terra, compresi il Polo Sud e Mauna Loa nelle Hawaii.

E fu alle Hawaii, con i dati dell'osservatorio di Mauna Loa, che Keeling fece un’ulteriore scoperta: per la prima volta fu osservato l’effetto stagionale che la vita esercita sull’atmosfera attraverso i processi di fotosintesi, processi che cambiarono la composizione dell’atmosfera terrestre; vita che tuttora continua a dettare la dinamica del CO2. Già dai primi anni delle misurazioni si osservò che, nel semestre estivo, più o meno da maggio a ottobre, la concentrazione andava via via calando, mentre in quello invernale, si registrava un progressivo aumento. Per la prima volta si assisteva alla sottrazione del CO2 dall’aria per consentire la crescita delle piante in estate, e alla sua restituzione nel corso dell’inverno seguente: il respiro del pianeta[3]. Si stima che le piante sottraggano all'atmosfera circa 120 Gton di carbonio con la fotosintesi e ne restituiscano circa 58 dalla respirazione e 59 dalla decomposizione dei terreni: un equilibrio tanto eccezionale quanto sottile.

La curva di Keeling
Ma l’osservazione più importante fu scoprire che, già in un brevissimo periodo di pochi anni, Keeling misurò un aumento della concentrazione anno dopo anno, anche se minimo, ancora più evidente nella stazione del Polo Sud che passò da 311,1 ppm nel settembre 1957 a 314 ppm nello stesso mese del 1959.

A conti fatti, Keeling scoprì che il tasso di crescita annuale medio, di circa 1,4 ppm l’anno, era più o meno quello atteso dalla combustione di fonti fossili in assenza di sottrazione da parte dell’atmosfera. Ma, pur essendo evidente che le medie del secondo anno erano più alte di quelle del primo, e quelle del terzo lo erano più di quelle del secondo, in mancanza di altri dati e soprattutto facendo della buona scienza, trarre delle correlazioni di causalità era prematuro. Occorreva effettuare misure regolari in località remote, per lunghi periodi, e filtrarle da ogni possibile rumore. E così fu: da oltre 60 anni, analizzatori di gas misurano l’assorbimento della radiazione infrarossa in campioni atmosferici e la confrontano con i tassi di assorbimento in campioni di riferimento che hanno concentrazioni definite di CO2.

Ecco come è nata la curva di Keeling, una delle curve più famose tra coloro i quali si occupano di climatologia e cambiamento climatico, qui aggiornata a pochi giorni fa! Il valore attuale è 424,97 ppm, il primo giorno di misurazioni, nel 1958, a Mauna Loa se ne registrarono 313.

clip_image006

Il valore attuale è quindi circa il 30 percento superiore a quello iniziale; la curva, mediata nelle sue oscillazioni stagionali, ha una crescita tutto sommato piuttosto uniforme (i matematici usano il termine monotòna) con un aumento di circa 100 ppm in sessantadue anni, circa 1,6 ppm l’anno. Keeling nel 1960 aveva stimato che la produzione annuale di CO2 derivante dal consumo di combustibili fossili era pari a circa 1,4 ppm, lo stesso ordine di grandezza della crescita del tenore di gas serra.

Tutto il biossido di carbonio prodotto dal consumo di fonti fossili finisce in atmosfera? Oggi sappiamo che così non è, abbiamo i dati che lo dimostrano, perché il contributo da fossile è cresciuto di un fattore cinque da allora, di molto superiore a quello misurato da Keeling nello stesso periodo. E per questo Keeling aveva già una risposta: non dobbiamo aspettarci che tutto il CO2 che l’umanità produce contribuisca all’aumento del suo tenore atmosferico. Qualcuno potrebbe dire «per fortuna!», ma anche se questo gas può sciogliersi in acqua, dando vita all’acido carbonico, con una cospicua parte quindi assorbita dagli oceani, la cosa ha, tuttavia, come conseguenza diretta il fenomeno dell’acidificazione degli oceani. In altri termini, se l’assorbimento di questo gas serra da parte degli oceani ci dà una mano a mitigarne gli effetti in atmosfera, d’altra parte va a fare danni, e non pochi, in altro modo. 

A questo punto, la correlazione quantitativa tra l’aumento osservato e il contributo di origine antropica è come minimo indicativa ma, ricordiamolo ancora, correlazione non implica causalità[4].

Prove dal passato

clip_image007Come ho avuto modo di scriverne in questo post sono ormai decenni che diverse fonti forniscono i dati che ci raccontano come sia cambiato il clima sulla Terra nel corso di tutta la sua lunghissima storia geologica: sono le analisi stratigrafiche dei depositi sedimentari, i carotaggi di sedimenti marini o di lunghe colonne di ghiaccio prelevate nell’Artide così come in Antartide, o dai ghiacciai, persino da quelli alpini, e la relativa analisi dei loro contenuti, compresa la composizione dell'aria fossile nelle micro bolle d'aria; lo studio dei depositi vegetali trasportati dal vento, le analisi palinologiche (dei pollini), la distribuzione di organismi unicellulari dal guscio calcareo (foraminiferi), quello del rapporto tra concentrazioni di isotopi diversi dell’ossigeno o del carbonio e persino le analisi dei microsedimenti lasciati sui fondali marini del Nord Atlantico: sedimenti rilasciati da giganteschi iceberg che andavano migrando e sciogliendosi, dopo essersi staccati per crollo dal fronte delle inimmaginabili estese calotte glaciali presenti nelle epoche più fredde del nostro pianeta. E questi ultimi studi sono quelli tra i più coraggiosamente intuitivi e curiosi, che hanno messo in relazione eventi tra loro apparentemente slegati quali la fusione di iceberg, normalmente collegata a periodi di riscaldamento, e che invece ha apportato enormi quantità di acqua dolce e fredda, talmente tanta da alterare lo schema della normale circolazione delle correnti oceaniche che avviene, di solito, per differenze di temperatura e salinità.

Tutti questi sono ciò che i climatologi chiamano proxy data, non potendo effettuare misurazioni dirette nel passato per ovvi motivi si deducono alcuni fatti dall’analisi indiretta, per procura, di altri elementi.

Le previsioni e le proiezioni che vengono quindi elaborate continuamente, o la possibilità statistica concretamente molto alta che le cose vadano e potranno andare proprio così è provato da come sono andate in passato.

Ed è proprio dal ghiaccio polare, o meglio dalle bolle d’aria che si formano durante il processo di compattazione della neve caduta, che provengono le informazioni fondamentali. E, allo scopo di dare la necessaria globalità, è sia ghiaccio artico come quello estratto in Groenlandia, col North Greenland Ice Core Project (NGRIP), un progetto finanziato dalla UE che ha effettuato carotaggi fino ad oltre 3.000 metri di profondità perforando la calotta glaciale groenlandese, o antartico, col grandioso esperimento internazionale, European Project for Ice Coring in Antarctica (EPICA) con dati ricavati da carotaggi spintisi fino a valori record: 3.270 metri di profondità, estraendo ghiaccio sempre più vecchio, fino a quai a 800.000 anni fa.

Come potete vedere dalla figura precedente i siti di perforazione e carotaggio in Antartide sono numerosi e, maggiore è la profondità raggiunta, più vecchio sarà il periodo di formazione del ghiaccio dovuto alla stratificazione della neve anno dopo anno, stratificazione con aspetti diversi in estate rispetto all’inverno e così, proprio come gli si fa con gli anelli di accrescimento degli alberi, è possibile contare gli anni. Quindi, misurare la composizione del gas nelle bolle d’aria significa ottenere la composizione del gas atmosferico in quel luogo a quel tempo.

A questo punto abbiamo i dati misurati dall’osservatorio a Mauna Loa dal 1958 in poi[5] e la media di quelli dei carotaggi provenienti da vari siti, tutti allineati come lecito attendersi, per quanto riguarda i valori prima del 1958.

clip_image009

clip_image011clip_image013

Mi sembra abbastanza evidente che, inserendo la curva di Keeling in ognuna delle curve che riportano i valori atmosferici derivanti dai carotaggi (o da qualsiasi altro dato proxy), l’impennata sia più che evidente. A conti fatti, dall'inizio dell'era industriale, sono bastati soltanto gli ultimi circa 60 anni per produrre il 40 percento delle emissioni antropiche.

E che cosa hanno in comune tutti questi bruschi cambiamenti di tendenza che rendono l’aumento del gas serra così concentrato nel tempo? In una parola, così accelerato?

L’inizio dell’epoca in cui si è iniziato a bruciare, soprattutto su scala industriale, combustibili fossili.

Osservate la curva dall’anno zero. Gli ultimi duemila anni di storia dell’umanità, storia raccontata e scritta, testimoniata. O quella a partire da 10.000 anni fa, dalla rivoluzione neolitica come qualcuno l’ha definita, l’agricoltura e la pastorizia, la nascita della stanzialità e forse della prima importante impronta ecologica dell’umanità. Ma quello che più colpisce è quello che parte dal 1700 in poi: prima e dopo la rivoluzione industriale, prima e dopo l’invenzione del motore a vapore, perfezionato e migliorato da parte dell’ingegnere scozzese James Watt nel 1765 (ne scrissi qui).

clip_image015

Il grafico precedente ci porta indietro di ben 800.000 anni, l’impennata recente diventa praticamente verticale, talmente breve è l’intervallo di tempo della curva di Keeling rispetto al passato geologico. Quei cicli di alti e bassi nel tenore di CO2 seguono quasi fedelmente i periodi interglaciali che intervallano le grandi glaciazioni, dovute a variazioni orbitali della Terra. Tra i molti e tra i primi che cercarono di mettere ordine tra quanto osservavano e le spiegazioni relative uno dei primi ad avere le idee chiare fu sicuramente l’ingegnere serbo Milutin Milanković, ne ho scritto approfonditamente qui.

Si nota immediatamente una cosa, evidenziata nella figura seguente: il tenore di CO2 è direttamente proporzionale alla temperatura dell’atmosfera, quanto più fa caldo quanto maggiore è il tasso di biossido di carbonio in atmosfera. Verrebbe da chiedersi se fa più caldo perché c’è più CO2 o c’è più CO2 perché fa più caldo? Ma, direbbe qualcuno, "i polli non fanno le uova perché da queste nascono". La spiegazione del fenomeno sta in due aspetti correlati: l’aumento della temperatura comporta la fusione delle calotte e dei ghiacciai continentali, oltre che ad un maggior tasso di evaporazione: di conseguenza il gas è liberato in atmosfera dalla criosfera e dall’idrosfera, inoltre al crescere della temperatura diminuisce la solubilità di questo gas in acqua. E questo causa un cosiddetto feedback positivo, un rinforzo. Quanto più aumenta il tenore di CO2 tanto più aumenta la temperatura rinforzando il periodo interglaciale. Al contrario, le temperature basse favoriscono la solubilità del gas in acqua[6]

Ricordate il problema dell'acidificazione degli oceani? A questo punto si potrebbe pensare che, visto che con l'aumento delle temperature i mari vedono la loro capacità di assorbimento del CO2 ridotto, il problema dell'acidificazione dovrebbe mitigarsi, purtroppo così non è perché i tassi di acidificazione crescono molto più velocemente del previsto. Entro il 2100, il pH degli oceani di superficie potrebbe scendere al di sotto di 7,8, ovvero più del 150% dello stato già corrosivo attuale, e potenzialmente anche di più in alcune parti particolarmente sensibili del pianeta come l'Oceano Artico. E comunque se gli oceani assorbono meno all'aumentare della temperatura, ciò significa che il gas serra resta in atmosfera, e se resta in atmosfera la temperatura aumenterà ulteriormente. Avete già capito: un altro feedback positivo.

La relazione tra CO2 e temperatura è nota e studiata almeno dalla prima metà del XIX secolo, dai lavori dell'americana Eunice Newton Foote e del fisico John Tyndall, ed è stata definitivamente consacrata dal lavoro di Svante Arrhenius del 1896. Ne ho parlato in dettaglio in questo post.

Tutti i dati sono pubblicamente disponibili sul sito della Scripps Institution of Oceanography, proprio quella con cui collaborò Keeling.

clip_image017

Non ci resta che correlare
Torniamo adesso alle emissioni totali del solo CO2. Il sito del Global Carbon Project fornisce la curva che ci è necessaria. Quella a partire dal 1960, stesso periodo di quella di Keeling, Non è soltanto una coincidenza che anche questa abbia una crescita monotòna assimilabile a quella del tenore di CO2. Sono evidenti ed apprezzabili anche i momenti critici che comportarono un minor consumo di combustibili fossili con conseguente riduzione, minima ma apprezzabile, delle emissioni di gas serra.

Ricorderete che all’inizio si affermò che la correlazione quantitativa tra l’aumento osservato e il contributo di origine antropica è come minimo indicativa. Direi che a questo punto possiamo affermare, al di là di ogni ragionevole dubbio, che la correlazione è estremamente significativa: c’è un nesso di causalità.

clip_image019

Cosa questo ha a che fare con il cambiamento climatico, col riscaldamento globale? Questa è un'altra storia, e ne ho scritto più volte…

Ma, a rischio di diventare pedante e noioso (e c’è ben poco da annoiarsi…) propongo un ultimo grafico. L’aumento della temperatura media del pianeta, a partire dal 1850, espressa in termini di anomalie rispetto alla temperatura media nel trentennio 1961-1990. Traete voi le correlazioni. Come tutti gli splendidi grafici di Our World in Data è interattivo.


Lo so, avevo detto che quello precedente sarebbe stato l'ultimo grafico, ma il prossimo parla da solo: fermare ora le emissioni comporta un ritorno a livelli preindustriali sempre più lontano nel tempo, e tanto più alto sarà il tasso esistente al momento in cui si interromperanno le emissioni addizionali tanto maggiore sarà il tempo di ritorno all'equilibrio. Ne ho parlato con dovizia di particolari in questo post.






[1] Ho già avuto modo di scriverlo. Più conosciuta forse come “anidride carbonica” ma ormai da moltissimo tempo “biossido di carbonio” è il nome corretto negli standard di nomenclatura chimica.
[2] Fotosintesi clorofilliana
[3] Ovviamente è un po’ più complicato di così: ne ho scritto qui.
[4] Questa cosa è ben nota a chi, come me, si è divertito a cercare correlazioni spurie di ogni tipo.
[5] E non solo comunque, ma sarà sufficiente fare riferimento a questi. Nella curva di Keeling riportata si precisa che alcuni dati derivano dall'osservatorio di Mauna Kea perché, durante una recente fase eruttiva del Mauna Loa la stazione non era disponibile.
[6] Un esempio immediato e intuitivo. Agitando una bottiglia di acqua gassata fredda, arricchita di CO2, si formano meno bolle che non facendolo con una bottiglia di acqua più calda. La bassa temperatura favorisce la solubilità.