fbpx È certo, il clima è surriscaldato | Science in the net

È certo, il clima è surriscaldato

Tempo di lettura: 21 mins

Nell’intervista pubblicata dal supplemento culturale del Corriere della Sera “La Lettura” del 26 febbraio 2017, intitolata “Credetemi, il clima non è surriscaldato”, William Happer ha rispolverato molti dei miti del negazionismo climatico, da tempo confutati dalle evidenze scientifiche disponibili. L'articolo (qui il testo), che ha creato un finto confronto fra il fisico Happer e il climatologo Cane (raggiunto via mail, Cane ha dichiarato di non essere al corrente della presenza di un interlocutore nell'articolo, com'è raccontato qui), presenta giustapposti e senza contraddittorio gli argomenti dell'uno e dell'altro, dando loro pari dignità. Anzi, il fatto che Happer sia in odore d'essere nominato science advisor dal presidente Trump, ha spinto il giornale a dare più peso a questo che al climatologo Cane. A partire dal titolo: "Credetemi, il clima non è surriscaldato".

Scienzainrete crede di fare un servizio ai lettori - soprattutto agli studenti delle scuole - nel mostrare l'infondatezza scientifica delle affermazioni di William Happer. Nel testo che segue, gli esperti di Climalteranti hanno analizzato le 14 affermazioni principali di Happer mostrandone l'inconsistenza scientifica. L'analisi è stata condotta da: Stefano Caserini, Elisa Palazzi, Alessio Bellucci, Sergio Castellari, Antonello Pasini, Gabriele Messori, Claudio della Volpe, Claudio Cassardo, Sylvie Coyaud.

1. “Temperature di questo tipo sono state registrate molte volte in passato” 

Le temperature medie del pianeta registrate negli ultimi decenni sono insolitamente alte, se confrontate con il passato, prossimo e remoto. È una chiara indicazione di molti studi che hanno ricostruito le temperature del passato, in particolare degli ultimi duemila anni. Nel passato remoto sicuramente ci sono stati periodi con temperature superiori alle attuali. Ma l’incremento delle temperature attuali è particolare rispetto all’andamento delle temperature dell’Olocene (gli ultimi 11.000 anni), ossia da quando esistono le civiltà umane. Si veda al riguardo Marcott et al. (2013), Clark et al. (2016)

Figura 1: Ricostruzione delle temperature globali negli ultimi 11300 anni, variazioni rispetto alla media 1961-1990) (Fonte: Marcott et al., 2013)

2. “La Terra oscilla sempre tra il raffreddamento e il riscaldamento”

Il clima della terra cambia ed è sempre cambiato sia in risposta a forzanti esterne sia per la propria dinamica interna, dovuta alla variabilità delle dinamiche dell’atmosfera, dell’oceano (si pensi al fenomeno El Niño-Southern Oscillation) e delle altre componenti del sistema climatico, nonché alle loro interazioni e ai meccanismi di retroazione esistenti. Oltre che per effetto di questa variabilità interna, che agiva ieri come agisce oggi, in passato le oscillazioni climatiche erano causate da forzanti esterne naturali, principalmente le variazioni dell’orbita e dell’inclinazione dell’asse terrestre, le eruzioni vulcaniche, le variazioni della potenza della radiazione solare. A queste oggi si aggiungono forzanti di origine antropica, tra cui le emissioni di gas serra (riscaldanti) e di altri inquinanti (alcuni dei quali raffreddanti, come gli aerosol solfati delle “piogge acide”) e i cambiamenti nell’uso del suolo. 

Quanto l’attuale rapido aumento delle temperature (già evidente nella Figura 1) sia dovuto a driver diversi da quelli che hanno determinato le variazioni delle temperature nel passato, durante i 400.000 anni precedenti il periodo industriale, è ben mostrato dalla Figura 2, tratta da Etkin et al. (2010); si nota come la relazione fra anomalia termica e concentrazione di CO2 negli ultimi 150 anni è molto diversa da quella registrata nei 420.000 anni precedenti.

Figura 2: Legame fra concentrazioni di CO2 in atmosfera e anomalia delle temperature nei cicli glaciali in Antartide negli ultimi 400.000 anni e nel periodo 1840-2007. La linea in violetto è stata aggiunta al grafico originale per rappresentare i dati fino al 2016. Si tenga presente che il tempo non è rappresentato se non indirettamente sul diagramma che sottolinea invece la relazione fra le variabili principali (Fonte: Etkin et al., 2010).

3. “Il riscaldamento attuale non è inusuale né per entità, né tantomeno per velocità” 

Il riscaldamento attuale è sicuramente inusuale per la velocità con cui sta avvenendo, così come lo sono gli altri cambiamenti climatici che lo accompagnano: fusione dei ghiacci, innalzamento del livello del mare, acidificazione e perdita di ossigeno degli oceani, perdita della biodiversità di moltissimi ecosistemi, aumento dell’intensità e della frequenza di eventi estremi, spostamento dei termoclini di animali, vegetali e patogeni. 

Secondo le conclusioni del 4° Rapporto sul Clima dell’IPCC “Le informazioni paleoclimatiche sono di supporto all’interpretazione che il riscaldamento dell’ultimo mezzo secolo sia inusuale almeno rispetto ai precedenti 1300 anni” (IPCC, 2007). Il 5° Rapporto IPCC ha ribadito questa conclusione: “Nell’emisfero Nord, il periodo 1983–2012 è stato probabilmente il più caldo periodo di 30 anni degli ultimi 1400 anni” (IPCC, 2013).

Un esempio di come il riscaldamento attuale sia anomalo rispetto al periodo di sviluppo della nostra civiltà si può vedere, oltre che dalla ricostruzione delle temperature dell’Olocene già riportata in Figura 1, dalla ricostruzione delle temperature estive nell’Europa centrale negli ultimi 2000 anni effettuata da Büntgen et al. (2011), mostrata in Figura 3.

Riscaldamenti e raffreddamenti passati negli ultimi ~50 milioni d’anni non sono mai stati rapidi come il riscaldamento attuale. Si veda al riguardo Diffenbaugh e Field (2013).

Figura 3: ricostruzioni delle precipitazioni primaverili (mm, in alto) e delle anomalie delle temperature estive (rispetto al periodo 1901-2000, in basso) nell’Europa centrale (Fonte: Büntgen et al., 2011)

4. “Ce n’è stato uno assai maggiore al tempo degli insediamenti vichinghi in Groenlandia nel X-XI secolo”

Il presunto maggior riscaldamento della Groenlandia ai tempi dei Vichinghi è uno dei leit-motiv più diffusi del negazionismo climatico, che continua a essere citato nonostante diversi studi l’abbiano smentito in modo definitivo. Numerosi lavori scientifici hanno mostrato che il riscaldamento verificatosi nel X-XI secolo non è stato né globale, né maggiore di quello attuale nell’emisfero nord. Ad esempio, uno studio molto approfondito pubblicato nel settembre del 2009 (Kaufman. et al., 2009), che ha analizzato i sedimenti lacustri in tutta la zona Artica, Groenlandia compresa, ha concluso che il decennio 1998-2008 è stato il più caldo dei 200 decenni che compongono gli ultimi 2000 anni. (Figura 4). 

Figura 4: Ricostruzione delle temperature degli ultimi 2000 anni nella zona Artica (latitudine superiore a 60°N), espresse in termini di variazioni rispetto al valore medio 1961-1990. La linea scura rappresenta la tendenza media fino al 1900 (Fonte: Kaufman. et al., 2009)

5. “Dal 2015 al 2017 la Terra è stata colpita da El Niño, e sono stati gli anni peggiori da quando il fenomeno è iniziato nel 1998” 

Il fenomeno El Niño è iniziato da quando esistono le correnti oceaniche: un recente studio, ad esempio, ne ha ricostruito il comportamento negli ultimi 600 anni a partire da fossili di coralli rinvenuti sul fondo del Pacifico equatoriale (si veda McGregor et al., 2013). Il fenomeno El Niño è monitorato con precisione dall’inizio degli anni ’90 e non produce alcun calore, si limita a ridistribuire in superficie il calore assorbito in profondità. El Niño e la Niña (il fenomeno opposto) sono una delle principali espressioni della variabilità interna del clima alla scala interannuale e non possono quindi certo spiegare una tendenza a lungo termine nelle temperature medie globali. Come si nota per la Figura 5, il riscaldamento è evidente anche per gli anni senza El Niño. Le tendenze al riscaldamento sono 0,18° C per decennio per gli anni con El Niño e La Niña  e 0,16 °C per decennio per gli anni con condizioni di neutralità.

Figura 5. Anomalie delle temperature globali della superficie terrestre dal 1966-2016, dai dati NASA GISS (anomalie rispetto al periodo 1951-1980), con le tendenze lineari per gli anni caratterizzati da El Niño, La Niña, o da condizioni di neutralità (Fonte dati: NASA-GISS, 2017).

6. “Ma le temperature sono scese rapidamente negli ultimi mesi: a gennaio 2017 sono tornate ai livelli del 1998 (e del 2004, 2009, 2013 e 2014)”

Secondo i dati NASA-GISS il mese di gennaio è stato il terzo più caldo dal 1880 a oggi a livello globale, superati solo dalle temperature del gennaio 2015 e gennaio 2016. Il fatto che un singolo mese possa avere temperature inferiori a quelle dello stesso mese negli anni precedenti non ha comunque alcun significato climatologico. I 16 anni più caldi, curve rosse nella figura 6, sono stati registrati dal 2000 in poi.

Figura 6: Andamento delle medie mensili delle temperature medie globali (Fonte dati: NASA-GISS, 2017).

7. “Ci sono buone ragioni per essere molto cauti sui rilevamenti della temperatura di superficie effettuati a partire dal 1880. Questi provengono da un insieme diverso di rilievi, in luoghi che sono cambiati durante gli anni e sono stati effettuati con strumenti variati in maniera significativa nel corso del tempo. Moltissime parti del globo — specialmente gli oceani — non sono stati inseriti nel campione di misurazione del 1880”

Le temperature sono misurate dalla metà del XVIII secolo anche negli oceani (si veda al riguardo Abraham et al., 2013) e omogeneizzate con procedure stabilite da una commissione dell’Organizzazione meteorologica mondiale. Non a caso, sono registrate le anomalie cioè le variazioni rispetto alla media pluridecennale della temperatura misurata con identici strumenti. Inoltre come rendere omogenee le serie storiche è un problema che tutti i climatologi e scienziati della terra si pongono da quando usano i dati e si è sviluppato un intero campo scientifico a sé stante, con una letteratura estesissima (si veda a titolo di esempio Bohm et al., 2001).

Le metodologie statistiche con cui i dati nelle aree urbane sono elaborati per valutare ed eliminare le possibili distorsioni locali sono note, mostrate ad esempio nell’Appendice 3B del Quarto Rapporto di Valutazione dell’IPCC-WG1 (Trenberth et al., 2007). 

Diversi gruppi di ricerca elaborano stime dell’andamento delle temperature globali, ma nonostante la diversità delle stazioni considerate e i diversi modi per effettuare le medie, le differenze fra i dati dei tre centri di ricerca che stimano le temperature globali del pianeta sono molto piccole, sono poca cosa se paragonate al chiaro aumento delle temperature globali del pianeta (si veda la seguente Figura 7).

Da notare l’evidente contraddizione nelle affermazioni di Happer: se da un lato dà credito a ricostruzioni del clima dei secoli passati (quando menziona le temperature nel periodo dei primi insediamenti dei Vichinghi in Groenlandia), dall’altro mette in discussione l’attendibilità delle stime delle temperature superficiali dalla fine del XIX secolo ad oggi, basate su osservazioni dirette.

Figura 7: Anomalia delle temperature medie globali dal 1880 al 2016 secondo diversi dataset (Fonte: Schmidt e Arndt, 2017)

8. “Nelle ultime decadi, la lettura delle temperature del passato è stata «adeguata» a quelle attuali, cosicché il passato sembrasse più freddo e il presente più caldo, creando l’illusione di un apparente crescente tasso di calore”. 

Le correzioni, le omogeneizzazioni e l’aggiunta delle anomalie registrate da strumenti più precisi, come le boe Argo, hanno fatto calare il tasso di riscaldamento medio del secolo scorso, come mostrato in Figura 8 e discusso ad esempio in Karl et al. (2015) e  Hausfather et al. (2017).

Da notare l’ulteriore contraddizione in cui Happer cade: se effettivamente le vecchie misure «provengono da un insieme diverso di rilievi, in luoghi che sono cambiati durante gli anni e sono stati effettuati con strumenti variati in maniera significativa» allora bisogna renderle omogenee; quando questo viene fatto però parte l’accusa che le serie storiche siano state “adeguate”. In ogni caso, sia le serie omogeneizzate che quelle non omogeneizzate mostrano un chiaro riscaldamento, come mostrato in Figura 8. 

Figura 8: Temperature medie globali (dati NOAA): dati grezzi, dati corretti e valore delle correzioni effettuate (Fonte: Hausfather, 2016)

9. “Dal mio punto di vista, i migliori strumenti di misurazione della temperatura sono quelli satellitari della bassa atmosfera. Essi deducono la temperatura dall’intensità delle microradiazioni termiche emesse dalle molecole d’ossigeno. Se prendiamo quelle, mostrano solo un lieve riscaldamento a partire dal 1979 — anno di inizio delle rilevazioni satellitari —, di sicuro inferiore al dato che arriva dalle misurazioni di superficie”

Le misure satellitari sono meno affidabili di quelle effettuate alla superficie, come dichiarato da chi pubblica i dati di queste misure. I motivi sono legati alle difficoltà pratiche delle misure stesse: i sensori guasti non si possono sostituire, i satelliti modificano la loro traiettoria. Gli algoritmi di “interpretazione” della serie HUA, alla quale Happer si riferisce, sono cambiati ogni volta che i climatologi ne hanno rilevato gli errori (si veda per esempio Mears e Wentz, 2005; Po-Chedley et al. 2015; Swanson, 2017).

Alcune tesi molto in voga alla fine degli anni ’90, che indicavano un presunto raffreddamento della bassa e media troposfera (contrariamente al riscaldamento della superficie), sono state abbandonate dopo che si è visto che i dati che mostravano il raffreddamento di questi strati dell’atmosfera erano sbagliati, legati a errori nei metodi di elaborazione e interpretazione dei dati dei satelliti e delle radiosonde che misurano queste temperature (Seidel et al., 2016). Le anomalie delle temperature medie globali della bassa troposfera da diversi dataset relative al periodo 1981-2010 sono mostrate in Figura 9.

In seguito la discussione ha riguardato la diversità dei ratei di riscaldamento di una parte di troposfera sopra i tropici; si tratta di una parte limitata dell’intero globo, ma questo particolare è stato spesso omesso (anche da Happer) per non far sembrare l’argomento piuttosto insignificante, come è in effetti. È stato dimostrato che se si tiene conto dei rispettivi intervalli di incertezza non ci sono chiare discrepanze fra i dati osservati e i risultati dei modelli (Santer et al., 2008). 

Numerose rianalisi effettuate da ricercatori indipendenti hanno confermato che le temperature in troposfera seguono lo stesso andamento di quelle di superficie. Fra gli studi più autorevoli si può citare il rapporto dello statunitense Climate Change Science Program - Subcommittee on Global Change Research (Karl et al., 2006), nel cui Executive summary è scritto chiaramente: “Previously reported discrepancies between the amount of warming near the surface and higher in the atmosphere have been used to challenge the reliability of climate models and the reality of human induced global warming. Specifically, surface data showed substantial global-average warming, while early versions of satellite and radiosonde data showed little or no warming above the surface. This significant discrepancy no longer exists, because errors in the satellite and radiosonde data have been identified and corrected. New data sets have also been developed that do not show such discrepancies.

Riguardo alla presunta discrepanza nel descrivere il riscaldamento della troposfera tra i dati delle radiosonde e dei satelliti, un’analisi approfondita è stata fatta dal 5° Rapporto IPCC – Primo Gruppo di Lavoro – Capitolo 2, nella cui introduzione è scritto con chiarezza: “Based on multiple independent analyses of measurements from radiosondes and satellite sensors it is virtually certain that globally the troposphere has warmed and the stratosphere has cooled since the mid-20th century” (Hartmann et al., 2013).

Figura 9: Anomalie delle temperature medie globali della bassa troposfera, da diversi dataset, relative al periodo 1981-2010 (Fonte: Hartmann et al., 2013)

10. “In base ai principi fondamentali della fisica, il cambiamento climatico nella bassa atmosfera misurato dai satelliti dovrebbe essere maggiore, del 15% circa, di quello misurato sulla superficie. Il motivo? L’ulteriore vapore acqueo che viene rilasciato quando la superficie si riscalda. Ma non è successo, di conseguenza il fatto che il cambiamento climatico misurato sulla superficie sia maggiore di quello rilevato tramite i satelliti sembra violare alcune leggi fondamentali della fisica”

L’affermazione secondo cui nella bassa atmosfera dovrebbe esserci un “15%” in più del “cambiamento climatico” misurato alla superficie è priva di senso scientifico, in quanto il termine “cambiamento climatico” è un termine molto generico, valido anche per un cambiamento di diminuzione delle temperature. 

I gas serra rimandano verso le terre emerse e gli oceani parte della radiazione infrarossa (termica) precedentemente emessa dalla superficie che, di conseguenza, tipicamente si scalda più del resto della troposfera (Figura 10), come in effetti registrato dai dati disponibili, senza che leggi fondamentali della fisica siano violate. I dati mostrano non solo che la troposfera (i primi 10 km di atmosfera) si riscalda, ma che la stratosfera e gli strati ancora superiori si raffreddano (Laštovička J. et al., 2006), proprio come previsto per l’incremento dei gas serra: solo una piccola parte della radiazione infrarossa emessa dalla superficie terrestre, infatti, riesce a raggiungere la bassa stratosfera a fronte di una parte molto più cospicua che viene intrappolata al suolo dai gas serra presenti nella troposfera. In sostanza, la bassa stratosfera si raffredda perché l’assorbimento della radiazione infrarossa da parte dei gas serra ivi presenti è inferiore rispetto all’emissione della radiazione da parte degli stessi verso l’alto, emissione che genera appunto raffreddamento.

Figura 10: Schematizzazione della variazione della temperatura con la quota (Fonte: Karl et al., 2006)

11. “Anche se l’aumento di temperatura riportato è corretto, questo è dovuto soprattutto al riscaldamento naturale della Terra, che ha cominciato a riprendersi dalle temperature minime della «Piccola Era Glaciale», che ha raggiunto il suo picco nel XVIII secolo. Una piccola porzione del riscaldamento globale può provenire dal CO2 aggiuntivo, che in ogni caso è un gas serra che provoca riscaldamento” 

Le cause “naturali” delle variazioni della temperatura terrestre (principalmente attività solare, eruzioni vulcaniche) non possono in alcun modo spiegare il riscaldamento avvenuto dal 1750 ad oggi (Figura 11). Le variazioni dell’attività solare e l’attività vulcanica, che hanno causato la lieve diminuzione delle temperature globali nel XVIII e XIX secolo (periodo comunemente ma impropriamente chiamato “piccola era glaciale”) hanno avuto un ruolo estremamente ridotto nel riscaldamento successivo a questo periodo. Il valore della forzante solare dal 1750 al 2011 è stimato in 0,05 W/m2, contro un forzante riscaldante dei gas serra di 3 W/m2, e un forzante complessivo, comprendente l’effetto raffreddante degli aerosol, di 2,3 W/m2 (IPCC, 2013).

Contrariamente a quanto afferma Happer, ad oggi non è stato identificato nessun meccanismo naturale in grado di spiegare in modo plausibile il riscaldamento del pianeta osservato negli ultimi 150 anni.

Figura 11: Stima centrale e incertezza del riscaldamento osservato e attribuito alle diverse cause, nel periodo 1951-2010 (Fonte: IPCC, 2013 - WG1 Fig 10.5).

12. “Tuttavia dire che le temperature in rialzo dipendono dalla combustione dei combustibili fossili è semplicemente un dogma, una linea condivisa, supportata da scienza «preconfezionata». In definitiva: buona parte del cambiamento si deve alla ripresa dall’era glaciale con una piccola aggiunta dovuta alla combustione”

L’accusa di Happer all’intera scienza del clima di essere “preconfezionata” è totalmente priva di fondamento e indica l’adesione a teorie complottiste di scarso spessore culturale e scientifico. In realtà, la fisica e la chimica dei gas, nonché esperimenti e osservazioni compiute in tutto il mondo, supportano e confermano i risultati della scienza del clima, i cui fondamenti sono noti da più di un secolo (Arrhenius, 1896).

Inoltre, le simulazioni effettuate con modelli climatici numerici mostrano in modo inequivocabile come le forzanti naturali da sole non siano in grado di spiegare il trend positivo osservato nella temperatura media superficiale; solo includendo le forzanti antropogeniche i risultati dei modelli si riconciliano con le osservazioni (Figura 12).

Il ruolo fondamentale delle forzanti antropogeniche nel causare il riscaldamento globale recente è stato corroborato recentemente con due approcci modellistici completamente diversi e indipendenti da quelli dei modelli dinamici (si veda Pasini e Mazzocchi, 2015, e i riferimenti ivi inclusi), rafforzando quindi ulteriormente la solidità dell’attribuzione ai gas serra del riscaldamento globale in atto.

Figura 12: Confronto fra andamento delle temperature globali osservate (linea nera) e ricostruite dai modelli climatici (linea rossa) a) considerando tutte le forzanti b) considerando solo le forzanti naturali (Fonte: IPCC, 2013, AR5, Fig. 10.1)

13. “Il diossido di carbonio è una sostanza inquinante? Mi stupisco anche solo della domanda. Il nostro respiro contiene tra 40 mila e 50 mila parti per milione (ppm) di CO2. Significa che ognuno di noi espira un chilogrammo al giorno della presunta sostanza «inquinante». E ognuno di noi evacua milioni di microbi benefici al giorno che inquinano acqua e suoli causando patologie varie, motivo per cui esistono le fognature e i depuratori. Gli astronauti della International Space Station passano mesi a respirare un’aria con 1.000 ppm o più di anidride carbonica, e così gli equipaggi dei sottomarini” 

Anche se la CO2 non è un inquinante tradizionalmente considerato per l’inquinamento atmosferico perché non costituisce un diretto problema per la salute ai livelli attuali, i suoi effetti dannosi indiretti sulla salute e sugli ecosistemi, a causa del riscaldamento globale indotto o dell’acidificazione degli oceani, hanno portato comunque a classificarlo (anche dal punto di vista legale) come una sostanza “inquinante”, di cui è necessario limitare l’aumento della composizione dell’atmosfera. 

Livelli di CO2 pari a 1000 ppm protratti per mesi causano mal di testa, nausea, disturbi respiratori, cardiocircolatori e cognitivi e altri sintomi detti collettivamente “sick-building syndrome” (Erdmann et al., 2002). 

Come i sommergibili, la Stazione Spaziale è dotata di “carbon scrubbers” per mantenere la concentrazione sotto gli 800-900 ppm. La suscettibilità varia da persona a persona (età, sesso, peso ecc), ma per la salubrità degli edifici il livello non dovrebbe superare i 550 ppm (Allen et al., 2016).

14. “Per la maggior parte della storia geologica, i livelli di CO2 sono stati molte migliaia di ppm. I livelli attuali dell’aria che respiriamo sono di 400 ppm, più alti dei 300 ppm di qualche secolo fa. Quando si scende a 150 ppm, molte piante cominciano a morire. Gli attuali standard sono dannosi per parecchi vegetali, che avrebbero bisogno di 1.000 ppm e più”. Un contributo all’importante crescita dei rendimenti agricoli nell’ultimo secolo è dovuto proprio al lieve aumento di CO2, da circa 300 a 400 ppm, parte del quale arriva anche dalla combustione dei combustibili fossili. Una delle ragioni per cui le piante vivono bene con livelli alti di CO2 è che le rendono meno suscettibili alla siccità. Un’altra ragione è che maggiore anidride carbonica rende la fotosintesi più efficiente, permettendo alle piante di perdere meno energia quando affrontano la fotorespirazione, passaggio che rappresenta invece un ostacolo alla loro efficienza in caso di bassi livelli di CO2, come quelli attuali, e di alti livelli di ossigeno O2”

Per tutti gli ultimi 800.000 anni, i livelli di CO2 sono stati nettamente inferiori a quelli attuali, come si può facilmente rilevare da tutte le ricostruzioni dei livelli di CO2 (si veda ad esempio Siegenthaler et al., 2005). Per trovare livelli più alti degli attuali, bisogna risalire al Pliocene, circa 2,5-3,5 milioni di anni fa: era il tempo dell’Australopithecus, prima della comparsa del genere Homo e in particolare di Homo sapiens, comparso circa 200.000 anni fa. Le concentrazioni di CO2 sono state inferiori a 1000 ppm per la maggior parte del tardo Panerozoico, gli ultimi 300-400 milioni di anni (Frank et al., 2014), in periodi in cui era diversa la posizione dei continenti, erano diversi i cicli biogeochimici, il livello del mare, la produttività della biosfera e lo stesso Sole aveva una emissione di circa 0.9 W/m2 inferiore ad oggi.

Un aumento del 33% dei livelli di CO2 dell’atmosfera, da 300 a 400 ppm, in soli 100 anni, non è affatto “lieve”, ed è dovuto in larga parte all’uso dei combustibili fossili. 

La tesi secondo cui il solo aumento delle concentrazioni di CO2 determina un aumento delle produzioni agricole, indipendentemente da altri fattori e da altre conseguenze legate all’aumento della CO2 stessa, non ha fondamento scientifico. 

Innanzitutto, contrariamente da quanto sostenuto da Happer, l’aumento delle rese agricole nell’ultimo secolo è dovuto principalmente alla maggior superficie coltivata, alla meccanizzazione, all’uso di fertilizzanti, di ibridi più produttivi e altre innovazioni (FAO, 2016); l’effetto di “fertilizzazione” dei maggiori livelli di CO2 è secondario. 

Tutti gli esperimenti in campo aperto indicano che la maggior concentrazione atmosferica di CO2 favorisce lo sviluppo di fogliame e steli dove abbondano acqua, azoto, nutrienti e microbi nel suolo, ma fa declinare le rese alimentari, riducendo la quantità di semi e frutti (Long et al., 2006). 

Fanno eccezione la soia, a certe latitudini, e i cereali “C4” come il mais, a condizione che resistano alla siccità, alle alluvioni, e soprattutto ai picchi di calore durante la stagione della crescita in grado di danneggiare lo sviluppo di radici, stelo e foglie (Bita e Gerats, 2013). Come noto, l’aumento delle temperature legato all’aumento della CO2 comporta un aumento delle ondate di calore primaverili e estive, delle siccità prolungate e degli incendi, che non giovano né alle foreste né alle coltivazioni. L’aumento delle temperature minime notturne ha avuto ad esempio un effetto di riduzione delle rese di riso nelle Filippine (Peng et al., 2004). L’aumento di temperatura potrà inoltre ampliare lo spazio d’azione di molti parassiti agricoli ed aumentare la capacità dei parassiti di sopravvivere l'inverno e attaccare le colture primaverili (Schmidhuber e Tubiello, 2007).

Figura 13: Zone ottimali della resa di monocotiledoni e dicotiledoni in funzione della concentrazione di CO2 in atmosfera e della temperatura diurna nel periodo di accrescimento (Fonte: Ehleringer et al., 1997) 

Riferimenti bibliografici

Abraham et al. (2013) A review of global ocean temperature observations: Implications for ocean heat content estimates and climate change. Review of Geophysics, 51, 450-483.

Allen et al. (2016) Associations of Cognitive Function Scores with Carbon Dioxide, Ventilation, and Volatile Organic Compound Exposures in Office Workers: A Controlled Exposure Study of Green and Conventional Office Environments. Environmental Health Perspectives, 124, 805-812.

Arrhenius (1896) On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground. Philosophical Magazine and Journal of Science, 41, 237-276.

Bita e Gerats (2013) Plant tolerance to high temperature in a changing environment: scientific fundamentals and production of heat stress-tolerant crops. Front Plant Sciv, 4, 1-18.

Bohm et al. (2001) Regional temperature variability in the European Alps: 1760–1998 from homogenized instrumental time series. Int. J. Climatol. 21, 1779–1801.

Büntgen et al. (2011) 2500 Years of European Climate Variability and Human Susceptibility Science, 331, 578-582.

Clark et al. (2016) Consequences of twenty-first-century policy for multi-millennial climate and sea-level change. Nature Climate Change, 6, 360-369.

Diffenbaugh e Field (2013) Changes in Ecologically Critical Terrestrial Climate Conditions. Science, 341, 486-492.

Ehleringer et al. (1997) C4 photosynthesis, atmospheric CO2, and climate. Oecologia, 112, 285-299.

Erdmann et al. (2002) Indoor carbon dioxide concentrations and sick building syndrome symptoms in the base study revisited: analyses of the 100 building dataset. Proceedings: Indoor Air 2002, 443-448.

Etkin et al. (2010) A state space view of the ice ages—a new look at familiar data. Climatic Change, 100, 403–406.

FAO (2016) Climate change, agriculture and food security. Food and Agriculture Organization of the United Nations.

Frank et al (2014) New constraints on atmospheric CO2 for the Phanerozoic. Geophysical Research Letters, 41, 4685-4694.

Gerhart e Ward (2010) Plant responses to low [CO2] of the past. New Phytol. 188, 674-95.

Hartmann et al. (2013) Observations: Atmosphere and Surface. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, Cambridge University Press.

Hausfather (2016) cit. in Nucitelli (2016) No climate conspiracy: NOAA temperature adjustments bring data closer to pristine. Then Guardian, 8 febbraio.

Hausfather et al. (2017) Assessing recent warming using instrumentally homogeneous sea surface temperature records, Science Advances, 3, 1-13.

IPCC (2007) Summary for policymakers. Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge University Press 

IPCC (2013) Summary for Policymakers. Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge University Press. 

Karl et al. (2006) A Report by the Climate Change Science Program and the Subcommittee on Global Change Research, Washington, DC.  “Temperature Trends in the Lower Atmosphere: Steps for Understanding and Reconciling Differences. Karl T.R, Susan J. Hassol, Christopher D. Miller, and William L. Murray, editors.

Karl et al. (2015) Possible artifacts of data biases in the recent global surface warming hiatus. Science, 348, 1469-1472.

Kaufman. et al. (2009), Recent Warming Reverses Long-Term Arctic Cooling, Science, 325, 1236-1239.

Laštovička J. et al. (2006) Global Change in the Upper Atmosphere. Science, 24, 1253-1254.

Long et al. (2006) Food for thought: Lower than expected crop yield stimulation with Rising CO2 concentrations. Science, 312, 1918-1921.

Marcott et al. (2013) A reconstruction of regional and global temperature for the past 11,300 years, in “Science” 339, 1198-1201.

McGregor et al. (2013) Inferred changes in El Niño–Southern Oscillation variance over the past six centuries. Climate of the Past, 9, 2269-2284.

Mears e Wentz (2005) The Effect of Diurnal Correction on Satellite-Derived Lower Tropospheric Temperature. Science, 309, 1548-1551.

NASA-GISS (2017) GISS Surface Temperature (GISTEMP) Analysis – Global Land+Ocean Surface Temperature Anomaly, NASA Goddard Institute for Space Studies.

Pasini & Mazzocchi (2015) A multi-approach strategy in climate attribution studies: is it possible to apply a robustness framework? Environmental Science & Policy 50, 191-199.

Peng et al. (2004) Rice yields decline with higher night temperature from global warming. PNAS, 101, 9971–9975.

Po-Chedley et al. (2015) Removing Diurnal Cycle Contamination in Satellite-Derived Tropospheric Temperatures: Understanding Tropical Tropospheric Trend Discrepancies. Journal of Climate, 30.

Santer et al. (2008) Consistency of modelled and observed temperature trends in the tropical troposphere. International Journal of Climatology, 28, 1702-1722.

Schmidhuber J, Tubiello FN (2007) Global food security under climate change. Proc. Natl. Acad. Sci. U.S.A. 104, 19703–19708.

Schmidt e Arndt (2017) NASA/NOAA Annual Global Analysis for 2016.

Seidel et al (2016) Stratospheric temperature changes during the satellite era. Journal of Geophyshical Research: Atmosphere. 121, 664–681.

Siegenthaler et al. (2005) Stable Carbon Cycle–Climate Relationship During the Late Pleistocene. Science, 310, 5752, pp.1313-1317.

Swanson (2017) A Comparative Analysis of Data Derived from Orbiting MSU/AMSU Instruments. Journal of Atmospheric and Oceanic Technology. 34.

Trenberth et al. (2007) Observations: Surface and Atmospheric Climate Change. Cap. 3 di “Climate Change 2007: The Physical Science Basis”, IPCC, Appendice 3B.


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why have neural networks won the Nobel Prizes in Physics and Chemistry?

This year, Artificial Intelligence played a leading role in the Nobel Prizes for Physics and Chemistry. More specifically, it would be better to say machine learning and neural networks, thanks to whose development we now have systems ranging from image recognition to generative AI like Chat-GPT. In this article, Chiara Sabelli tells the story of the research that led physicist and biologist John J. Hopfield and computer scientist and neuroscientist Geoffrey Hinton to lay the foundations of current machine learning.

Image modified from the article "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

The 2024 Nobel Prize in Physics was awarded to John J. Hopfield, an American physicist and biologist from Princeton University, and to Geoffrey Hinton, a British computer scientist and neuroscientist from the University of Toronto, for utilizing tools from statistical physics in the development of methods underlying today's powerful machine learning technologies.