GW continues to break records, in the silence of media.

GW continues to break records, in the silence of media.

No news, no bad news, says a proverb. Since last October, 2015, the news is always the same: monthly global temperature anomaly has updated previous record of heat. At least, considering GISS database, that start from 1880. Ten consecutive months, including also the month of June 2016, in which the anomaly was equal to that of June 2015 (and higher than others). Never occurred before. With August well positioned for beating its warm record, the only hope fror avoiding a complete year of records is kept in the month of September. This when ENSO index has turned versus its negative phase, as this global SST animation shows. And this is not a good news.

Below, the update of the plots shown some months ago using linear and spiral visualization, and including the data until July. It is evident in both figures as the red line from October 2015 constitutes the upper border of the temperature ensemble.

linear_data_animation

Anomaly of monthly global mean temperatures, according with GISS database. Linear visualization.

Both visualizations show the beginning of the actual warming phase, in late 1980’s, and the violent acceleration in last nine months, much larger than those observed in previous large El Niño (positive phase of ENSO) episodes.

spiral_data_animation

Anomaly of monthly global mean temperatures, according with GISS database. Spiral viualization.

Despite these alarming data, the news about the continuous records of global temperatures does not attract public opinion too much. A research of “global warming” keywords on google trends gives a signal slowly decreasing since the peak of 2007, perhaps due to the book and movie of Al Gore “An inconvenient truth”.

trends-gw

“Global warming” key according with google trends.

Of course, soccer and olympic games, or actresses gossips, or Pokemons, are much more attractive news for common people. After all, global temperatures involve just the earth…

Annunci
The insane temperature rise of our planet

The insane temperature rise of our planet

Climate change is an issue that is not yet capturing the public opinion as it should do. One of the reasons is that the year-be-year temperature variations, at global scale, are much smaller than day-by-day variations at local scale, or seasonal variations at global or local scale. However, there is a certain parallelism between the body temperature of a person and the climate. If one records its body temperature every minute of a day, he will discover some daily variations, which could vary little less than 1 °C. Also, different persons can have different mean body temperatures, with values spanned over 1 °C or sligthly more, depending on each personal condition. An athlete immediately after a competition, or a normal person after a stressing exercise, can have a body temperature even 1°c or more superior to its normal mean. Well, these normal variations represent the “weather” of the person, and do not indicate necessarily the presence of a pathology.

However, if the temperature of a certain person start rising, more or less regularly, in the time, this variation represents a sort of “climate” of the person, with is changing, and may be a symptom of something not necessarily good for the health of the person. This is true even if such “climate” variation could be smaller than those that we have previously called “weather” variations. The scientific problem is thus to distinguish normal variations from abnormal variations, differentiating the scales. While the communication problem is how to inform in a correct but clear way the people about such dynamics.

We have now the fortune of having available more than one century of meteorological observations, carried out in several meteorological stations displaced in various places in the Earth. Several climatic centers have collected a subset of these data and have performed some analyses on such data, in order to exclude anomalous trends or data. And have calculated an estimate of the global mean temperature. Since the choice of stations and the treatment of data has been different from centre to centre, there are some differences among the datasets, but the emerging signal is univoque and incontestable: global mean temperature is increasing.

Furthermore, several climatic models (that, more properly, are now called Earth System Models) have been run by different teams to simulate the future climate of the Earth. Despite each individual model tends to give a particular answer, the current method to consider such kind of projections is to consider the ensemble of the results of a wide set of models. This has been performed, for instance, during the experiment CMIP5, whose preliminary results have constituted the core of the findings of the last IPCC report.

With Stefano Caserini, coordinator of Italian blog climalteranti.it, we have had the idea of combining the two informations, data and models, in a visual way. We have chosen as dataset the GISS and as model the CMIP5 ensembles, by selecting three different scenarios adopted: the RCP 2.6, the RCP 4.5, and the most extreme RCP 8.5, respectively corresponding to low, medium, and high emissions. In particular, RCP 8.5 scenario outlines what we would expect if the emissions will continue to change as they did until now (i.e. with a continuous increment).

Monthly climate change - GISS + RCP 8.5

Evolution of monthly mean temperature anomalies from 1880 to 2100, referred to the period 1880-1909. the observations relative to the period January 1880 – April 2016 are extraxted from dataset GISS, while the simulation data, relative to the period 2017-2100, have been gathered from the ensemble values of experiment CMIP5, in this case selecting the extreme high-emissions scenario RCP 8.5.

This is instead the case of the milder scenario RCP 2.6:

GISS + RCP 2.6

Evolution of monthly mean temperature anomalies from 1880 to 2100, referred to the period 1880-1909. the observations relative to the period January 1880 – April 2016 are extraxted from dataset GISS, while the simulation data, relative to the period 2017-2100, have been gathered from the ensemble values of experiment CMIP5, in this case selecting the low-emissions scenario RCP 2.6.

while this is the animation of the intermediate scenario RCP 4.5:

GISS + RCP 4.5

Evolution of monthly mean temperature anomalies from 1880 to 2100, referred to the period 1880-1909. the observations relative to the period January 1880 – April 2016 are extraxted from dataset GISS, while the simulation data, relative to the period 2017-2100, have been gathered from the ensemble values of experiment CMIP5, in this case selecting one of the intermediate scenarios, i.e. the medium-emissions RCP 4.5 .

Model simulations data are available in the period 1860-2100, while GISS observations refer to the period 1880-2016 (last datum is April). I have merged those two datasets by evaluating in each case the respectively anomaly in the common period 1880-1909 (a 30-year period, as usually it is done in climate analyses).

I have visualized the result with two different methods. I have used the spiral method of monthly anomalies, originally developed by Ed Hawkins for HadCRUT data, and I have considered the linear plot of montly anomalies, as done by myself in a recent post with HadCRUT data.

The first method is discussed in detail in this post of climalteranti.it, thus here I will describe the second, adding some short general considerations (short because I believe that these plots can talk by themselves).

These are, in my opinion, two different but impactive ways to visualize the climate change which is going on. The animations start from 1880 and, month by month, show the temperature variations up to April 2016. It is evident the initial cooling in the first decade of 1900, the warming between 1920 and 1930, the stationariety in the decade of the WWII, another weak warming immediately after, then a stasis between 1960 and 1970, and then rapid increase of warming rate since 1980, with last fifteen years able to update at least one montly record almost every year. Until the anomalous period of last nine months, which places completely out of the above range.

Future climate simulations by CMIP5 scenarios show a continuous warming, almost similar for all three scenarios up to 2030, then rapidly differentiating. Note that warming rate of models is more regular, due to the fact that these data represent an ensemble and are not just the output of a single model. The anomalous warmest records established from January to April 2016 seems to be updated around 2025-2030, when those values would become the regular climate. Then, after 2030, different scenarios start to differentiate from each other, with just the common result to show a larger anomaly in winter. At the end of this century, even in the low emissions scenario (RCP 2.6), a season like the last one will be regarded as a cool period. But, if we look at the most extreme scenario (RCP 8.5, corresponding to high emissions), it will be regarded as a sort of mini-ice age…

The scenarios begin to differentiate from about 2030… there is still a few time for trying to make occurring the mild scenario RCP 2.6 instead of the extreme RCP 8.5 one… not too much time, because greenhouse gases increases inexorably, and consequent global warming too.

We can choose… we must choose!

La temperatura malata del nostro pianeta

La temperatura malata del nostro pianeta

Il cambiamento climatico è una tematica che non cattura ancora l’opinione pubblica come dovrebbe. Una ragione è che le fluttuazioni termiche annue, a scala globale, sono molto più piccole delle variazioni diurne a piccoal scala, o di quelle stagionali a scala locale o globale. Tuttavia, si può notare un certo parallelismo tra la temperatura corporea di una persona e il clima. Se uno monitorasse la propria temperatura corporea in ogni minuto del giorno, noterebbe alcune variazioni diurne di poco meno di 1 °C. Inoltre, persone diverse possono avere temperature corporee diverse, anche in questo caso con variazioni di 1 °C o più, anche in funzione delle proprie condizioni personali. Un atleta, immediatamente dopo una gara, o una persona normale dopo un esercizio stressante, possono avere una temperatura corporea superiore anche di 1 °C rispetto alla norma. Bene, queste variazioni normali rappresentano il “tempo meteorologico” di una persona, e non indicano necessariamente la presenza di qualche malattia.

Tuttavia, se la temperatura di qualcuno inizia ad aumentare, più o meno regolarmente, nel tempo, questa variazione rappresenta una sorta di “clima” di una persona, che sta cambiando, e può essere il sintomo di qualcosa non necessariamente positivo per la salute della persona. Questo è vero anche se queste variazioni “climatiche” sono inferiori a quelle che in precedenza abbiamo chiamato variazioni del “tempo meteorologico”. Il problema scientifico è quindi distinguere le variazioni normali da quelle anormali, differenziandone le scale. Mentre il problema comunicativo è come informare l’opinione pubblica, in modo corretto ma comprensibile, riguardo a queste dinamiche.

Abbiamo la fortuna di avere a disposizione oltre un secolo di osservazioni meteorologiche, eseguite in diverse stazioni dislocate in varie località della Terra. Molti centi climatici hanno raccolto dei sottoinsiemi di questi dati e li hanno analizati, in maniera da eliminare i trend o i dati anomali. E hanno calcolato una stima della temperatura media globale. Poiché la scelta delle stazioni ed il trattamento dei dati è stato differente da centro a centro, ci sono alcune differenze tra i vari dataset, anche se il segnale che emerge è abbastanza univoco e incontestabile: la temperatura media globale sta aumentando.

Inoltre, diversi modelli climatici (ora si chiamano più propriamente Earth System Models, cioè modelli del sistema terrestre) sono stati fatti girare da vari gruppi di ricerca per simulare il clima terrestre futuro. Anche se ogni modello tende a fornire una risposta particolare, oggi si preferisce guardare a questo tipo di proiezioni considerando l’insieme de irisultati di un ampio gruppo di modelli. Questo è stato fatto, ad esempio, nel corso dell’esperimento CMIP5, i cui risultati preliminari hanno costituito il nucleo delle affermazioni riportate sull’ultimo rapporto IPCC.

Con Stefano Caserini, coordinatore di climalteranti.it, abbiamo avuto l’idea di combinare le due informazioni, dati e proiezioni modellistiche, in modo visuale. Abbiamo scelto come dataset quello del GISS, e come dati modellistici gli insiemi dell’esperimento CMIP5, selezionando tre diversi scenari: RCP 2.6, RCP 4.5 e il più estremo RCP 8.5, corrispondenti rispettivamente ad emissioni basse, medie e alte. In particolare, lo scenario RCP 8.5 corrisponde a quello che ci si aspetteremmo che succedesse nel caso in cui le emissioni proseguissero a variare come hanno fatto finora (cioè con un continuo incremento):

Monthly climate change - GISS + RCP 8.5

Evolution of monthly mean temperature anomalies from 1880 to 2100, referred to the period 1880-1909. the observations relative to the period January 1880 – April 2016 are extraxted from dataset GISS, while the simulation data, relative to the period 2017-2100, have been gathered from the ensemble values of experiment CMIP5, in this case selecting the extreme high-emissions scenario RCP 8.5.

Qui vediamo invece la situazione che ci aspettiamo secondo lo scenario “migliore”: RCP 2.6:

Monthly climate change - GISS + RCP 2.6

Evolution of monthly mean temperature anomalies from 1880 to 2100, referred to the period 1880-1909. the observations relative to the period January 1880 – April 2016 are extraxted from dataset GISS, while the simulation data, relative to the period 2017-2100, have been gathered from the ensemble values of experiment CMIP5, in this case selecting the low-emissions scenario RCP 2.6.

mentre qui è presentato qullo intermedio RCP 4.5:

Monthly climate change - GISS + RCP 4.5

Evolution of monthly mean temperature anomalies from 1880 to 2100, referred to the period 1880-1909. the observations relative to the period January 1880 – April 2016 are extraxted from dataset GISS, while the simulation data, relative to the period 2017-2100, have been gathered from the ensemble values of experiment CMIP5, in this case selecting one of the intermediate scenarios, i.e. the medium-emissions RCP 4.5 .

Le simulazioni modellistiche sono disponibili nel periodo 1860-2100, mentre le osservazioni GISS si riferiscono al periodo 1880-2016 (l’ultimo dato è quello di aprile). Ho integrato i due dataset calcolando per ognuno la rispettiva anomalia (differenza rispetto alla media) nel periodo comune 1880-1909 (un trentennio, come di solito si fa nelle analisi climatiche).

La visualizzazione del risultato l’ho fatta in due modi diversi. Ho usato il metodo a spirale delle anomalie mensili, sviluppato orinariamente da Ed Hawkins per i dati HadCRUT, ed ho anche mostrato un grafico lineare delle anomalie mensili, come avevo fatto in un post recente per visualizzare i dati HadCRUT. Il primo dei due metodi è visualizzato in dettaglio in questo post su climalteranti.it, per cui qui di seguito descriverò il secondo e farò alcune brevi considerazioni generali (brevi perché ritengo che i grafici parlino da soli).

Si tratta di due metodi diversi ma efficaci per visualizzare il cambiamento climatico in corso e quello che ci attende. Le animazioni iniziano dal 1880 e, mese per mese, mostrano le variazioni di temperatura fino ad aprile 2016. Si vede bene il raffreddamento nel primo decennio del 1900, il riscaldamento tra il 1920 e il 1930, la stazionarietà nel decennio della seconda guerra mondiale, il successivo piccolo riscaldamento, la nuova stasi tra il 1960 ed il 1970, e poi il rapido incremento del rateo di riscaldamento a partire dal 1980, con gli ultimi quindici anni in grado di aggiornare almeno un record mensile praticamente ogni anno. Fino ad arrivare al periodo anomalo degli

ultimi nove mesi, che si colloca totalmente al di fuori dal range dei valori precedenti.

Le simulazioni climatiche future degli scenari CMIP5 mostrano un continuo riscaldamento, praticamente analogo per i tre scenari fino al 2030, dopodiche gli scenari si differenziano nettamente tra loro. Notiamo anche che il rateo di riscaldamento fornito dai modelli è più regolare, grazie al fatto che questi dati sono rappresentativi di un insieme e non il risultato di un modello singolo. I valori anomali registrati nel quadrimentre gennaio-aprile 2016 sembrano rientrare nelle medie intorno al 2025-2030, quando saranno rappresentativi del “clima normale” di quegli anni.

Dopo il 2030, come si diceva, gli scenari si differenziano rapidamente, con l’unico risultato comune di un riscaldamento più sensibile d’inverno. A fine secolo, anche secondo lo scenario di basse emissioni (RCP 2.6), una stagione come l’ultima trascorsa apparirà come un periodo freddo. Ma, se si guarda lo scenario più estremo (RCP 8.5, che corrisponde alle emissioni alte), apparirà quasi come una sorta di mini-era glaciale…

Gli scenari iniziano a differenziarsi intorno al 2030… c’è ancora un briciolo di tempo per cercare di far verificare lo scenario sopportabile RCP 2.6 invece di quello estremo RCP 8.5… non tanto tempo, perchè i gas serra aumentano inesorabilmente, e il conseguente riscaldamento globale anche.

Possiamo scegliere… dobbiamo scegliere!

Global temperature change, month by month

Global temperature change, month by month

Recently, several authors attempted to visualize the exceptionality of the global mean temperatures recorded in last months. Without pretending to be exhaustive, I would mention the very impressive spiralling of Ed Hawkins, or also the animation of monthly temperatures with annual records by Tom Randall & Blacki Migliozzi. I think that it is important to stress about the rapidity and intensity of actual global warming, underlining the word GLOBAL (eventual anomalies of few months in small areas of the planet do not have nothing to do with global warming!).

The following animation is my modest contribution. Starting dataset is still from the CRU, and in particular the dataset HadCRUT4 (filled-in by Cowtan and Way) on climexp website. Such data are already anomalies, but I have performed an additional montly detrending by substracting, month by month, the average of the period 1850-1879.

The animation updates, year by year, the coldest and warmer months.

linear

Il mese di luglio visto dalla stazione di fisica

Il mese di luglio visto dalla stazione di fisica

Le statistiche definitive sul mese di luglio appena trascorso lo archiviano come il mese mediamente più caldo nella serie di osservazioni condotte presso la nostra stazione meteorologica, dislocata sul tetto dell’istituto di fisica.

La stazione meteorologica del Dipartimento di Fisica dell’università di Torino acquisisce dati in modo abbastanza continuativo dal 1992. Abbastanza perché, malgrado negli anni si sia fatto il possibile per garantire un dataset il più continuo possibile di dati, ogni tanto guasti e vicende di vario tipo hanno prodotto alcune lacune temporali. Per avere un database continuo, sono state fatte delle interpolazioni usando alcune serie di dati acquisiti nella città di Torino: in particolare, sono state usate le serie dei dati giornalieri delle stazioni Buon Pastore, Alenia, Giardini Reali, Reiss Romoli, Vallere e Consolata di ARPA Piemonte, e la serie omogeneizzata della Società Meteorologica Italiana. Le interpolazioni dei dati mancanti sono state eseguite calcolando, sui dati disponibili, le rette di regressione (separatamente per temperature massime, medie e minime) rispetto ad ogni stazione, e mediando i vari dati così ottenuti per regressione da ogni stazione. Per la serie omogeneizzata della Società Meteorologica Italiana, che non dispone del dato di temperatura media, questa è stata ricavata come semisomma della minima e della massima.

Al fine di ottenere un database statistico di riferimento con cui raffrontarsi (normalmente il periodo di media usato a tale scopo è il trentennio 1961-90), sono state effettuate a ritroso le ricostruzioni dei dati fino al 1961, quindi essi sono stati mediati nel trentennio.

Media delle temperature minime, medie e massime nel periodo giugno-luglio di ogni anno dall’inizio delle osservazioni. Dati Dip. di Fisica - Unito.

Media delle temperature minime, medie e massime nel periodo giugno-luglio di ogni anno dall’inizio delle osservazioni. Dati Dip. di Fisica – Unito.

Il primo grafico che commentiamo è la media delle temperature nel periodo giugno-luglio di ogni anno dall’inizio delle osservazioni: si vede come il 2015 risulti secondo soltanto rispetto al 2003, che detiene ancora il primato, ma di poco. La differenza maggiore la si riscontra nelle massime (quasi 1 °C), mentre le minime differiscono di circa 0,5 °C.

Se ci limitiamo ai valori medi di luglio, tuttavia, notiamo come il 2015 balzi nettamente in testa, surclassando non solo il luglio 2003 (che non fu straordinario: luglio fu il meno anomalo dei tre mesi estivi) ma anche agosto 2003, mese considerato a lungo imbattibile, anche alcuni giorni fa, quando molti ritenevano difficile poter avere svariate ondate di calore di intensità tale da poter attaccare quel record. Dando un’occhiata ai valori ricostruiti a ritroso fino al 1961, nessun mese ha mai fatto osservare valori termici simili, per cui possiamo concludere che luglio 2015 è stato il mese più caldo almeno dal 1961 ad oggi in area urbana.

Prima di proseguire, due parole sulla significatività dei dati. Chi segue le vicende meteorologiche cittadine ha sicuramente notato come i valori minimi registrati dalla nostra stazione siano particolarmente alti, soprattutto in questi mesi estivi e di notte, e soprattutto se confrontati con le stazioni suburbane e con quelle dislocate su prato. Questo fatto tuttavia non deve sorprendere più di tanto. Le stazioni “a norma” secondo l’organizzazione meteorologica mondiale (WMO) dovrebbero essere posizionate su erba, cosa che in area urbana è difficile da realizzare. D’altra parte, una stazione dislocata su cemento è più rappresentativa delle temperature che si registrano in area urbana. La posizione sul tetto dell’edificio rende il termometro meno legato all’eventuale colorazione scura dell’asfalto e più esposto alle eventuali brezze. D’altra parte, in situazioni di ondate di calore come quelle registratesi nel luglio appena trascorso, suolo e muri si scaldano durante la giornata, trasmettendo il calore anche al’interno, e rimangono caldi anche di notte, emettendo radiazione ad onda lunga che può essere intercettata da altri muri o dagli oggetti come i termometri. Diversa è la situazione di un prato inerbito, se l’erba rimane viva, in quanto la pianta traspira tutto quello che può al fine di abbassare la temperatura delle proprie foglie, e mantiene pertanto il suolo più fresco.

Anomalie delle temperature minime, medie e massime registrate a luglio. Dati Dip. di Fisica - Unito.

Anomalie delle temperature minime, medie e massime registrate a luglio. Dati Dip. di Fisica – Unito.

Passiamo ora a vedere le anomalie delle temperature registrate a luglio: tali anomalie, calcolate rispetto al trentennio 1961-90, risultano tra 5,4 e 6,3 °C, a seconda della temperatura, e sono le maggiori in assoluto per il mese di luglio, superando di oltre 2 °C il valore più alto precedente. Se per le massime tale anomalia non batte (per pochissimo) il valore di quella dell’agosto 2003, di 6,4 °C, per le medie e le minime risulta invece la maggiore in assoluto. Con una deviazione standard delle temperature sul trentennio 1961-90 compresa tra 1,8 e 2,0 °C, tali anomalie risultano pari ad un numero di deviazioni standard compreso tra 4,9 e 5,5. La statistica ci dice che, in una distribuzione nornale, un evento che si allontani dalla media di cinque deviazioni standard ha una probabilità di verificarsi di uno su oltre un milione: è pertanto evidente che la probabilità di avere, in dodici anni, ben due eventi (agosto 2003 e luglio 2015) così lontani dalla media indica che l’insieme statistico non rappresenta più il campione. E questo è vero, in quanto, infatti, le temperature medie stanno aumentando, e manca pertanto il criterio della stazionarietà del campione statistico.

Anomalie delle temperature minime, medie e massime registrate a luglio. Dati Dip. di Fisica - Unito.

Anomalie termiche a luglio rispetto al periodo climatico di riferimento 1961-90 per le temperature minime, medie e massime). Dati Dip. di Fisica – Unito.

Anche il grafico che mostra il numero di giorni, nei vari mesi di luglio del terzo millennio, con superamento di determinate soglie termiche (rispettivamente 27, 30 e 33 °C per le temperature minime, medie e massime) vede primeggiare senza rivali luglio 2015, in cui in ben 26 giornate su 31 è stata superata la soglia delle minime. Neppure agosto 2003 fece registrare così tanti giorni sopra soglia.

numero di giorni, nei vari mesi di luglio del terzo millennio, con superamento di determinate soglie termiche (rispettivamente 27, 30 e 33 °C per le temperature minime, medie e massime

Numero di giorni nei mesi di luglio con superamento di determinate soglie termiche (rispettivamente 27, 30 e 33 °C per le temperature minime, medie e massime). Dati Dip. di Fisica – Unito.

Ragionando non tanto sui valori assoluti ma sulle anomalie (sempre calcolate rispetto al periodo 1961-90), il discorso non cambia, anzi diventa ancora più evidente l’anomalia del mese appena trascorso.

numero di giorni, nei vari mesi di luglio del terzo millennio, con superamento di determinate soglie termiche (rispettivamente 27, 30 e 33 °C per le temperature minime, medie e massime

Numero di giorni, nei vari mesi di luglio del terzo millennio, con anomalie rispetto al periodo di riferimento 1961-90 superiori a 5 °C per le temperature minime, medie e massime. Dati Dip. di Fisica – Unito.

Valutando infatti le giornate con anomalie superiori a 5 °C, si vede come, a fronte di svariati anno con valori compresi tra zero e otto, il 2015 svetti con 16 giornate con anomalie delle minime e 23 giornate con anomalie delle massime oltre i 5 °C. Anche in questo caso, agosto 2003 si inchina a luglio 2015…

Dati Dip. di Fisica - Unito.

Temperature minime, medie e massime relative al 2014 (linee sottili), al 2015 (linee spesse) ed alla media climatica 1961-90 (puntini). Dati Dip. di Fisica – Unito.

Ma ho lasciato per ultimo il grafico più eclatante, che rende comprensibile in modo immediato quanto luglio 2015 sia risultato fuori statistica rispetto alla media ed al trentennio climatico 1961-90. In questo grafico vediamo tre terne di curve: minime, medie e massime relative al 2014 (linee sottili), al 2015 (linee spesse) ed alla media climatica (puntini). Beh, che dire: la curva delle temperature medie di luglio 2015 supera spesso la media climatica delle massime, e per 25 giornate su 31 supera le massime registrate un anno fa nello stesso periodo. La stessa cosa vale per l’andamento delle medie del 2015 rispetto alla media climatica delle minime ed alle minime del 2014. E penso che questo sia sufficiente… anche perché la curva delle massime è veramente incommentabile: basti dire che soltanto il 31 luglio 2015 è risultato sottomedia, e soltanto come valori massimi.

Elenco delle temperature minime, medie e massime più alte registrate nel periodo 1961-2015. I valori relativi al periodo 1961-1991 sono ricostruiti. Dati Dip. di Fisica - Unito.

Elenco delle temperature minime, medie e massime più alte registrate nel periodo 1961-2015. I valori relativi al periodo 1961-1991 sono ricostruiti. Dati Dip. di Fisica – Unito.

Nella tabella seguente andiamo proprio a vedere come si sono classificate le giornate singole di questo luglio nella classifica globale. Sono mostrate le prime venti posizioni per ogni valore termico (minima, media e massima), e abbiamo volutamente incluso, pur indicandoli in corsivo, anche i valori ricostruiti relativi al periodo 1961-90 (quando la stazione non c’era), in modo da collocare i valori attuali nel contesto storico. Si nota come, per tutte le temperature, ci siano tra otto e dieci giornate di luglio 2015 posizionate tra le venti più calde dal 1961. Aggiornato il record della minima del 13 agosto 2003, 26,5 °C, con i 27,1 °C del 7 e del 16 luglio; solo sfiorato il record di 32,3 °C delle medie dell’11 agosto 2003, con i 32,1 °C del 6 luglio; mentre si è avvicinato “al podio” delle massime la giornata del 21 luglio, con 38,1 °C, ancora lontano dai 39,4 °C dell’11 agosto 2003. Notiamo infine come, togliendo luglio 2015 e agosto 2003, rimangano pochi altri casi di giornate così calde in classifica.

Piogge cumulate nei vari mesi di luglio del III millennio. Dati Dip. di Fisica - Unito.

Piogge cumulate nei vari mesi di luglio del III millennio. Dati Dip. di Fisica – Unito.

L’ultimo grafico che vediamo si riferisce alle cumulate di pioggia registrate nel mese di luglio nella nostra stazione. Anche qui i valori sono stati ricostruiti nello stesso modo di quelli termici. Notiamo come sicuramente luglio 2015 sia risultato un mese generalmente poco piovoso, anche se già solo nel terzo millennio il luglio 2006 fu ancora meno piovoso. Si sono registrati soltanto tre episodi di pioggia, di cui due significativi, ed uno responsabile di oltre il 75% della precipitazione, legata ad un singolo evento temporalesco. Del resto, la maggior parte delle piogge estive sono legate ad episodi temporaleschi. Certo, paragonare luglio 2015 ai due anni precedenti, in cui si registrarono quasi 150 mm ciascuno, è impressionante. Tra l’altro, tenendo conto dell’insieme alte temperature – scarse precipitazioni, si intuisce che l’evapotraspirazione sia stata ingente e tale da far evaporare gran parte dell’acqua contenuta nello strato delle radici delle piante, trasformando una stagione che fino a giugno era idrologicamente non critica in una stagione a rischio di siccità (e certamente i pochi mm di pioggia caduti nella giornata odierna non possono risolvere la crisi).

In conclusione, dall’analisi dei valori acquisiti dalla nostra stazione di fisica si evince che abbiamo vissuto un altro mese che, alla luce dei riscontri statistici, può essere definito straordinario dal punto di vista termico, a dodici anni di distanza da un’estate storica caratterizzata da un altro mese straordinario. Sono caduti diversi record nella nostra stazione: quello delle minime in un singolo giorno, quello delle medie mensili di minime, medie e massime, e quello delle anomalie medie mensili minime e medie. A livello di pioggia, luglio 2015 è stato secco ma non il più secco, grazie ad un singolo evento temporalesco. Le previsioni per la settimana entrante mostrano la possibilità di un’altra robusta ondata di calore, e quindi vedremo se il 2015 avrà altre cartucce in serbo per archiviare definitivamente i record del 2003, o se – cosa che sinceramente speriamo – i valori rimarranno più contenuti.

Fa caldo, quindi impiego meno tempo a cuocere la pasta. O no?

Un amico mi ha posto il quesito seguente: “l’incremento delle temperature medie rispetto alla norma ha un qualche effetto misurabile sul tempo di cottura della pasta? A me pare di sì…”. Sono le tipiche domande che mi fanno scattare una molla: il quesito infatti mi ha incuriosito ed ho provato a ragionarci su.

Un piatto di pasta (fonte www.gushmag.it, Licenza #1894867 da www.canstockphoto.com Dasha Petrenko)

Un piatto di pasta (fonte http://www.gushmag.it, Licenza #1894867 da http://www.canstockphoto.com Dasha Petrenko)

Ho ben presente che uno studio di questo tipo ben si presterebbe ad essere candidato per il premio Ig Nobel, ma in realtà non aspiro a tanto, e ritengo invece utile fare due conti a spanne per vedere di dare una risposta all’amico. E siccome la risposta è interessante, ho deciso di trasformare la risposta in un post.

Per una volta, pubblico un post un po’ leggero, anche se le formule, come vedrete, non mancano. Notiamo subito, infatti, che si tratta di un bell’esercizio di fisica, e in particolare di termodinamica, ma serve anche qualche nozione di base di cucina. Conoscendo le mie modeste abilità culinarie (ma la pasta riesco anche io a cuocerla al dente!), ho cercato un po’ di aiuto sul web per le dosi, visto che normalmente io “vado a spanne”.

La pasta è prontaaaaa (fonte: thumbs.dreamstime.com)

La pasta è pronta! (fonte: thumbs.dreamstime.com)

Torniamo a noi. Parlavamo e parleremo di pasta, ma un discorso analogo varrebbe per il riso. Per preparare un piatto di pasta per due persone servono 160 grammi di pasta (ho detto due persone, non due lupi!) e almeno un litro di acqua. Anzi, la regola aurea dei cuochi (fonte: questo post) specifica che sono necessari 1 litro di acqua ogni 100 g di pasta, quindi nel nostro esempio occorrono 1.6 litri di acqua.

Se l’acqua si trovasse alla temperatura iniziale T, la quantità di calore che dovrebbe essere fornita dal fuoco della cucina a gas è Qa=ma ca ΔT dove ma=1 kg è la massa di acqua e ca= 4187 J/kgK il calore specifico dell’acqua, mentre ΔT=100-T è la differenza di temperatura tra la temperatura ambiente e quella di ebollizione dell’acqua (nella formula precedente, T va espressa in °C, mentre ΔT, essendo una differenza, può essere considerata in gradi Kelvin; 100 °C è la temperatura di ebollizione in condizioni standard: livello del mare, acqua distillata e pressione media).

La prima fase: portare l'acqua all'ebollizione (fonte: vanthian.altervista.org)

La prima fase: portare l’acqua all’ebollizione (fonte: vanthian.altervista.org)

A questa quantità di calore bisognerebbe aggiungere anche quella relativa alla pasta, che vale Qp=mp cp ΔT con mp=0.16 kg e cp=2.15 J/kgK (valore tratto da questa fonte: anche se non fosse esatto al 100%, vedremo più avanti che tale valore è ininfluente). In definitiva, Q=Qa+Qp=(6699.2+0.344) ΔT=6699.544 ΔT ≈6699.2 ΔT, ovvero la quantità di calore assorbita dalla pasta risulta trascurabile rispetto a quella assorbita dall’acqua.

Si noti che qui si fa l’ipotesi di mettere la pasta nell’acqua prima che questa bolla, ma in realtà, che la si metta prima o dopo, il discorso non cambia, in quanto il calore è energia, che è una grandezza additiva. Quello che potrebbe cambiare, invece, è il gusto della pasta… ma di questo non vorrei parlare!

Poniamo di aver regolato il gas in maniera tale che, alla temperatura ambiente in casa tipica di un mese fa (T1=24 °C), fossero necessari 10 minuti per portare acqua e pasta dalla temperatura ambiente all’ebollizione. Se la temperatura aumentasse fino al valore di questi giorni (T2=32 °C nelle case), servirebbe meno tempo per portare a ebollizione acqua e pasta? E se sì, di quanto si ridurrebbe?

Per rispondere a queste domande occorre valutare le quantità di calore alle due temperature:
Q1=( mp cp + ma ca) ΔT1   e   Q2=( mp cp + ma ca) ΔT2
Se ipotizziamo di regolare il gas allo stesso modo, dal momento che il gas fornisce la stessa potenza (energia per unità di tempo), si possono uguagliare le due potenze, calcolate dividendo il calore per l’intervallo di tempo:
P1=Q1/Δt1=( mp cp + ma ca) ΔT1/Δt1   e   P2=Q2/Δt2=( mp cp + ma ca) ΔT2/Δt2
e siccome P1=P2 se ne deduce che:
( mp cp + ma ca) ΔT1/Δt1 = ( mp cp + ma ca) ΔT2/Δt2
da cui:
Δt2=Δt1 ΔT2/ΔT1

La scolatura prima di impiattare (fonte: www.greenme.it)

La scolatura prima di impiattare (fonte: http://www.greenme.it)

Questa espressione – tra l’altro – risulta indipendente dalla massa della pasta e dell’acqua, e dipende invece soltanto dalla temperatura ambiente.

Usando i valori numerici sopra riportati:
Δt2=10 min 68/76 = 8 min 56 s
ovvero si risparmierebbero 1 minuto e 4 secondi, pari all’11% circa del tempo necessario per portare acqua e pasta all’ebollizione.

La percentuale dell’11% dipende dal rapporto tra le variazioni di temperatura ΔT2/ΔT1, ed è anche indipendente dalla potenza del gas usata.

Buon appetito!!!
__________________________________________________________________________________
Alcune note qui di seguito, che spiegano alcune approssimazioni fatte in questo conto “spannometrico”.

  1. il guadagno sui tempi si limita alla fase necessaria a portare l’acqua in ebollizione; durante la cottura, infatti, l’acqua rimane in ebollizione e quindi non cambia nulla. Al limite, quando fa caldo, la dispersione termica dalla pentola è minore, per cui basta un fuoco basso a mantenere attiva l’ebollizione.
  2. Qualcuno potrebbe obbiettare che la pasta andrebbe cotta in acqua salata e non in acqua dolce, il che potrebbe comportare la variazione del punto di ebollizione: è vero. La regola aurea dei cuochi (fonte: questo post) dice che sono necessari 10 g di sale ogni 100 g di pasta, quindi nel nostro esempio di sopra ne occorrono 16. Il punto di ebollizione dell’acqua sale di 0.14 °C ogni 8 g di sale (fonte: questo post), per cui nel nostro esempio esso diventerà 100.28 °C invece di 100 °C. L’effetto, oltre che ad insaporire la pasta, è quello di diminuire (di poco) i tempi di cottura della pasta. Supponendo di versare il sale nell’acqua subito all’inizio, o comunque prima del raggiungimento del punto di ebollizione, ripetendo i conti di sopra si trova che il tempo risparmiato diventa il 10.5%, ed i dieci minuti di cottura si ridurrebbero di 1 minuto e 3 secondi, per cui l’effetto è minimo e può essere definito trascurabile.
  3. Rispetto ad un mese fa, la pressione superficiale è un pochino maggiore adesso, a causa della presenza dell’anticiclone africano, ma le differenze sono piccole, di qualche hPa. Una pressione maggiore fa aumentare il punto di ebollizione: ad esempio, un incremento di una ventina di hPa produce un aumento di 1 °C nella temperatura di ebollizione (fonte: questo post). L’effetto sulle tempistiche di ebollizione è pertanto simile a quello sopra descritto per l’acqua salata, ovvero del tutto trascurabile.
  4. Ho ipotizzato che l’acqua per la pasta abbia la stessa temperatura dell’aria in casa. Questa è in realtà un’ipotesi “forte”, in quanto normalmente l’acqua scorre sottoterra ed ha una temperatura inferiore a quella dell’aria, specialmente nella stagione fredda, quando le case sono riscaldate. Ad esempio, le simulazioni che facciamo con il modello WRF ci dicono che, oggi 23 luglio, la temperatura a 40 cm di profondità è di 27 °C circa. È un valore molto alto rispetto alla norma, tuttavia inferiore alle temperature tipiche che ci sono in casa. Tuttavia, in questi giorni, verifico sperimentalmente che, in realtà, se non si “tira l’acqua” per un po’ di tempo, il primo getto ha all’incirca la temperatura ambiente, visto che i tubi scorrono in casa ed i muri si sono riscaldati. Questo è particolarmente vero nelle ore in cui generalmente si consuma poca acqua, ovvero nei pressi del pranzo (dopo pranzo, invece, si lavano i piatti e l’acqua corre maggiormente, per cui è più fresca). La temperatura esatta dell’acqua dipende quindi dal consumo delle persone, o addirittura del condominio, e risulterebbe arduo determinarla a priori, e proprio per questo motivo ho scelto di usare la temperatura ambiente, il cui valore è determinabile con maggiore facilità. Se usassi valori inferiori, il rapporto ΔT2/ΔT1 tenderebbe ad aumentare e quindi il tempo risparmiato Δt2 tenderebbe a diminuire.
L’interpretazione dei prodotti dei modelli meteorologici

L’interpretazione dei prodotti dei modelli meteorologici

Instabilità numerica. Fonte: MIT.

Figura 1. Instabilità numerica. Fonte: MIT.

Nei due post precedenti abbiamo visto come un modello meteorologico risolva numericamente le principali equazioni fisiche, e di quali tipi di dati abbia bisogno per essere inizializzato. In questo post vedremo come interpretare le uscite di tali modelli. Ci limiteremo a considerare il caso dei modelli globali, e mostreremo alcune mappe previsionali, che commenteremo non per fare una previsione meteorologica, ma per capire come valutarne l’attendibilità nel tempo.

Come abbiamo visto, le principali variabili necessarie per la definizione dello stato dinamico e termodinamico del sistema sono: la pressione, la temperatura, le tre componenti della velocità del vento, la quantità di vapore acqueo, acqua liquida e ghiaccio. Siccome un modello meteorologico è prognostico, calcola i valori delle grandezze nel futuro. Per poterlo fare, deve conoscere i valori delle grandezze nel presente.

Per capire meglio questo punto, dobbiamo entrare un po’ nel dettaglio delle equazioni, ma non spaventatevi: cercherò di dare una spiegazione il più semplice possibile facendo un esempio facile facile, con soltanto TRE equazioni, di cui una differenziale. E spero che gli addetti ai lavori mi perdoneranno questa semplificazione.

Dunque: partiamo dall’inizio. Una tipica equazione differenziale prognostica ha la forma:

\frac{\partial y}{\partial t} = f(x_1,x_2. ... , x_n)

dove y è la variabile di cui si vuole conoscere il valore futuro (ad esempio, la velocità del vento o la temperatura) e f è una funzione di altre n variabili x_1,x_2. ... , x_n (ad esempio, le componenti della velocità del vento, la pressione, l’umidità, la densità, ecc.).

La derivata è indicata con una delta particolare (\partial) che indica la derivata parziale, cioè la derivata della funzione soltanto rispetto al tempo. La derivata temporale deve esserci, altrimenti l’equazione non sarebbe prognostica ma diagnostica.

Una possibile soluzione numerica di tale equazione (userò la più semplice per la spiegazione, anche se non è la più corretta, e quindi normalmente non è usata) consiste nel sostituire alla derivata temporale il rapporto incrementale, e di valutare la funzione a secondo membro nel presente (cioè usando i dati attuali); tale schema viene detto schema backward, in quanto appunto usa i dati (la funzione) del passato. In questo modo l’equazione diventa:

\frac{\Delta y}{\Delta t} = f(x_1,x_2. ... , x_n)

dove \Delta y è la differenza tra il valore y futuro e il valore y presente, cioè \Delta y = y_{futuro} - y_{presente} (e ovviamente anche \Delta t = t_{futuro} - t_{presente} ). In questo modo, è facile vedere che la soluzione di tale equazione è semplicemente:

y_{futuro} = y_{presente} + \Delta t f(x_1,x_2. ... , x_n)

Questo esempio, anche se relativamente semplice, è generalizzabile. Il risultato mostra che, in qualunque equazione prognostica, è necessario conoscere il valore iniziale (y_{presente}) per potersi calcolare il valore futuro (y_{futuro}). La grandezza  \Delta t f(x_1,x_2. ... , x_n)rappresenta appunto la “correzione” che deve essere apportata a y_{presente} per poter conoscere y_{futuro}. Anche se, come dicevo, gli schemi usati in pratica sono più complessi di questo, il discorso generale non cambia. Infatti, una delle soluzioni più comunemente usate è quella dello schema trapezoidal, che è:

y_{futuro} = y_{presente} + \frac {\Delta t f(x_1,x_2. ... , x_n)} {[1 - \frac {\Delta t}{2} \frac {\partial f}{\partial y} ]}

e, come si vede, non cambia la dipendenza da \Delta t.

Chi è un po’ esperto di algoritmi numerici ha già anche capito che il valore di \Delta t deve rimanere sufficientemente piccolo al fine di garantire la stabilità numerica di un’integrazione numerica di questo tipo, e questo perché la “correzione” deve rimanere piccola rispetto a y_{presente}. Pensate, infatti, a quanto varia la temperatura in presenza di un’avvezione termica: sarebbe certamente sbagliato supporre che quel rateo di variazione rimanga costante per periodi molto più lunghi della durata dell’avvezione stessa, e se formulassi una tale ipotesi, mi troverei con valori di molto maggiori, o minori, di quelli reali. Questo potrebbe portare all’insorgenza dell’instabilità numerica, in quanto, se ad un certo time step il valore di risultasse – per fare un esempio – molto maggiore del dovuto, allo step successivo è probabile che il sistema reagirebbe imponendo una grande correzione negativa, col risultato probabile di far precipitare a valori molto minori del dovuto, generando quindi oscillazioni irrealistiche del risultato. Questa è proprio la situazione raffigurata nella Figura 1, relativa all’integrazione numerica dell’equazione y=exp(-10 x). Si nota come le prime tre curve, valutate usando gli step \Delta y=0.001, \Delta y=0.01 e \Delta y=0.05, appaiano sovrapposte tra loro e con l’andamento analitico, mentre la curva corrispondente a \Delta y=0.2 mostra delle oscillazioni tra uno step e l’altro e dà origine ad un risultato del tutto scorrelato dall’andamento analitico. Ancora peggio capita usando lo step \Delta y=0.21: in questo caso l’oscillazione cresce nel tempo e, in pochi step, porta all’esplosione numerica della soluzione. È quindi evidente che, in questo esempio, gli ultimi due time step sono troppo grandi per poter permettere la soluzione numerica del problema.

Nel caso dei modelli numerici di circolazione, il discorso è ancora più complicato in quanto ci sono step spaziali e temporali di cui tenere conto. Nel lontano 1928, Richard Courant, Kurt Otto Friedrichs e Hans Lewy pubblicarono un articolo in cui proposero una condizione da dover rispettare al fine di garantire la stabilità numerica delle soluzioni per equazioni n-dimensionali. Tale criterio, nel caso unidimensionale, può scriversi come:

\frac{u \Delta t}{\Delta x} \leq 1

Tale criterio fu in seguito battezzato, in loro onore, criterio CFL (dalle loro iniziali). Il principio alla base della condizione è che, per esempio, se un’onda si muove attraverso una griglia spaziale discreta e vogliamo calcolarne l’ampiezza usando passi discreti di uguale lunghezza, allora questa lunghezza deve essere inferiore al tempo necessario all’onda per raggiungere i punti griglia adiacenti. Di conseguenza, quando il grigliato spaziale viene ridotto, anche quello temporale deve essere conseguentemente ridotto.

È per questo motivo che, nei modelli meteorologici, normalmente l’intervallo temporale (il time-step) di integrazione varia tra qualche secondo e qualche minuto, a seconda della sofisticazione degli schemi numerici e/o delle parametrizzazioni. Negli intervalli temporali delle integrazioni successive, il valore “futuro” appena calcolato viene poi usato come nuovo valore “presente” in modo iterativo, fino al termine della corsa del modello.

Fino a quanto si può iterare un metodo di questo tipo per integrare numericamente le equazioni differenziali? In teoria, fino all’infinito. In pratica, non per molto tempo.

Innanzitutto, i dati iniziali necessari per il primo step di integrazione (ovvero quelli su , che in questo caso diventa ) sono affetti da un certo errore (che chiameremo ). L’errore non è necessariamente legato all’imprecisione della misura, che pure può esserci: può anche succedere che un sito di misura non sia rappresentativo a causa dell’inadeguatezza della postazione di misura, oppure perché il volume di atmosfera rappresentato da quella misura potrebbe non essere omogeneo: si pensi a una stazione su erba posta in mezzo ad una grande città, o viceversa una stazione su un tetto scuro di una casa in mezzo alla campagna, o anche ad una stazione di collina quando la collina è l’unica altura presente per chilometri.

Anche le funzioni di dati affetti da errore forniscono risultati affetti da errore. E ogni operazione tra valori affetti da errore fornisce a sua volta un risultato affetto da errore. Così, un’equazione come quella sopra descritta, che rappresenta la soluzione numerica dell’integrazione di un’equazione, fornisce un valore il cui errore è maggiore dell’errore di partenza . Con il procedere delle iterazioni, pertanto, anche l’errore cresce.

Se la crescita dell’errore fosse lineare, avrei comunque un momento in cui l’errore diventerebbe troppo grande rispetto al dato. Sarebbe come se, quando una persona si pesa per controllare se il suo peso è aumentato, il risultato fosse: 70 kg, con un errore di 100 kg. È evidente che non avrebbe alcun valore un dato simile.

Però, se la crescita dell’errore fosse lineare, sarei in grado di prevedere quando l’errore stesso renderebbe non rappresentativo il risultato. Il problema è che questa crescita non è lineare, poiché le equazioni che regolano la dinamica dell’atmosfera sono non lineari. In determinate circostanze e situazioni meteorologiche, gli errori crescono molto rapidamente, finché – a un certo punto – diventano maggiori del dato stesso. Questa proprietà viene anche illustrata dicendo che il comportamento dell’atmosfera è caotico o, meglio, che le soluzioni delle equazioni di Navier-Stokes per il flusso del fluido atmosferico hanno una natura caotica. In questa accezione, come vedremo, la parola “caos”, o l’aggettivo “caotico”, denotano, più che il disordine del comportamento, la sua imprevedibilità.

L’identificazione del comportamento caotico dei sistemi atmosferici fu scoperto accidentalmente da Edward Norton Lorenz nel 1961, anche se va detto che, a livello teorico e in ambiti diversi, all’inizio dello scorso secolo Jules Henri Poincaré aveva già identificato e studiato il comportamento caotico delle dinamiche dei moti dei corpi celesti perturbando un sistema a due corpi con l’aggiunta di un terzo corpo ed osservando come questo terzo corpo rendeva le orbite altamente sensibili alle condizioni iniziali. Lorenz, comunque, utilizzando un modello molto semplificato dell’atmosfera, scoprì che soluzioni numeriche corrispondenti a condizioni iniziali lievemente differenti tra loro, anche solo per il numero di cifre significative, tendevano a essere molto simili tra loro per un certo periodo, per poi divergere e diventare completamente scorrelate l’una dall’altra a partire da un certo momento.

 In un giorno particolare durante l'inverno del 1961, Lorenz volle rivedere una sequenza di dati provenienti dal suo modello. Invece di riavviare l'intera esecuzione, decise, per risparmiare tempo, di riavviare la corsa da un certo punto. Utilizzando le stampe dei dati, inserì in input le condizioni relative a quel punto, prendendole dall’esecuzione precedente, e riavviò il modello di calcolo. Il risultato fu molto insolito e inaspettato. I dati della seconda corsa avrebbero dovuto sovrapporsi esattamente a quelli della prima corsa. Al contrario, dopo un primo momento in cui i dati si sovrapponevano, le uscite, a partire da un certo punto, cominciarono a divergere drasticamente, e la seconda corsa perse ogni somiglianza con la prima nel giro di pochi mesi. Un esempio grafico è mostrato in questa figura. Fonte: questo link.

Figura 2. In un giorno particolare durante l’inverno del 1961, Lorenz volle rivedere una sequenza di dati provenienti dal suo modello. Invece di riavviare l’intera esecuzione, decise, per risparmiare tempo, di riavviare la corsa da un certo punto. Utilizzando le stampe dei dati, inserì in input le condizioni relative a quel punto, prendendole dall’esecuzione precedente, e riavviò il modello di calcolo. Il risultato fu molto insolito e inaspettato. I dati della seconda corsa avrebbero dovuto sovrapporsi esattamente a quelli della prima corsa. Al contrario, dopo un primo momento in cui i dati si sovrapponevano, le uscite, a partire da un certo punto, cominciarono a divergere drasticamente, e la seconda corsa perse ogni somiglianza con la prima nel giro di pochi mesi. Un esempio grafico è mostrato in questa figura. Fonte: questo link.

In un primo momento Lorenz pensò che si fosse guastato un transistor nel suo computer, un originale vecchio McBee, macchina estremamente lenta e grezza per gli standard odierni. Dopo aver scoperto che non c’era nessun guasto, Lorenz finalmente trovò la fonte del problema. Per risparmiare spazio, le sue stampe avevano riportato solo tre cifre, mentre i dati nella memoria del computer contenevano sei cifre. Lorenz aveva quindi inserito dei dati arrotondati prendendoli dalle stampe, supponendo ovviamente che la differenza fosse irrilevante.

Il semplice modello di Lorenz (il cui risultato è noto come attrattore di Lorenz) evidenzia il fenomeno noto come “dipendenza sensibile dalle condizioni iniziali”, a volte indicato anche col nome di “effetto farfalla”, per il motivo dell’analogia seguente: una farfalla che batte le ali in Sud America può influenzare il tempo in una città degli Stati Uniti. L’esempio del battito d’ali di una farfalla simboleggia, infatti, una deviazione minima, pressoché infinitesima, impressa dalla farfalla alla velocità del vento. Naturalmente, l’esistenza di una farfalla sconosciuta che batte le ali non ha alcuna relazione diretta con le previsioni del tempo, poiché ci vorrebbe troppo tempo per una piccola perturbazione, come quella causata nella realtà dal battito d’ali di una farfalla, per crescere e raggiungere una dimensione significativa tale da perturbare il moto. Nella realtà, ci sono incertezze molto più grandi di cui preoccuparsi, come ad esempio quelle strumentali, o la scarsità di misure rispetto ai punti griglia dei modelli, fatto che determina la necessità di compiere delle interpolazioni. Senza poi dimenticare che ogni modello consta di equazioni differenziali che descrivono sì i processi fisici fondamentali alle scale considerate, ma sempre in modo approssimato. Tuttavia, anche se l’impatto diretto del caos sulla previsione meteo è spesso un po’ sopravvalutato, e questo rimane evidente osservando che, in determinate occasioni, i modelli non riescono a riprodurre le condizioni reali dopo pochi giorni, indipendentemente dal modo in cui sono inizializzati, la teoria del caos continua a svolgere un ruolo importante nella ricerca e sviluppo di metodi di previsione meteorologica cosiddetti “di ensemble”.

Un lettore attento, a questo punto, potrebbe chiedersi perché un insieme di equazioni completamente deterministiche (con la dicitura “equazione deterministica”, o in senso lato “modello deterministico” si intende un’equazione – o un modello basato su quella equazione – la cui soluzione è completamente determinata dai valori delle condizioni iniziali per le quali non vengono considerate le incertezze) presenti un simile comportamento. Dopo tutto, gli scienziati spesso insegnano che piccole perturbazioni iniziali conducono a piccoli cambiamenti nel comportamento. Tuttavia, non sempre è così, e dipende dalla tipologia delle equazioni. Il fatto che una piccola perturbazione causi piccole variazioni si verifica quando le equazioni sono lineari. Ma questo non è chiaramente il caso delle equazioni che regolano la dinamica atmosferica o dei fluidi, cioè proprio il set di equazioni usate nel modello di Lorenz. Tali equazioni, infatti, sono non lineari. In un sistema non lineare, ricordiamo che non è soddisfatto il principio di sovrapposizione: ovvero, non è vero che l’output sia proporzionale all’input.

Oltre che a essere difficili da risolvere – nel caso delle equazioni che regolano la dinamica atmosferica, basate sulle equazioni di Navier-Stokes per il flusso del fluido atmosferico, addirittura analiticamente impossibili da risolvere – i sistemi non lineari mostrano spesso un comportamento straordinariamente complesso e caotico.

Tale fenomeno è attualmente ben noto e compreso e caratterizza tutti i modelli globali, rendendo impossibile l’effettuazione di previsioni meteorologiche precise a lungo termine. Si noti che uno può sempre eseguire una simulazione che duri diversi mesi ed analizzarne i risultati; il problema è che tali risultati diventano completamente svincolati dall’andamento reale dopo alcuni giorni, per cui non hanno alcuna utilità dal punto di vista della previsione del tempo (Figura 3). Si può dire che i risultati siano casuali? In realtà no. Un sistema caotico (di cui l’attrattore di Lorenz è il prototipo) non è casuale, e le equazioni non lineari di un sistema caotico mostrano alcuni comportamenti molto interessanti. Se il sistema non è casuale, allora il suo moto dovrebbe essere prevedibile, ma questa prevedibilità dipende dal flusso atmosferico: la posizione nell’attrattore determina la direzione in cui il flusso si muoverà, dove andrete, ma alcuni punti di partenza sono correlati a insiemi molto più strettamente vincolati nei comportamenti rispetto ad altri. Come risultato, la dispersione (statistica) dei possibili stati finali dipende dallo stato iniziale, e alcuni stati risultano più prevedibili rispetto ad altri.

L'ensemble forecasting spiegato in una figura. L'analisi rappresenta il punto di partenza della previsione numerica, e la previsione deterministica rappresenta il punto di arrivo (per ogni ora di validità della previsione), che si colloca all’interno dell’incertezza previsionale, area che si allarga sempre più allontanandosi dall’istante iniziale della previsione fino a sconfinare nel campo della climatologia.

Figura 3. L’ensemble forecasting spiegato in una figura. L’analisi rappresenta il punto di partenza della previsione numerica, e la previsione deterministica rappresenta il punto di arrivo (per ogni ora di validità della previsione), che si colloca all’interno dell’incertezza previsionale, area che si allarga sempre più allontanandosi dall’istante iniziale della previsione fino a sconfinare nel campo della climatologia.

L’impossibilità di stabilire, a priori, l’esattezza di una previsione affidandosi ad un’unica previsione deterministica ha portato a sviluppare una nuova tecnica di previsione nella quale si integrano simultaneamente più stati dell’atmosfera caratterizzati da condizioni iniziali che differiscono di poco l’una dall’altra. Con questa nuova tecnica, nota con il nome di ensemble predictions (previsioni di insieme), lo scenario meteorologico previsto è quindi legato alla probabilità che si possa verificare, cioè alla frequenza con cui il pattern atmosferico ricorre nella gamma di tutte le previsioni calcolate. Tale sistema diventa particolarmente utile nei casi in cui si verifichino transizioni nei regimi meteorologici che i modelli prevedono con maggiore difficoltà.

Pertanto, usando i modelli numerici di circolazione atmosferica, occorre eseguire diverse simulazioni perturbando le condizioni iniziali di una corsa di riferimento, e vedere cosa succede. E infatti questa rappresenta proprio gran parte della sfida delle previsioni meteorologiche, che consiste nel saggiare l’incertezza nelle condizioni iniziali. Invece di utilizzare una singola simulazione di previsione (run deterministico), la meteorologia moderna si avvale delle previsioni di ensemble, che indagano lo spazio dei possibili risultati a partire da un dato stato iniziale (incerto). Questo permette quindi ai previsori di valutare tutti i possibili risultati, di stimarne i rischi e le possibilità, e al termine di comunicare i rischi agli utenti. Sottolineiamo qui la frase “permette ai previsori di …“: il ruolo degli esperti nell’interpretare le previsioni e spiegare i rischi correlati rimane fondamentale anche nell’epoca dei modelli numerici, in cui uno potrebbe credere di essere in grado di realizzare un centro meteo, o addirittura un servizio meteorologico, semplicemente assemblando le uscite dei modelli fatti girare da altri, senza la necessità di persone qualificate (ahimè esistono alcuni centri, a livello sia nazionale sia internazionale, di questo tipo).

esempio di una serie temporale delle integrazioni numeriche relative alle previsioni di ensemble del modello IFS dell’ECMWF per la temperatura superficiale su Londra. Le due mappe si riferiscono esattamente a un anno di distanza l’una dall’altra. In ogni mappa, la linea continua nera spessa indica la previsione deterministica del modello, mentre la tratteggiata blu indica le osservazioni. In rosso sono invece indicate le previsioni dei vari run ottenuti perturbando le condizioni iniziali (previsioni di ensemble). Fonte: ECMWF.

Figura 4. Esempio di una serie temporale delle integrazioni numeriche relative alle previsioni di ensemble del modello IFS dell’ECMWF per la temperatura superficiale su Londra. Le due mappe si riferiscono esattamente a un anno di distanza l’una dall’altra. In ogni mappa, la linea continua nera spessa indica la previsione deterministica del modello, mentre la tratteggiata blu indica le osservazioni. In rosso sono invece indicate le previsioni dei vari run ottenuti perturbando le condizioni iniziali (previsioni di ensemble). Fonte: ECMWF.

A titolo di esempio del discorso relativo all’incertezza della previsione, mostriamo due previsioni della temperatura a 2 metri dal suolo per Londra, a partire dal 26 giugno di due anni consecutivi, 1994 e 1995. Le curve rosse sottili mostrano i singoli membri di una previsione di ensemble. La diffusione delle previsioni appare molto diversa nei due casi, pur trattandosi dello stesso giorno dell’anno (quindi stessa stagione, nella stessa località). Questo dimostra che alcune condizioni iniziali sono più prevedibili di altre: in un caso si ha una diffusione delle previsioni del modello molto elevata, nell’altro no. Si nota anche come, in entrambi i casi, le osservazioni reali si trovino all’interno del fascio delle linee rosse così come la previsione deterministica, ma siano “distanti” tra loro.

Come risultato, nella mappa relativa al 1994 la previsione diverge dalle osservazioni già dopo meno di due giorni, mentre in quella relativa al 1995 la previsione risulta attendibile fino al sesto giorno. Si noti anche la corrispondenza tra il momento della divergenza e la larghezza del fascio delle previsioni di ensemble.

Al giorno d’oggi, i vari centri meteorologici fanno ampio uso delle previsioni di ensemble, che vengono affiancate alle previsioni deterministiche. La tecnica è stata applicata per la prima volta nel 1992 sia dall’ECMWF europeo, sia dal NCEP americano. Si noti che l’esecuzione delle previsioni di ensemble costituisce un netto aggravio a livello di tempi di calcolo, in quanto è necessario eseguire diverse simulazioni aggiuntive oltre a quella che costituisce lo scenario di riferimento. Di solito, viene usata una versione meno risoluta dello stesso modello per le previsioni di ensemble, in modo da minimizzare i tempi di simulazione.

Come vengono perturbate le condizioni iniziali, e quante simulazioni vengono condotte con questa tecnica? Per rispondere a queste domande, possiamo vedere come fa l’ECMWF di Reading. Presso tale centro, vengono eseguite 50 simulazioni usando un modello di minore risoluzione rispetto a quello (IFS) usato per le previsioni deterministiche (attualmente, per l’ensemble prediction system, si usa il T639 per i primi dieci giorni di run e il T319 per gli altri cinque). Le perturbazioni delle condizioni iniziali non sono generate in modo casuale ma consistono in una combinazione di 25 modi che hanno il maggiore impatto sulle previsioni per l’emisfero settentrionale nel breve termine, e quindi tengono conto anche delle deviazioni tra i membri dell’ensemble e la previsione deterministica (maggiori informazioni si possono reperire qui). Un metodo analogo viene utilizzato anche per il modello GFS del NCEP (maggiori dettagli, un po’ tecnici, sono reperibili qui), per il quale ci sono però 20 membri delle previsioni di ensemble.

I risultati delle previsioni di ensemble sono normalmente sintetizzati in grafici simili a quelli mostrati in Figura 4 , oppure su mappe bidimensionali come quelle mostrate in Figura 5, e in gergo vengono chiamati spaghetti plot, probabilmente per la somiglianza delle isolinee frammischiate tra loro con la vista di un piatto di spaghetti. La Figura 5 è stata prodotta sovrapponendo soltanto tre isoipse a 500 hPa comuni tra tutte le previsioni di ensemble a ogni scadenza giornaliera di previsione; il modello usato è il GFS, e la simulazione usata per questa figura è partita alle ore 06 UTC del 20 aprile 2014.

Esempio di spaghetti plot relativi alle altezze di geopotenziale a 500 hPa previste dalle previsioni di ensemble del modello GFS girato il 20 aprile 2014 alle 06 UTC. Fonte: wetterzentrale.de

Figura 5. Esempio di spaghetti plot relativi alle altezze di geopotenziale a 500 hPa previste dalle previsioni di ensemble del modello GFS girato il 20 aprile 2014 alle 06 UTC. Fonte: wetterzentrale.de

L’analisi di questa figura mostra già chiaramente come debbano poi interpretarsi le mappe previsionali (come quella relativa alla previsione deterministica dello stesso modello: vedi ad esempio la Figura 6) alla luce mostrata in Figura 5, delle informazioni aggiuntive fornite dagli spaghetti plot. Infatti, il rischio di mettere in rete immagini è che un internauta disattento guardi le mappe previste dal modello (p. es. quelle mostrate in Figura 6) e le prenda alla lettera, ritenendo – erroneamente – che, poiché sono state messe in rete da un centro meteo riconosciuto, abbiano tutte la stessa validità (in effetti, sulle singole mappe non c’è scritto quanto siano affidabili!!! è l’utente che dovrebbe essere in grado di interpretarle correttamente). In realtà, guardando gli spaghetti plot, si può provare a dare da soli il grado di attendibilità alla previsione, almeno “a spanne”.

È importante capire, in primo luogo, che non in tutte le regioni le previsioni hanno lo stesso grado di attendibilità. Ad esempio, guardando gli spaghetti plot di Figura 5, il tempo sulla Groenlandia occidentale appare incerto già dal martedì 22, ovvero già al secondo giorno di validità della previsione, mentre sul Regno Unito si comincia a notare una divergenza delle isoipse soltanto nel giorno di venerdì 25. È comunque chiaro che la significatività delle tre ultime mappe, relative ai giorni da domenica 27 aprile in poi, è assolutamente nulla e non consente alcun tipo di previsione oggettiva.

Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hhPa (Z500, colori e isolinee nere) ottenuto mediando le previsioni di ensemble (a sinistra). La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 6a. Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hhPa (Z500, colori e isolinee nere) ottenuto mediando le previsioni di ensemble (a sinistra). La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hPa (Z500, isolinee nere), sovrapposte  al campo della deviazione standard della Z500, calcolato sempre sulle previsioni di ensemble. La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 6b. Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hPa (Z500, isolinee nere), sovrapposte al campo della deviazione standard della Z500, calcolato sempre sulle previsioni di ensemble. La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Dovrebbe quindi apparire abbastanza chiaro, a questo punto, come gli spaghetti plot e, in generale, i prodotti delle previsioni di ensemble, possano consentire di attribuire un indice di affidabilità alla previsione. È infatti importante essere a conoscenza del fatto che una previsione meteorologica non è mai, e non potrebbe mai neppure esserlo, assimilabile ad una certezza, ma rappresenta uno scenario evolutivo più o meno probabile, a seconda di quanto lontano si va nel tempo, allo stesso modo di come un dottore che fa una diagnosi dello stato di un paziente, emette poi una prognosi relativa all’evoluzione della sua patologia, prognosi che non rappresenta una certezza.

Per cui, chi vende certezze nel campo meteorologico “mente sapendo di mentire”, soprattutto quando questo avviene per le previsioni che si estendono oltre i classici 2-3 giorni. Io sono solito paragonare l’attendibilità delle previsioni meteo alla scadenza degli yogurt, e questa analogia si ricollega allo stesso discorso: dopo alcuni giorni, le nuove simulazioni condotte con i modelli portano a risultati più aggiornati, diminuendo quindi l’incertezza di cui abbiamo parlato finora, per cui le previsioni più vecchie vanno considerate alla stregua di un cibo scaduto, in quanto sono “scadute” anch’esse (e, in senso lato, possono “far male” ai fini della previsione allo stesso modo in cui un cibo scaduto potrebbe far male allo stomaco).

previsioni deterministiche del modello GFS relative alla simulazione del 20 aprile 2014 alle ore 06 UTC. Fonte: wetterzentrale.de

Figura 7. Previsioni deterministiche del modello GFS relative alla simulazione del 20 aprile 2014 alle ore 06 UTC. Fonte: wetterzentrale.de

I centri meteo o i portali più completi (tra i quali segnalo il tedesco wetterzentrale) mettono comunque online anche altri prodotti che possono consentire una migliore quantificazione dell’incertezza rispetto al metodo “spannometrico” appena delineato, basato sull’analisi “a vista” degli spaghetti plot.

Molti di tali prodotti sono addirittura reperibili anche online. Ad esempio, guardando le due mappe mostrate in Figura 6, relative al settimo giorno di previsione, si nota come siano disponibili la media di tutte le previsioni di ensemble e la dispersione attorno al valore medio per ogni scadenza previsionale e per alcune grandezze significative.

sono qui rappresentare le istantanee di tutti i 21 membri delle previsioni di ensemble inizializzate il 20 aprile 2014 e relative al 27 aprile 2014, alle ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 8. Sono qui rappresentate le istantanee di tutti i 21 membri delle previsioni di ensemble inizializzate il 20 aprile 2014 e relative al 27 aprile 2014, alle ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Ad esempio, nella mappa di Figura 6b, si può osservare come la zona arancione-rossa corrisponda ad una deviazione standard dell’altezza di geopotenziale rispetto alla media, tra tutte le varie previsioni di ensemble in tali punti, superiore ai 100 decametri, ovvero 1000 metri: un valore paragonabile alla stessa profondità dei minimi o ampiezza dei massimi. Pertanto, la sezione della mappa corrispondente a simili deviazioni standard non consente di poter considerare significativi i valori medi corrispondenti alle stesse mappe, in quanto l'”errore” è paragonabile al valor medio. La Figura 8 permette di vedere le mappe che si riferiscono ai singoli run della previsione di ensemble, sulla cui base sono poi stati valutati il valor medio e la deviazione standard mostrata inFigura 6b. Si nota subito come alcuni elementi di questo cluster presentino evoluzioni meteorologiche completamente distinte da altri. Si veda ad esempio come il Portogallo possa essere coinvolto da profonde saccature (membri 16, 17 e 18) o da robuste celle anticicloniche (P5, P6 e P7). Si nota anche come non sempre la mappa media abbia un riscontro nei singoli elementi del cluster. La mappa media è una mappa che è il risultato di un’operazione di media, e pertanto potrebbe essere rappresentativa soltanto se un elevato numero di membri dell’ensemble possiede una struttura barica analoga che “abbia sufficiente peso” nell’operazione di media. In generale, quindi, non solo non è detto che tale mappa corrisponda alla configurazione più probabile, ma in certi casi potrebbe anche non corrispondere ad una configurazione possibile!

Per oggi ci fermiamo qui, e direi che di materiale ce n’è già abbastanza da digerire. Ma quello che spero sinceramente è di aver fatto capire perché, leggendo una previsione in cui si elenca, luogo per luogo, il tempo che farà tra sette giorni senza usare nessun condizionale e senza mettere da nessuna parte una frasetta, o almeno un logo, che indichi la poca attendibilità di tale previsione, che quindi va presa alla stregua di una possibile indicazione della tendenza generale e nulla più, non si fornisce un’informazione corretta. Ricordiamoci la Figura 5, in particolare le ultime tre mappe in basso, e pensiamo che quella previsione si basa su un singolo run che magari può anche essere rappresentativo del tempo che si verificherà, ma molto probabilmente ha una probabilità di verificarsi molto piccola.

Aggiungo un’ultima considerazione. Ho basato questo post sulla discussione relativa ai modelli globali, poiché normalmente sono questi ad essere fatti girare per lungo tempo (fino a 15 giorni). Uno potrebbe pensare che un modello a mesoscala o locale, avendo un grigliato più fitto, possa consentire una notevole riduzione degli errori e quindi possa bypassare questo problema. La realtà dimostra che non è così, ed è questo il motivo per cui raramente i run dei modelli alla mesoscala si estendono oltre i 3-5 giorni. E il motivo per cui si arriva a questa conclusione è presto detto: i modelli alla mesoscala vengono inizializzati con le uscite dei modelli globali. E pertanto, se il modello globale ha un’incertezza che cresce nel tempo, non può fare altro che propagarla al modello alla mesoscala, che ne digerisce in dati in input.

In un prossimo post parleremo di previsioni stagionali e di previsioni climatiche, tentando di rispondere alla classica domanda: “ma se non siamo in grado di prevedere il tempo oltre la prossima settimana, perché è possibile fare previsioni stagionali? E, soprattutto, quale validità hanno?”.