Global warming update

Global warming update

Il 2016 è ormai terminato, e ci sono già i dati del gennaio 2017, che secondo il database GISS si collocano a +1.175 °C rispetto alle medie del periodo 1880-1909, assunte a valori rappresentativi della media preindustriale. Tale valore è il secondo nella lista dei mesi di gennaio più caldi, dopo il gennaio 2016 (+1.385 °C) e il gennaio 2007 (+1.215 °C) e davanti al gennaio 2015 (+1.075 °C) e al gennaio 2002 (+1.005 °C), gli unici sopra la soglia di 1°C.

Abbiamo quindi deciso di ripresentare i grafici a spirale delle anomalie di temperatura (dati GISS) aggiornati al mese di gennaio 2017 incluso. Qui sotto vediamo la spirale dei soli dati.

spiral_only_data

Past (observed) global mean temperatures (GISS data), expressed as anomalies with respect to 1880-1909 period.

A seguire, i grafici che rappresentano i dati prima, e le simulazioni dei modelli dopo, con tre scenari prescelti, sempre espressi come anomalia termica rispetto al trentennio storico 1880-1909, estratti dai membri dell’esperimento CMIP. Il primo visualizza lo scenario con le emissioni più moderate (lo abbiamo definito “low emission”, e si riferisce al RCP 2.6 – ricordiamo che il numero indica la forzante radiativa, in W/m2).

spiral_data_rcp26

Past (observed – GISS data) and future (predicted – CMIP RCP 2.6 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 2.6 scenario.

Il secondo visualizza i dati e le simulazioni secondo lo scenario RCP 4.5, da noi definito “medium emission” in quanto si pone a metà, come forzante radiativa, tra i vari scenari possibili.

spiral_data_rcp45

Past (observed – GISS data) and future (predicted – CMIP RCP 4.5 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 4.5 scenario.

Il terzo, infine, visualizza dati e simulazioni secondo lo scenario RCP 8.5, da noi definito “high emission”, in quanto la forzante radiativa ad esso associata è la maggiore.

spiral_data_rcp85

Past (observed – GISS data) and future (predicted – CMIP RCP 8.5 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 8.5 scenario.

Gli stessi grafici sono qui di seguito visualizzati in modalità lineare. In questi ultimi non si vede ancora il dato relativo al gennaio 2017 in quanto rimarrà visibile sono dopo aver inserito anche il dato di febbraio.

linear_only_data

Past (observed – GISS data) global mean temperatures, expressed as anomalies with respect to 1880-1909 period.

linear_data_rcp26

Past (observed – GISS data) and future (predicted – CMIP RCP 2.6 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 2.6 scenario.

linear_data_rcp45

Past (observed – GISS data) and future (predicted – CMIP RCP 4.5 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 4.5 scenario.

linear_data_rcp85

Past (observed – GISS data) and future (predicted – CMIP RCP 8.5 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 8.5 scenario.

Ci sono pochi commenti da fare a questi grafici, ed ai dati a cui essi si appoggiano: i grafici “parlano da soli”. Il primo, e più banale, commento è che, guardando i grafici, si nota come l’accelerazione impressa negli ultimi anni ha portato i dati a sovrapporsi alle simulazioni dei modelli. Negli scenari che abbiamo definito come corrispondenti a livelli bassi e medi di emissioni, i dati si collocano su valori di anomalia molto elevati, e mostrano come, al momento, lo scenario di “concentration pathway” che più si avvicina ai dati è quello “high emission”, ovvero l’RCP 8.5.

Il secondo commento è che i primi valori disponibili per il 2017, quelli di gennaio, mostrano sì una lieve diminuzione, peraltro attesa (dal momento che l’episodio di El Niño è ormai terminato), ma non così significativa, dal momento che il valore rimane comunque sul podio.

Insomma, guardando all’accordo di Parigi, la strada per far rimanere le anomalie di temperatura entro i 2 °C rispetto ai valori preindustriali appare sempre di più in salita, soprattutto vista la notevole inerzia della politica, mentre l’opzione di rimanere entro 1.5 °C è di fatto ormai irrealizzabile, salvo cataclismi (come, ad esempio, l’arrivo di un grosso e imprevisto meteorite) che porrebbero comunque in secondo piano le questioni climatiche.

GW continues to break records, in the silence of media.

GW continues to break records, in the silence of media.

No news, no bad news, says a proverb. Since last October, 2015, the news is always the same: monthly global temperature anomaly has updated previous record of heat. At least, considering GISS database, that start from 1880. Ten consecutive months, including also the month of June 2016, in which the anomaly was equal to that of June 2015 (and higher than others). Never occurred before. With August well positioned for beating its warm record, the only hope fror avoiding a complete year of records is kept in the month of September. This when ENSO index has turned versus its negative phase, as this global SST animation shows. And this is not a good news.

Below, the update of the plots shown some months ago using linear and spiral visualization, and including the data until July. It is evident in both figures as the red line from October 2015 constitutes the upper border of the temperature ensemble.

linear_data_animation

Anomaly of monthly global mean temperatures, according with GISS database. Linear visualization.

Both visualizations show the beginning of the actual warming phase, in late 1980’s, and the violent acceleration in last nine months, much larger than those observed in previous large El Niño (positive phase of ENSO) episodes.

spiral_data_animation

Anomaly of monthly global mean temperatures, according with GISS database. Spiral viualization.

Despite these alarming data, the news about the continuous records of global temperatures does not attract public opinion too much. A research of “global warming” keywords on google trends gives a signal slowly decreasing since the peak of 2007, perhaps due to the book and movie of Al Gore “An inconvenient truth”.

trends-gw

“Global warming” key according with google trends.

Of course, soccer and olympic games, or actresses gossips, or Pokemons, are much more attractive news for common people. After all, global temperatures involve just the earth…

The insane temperature rise of our planet

The insane temperature rise of our planet

Climate change is an issue that is not yet capturing the public opinion as it should do. One of the reasons is that the year-be-year temperature variations, at global scale, are much smaller than day-by-day variations at local scale, or seasonal variations at global or local scale. However, there is a certain parallelism between the body temperature of a person and the climate. If one records its body temperature every minute of a day, he will discover some daily variations, which could vary little less than 1 °C. Also, different persons can have different mean body temperatures, with values spanned over 1 °C or sligthly more, depending on each personal condition. An athlete immediately after a competition, or a normal person after a stressing exercise, can have a body temperature even 1°c or more superior to its normal mean. Well, these normal variations represent the “weather” of the person, and do not indicate necessarily the presence of a pathology.

However, if the temperature of a certain person start rising, more or less regularly, in the time, this variation represents a sort of “climate” of the person, with is changing, and may be a symptom of something not necessarily good for the health of the person. This is true even if such “climate” variation could be smaller than those that we have previously called “weather” variations. The scientific problem is thus to distinguish normal variations from abnormal variations, differentiating the scales. While the communication problem is how to inform in a correct but clear way the people about such dynamics.

We have now the fortune of having available more than one century of meteorological observations, carried out in several meteorological stations displaced in various places in the Earth. Several climatic centers have collected a subset of these data and have performed some analyses on such data, in order to exclude anomalous trends or data. And have calculated an estimate of the global mean temperature. Since the choice of stations and the treatment of data has been different from centre to centre, there are some differences among the datasets, but the emerging signal is univoque and incontestable: global mean temperature is increasing.

Furthermore, several climatic models (that, more properly, are now called Earth System Models) have been run by different teams to simulate the future climate of the Earth. Despite each individual model tends to give a particular answer, the current method to consider such kind of projections is to consider the ensemble of the results of a wide set of models. This has been performed, for instance, during the experiment CMIP5, whose preliminary results have constituted the core of the findings of the last IPCC report.

With Stefano Caserini, coordinator of Italian blog climalteranti.it, we have had the idea of combining the two informations, data and models, in a visual way. We have chosen as dataset the GISS and as model the CMIP5 ensembles, by selecting three different scenarios adopted: the RCP 2.6, the RCP 4.5, and the most extreme RCP 8.5, respectively corresponding to low, medium, and high emissions. In particular, RCP 8.5 scenario outlines what we would expect if the emissions will continue to change as they did until now (i.e. with a continuous increment).

Monthly climate change - GISS + RCP 8.5

Evolution of monthly mean temperature anomalies from 1880 to 2100, referred to the period 1880-1909. the observations relative to the period January 1880 – April 2016 are extraxted from dataset GISS, while the simulation data, relative to the period 2017-2100, have been gathered from the ensemble values of experiment CMIP5, in this case selecting the extreme high-emissions scenario RCP 8.5.

This is instead the case of the milder scenario RCP 2.6:

GISS + RCP 2.6

Evolution of monthly mean temperature anomalies from 1880 to 2100, referred to the period 1880-1909. the observations relative to the period January 1880 – April 2016 are extraxted from dataset GISS, while the simulation data, relative to the period 2017-2100, have been gathered from the ensemble values of experiment CMIP5, in this case selecting the low-emissions scenario RCP 2.6.

while this is the animation of the intermediate scenario RCP 4.5:

GISS + RCP 4.5

Evolution of monthly mean temperature anomalies from 1880 to 2100, referred to the period 1880-1909. the observations relative to the period January 1880 – April 2016 are extraxted from dataset GISS, while the simulation data, relative to the period 2017-2100, have been gathered from the ensemble values of experiment CMIP5, in this case selecting one of the intermediate scenarios, i.e. the medium-emissions RCP 4.5 .

Model simulations data are available in the period 1860-2100, while GISS observations refer to the period 1880-2016 (last datum is April). I have merged those two datasets by evaluating in each case the respectively anomaly in the common period 1880-1909 (a 30-year period, as usually it is done in climate analyses).

I have visualized the result with two different methods. I have used the spiral method of monthly anomalies, originally developed by Ed Hawkins for HadCRUT data, and I have considered the linear plot of montly anomalies, as done by myself in a recent post with HadCRUT data.

The first method is discussed in detail in this post of climalteranti.it, thus here I will describe the second, adding some short general considerations (short because I believe that these plots can talk by themselves).

These are, in my opinion, two different but impactive ways to visualize the climate change which is going on. The animations start from 1880 and, month by month, show the temperature variations up to April 2016. It is evident the initial cooling in the first decade of 1900, the warming between 1920 and 1930, the stationariety in the decade of the WWII, another weak warming immediately after, then a stasis between 1960 and 1970, and then rapid increase of warming rate since 1980, with last fifteen years able to update at least one montly record almost every year. Until the anomalous period of last nine months, which places completely out of the above range.

Future climate simulations by CMIP5 scenarios show a continuous warming, almost similar for all three scenarios up to 2030, then rapidly differentiating. Note that warming rate of models is more regular, due to the fact that these data represent an ensemble and are not just the output of a single model. The anomalous warmest records established from January to April 2016 seems to be updated around 2025-2030, when those values would become the regular climate. Then, after 2030, different scenarios start to differentiate from each other, with just the common result to show a larger anomaly in winter. At the end of this century, even in the low emissions scenario (RCP 2.6), a season like the last one will be regarded as a cool period. But, if we look at the most extreme scenario (RCP 8.5, corresponding to high emissions), it will be regarded as a sort of mini-ice age…

The scenarios begin to differentiate from about 2030… there is still a few time for trying to make occurring the mild scenario RCP 2.6 instead of the extreme RCP 8.5 one… not too much time, because greenhouse gases increases inexorably, and consequent global warming too.

We can choose… we must choose!

Global temperature change, month by month

Global temperature change, month by month

Recently, several authors attempted to visualize the exceptionality of the global mean temperatures recorded in last months. Without pretending to be exhaustive, I would mention the very impressive spiralling of Ed Hawkins, or also the animation of monthly temperatures with annual records by Tom Randall & Blacki Migliozzi. I think that it is important to stress about the rapidity and intensity of actual global warming, underlining the word GLOBAL (eventual anomalies of few months in small areas of the planet do not have nothing to do with global warming!).

The following animation is my modest contribution. Starting dataset is still from the CRU, and in particular the dataset HadCRUT4 (filled-in by Cowtan and Way) on climexp website. Such data are already anomalies, but I have performed an additional montly detrending by substracting, month by month, the average of the period 1850-1879.

The animation updates, year by year, the coldest and warmer months.

linear

Fa caldo, quindi impiego meno tempo a cuocere la pasta. O no?

Un amico mi ha posto il quesito seguente: “l’incremento delle temperature medie rispetto alla norma ha un qualche effetto misurabile sul tempo di cottura della pasta? A me pare di sì…”. Sono le tipiche domande che mi fanno scattare una molla: il quesito infatti mi ha incuriosito ed ho provato a ragionarci su.

Un piatto di pasta (fonte www.gushmag.it, Licenza #1894867 da www.canstockphoto.com Dasha Petrenko)

Un piatto di pasta (fonte http://www.gushmag.it, Licenza #1894867 da http://www.canstockphoto.com Dasha Petrenko)

Ho ben presente che uno studio di questo tipo ben si presterebbe ad essere candidato per il premio Ig Nobel, ma in realtà non aspiro a tanto, e ritengo invece utile fare due conti a spanne per vedere di dare una risposta all’amico. E siccome la risposta è interessante, ho deciso di trasformare la risposta in un post.

Per una volta, pubblico un post un po’ leggero, anche se le formule, come vedrete, non mancano. Notiamo subito, infatti, che si tratta di un bell’esercizio di fisica, e in particolare di termodinamica, ma serve anche qualche nozione di base di cucina. Conoscendo le mie modeste abilità culinarie (ma la pasta riesco anche io a cuocerla al dente!), ho cercato un po’ di aiuto sul web per le dosi, visto che normalmente io “vado a spanne”.

La pasta è prontaaaaa (fonte: thumbs.dreamstime.com)

La pasta è pronta! (fonte: thumbs.dreamstime.com)

Torniamo a noi. Parlavamo e parleremo di pasta, ma un discorso analogo varrebbe per il riso. Per preparare un piatto di pasta per due persone servono 160 grammi di pasta (ho detto due persone, non due lupi!) e almeno un litro di acqua. Anzi, la regola aurea dei cuochi (fonte: questo post) specifica che sono necessari 1 litro di acqua ogni 100 g di pasta, quindi nel nostro esempio occorrono 1.6 litri di acqua.

Se l’acqua si trovasse alla temperatura iniziale T, la quantità di calore che dovrebbe essere fornita dal fuoco della cucina a gas è Qa=ma ca ΔT dove ma=1 kg è la massa di acqua e ca= 4187 J/kgK il calore specifico dell’acqua, mentre ΔT=100-T è la differenza di temperatura tra la temperatura ambiente e quella di ebollizione dell’acqua (nella formula precedente, T va espressa in °C, mentre ΔT, essendo una differenza, può essere considerata in gradi Kelvin; 100 °C è la temperatura di ebollizione in condizioni standard: livello del mare, acqua distillata e pressione media).

La prima fase: portare l'acqua all'ebollizione (fonte: vanthian.altervista.org)

La prima fase: portare l’acqua all’ebollizione (fonte: vanthian.altervista.org)

A questa quantità di calore bisognerebbe aggiungere anche quella relativa alla pasta, che vale Qp=mp cp ΔT con mp=0.16 kg e cp=2.15 J/kgK (valore tratto da questa fonte: anche se non fosse esatto al 100%, vedremo più avanti che tale valore è ininfluente). In definitiva, Q=Qa+Qp=(6699.2+0.344) ΔT=6699.544 ΔT ≈6699.2 ΔT, ovvero la quantità di calore assorbita dalla pasta risulta trascurabile rispetto a quella assorbita dall’acqua.

Si noti che qui si fa l’ipotesi di mettere la pasta nell’acqua prima che questa bolla, ma in realtà, che la si metta prima o dopo, il discorso non cambia, in quanto il calore è energia, che è una grandezza additiva. Quello che potrebbe cambiare, invece, è il gusto della pasta… ma di questo non vorrei parlare!

Poniamo di aver regolato il gas in maniera tale che, alla temperatura ambiente in casa tipica di un mese fa (T1=24 °C), fossero necessari 10 minuti per portare acqua e pasta dalla temperatura ambiente all’ebollizione. Se la temperatura aumentasse fino al valore di questi giorni (T2=32 °C nelle case), servirebbe meno tempo per portare a ebollizione acqua e pasta? E se sì, di quanto si ridurrebbe?

Per rispondere a queste domande occorre valutare le quantità di calore alle due temperature:
Q1=( mp cp + ma ca) ΔT1   e   Q2=( mp cp + ma ca) ΔT2
Se ipotizziamo di regolare il gas allo stesso modo, dal momento che il gas fornisce la stessa potenza (energia per unità di tempo), si possono uguagliare le due potenze, calcolate dividendo il calore per l’intervallo di tempo:
P1=Q1/Δt1=( mp cp + ma ca) ΔT1/Δt1   e   P2=Q2/Δt2=( mp cp + ma ca) ΔT2/Δt2
e siccome P1=P2 se ne deduce che:
( mp cp + ma ca) ΔT1/Δt1 = ( mp cp + ma ca) ΔT2/Δt2
da cui:
Δt2=Δt1 ΔT2/ΔT1

La scolatura prima di impiattare (fonte: www.greenme.it)

La scolatura prima di impiattare (fonte: http://www.greenme.it)

Questa espressione – tra l’altro – risulta indipendente dalla massa della pasta e dell’acqua, e dipende invece soltanto dalla temperatura ambiente.

Usando i valori numerici sopra riportati:
Δt2=10 min 68/76 = 8 min 56 s
ovvero si risparmierebbero 1 minuto e 4 secondi, pari all’11% circa del tempo necessario per portare acqua e pasta all’ebollizione.

La percentuale dell’11% dipende dal rapporto tra le variazioni di temperatura ΔT2/ΔT1, ed è anche indipendente dalla potenza del gas usata.

Buon appetito!!!
__________________________________________________________________________________
Alcune note qui di seguito, che spiegano alcune approssimazioni fatte in questo conto “spannometrico”.

  1. il guadagno sui tempi si limita alla fase necessaria a portare l’acqua in ebollizione; durante la cottura, infatti, l’acqua rimane in ebollizione e quindi non cambia nulla. Al limite, quando fa caldo, la dispersione termica dalla pentola è minore, per cui basta un fuoco basso a mantenere attiva l’ebollizione.
  2. Qualcuno potrebbe obbiettare che la pasta andrebbe cotta in acqua salata e non in acqua dolce, il che potrebbe comportare la variazione del punto di ebollizione: è vero. La regola aurea dei cuochi (fonte: questo post) dice che sono necessari 10 g di sale ogni 100 g di pasta, quindi nel nostro esempio di sopra ne occorrono 16. Il punto di ebollizione dell’acqua sale di 0.14 °C ogni 8 g di sale (fonte: questo post), per cui nel nostro esempio esso diventerà 100.28 °C invece di 100 °C. L’effetto, oltre che ad insaporire la pasta, è quello di diminuire (di poco) i tempi di cottura della pasta. Supponendo di versare il sale nell’acqua subito all’inizio, o comunque prima del raggiungimento del punto di ebollizione, ripetendo i conti di sopra si trova che il tempo risparmiato diventa il 10.5%, ed i dieci minuti di cottura si ridurrebbero di 1 minuto e 3 secondi, per cui l’effetto è minimo e può essere definito trascurabile.
  3. Rispetto ad un mese fa, la pressione superficiale è un pochino maggiore adesso, a causa della presenza dell’anticiclone africano, ma le differenze sono piccole, di qualche hPa. Una pressione maggiore fa aumentare il punto di ebollizione: ad esempio, un incremento di una ventina di hPa produce un aumento di 1 °C nella temperatura di ebollizione (fonte: questo post). L’effetto sulle tempistiche di ebollizione è pertanto simile a quello sopra descritto per l’acqua salata, ovvero del tutto trascurabile.
  4. Ho ipotizzato che l’acqua per la pasta abbia la stessa temperatura dell’aria in casa. Questa è in realtà un’ipotesi “forte”, in quanto normalmente l’acqua scorre sottoterra ed ha una temperatura inferiore a quella dell’aria, specialmente nella stagione fredda, quando le case sono riscaldate. Ad esempio, le simulazioni che facciamo con il modello WRF ci dicono che, oggi 23 luglio, la temperatura a 40 cm di profondità è di 27 °C circa. È un valore molto alto rispetto alla norma, tuttavia inferiore alle temperature tipiche che ci sono in casa. Tuttavia, in questi giorni, verifico sperimentalmente che, in realtà, se non si “tira l’acqua” per un po’ di tempo, il primo getto ha all’incirca la temperatura ambiente, visto che i tubi scorrono in casa ed i muri si sono riscaldati. Questo è particolarmente vero nelle ore in cui generalmente si consuma poca acqua, ovvero nei pressi del pranzo (dopo pranzo, invece, si lavano i piatti e l’acqua corre maggiormente, per cui è più fresca). La temperatura esatta dell’acqua dipende quindi dal consumo delle persone, o addirittura del condominio, e risulterebbe arduo determinarla a priori, e proprio per questo motivo ho scelto di usare la temperatura ambiente, il cui valore è determinabile con maggiore facilità. Se usassi valori inferiori, il rapporto ΔT2/ΔT1 tenderebbe ad aumentare e quindi il tempo risparmiato Δt2 tenderebbe a diminuire.
L’eclissi solare del 20 marzo 2015

L’eclissi solare del 20 marzo 2015

Nell'immagine, il punto scuro sulla superficie terrestre rappresenta la zona in cui si ha l'eclissi totale di Sole, mentre l'area grigia indica le zone in cui si vede un'eclissi parziale di Sole, con la superficie del disco solare tanto più "intaccata" dalla Luna quanto più ci si viene a trovare vicini alla zona di eclissi totale. Fonte: G. Veneziano.

Nell’immagine, il punto scuro sulla superficie terrestre rappresenta la zona in cui si ha l’eclissi totale di Sole, mentre l’area grigia indica le zone in cui si vede un’eclissi parziale di Sole, con la superficie del disco solare tanto più “intaccata” dalla Luna quanto più ci si viene a trovare vicini alla zona di eclissi totale. Fonte: G. Veneziano.

Il prossimo 20 marzo 2015, in Italia si verificherà un’eclissi solare. Il fenomeno fu osservato sin da tempi molto remoti, e siccome le conoscenze scientifiche dell’epoca non riuscivano a darne una spiegazione plausibile, veniva considerato portatore di sciagure (in questo documento si può trovare un bel riassunto di varie credenze ed aneddoti in diverse epoche storiche).

Oggi sappiamo che un’eclissi è un fenomeno ottico di oscuramento di una parte o anche tutto il disco solare da parte della Luna. Si verifica sempre in condizioni di novilunio o luna nuova. Si tratta di un evento piuttosto raro: Sole, Luna e Terra devono essere perfettamente allineati in quest’ordine; ciò è possibile solo quando la Luna, la cui orbita è inclinata di cinque gradi rispetto all’eclittica, interseca quest’ultima in un punto detto nodo. Quando il nodo si trova tra la Terra e il Sole, l’ombra della Luna passa in alcuni punti della superficie terrestre e si assiste a un’eclissi solare. Se invece il nodo si trova dalla parte opposta, si ha un’eclissi lunare.

Il fenomeno comunque si presenta così come lo vediamo grazie ad una fortunata coincidenza. Infatti, la distanza Terra-Sole è circa 400 volte maggiore della distanza Terra-Luna, ma anche il diametro del Sole è circa 400 volte maggiore del diametro della Luna; proprio perchè questi rapporti sono all’incirca uguali, Sole e Luna visti dalla Terra appaiono praticamente grandi uguali, e la loro dimensione angolare è pari a 0.5 gradi di arco. La Luna colpita dal Sole, proietta un cono d’ombra che, quando raggiunge la Terra, è largo solo 160 chilometri e viaggia a velocità comprese tra i 1800 chilometri orari all’equatore, fino a 7200 chilometri orari a latitudini più elevate, per cui può coprire un punto sulla superficie terrestre solo per alcuni minuti (all’incirca 8-9 all’equatore).

Percorso apparente dell'eclissi dell'11 agosto 1999 in cui si evidenzia la zona di totalità, sull'Europa, e le zone in cui risultò visibile un'eclissi parziale, con l'evidenziazione della percentuale di disco solare coperto dalla Luna. Fonte: G. Veneziano.

Percorso apparente dell’eclissi dell’11 agosto 1999 in cui si evidenzia la zona di totalità, sull’Europa, e le zone in cui risultò visibile un’eclissi parziale, con l’evidenziazione della percentuale di disco solare coperto dalla Luna. Fonte: G. Veneziano.

Dallo spazio un’eclissi solare si presenta come un cerchio di luce oscurata del Sole in moto su tutta la Terra. Ad esempio, questa animazione mostra, a titolo di esempio, la propagazione dell’ombra della Luna sulla superficie terrestre in occasione dell’eclissi di Sole dello scorso 11 agosto 1999. In tale occasione, il percorso della totalità dell’eclisse passò appena a nord dell’arco alpino, dopo aver sfiorato Parigi, e da tutte le città italiane si assistette soltanto ad una eclisse parziale con il disco solare coperto mediamente per il 90% del suo diametro.

Dopo aver visto perchè il fenomeno si verifica, cerchiamo ora di dare una risposta ad un’altra domanda: esistono, e se sì, quali sono le conseguenze di un’eclissi di Sole sulla fenomenologia meteorologica? Per dare una risposta, andiamo ad esaminare i dati raccolti da quattro stazioni meteorologiche in occasione dell’eclissi estiva di Sole sopra menzionata, praticamente l’ultima di un certo rilievo – pur se non totale – vista dall’Italia: quella dell’11 agosto 1999 (di cui qui si trova un interessante resoconto). Come stazioni meteorologiche abbiamo scelto: quella dell’università di Torino, ubicata sul tetto dell’istituto di fisica (da ora in poi UniTo); quella di Torino Buon Pastore, attiva fino al 2008 ed ubicata nella periferia urbana torinese (ToBP); quella dell’università del Piemonte Orientale, sede di Alessandria, ubicata sul tetto dell’edificio universitario (UniAl); e infine quella di Alessandria Lobbi, ubicata presso il casello di Alessandria Est, e quindi in area periferica, lontana dal centro cittadino (Lobbi).

Stazione meteorologica dell'Università a Torino.

Stazione meteorologica dell’Università a Torino.

Stazione meteorologica di Torino Buon Pastore.

Stazione meteorologica di Torino Buon Pastore.

Stazione meteorologica dell'Università ad Alessandria.

Stazione meteorologica dell’Università ad Alessandria.

Stazione meteorologica di Lobbi vicino ad Alessandria.

Stazione meteorologica di Lobbi vicino ad Alessandria.

Di queste quattro stazioni andiamo ora ad esaminare tre grandezze fisiche: la radiazione solare globale, la temperatura dell’aria e la velocità del vento. Premettiamo che i dati a cui facciamo riferimento non hanno la stessa frequenza di acquisizione: quelli relativi alle due stazioni universitarie sono infatti disponibili con frequenze di un dato ogni dieci minuti (UniTo e UniAl), mentre quelli delle altre due stazioni hanno frequenze di un dato ogni mezzora.

La radiazione solare globale mostra, in tutte e tre le stazioni, un brusco calo per un’ora e mezza circa, passando da valori compresi tra circa 600 e 700 W m-2 a valori ovunque inferiori a 100 W m-2 (riscontrati in precedenza tra le 5 e le 6 di mattina), per poi risalire su valori tra circa 730 e 850 W m-2, compatibili con la stagione in corso nel caso di un giorno soleggiato.

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999.

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999.

Andamento giornaliero della temperatura dell'aria (misurata in °C) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

Andamento giornaliero della temperatura dell’aria (misurata in °C) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

I diversi valori di picco riflettono sia la diversa torbidità del cielo nelle diverse postazioni, sia un’eventuale staratura dei sensori (specialmente per quello di UniAl, se paragonato con Lobbi). Il rapporto percentuale tra il valore minimo (tra le ore 10 e le 11) e massimo (tra le 11:30 e 12:30) del giorno, nei tre siti, vale: 8% per UniTo, 10% per ToBP, 9% per UniAl e 10% per Lobbi.

La temperatura, nelle quattro stazioni, mostra un andamento del tutto paragonabile ed evidenzia un anomalo e brusco calo termico, a metà mattina, proprio – non inaspettatamente – in corrispondenza alle ore dell’eclissi, e quantificabile in 1.5-2.5 °C circa, col minimo posizionato intorno alle ore 11, e di durata praticamente trioraria (dalle 9:30 alle 12:30).

Il modulo della velocità orizzontale del vento è una grandezza che risente, ovviamente, molto di più delle precedenti del posizionamento della stazione meteorologica. Le stazioni di ToBP e Lobbi, ad esempio, sono installate al livello del suolo stradale, ed in esse l’anemometro (non visibile in figura, nel caso di ToBP) non è posizionato in maniera standard, ovvero è posto ad altezze inferiori ai canonici 10 m.

Le stazioni di UniTo e UniAl, invece, sono posizionate sul tetto dei rispettivi edifici universitari, ad altezze di una ventina di metri dal fondo stradale; tuttavia, il palo anemometrico di UniTo (non visibile in figura, in quanto messo nel punto da quale è stata presa la foto) è sopraelevato di 10 m rispetto al livello del tetto, mentre quello di UniAl lo è di soli 2,5 metri. Questo fa ovviamente sì che il dato di UniTo risulti maggiore rispetto a quello delle altre località. In questo caso, inoltre, è anche importante il tempo di media del dato, che per ToBP e Lobbi è di mezzora, e per UniTo e UniAl di dieci minuti. Non ho voluto, tuttavia, manipolare troppo i dati, al fine di mostrare i loro reali andamenti osservati.

Andamento giornaliero del modulo della velocità del vento (misurato in m/s) misurato nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

Andamento giornaliero del modulo della velocità del vento (misurato in m/s) misurato nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

Pur tenendo conto della grande variabilità intrinseca della grandezza fisica modulo della velocità del vento, si nota come, in tre stazioni, i valori centrati sulle ore 11 non mostrano incrementi rispetto a quelli delle ore 10, mentre tendono ad aumentare leggermente verso le ore 12. Fa eccezione ToBP, che invece mostra un valore pressoché stabile in mattinata.

L’analisi combinata dei vari grafici evidenzia come il calo di radiazione solare causato dall’eclissi dell’11 agosto 1999 abbia interrotto il riscaldamento del terreno, e questo abbia rallentato leggermente anche l’intensità della brezza diurna. L’effetto risulta quindi paragonabile a quello dovuto al passaggio di un esteso banco di nubi (a parte le eventuali precipitazioni ad esse associate).

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014. Sono ovviamente mostrate soltanto le ore di sole.

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014. Sono ovviamente mostrate soltanto le ore di sole.

Vediamo ora, sulla base dei dati registrati nella stazione di UniTo negli ultimi anni, cosa è lecito aspettarsi il prossimo 20 marzo 2015 a livello di quantitativi di radiazione.

Innanzitutto osserviamo i grafici relativi alla radiazione osservata negli ultimi dieci anni (dal 2005 al 2014) nella stazione UniTo. Come si vede dalla figura, nei dieci anni si sono avute giornate con nuvolosità di vario tipo (si notano anche i picchi di radiazione superiori a quelli delle giornate a cielo sereno, nel 2010, dovuti alla riflessione da parte delle nubi in condizioni di cielo poco nuvoloso), per cui l’insieme statistico, pur se limitato a soli dieci anni, risulta abbastanza indicativo della situazione che potrebbe accadere il prossimo 20 Marzo. La curva nera e spessa indica il valore medio nel decennio considerato.

A questo punto, possiamo ipotizzare a quanto ammonterebbe l’oscuramento causato dall’eclissi. Abbiamo fortunatamente già a disposizione tutti i dati astronomici relativi all’eclissi: a Torino, l’eclissi inizierà alle 9:24 e si concluderà alle 11:44, ora locale solare, e la porzione di disco solare arriverà ad un valore massimo del 66% alle ore 10:30. Ipotizzando una variazione lineare della radiazione solare tra il 100% alle 9:22 ed il 66% alle ore 10:30, per tornare al 100% alle ore 11:41 (dati tratti da questa fonte). Pertanto, risulta possibile valutare la radiazione che si sarebbe ottenuta in ognuno dei dieci anni precedenti se vi fosse stata un’eclissi con le stesse caratteristiche, e pertanto valutare la quantità di radiazione che non sarebbe giunta a terra: chiameremo tale quantitativo “radiazione eclissata”. Tali valori sono mostrati nella figura seguente (in basso a destra).

Andamento giornaliero del quantitativo di radiazione eclissata (espressa in W m-2) che sarebbe stata misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014 se si fosse verificata l'eclissi. Per motivi grafici, si è ristretto l'asse dei tempi alle sole ore dell'eclissi (tra le 9 e le 12).

Andamento giornaliero del quantitativo di radiazione eclissata (espressa in W m-2) che sarebbe stata misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014 se si fosse verificata l’eclissi. Per motivi grafici, si è ristretto l’asse dei tempi alle sole ore dell’eclissi (tra le 9 e le 12).

Andamento giornaliero del quantitativo di radiazione media nel decennio 2005-2014 rilevata a UniTo (linea continua) e del quantitativo teorico medio senza la radiazione media eclissata eclissata (linea tratteggiata), entrambe espresse in W m-2.

Andamento giornaliero del quantitativo di radiazione media nel decennio 2005-2014 rilevata a UniTo (linea continua) e del quantitativo teorico medio senza la radiazione media eclissata eclissata (linea tratteggiata), entrambe espresse in W m-2.

Naturalmente, il grafico evidenzia valori di eclissamento diversi in funzione della nuvolosità presente nel giorno in questione. Ci sono due approssimazioni in questo grafico: la prima consiste nell’aver ipotizzato lineare il fattore di eclissamento del disco solare (questa ipotesi, pur se rozza, è – a mio giudizio – abbastanza ragionevole); la seconda consiste nell’aver ipotizzato che, se il disco solare viene elissato di un tot percento, anche la radiazione solare globale ricevuta a terra risulta eclissata della stessa percentuale. Quest’ultima approssimazione, a rigore, sarebbe valida per la sola componente diretta, e non per quella diffusa. Tuttavia, dal momento che, nell’intorno della stazione, la percentuale di eclissamento del disco solare non varia in modo apprezzabile, si può ritenere che anche questa seconda approssimazione comporti errori trascurabili rispetto alla precisione strumentale: il radiometro installato è infatti costituito da una termopila della Eppley Psp con range di misura 0÷2800 W/m² nella banda spettrale 0.285÷2.8 µm e possiede un’incertezza dell’1% (pari a circa 5-10 W/m²).

Considerando il valore della radiazione solare globale media nel decennio, si può far riferimento al grafico (in alto a sinistra) che mostra il valore medio della radiazione osservata e quello della radiazione osservata diminuita del quantitativo eclissato (linea tratteggiata). Sul Piemonte, l’eclissi si verificherà in mattinata, e quindi la radiazione eclissata risulterà essere attenuata, in media, di circa 200 W/m² nel momento del minimo. L’integrale dell’area sottesa tra le due curve fornisce il quantitativo di energia media perduta a causa dell’eclissi.

Radiazione solare osservata presso la stazione di UniTo oggi 15 marzo 2015 fino alle ore 16:00 solari.

Radiazione solare osservata presso la stazione di UniTo oggi 15 marzo 2015 fino alle ore 16:00 solari.

Il valore numerico di tale area è quantificabile in circa 0,88 MJ/m². A titolo di paragone, si può valutare quale sia il consumo di una lampadina ad incandescenza da 100W lasciata accesa per la durata dell’eclissi (circa 2 ore e 20 minuti): si trova 233 Wattora, ovvero 0,84 MJ/m², una quantità paragonabile alla radiazione eclissata per metro quadrato. Naturalmente, non si deve pensare che tale valore corrisponda esattamente al quantitativo di energia prodotta, in quanto la termodinamica insegna che nessun sistema fisico è in grado di trasformare interamente in energia elettrica o termica tutta la radiazione solare ricevuta. Si noti tuttavia come il valore di minimo raggiunto dalla curva media abbia un valore di circa 100 W/m², che risulta pienamente compatibile con il valore di una tipica giornata caratterizzata da cielo coperto. Ad esempio, oggi 15 marzo 2015, data in cui sto ultimando questo post, la radiazione solare globale osservata presso UniTo (i dati sono consultabili in questa pagina) è rimasta fino ad ora quasi sempre inferiore ai 100 W/m², a parte un breve periodo intorno a mezzogiorno; tali condizioni sono peraltro comuni a buona parte dell’Italia settentrionale ed aree limitrofe.

Esempio di ciclone extratropicale: il sistema del 18 dicembre 2007 (fonte: pixgood).

Esempio di ciclone extratropicale: il sistema del 18 dicembre 2007 (fonte: pixgood).

I valori appena calcolati mostrano che l’effetto dell’eclissi non è trascurabile, ma risulta paragonabile all’effetto del passaggio di un sistema di nubi esteso per circa un migliaio di km. In effetti, questa animazione relativa all’eclissi dell’agosto 1999 sulla Terra mostra come l’area interessata dal fenomeno sia risultata paragonabile all’area di nuvolosità di un classico ciclone extratropicale (ovvero di una depressione con annessi fronti freddo e caldo, quali quelle che si presentano sulla nostra testa con una frequenza media di una ogni quattro giorni – si veda ad esempio la figura a fianco), solo in moto molto più rapido: abbiamo infatti detto sopra che il cono d’ombra viaggia a circa 1800 km/h, ovvero 500 m/s, da paragonare con i circa 10-50 m/s che costituiscono la tipica velocità di fase di un ciclone extratropicale: così il transito del cono di ombra e penombra impiega circa 2 ore, mentre il transito dell’area nuvolosa collegata ad un ciclone extratropicale impiega circa 1-4 giorni.

Dal momento che l’Unione europea produce circa 90 GW di energia solare e la produzione si potrebbe ridurre temporaneamente fino a 34 GW, se il cielo sarà sereno, secondo quanto si deduce dalle analisi dei gestori (si veda ad esempio questa analisi), ci si attende che l’eclissi solare del 20 marzo 2015 possa avere un impatto significativo sul sistema di potenza elettrica generato con fonti non convenzionali. A questo proposito, giova ricordare che la riduzione potrebbe non riguardare soltanto la produzione di energia solare, ma anche quella eolica (si veda questo documento). Sicuramente la produzione di elettricità da fonti non convenzionali è aumentata in modo rilevante negli ultimi anni. Nonostante queste considerazioni, tuttavia la mia precedente analisi mostra come il fenomeno dell’eclissi non sembra avere effetti così drammaticamente diversi da quelli prodotti dall’arrivo, sulle stesse zone, di un normale ciclone extratropicale delle medie latitudini, se non per la rapidità del passaggio della zona oscurata. Ciò nonostante, visto che, a parte la nuvolosità del momento, le principali caratteristiche astronomiche dell’eclissi sono note da tempo, il settore elettrico sta comunque adottando le misure del caso in modo da mitigare l’impatto dell’eclissi stessa.

La radiazione ultravioletta è la componente più pericolosa in quanto ha energia sufficiente per spezzare i legami chimici, provocando danni a carico dell’occhio come lo pterigio, la pinguecola, la cheratite, la cataratta senile e la degenerazione maculare senile, nonchè una percentuale maggiore dello sviluppo di tumori a carico della cute perioculare. Fonte: dott. Benedetti.

La radiazione ultravioletta è la componente più pericolosa in quanto ha energia sufficiente per spezzare i legami chimici, provocando danni a carico dell’occhio come lo pterigio, la pinguecola, la cheratite, la cataratta senile e la degenerazione maculare senile, nonchè una percentuale maggiore dello sviluppo di tumori a carico della cute perioculare. Fonte: dott. Benedetti.

Per concludere, vorrei ancora sottolineare un aspetto. L’eclissi di Sole è un fenomeno sicuramente intrigante e il fatto che la radiazione proveniente dalla nostra stella sia ridotta potrebbe indurre a pensare che sia molto meno pericoloso osservare il Sole, magari addirittura ad occhio nudo. Ebbene, non fatelo. Se guardare il Sole pieno ad occhio nudo produce un’immediata sensazione di dolore che costringe a chiudere l’occhio e non è particolarmente dannoso, un’esposizione prolungata può produrre lesioni alla retina e danni all’apparato oculare, soprattutto per effetto dei raggi ultravioletti, mentre la componente infrarossa può riscaldare eccessivamente le pareti oculari. In caso di eclissi parziale, il pericolo tuttavia è maggiore, in quanto la pupilla rimane spiazzata dalla vicinanza tra la porzione di disco solare non ombreggiato e la parte in ombra, e tende a dilatarsi, esponendo quindi maggiormente la retina alla radiazione da parte della porzione di Sole non eclissata ed aumentando il rischio di danneggiamento permanente delle cellule della retina, per di più senza sperimentare alcun dolore. È quindi opportuno utilizzare filtri ottici appropriati, del tipo delle lenti da saldatore, in grado di filtrare opportunamente la componente ultravioletta dello spettro; mentre l’efficacia di dispositivi improvvisato, come ad esempio i vecchi rullini fotografici vergini, rischia di essere minima o nulla, e pertanto è sconsigliata. Allo stesso modo, osservare il Sole con un binocolo senza filtri equivale a concentrare sulla retina la radiazione, ed è operazione dannosissima. Ricordiamoci che un’eclissi dura due ore, ma un eventuale danno all’apparato oculare potrebbe produrre danni permanenti che ci porteremo dietro quindi per tutta la vita. La cautela è d’obbligo!

Gli stratocumuli anticiclonici

Non è inusuale, durante le giornate autunnali e invernali, trovarsi in una situazione anticiclonica in cui spesso lo zero termico assume valori molto elevati e, in montagna, si assiste a giornate soleggiate e calde, mentre chi abita in pianura osserva dei cieli grigi che spesso non lasciano passare la radiazione solare neppure nelle ore più calde, oppure si ma limitatamente a 1-2 ore, e con temperature relativamente basse. Perchè si assiste a questa fenomenologia, e perché d’estate è molto più raro?

Per capirlo dobbiamo far ricorso agli insegnamenti della fisica dell’atmosfera. Di norma, quando ci si trova in regime anticiclonico, si è in presenza di correnti che, a livello del suolo, tendono a ruotare in senso orario attorno al massimo di pressione e contemporaneamente a divergere, come mostrato in Fig. 1.

Schema semplificato di circolazione atmosferica in presenza di depressioni e anticicloni. Nella realtà, la verticalità dei flussi subsidenti non è sempre rispettata.

Fig. 1 – Schema semplificato di circolazione atmosferica in presenza di depressioni e anticicloni. Nella realtà, la verticalità dei flussi subsidenti non è sempre rispettata.

La divergenza delle correnti al suolo richiama aria dall’alto e quindi siamo in presenza di moti discendenti (in gergo tecnico: correnti subsidenti) sopra le strutture anticloniche; nella realtà, tali correnti non sono esattamente verticali, ma possono mostrare lievi inclinazioni, soprattutto negli anticicloni dinamici. L’aria in moto discendente tende ad essere secca in quanto la sua temperatura interna aumenta a seguito della compressione adiabatica (l’aria in discesa, incontrando pressioni superiori, viene compressa adiabaticamente e quindi si riscalda) e allontana la massa d’aria dal punto di saturazione del vapore acqueo (questo poiché, in base alla legge di Clausius-Clapeyron, il contenuto di vapore acqueo alla saturazione aumenta esponenzialmente con la temperatura). Come risultato, in generale le correnti discendenti portano cieli sereni o quasi sereni, e non è un caso se la maggior parte delle aree desertiche del mondo si trova nelle fasce di latitudine tropicale, dove i moti verticali associati alle celle di Hadley della circolazione atmosferica globale sono discendenti. Per concludere, aggiungiamo che i moti di tali correnti discendenti sono molto deboli, di pochi cm/s.

Esempio di profilo vrticale di temperatura in area anticiclonica. Immagine semplificata da Università Wyoming e modificata dall'autore del blog.

Fig. 2 – Esempio di profilo vrticale di temperatura in area anticiclonica. Immagine semplificata da Università Wyoming e modificata dall’autore del blog.

A questo ragionamento, tuttavia, va aggiunto un altro fattore, ovvero quanto avviene nello strato limite. Infatti, in condizioni di alta pressione e cielo sereno, il suolo si riscalda e riscalda anche l’aria a contatto col suolo stesso, la quale, essendo leggera, tende a creare delle “bolle d’aria calda” (in gergo tecnico: termiche) che salgono; tale fenomeno si chiama convezione. In una giornata serena anticiclonica, quindi, siamo in presenza di due moti verticali opposti: il moto subsidente di discesa dall’alto verso il basso, legato all’anticiclone, e quello di salita dal basso verso l’alto, legato alla convezione. Chi vince? Generalmente, nessuno dei due. Questo perchè essi avvengono in due strati di atmosfera ben distinti, separati da uno straterello in cui la temperatura aumenta con la quota (inversione termica). Perchè si forma la zona di inversione termica? Perché, generalmente, la compressione adiabatica riscalda molto sensibilmente la massa d’aria, la quale assume temperature quindi molto alte. L’aria in salita dal suolo è soggetta allo stesso processo, ma siccome sale e incontra pressioni inferiori, si espande adiabaticamente, diminuendo quindi la propria temperatura. Quando le due masse d’aria si incontrano, risulta sensibilmente più calda quella che scende, e pertanto il moto si arresta (l’aria meno densa non può penetrare dentro quella più densa). In Fig. 2 è rappresentato un profilo verticale reale di temperatura eseguito in una località tropicale che ben evidenzia i due strati con profilo adiabatico, sopra e sotto la zona di inversione termica. Questo tipo di profili rappresenta la norma nelle zone tropicali, ma situazioni simili si verificano anche in prossimità dei massimi anticiclonici delle medie latitudini, specialmente durante la stagione estiva e quando l’umidità atmosferica nello strato limite non è troppo alta.

Radiosondaggio del 18 ottobre 2014 ore 00UTC a Cuneo. Fonte: università Wyoning.

Fig. 3 – Radiosondaggio del 18 ottobre 2014 ore 00UTC a Cuneo. Fonte: università Wyoning.

Radiosondaggio del 19 ottobre 2014 ore 00UTC a Cuneo. Fonte: università Wyoning.

Fig. 4 – Radiosondaggio del 19 ottobre 2014 ore 00UTC a Cuneo. Fonte: università Wyoning.

Cosa c’entra l’umidità? C’entra. Perchè, durante i moti convettivi nello strato limite, se l’umidità dell’aria è elevata, può succedere che il raffreddamento dell’aria durante la salita porti il vapore acqueo a superare il punto di saturazione, favorendone quindi la condensazione in minute goccioline di nube. Si formano, quindi, delle nubi le quali, data la loro collocazione all’interno dello strato limite e il loro limitato sviluppo verticale (sono limitate in alto dalla base dell’inversione termica), rientrano nella categoria degli stratocumuli.

In presenza di stratocumuli, nello strato limite il soleggiamento risulta ridotto o assente, e pertanto il suolo non si riscalda. L’atmosfera in tale strato rimane pressoché neutrale, ovvero né stabile né instabile, e i debolissimi moti verticali risultanti sono dovuto soltanto alla turbolenza episodica o residua dentro tale strato. D’estate, la lunga durata delle ore di sole in genere alla lunga provoca la rimozione dello strato di inversione, almeno temporaneamente nelle ore più calde, e le termiche riescono a diminuire l’umidità nello strato limite diluendola in quota. D’inverno, date le temperature inferiori e lo scarso soleggiamento, spesso lo strato limite risulta separato dall’atmosfera superiore, e in presenza di nubi il soleggiamento è più difficoltoso; talora lo strato di nubi si rompe soltanto nelle ore più calde del giorno, quando la radiazione solare è più efficace, ma si riforma poi quasi immediatamente all’avvicinarsi del tramonto.

Immagine satellitare nella banda del visibile alle ore 10:30 locali del 19/10/2014. Fonte: sat24.com

Fig. 5 – Immagine satellitare nella banda del visibile alle ore 10:30 locali del 19/10/2014. Fonte: sat24.com

Come esempio, guardiamo il radiosondaggio notturno registrato a Cuneo alle 00UTC del 18/10/2014, in condizioni di cielo poco nuvoloso (Fig. 3) e quello registrato 24 ore dopo, sempre a Cuneo, alle 00UTC del 19/10/2014, in condizioni di cielo coperto da stratocumuli (Fig. 4). Si nota l’irrobustimento dello strato di inversione termica sopra la città.

Se l’estensione verticale il giorno 18 era maggiore, l’intensità in termini di differenza di temperatura era invece minore; il giorno 19, lo strato si estende da circa 900 a 1600 metri, e l’inversione termica assomma a quasi 10 °C, valore che spiega bene il denso strato di stratocumuli presente su praticamente tutto il Piemonte e su gran parte della pianura padana, ad eccezione delle aree apine e prealpine (immagine satellitare in Fig. 5).

Con queste premesse, si può quindi capire come, anche in condizioni anticicloniche, che quindi sono legate a stabilità dell’aria che sfavorisce i moti verticali turbolenti, è possibile avere cieli nuvolosi; talora, nelle giornate invernali o autunnali caratterizzate da inversioni termiche molto pronunciate, lo strato di stratocumuli può essere così spesso da dare origine a deboli precipitazioni (pioviggini o piogge leggere) mentre, al di sopra dell’inversione, il cielo può essere sereno e le temperature molto gradevoli.