Global warming update

Global warming update

Il 2016 è ormai terminato, e ci sono già i dati del gennaio 2017, che secondo il database GISS si collocano a +1.175 °C rispetto alle medie del periodo 1880-1909, assunte a valori rappresentativi della media preindustriale. Tale valore è il secondo nella lista dei mesi di gennaio più caldi, dopo il gennaio 2016 (+1.385 °C) e il gennaio 2007 (+1.215 °C) e davanti al gennaio 2015 (+1.075 °C) e al gennaio 2002 (+1.005 °C), gli unici sopra la soglia di 1°C.

Abbiamo quindi deciso di ripresentare i grafici a spirale delle anomalie di temperatura (dati GISS) aggiornati al mese di gennaio 2017 incluso. Qui sotto vediamo la spirale dei soli dati.

spiral_only_data

Past (observed) global mean temperatures (GISS data), expressed as anomalies with respect to 1880-1909 period.

A seguire, i grafici che rappresentano i dati prima, e le simulazioni dei modelli dopo, con tre scenari prescelti, sempre espressi come anomalia termica rispetto al trentennio storico 1880-1909, estratti dai membri dell’esperimento CMIP. Il primo visualizza lo scenario con le emissioni più moderate (lo abbiamo definito “low emission”, e si riferisce al RCP 2.6 – ricordiamo che il numero indica la forzante radiativa, in W/m2).

spiral_data_rcp26

Past (observed – GISS data) and future (predicted – CMIP RCP 2.6 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 2.6 scenario.

Il secondo visualizza i dati e le simulazioni secondo lo scenario RCP 4.5, da noi definito “medium emission” in quanto si pone a metà, come forzante radiativa, tra i vari scenari possibili.

spiral_data_rcp45

Past (observed – GISS data) and future (predicted – CMIP RCP 4.5 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 4.5 scenario.

Il terzo, infine, visualizza dati e simulazioni secondo lo scenario RCP 8.5, da noi definito “high emission”, in quanto la forzante radiativa ad esso associata è la maggiore.

spiral_data_rcp85

Past (observed – GISS data) and future (predicted – CMIP RCP 8.5 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 8.5 scenario.

Gli stessi grafici sono qui di seguito visualizzati in modalità lineare. In questi ultimi non si vede ancora il dato relativo al gennaio 2017 in quanto rimarrà visibile sono dopo aver inserito anche il dato di febbraio.

linear_only_data

Past (observed – GISS data) global mean temperatures, expressed as anomalies with respect to 1880-1909 period.

linear_data_rcp26

Past (observed – GISS data) and future (predicted – CMIP RCP 2.6 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 2.6 scenario.

linear_data_rcp45

Past (observed – GISS data) and future (predicted – CMIP RCP 4.5 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 4.5 scenario.

linear_data_rcp85

Past (observed – GISS data) and future (predicted – CMIP RCP 8.5 experiment member) global mean temperatures, expressed as anomalies with respect to 1880-1909 period, according to RCP 8.5 scenario.

Ci sono pochi commenti da fare a questi grafici, ed ai dati a cui essi si appoggiano: i grafici “parlano da soli”. Il primo, e più banale, commento è che, guardando i grafici, si nota come l’accelerazione impressa negli ultimi anni ha portato i dati a sovrapporsi alle simulazioni dei modelli. Negli scenari che abbiamo definito come corrispondenti a livelli bassi e medi di emissioni, i dati si collocano su valori di anomalia molto elevati, e mostrano come, al momento, lo scenario di “concentration pathway” che più si avvicina ai dati è quello “high emission”, ovvero l’RCP 8.5.

Il secondo commento è che i primi valori disponibili per il 2017, quelli di gennaio, mostrano sì una lieve diminuzione, peraltro attesa (dal momento che l’episodio di El Niño è ormai terminato), ma non così significativa, dal momento che il valore rimane comunque sul podio.

Insomma, guardando all’accordo di Parigi, la strada per far rimanere le anomalie di temperatura entro i 2 °C rispetto ai valori preindustriali appare sempre di più in salita, soprattutto vista la notevole inerzia della politica, mentre l’opzione di rimanere entro 1.5 °C è di fatto ormai irrealizzabile, salvo cataclismi (come, ad esempio, l’arrivo di un grosso e imprevisto meteorite) che porrebbero comunque in secondo piano le questioni climatiche.

L’agonia dei ghiacciai alpini

Riscaldamento globale. Cambiamento climatico. Quante volte abbiamo letto sui giornali queste parole, o le abbiamo sentite nominare in televisione? Beh, recentemente direi abbastanza spesso. Eppure in molte persone rimane una sensazione di dubbio: sarà vero? Oppure è un complotto degli scienziati per avere più fondi?

Gruppo Levanne fotografato nell'agosto 2000

Gruppo Levanne fotografato nell’agosto 2000

Gruppo Levanne fotografato nel luglio 2015

Gruppo Levanne fotografato nel luglio 2015

Questo post non intende dare una risposta a queste domande, ma fornire un elemento su cui meditare. Lo scorso weekend mi sono trovato sul celebre sentiero del Re, in valle Orco, sopra i due laghi artificiali Serrù e Agnel e nei pressi del lago Nero e del lago Losere. Un posto paradisiaco, per inciso, ed infatti siamo proprio nel parco del Gran Paradiso. Camminando, mi sono ricordato di alcune foto che avevo scattato, ancora su pellicola, anni prima, lungo il sentiero.

Ghiacciai Capra e Carro fotografati nell'agosto 2000

Ghiacciai Capra e Carro fotografati nell’agosto 2000

Ghiacciai Capra e Carro fotografati nel luglio 2015

Ghiacciai Capra e Carro fotografati nel luglio 2015

Una volta tornato, ho cercato nel mio archivio e le ho trovate: si riferivano all’agosto 2000, quindici anni fa.Tra l’altro, la ricerca delle foto mi ha fatto pensare come, fino ad una decina di anni fa, cercare una foto significava prendere in mano un album, ripercorrere pagina dopo pagina i momenti passati, con una sensazione anche tattile ed odorosa delle foto. Ora la ricerca si riduce ad un’affannoso scartabellare a destra e a manca, sperando di trovare la maledetta chiavetta che contiene le foto, o almeno il suo backup… nella speranza che i dati non si siano dissolti.

In particolare, ho trovato due coppie di foto con inquadrature molto simili tra loro: evidentemente, i miei gusti fotografici non sono cambiati molto in questi quindici anni. Invece, lo stato dei ghiacciai…

Non pretendo di essere un fotografo professionista; in passato usavo una compatta, ed ora il telefonino. Ma ritengo che le foto siano di fattura sufficiente per permettere di rilevare il cambiamento dello stato dei ghiacciai in questi quindici anni. Per correttezza, premetto che ora siamo a luglio, mentre le foto del 2000 si riferivano ad agosto. La differenza non è banale: un anno fa alcuni passi alti erano ancora impraticabili per neve, in questi giorni. Ora invece solo le cime più alte conservano ancora un po’ di neve fresca, ma sta fondendo in modo rapidissimo grazie all’interminabile ondata di caldo di questo luglio.

Inoltre, spero che questi panorami con neve possano un po’ alleviare la calura di chi è costretto in città.

Si possono vedere cambiamenti nei ghiacciai in soli quindici anni? Dando uno sguardo alle foto, direi proprio di sì. Le maestose lingue glaciali che ancora nel 2000 si protendevano dal ghiacciaio del Nel, di Capra e Carro non esistono più, e sono state sostituite da esili residui di nevato che hanno i giorni contati, grazie ai colpi di zero termico sopra i 4500 metri che si sono susseguiti prima a inizio giugno e poi dai primi di luglio in modo quasi ininterrotto. L’ingrandimento del ghiacciaio del Carro mostra la parte terminale del ghiacciaio morente, interessata da fusione rapida. Il ghiacciaio di Nel presenta tutta una lunga frattura nella sua parte superiore, mentre anche qui la parte inferiore evidenzia un rateo di fusione straordinario.

Zoom sul ghiacciaio del Carro (foto luglio 2015)

Zoom sul ghiacciaio del Carro (foto luglio 2015)

Queste immagini sono emblematiche della tremenda agonia che sta caratterizzando quasi tutti i ghiacciai alpini. Lungo il sentiero, infiniti rivoli di acqua corrente e fresca testimoniano il processo di fusione in atto a tempi supersonici, date le temperature presenti in questi giorni (la stazione ARPA della Gran Vaudala, a oltre 3000 m di quota, ha spesso evidenziato temperature massime superiori a 10 °C in questi giorni).

Ecco, questo è un segno del cambiamento climatico. Lo abbiamo a due passi da casa, sulle nostre amate Alpi Graie. E il segno ci dice che il riscaldamento globale interessa anche le nostre Alpi. Tra altri quindici anni, forse, di questi ghiacciai non rimarranno che sparute chiazze di neve qua e là. O forse neppure quelle… Il ghiaccio non ama valori di zero termico superiori alla quota del Monte Bianco…

Civiltà dei turisti... così si presentavano i dintorni del lago Nero al nostro ritorno.

Civiltà dei turisti… così si presentavano i dintorni del lago Nero al nostro ritorno. E non possiamo neppure chiamarli maiali, perché i maiali sono più puliti!

Eppure… noi esseri umani siamo troppo distratti, e spesso non vediamo questo tipo di segnale, pur se così evidente. Sulle Alpi magari ci veniamo anche, e spesso, ma solo a fare un veloce barbecue, o una rapida camminata e poi via. Rigorosamente in auto, se possibile, e magari pure posteggiando il più vicino possibile al posto prescelto.
Quante volte ho sentito dire “ieri ho passato una splendida giornata in montagna, e respirato aria pura”… magari quella respirata sul ciglio della strada, dove l’aria non è troppo dissimile a quella della città.
E poi, magari, dopo aver mangiato e sbevazzato, i rifiuti li si lascia pure lì in bellavista. Infatti, camosci e marmotte vanno pazzi per la plastica e la carta… e soprattutto per le bottiglie vuote di birra!

L’eclissi solare del 20 marzo 2015

L’eclissi solare del 20 marzo 2015

Nell'immagine, il punto scuro sulla superficie terrestre rappresenta la zona in cui si ha l'eclissi totale di Sole, mentre l'area grigia indica le zone in cui si vede un'eclissi parziale di Sole, con la superficie del disco solare tanto più "intaccata" dalla Luna quanto più ci si viene a trovare vicini alla zona di eclissi totale. Fonte: G. Veneziano.

Nell’immagine, il punto scuro sulla superficie terrestre rappresenta la zona in cui si ha l’eclissi totale di Sole, mentre l’area grigia indica le zone in cui si vede un’eclissi parziale di Sole, con la superficie del disco solare tanto più “intaccata” dalla Luna quanto più ci si viene a trovare vicini alla zona di eclissi totale. Fonte: G. Veneziano.

Il prossimo 20 marzo 2015, in Italia si verificherà un’eclissi solare. Il fenomeno fu osservato sin da tempi molto remoti, e siccome le conoscenze scientifiche dell’epoca non riuscivano a darne una spiegazione plausibile, veniva considerato portatore di sciagure (in questo documento si può trovare un bel riassunto di varie credenze ed aneddoti in diverse epoche storiche).

Oggi sappiamo che un’eclissi è un fenomeno ottico di oscuramento di una parte o anche tutto il disco solare da parte della Luna. Si verifica sempre in condizioni di novilunio o luna nuova. Si tratta di un evento piuttosto raro: Sole, Luna e Terra devono essere perfettamente allineati in quest’ordine; ciò è possibile solo quando la Luna, la cui orbita è inclinata di cinque gradi rispetto all’eclittica, interseca quest’ultima in un punto detto nodo. Quando il nodo si trova tra la Terra e il Sole, l’ombra della Luna passa in alcuni punti della superficie terrestre e si assiste a un’eclissi solare. Se invece il nodo si trova dalla parte opposta, si ha un’eclissi lunare.

Il fenomeno comunque si presenta così come lo vediamo grazie ad una fortunata coincidenza. Infatti, la distanza Terra-Sole è circa 400 volte maggiore della distanza Terra-Luna, ma anche il diametro del Sole è circa 400 volte maggiore del diametro della Luna; proprio perchè questi rapporti sono all’incirca uguali, Sole e Luna visti dalla Terra appaiono praticamente grandi uguali, e la loro dimensione angolare è pari a 0.5 gradi di arco. La Luna colpita dal Sole, proietta un cono d’ombra che, quando raggiunge la Terra, è largo solo 160 chilometri e viaggia a velocità comprese tra i 1800 chilometri orari all’equatore, fino a 7200 chilometri orari a latitudini più elevate, per cui può coprire un punto sulla superficie terrestre solo per alcuni minuti (all’incirca 8-9 all’equatore).

Percorso apparente dell'eclissi dell'11 agosto 1999 in cui si evidenzia la zona di totalità, sull'Europa, e le zone in cui risultò visibile un'eclissi parziale, con l'evidenziazione della percentuale di disco solare coperto dalla Luna. Fonte: G. Veneziano.

Percorso apparente dell’eclissi dell’11 agosto 1999 in cui si evidenzia la zona di totalità, sull’Europa, e le zone in cui risultò visibile un’eclissi parziale, con l’evidenziazione della percentuale di disco solare coperto dalla Luna. Fonte: G. Veneziano.

Dallo spazio un’eclissi solare si presenta come un cerchio di luce oscurata del Sole in moto su tutta la Terra. Ad esempio, questa animazione mostra, a titolo di esempio, la propagazione dell’ombra della Luna sulla superficie terrestre in occasione dell’eclissi di Sole dello scorso 11 agosto 1999. In tale occasione, il percorso della totalità dell’eclisse passò appena a nord dell’arco alpino, dopo aver sfiorato Parigi, e da tutte le città italiane si assistette soltanto ad una eclisse parziale con il disco solare coperto mediamente per il 90% del suo diametro.

Dopo aver visto perchè il fenomeno si verifica, cerchiamo ora di dare una risposta ad un’altra domanda: esistono, e se sì, quali sono le conseguenze di un’eclissi di Sole sulla fenomenologia meteorologica? Per dare una risposta, andiamo ad esaminare i dati raccolti da quattro stazioni meteorologiche in occasione dell’eclissi estiva di Sole sopra menzionata, praticamente l’ultima di un certo rilievo – pur se non totale – vista dall’Italia: quella dell’11 agosto 1999 (di cui qui si trova un interessante resoconto). Come stazioni meteorologiche abbiamo scelto: quella dell’università di Torino, ubicata sul tetto dell’istituto di fisica (da ora in poi UniTo); quella di Torino Buon Pastore, attiva fino al 2008 ed ubicata nella periferia urbana torinese (ToBP); quella dell’università del Piemonte Orientale, sede di Alessandria, ubicata sul tetto dell’edificio universitario (UniAl); e infine quella di Alessandria Lobbi, ubicata presso il casello di Alessandria Est, e quindi in area periferica, lontana dal centro cittadino (Lobbi).

Stazione meteorologica dell'Università a Torino.

Stazione meteorologica dell’Università a Torino.

Stazione meteorologica di Torino Buon Pastore.

Stazione meteorologica di Torino Buon Pastore.

Stazione meteorologica dell'Università ad Alessandria.

Stazione meteorologica dell’Università ad Alessandria.

Stazione meteorologica di Lobbi vicino ad Alessandria.

Stazione meteorologica di Lobbi vicino ad Alessandria.

Di queste quattro stazioni andiamo ora ad esaminare tre grandezze fisiche: la radiazione solare globale, la temperatura dell’aria e la velocità del vento. Premettiamo che i dati a cui facciamo riferimento non hanno la stessa frequenza di acquisizione: quelli relativi alle due stazioni universitarie sono infatti disponibili con frequenze di un dato ogni dieci minuti (UniTo e UniAl), mentre quelli delle altre due stazioni hanno frequenze di un dato ogni mezzora.

La radiazione solare globale mostra, in tutte e tre le stazioni, un brusco calo per un’ora e mezza circa, passando da valori compresi tra circa 600 e 700 W m-2 a valori ovunque inferiori a 100 W m-2 (riscontrati in precedenza tra le 5 e le 6 di mattina), per poi risalire su valori tra circa 730 e 850 W m-2, compatibili con la stagione in corso nel caso di un giorno soleggiato.

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999.

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999.

Andamento giornaliero della temperatura dell'aria (misurata in °C) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

Andamento giornaliero della temperatura dell’aria (misurata in °C) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

I diversi valori di picco riflettono sia la diversa torbidità del cielo nelle diverse postazioni, sia un’eventuale staratura dei sensori (specialmente per quello di UniAl, se paragonato con Lobbi). Il rapporto percentuale tra il valore minimo (tra le ore 10 e le 11) e massimo (tra le 11:30 e 12:30) del giorno, nei tre siti, vale: 8% per UniTo, 10% per ToBP, 9% per UniAl e 10% per Lobbi.

La temperatura, nelle quattro stazioni, mostra un andamento del tutto paragonabile ed evidenzia un anomalo e brusco calo termico, a metà mattina, proprio – non inaspettatamente – in corrispondenza alle ore dell’eclissi, e quantificabile in 1.5-2.5 °C circa, col minimo posizionato intorno alle ore 11, e di durata praticamente trioraria (dalle 9:30 alle 12:30).

Il modulo della velocità orizzontale del vento è una grandezza che risente, ovviamente, molto di più delle precedenti del posizionamento della stazione meteorologica. Le stazioni di ToBP e Lobbi, ad esempio, sono installate al livello del suolo stradale, ed in esse l’anemometro (non visibile in figura, nel caso di ToBP) non è posizionato in maniera standard, ovvero è posto ad altezze inferiori ai canonici 10 m.

Le stazioni di UniTo e UniAl, invece, sono posizionate sul tetto dei rispettivi edifici universitari, ad altezze di una ventina di metri dal fondo stradale; tuttavia, il palo anemometrico di UniTo (non visibile in figura, in quanto messo nel punto da quale è stata presa la foto) è sopraelevato di 10 m rispetto al livello del tetto, mentre quello di UniAl lo è di soli 2,5 metri. Questo fa ovviamente sì che il dato di UniTo risulti maggiore rispetto a quello delle altre località. In questo caso, inoltre, è anche importante il tempo di media del dato, che per ToBP e Lobbi è di mezzora, e per UniTo e UniAl di dieci minuti. Non ho voluto, tuttavia, manipolare troppo i dati, al fine di mostrare i loro reali andamenti osservati.

Andamento giornaliero del modulo della velocità del vento (misurato in m/s) misurato nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

Andamento giornaliero del modulo della velocità del vento (misurato in m/s) misurato nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

Pur tenendo conto della grande variabilità intrinseca della grandezza fisica modulo della velocità del vento, si nota come, in tre stazioni, i valori centrati sulle ore 11 non mostrano incrementi rispetto a quelli delle ore 10, mentre tendono ad aumentare leggermente verso le ore 12. Fa eccezione ToBP, che invece mostra un valore pressoché stabile in mattinata.

L’analisi combinata dei vari grafici evidenzia come il calo di radiazione solare causato dall’eclissi dell’11 agosto 1999 abbia interrotto il riscaldamento del terreno, e questo abbia rallentato leggermente anche l’intensità della brezza diurna. L’effetto risulta quindi paragonabile a quello dovuto al passaggio di un esteso banco di nubi (a parte le eventuali precipitazioni ad esse associate).

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014. Sono ovviamente mostrate soltanto le ore di sole.

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014. Sono ovviamente mostrate soltanto le ore di sole.

Vediamo ora, sulla base dei dati registrati nella stazione di UniTo negli ultimi anni, cosa è lecito aspettarsi il prossimo 20 marzo 2015 a livello di quantitativi di radiazione.

Innanzitutto osserviamo i grafici relativi alla radiazione osservata negli ultimi dieci anni (dal 2005 al 2014) nella stazione UniTo. Come si vede dalla figura, nei dieci anni si sono avute giornate con nuvolosità di vario tipo (si notano anche i picchi di radiazione superiori a quelli delle giornate a cielo sereno, nel 2010, dovuti alla riflessione da parte delle nubi in condizioni di cielo poco nuvoloso), per cui l’insieme statistico, pur se limitato a soli dieci anni, risulta abbastanza indicativo della situazione che potrebbe accadere il prossimo 20 Marzo. La curva nera e spessa indica il valore medio nel decennio considerato.

A questo punto, possiamo ipotizzare a quanto ammonterebbe l’oscuramento causato dall’eclissi. Abbiamo fortunatamente già a disposizione tutti i dati astronomici relativi all’eclissi: a Torino, l’eclissi inizierà alle 9:24 e si concluderà alle 11:44, ora locale solare, e la porzione di disco solare arriverà ad un valore massimo del 66% alle ore 10:30. Ipotizzando una variazione lineare della radiazione solare tra il 100% alle 9:22 ed il 66% alle ore 10:30, per tornare al 100% alle ore 11:41 (dati tratti da questa fonte). Pertanto, risulta possibile valutare la radiazione che si sarebbe ottenuta in ognuno dei dieci anni precedenti se vi fosse stata un’eclissi con le stesse caratteristiche, e pertanto valutare la quantità di radiazione che non sarebbe giunta a terra: chiameremo tale quantitativo “radiazione eclissata”. Tali valori sono mostrati nella figura seguente (in basso a destra).

Andamento giornaliero del quantitativo di radiazione eclissata (espressa in W m-2) che sarebbe stata misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014 se si fosse verificata l'eclissi. Per motivi grafici, si è ristretto l'asse dei tempi alle sole ore dell'eclissi (tra le 9 e le 12).

Andamento giornaliero del quantitativo di radiazione eclissata (espressa in W m-2) che sarebbe stata misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014 se si fosse verificata l’eclissi. Per motivi grafici, si è ristretto l’asse dei tempi alle sole ore dell’eclissi (tra le 9 e le 12).

Andamento giornaliero del quantitativo di radiazione media nel decennio 2005-2014 rilevata a UniTo (linea continua) e del quantitativo teorico medio senza la radiazione media eclissata eclissata (linea tratteggiata), entrambe espresse in W m-2.

Andamento giornaliero del quantitativo di radiazione media nel decennio 2005-2014 rilevata a UniTo (linea continua) e del quantitativo teorico medio senza la radiazione media eclissata eclissata (linea tratteggiata), entrambe espresse in W m-2.

Naturalmente, il grafico evidenzia valori di eclissamento diversi in funzione della nuvolosità presente nel giorno in questione. Ci sono due approssimazioni in questo grafico: la prima consiste nell’aver ipotizzato lineare il fattore di eclissamento del disco solare (questa ipotesi, pur se rozza, è – a mio giudizio – abbastanza ragionevole); la seconda consiste nell’aver ipotizzato che, se il disco solare viene elissato di un tot percento, anche la radiazione solare globale ricevuta a terra risulta eclissata della stessa percentuale. Quest’ultima approssimazione, a rigore, sarebbe valida per la sola componente diretta, e non per quella diffusa. Tuttavia, dal momento che, nell’intorno della stazione, la percentuale di eclissamento del disco solare non varia in modo apprezzabile, si può ritenere che anche questa seconda approssimazione comporti errori trascurabili rispetto alla precisione strumentale: il radiometro installato è infatti costituito da una termopila della Eppley Psp con range di misura 0÷2800 W/m² nella banda spettrale 0.285÷2.8 µm e possiede un’incertezza dell’1% (pari a circa 5-10 W/m²).

Considerando il valore della radiazione solare globale media nel decennio, si può far riferimento al grafico (in alto a sinistra) che mostra il valore medio della radiazione osservata e quello della radiazione osservata diminuita del quantitativo eclissato (linea tratteggiata). Sul Piemonte, l’eclissi si verificherà in mattinata, e quindi la radiazione eclissata risulterà essere attenuata, in media, di circa 200 W/m² nel momento del minimo. L’integrale dell’area sottesa tra le due curve fornisce il quantitativo di energia media perduta a causa dell’eclissi.

Radiazione solare osservata presso la stazione di UniTo oggi 15 marzo 2015 fino alle ore 16:00 solari.

Radiazione solare osservata presso la stazione di UniTo oggi 15 marzo 2015 fino alle ore 16:00 solari.

Il valore numerico di tale area è quantificabile in circa 0,88 MJ/m². A titolo di paragone, si può valutare quale sia il consumo di una lampadina ad incandescenza da 100W lasciata accesa per la durata dell’eclissi (circa 2 ore e 20 minuti): si trova 233 Wattora, ovvero 0,84 MJ/m², una quantità paragonabile alla radiazione eclissata per metro quadrato. Naturalmente, non si deve pensare che tale valore corrisponda esattamente al quantitativo di energia prodotta, in quanto la termodinamica insegna che nessun sistema fisico è in grado di trasformare interamente in energia elettrica o termica tutta la radiazione solare ricevuta. Si noti tuttavia come il valore di minimo raggiunto dalla curva media abbia un valore di circa 100 W/m², che risulta pienamente compatibile con il valore di una tipica giornata caratterizzata da cielo coperto. Ad esempio, oggi 15 marzo 2015, data in cui sto ultimando questo post, la radiazione solare globale osservata presso UniTo (i dati sono consultabili in questa pagina) è rimasta fino ad ora quasi sempre inferiore ai 100 W/m², a parte un breve periodo intorno a mezzogiorno; tali condizioni sono peraltro comuni a buona parte dell’Italia settentrionale ed aree limitrofe.

Esempio di ciclone extratropicale: il sistema del 18 dicembre 2007 (fonte: pixgood).

Esempio di ciclone extratropicale: il sistema del 18 dicembre 2007 (fonte: pixgood).

I valori appena calcolati mostrano che l’effetto dell’eclissi non è trascurabile, ma risulta paragonabile all’effetto del passaggio di un sistema di nubi esteso per circa un migliaio di km. In effetti, questa animazione relativa all’eclissi dell’agosto 1999 sulla Terra mostra come l’area interessata dal fenomeno sia risultata paragonabile all’area di nuvolosità di un classico ciclone extratropicale (ovvero di una depressione con annessi fronti freddo e caldo, quali quelle che si presentano sulla nostra testa con una frequenza media di una ogni quattro giorni – si veda ad esempio la figura a fianco), solo in moto molto più rapido: abbiamo infatti detto sopra che il cono d’ombra viaggia a circa 1800 km/h, ovvero 500 m/s, da paragonare con i circa 10-50 m/s che costituiscono la tipica velocità di fase di un ciclone extratropicale: così il transito del cono di ombra e penombra impiega circa 2 ore, mentre il transito dell’area nuvolosa collegata ad un ciclone extratropicale impiega circa 1-4 giorni.

Dal momento che l’Unione europea produce circa 90 GW di energia solare e la produzione si potrebbe ridurre temporaneamente fino a 34 GW, se il cielo sarà sereno, secondo quanto si deduce dalle analisi dei gestori (si veda ad esempio questa analisi), ci si attende che l’eclissi solare del 20 marzo 2015 possa avere un impatto significativo sul sistema di potenza elettrica generato con fonti non convenzionali. A questo proposito, giova ricordare che la riduzione potrebbe non riguardare soltanto la produzione di energia solare, ma anche quella eolica (si veda questo documento). Sicuramente la produzione di elettricità da fonti non convenzionali è aumentata in modo rilevante negli ultimi anni. Nonostante queste considerazioni, tuttavia la mia precedente analisi mostra come il fenomeno dell’eclissi non sembra avere effetti così drammaticamente diversi da quelli prodotti dall’arrivo, sulle stesse zone, di un normale ciclone extratropicale delle medie latitudini, se non per la rapidità del passaggio della zona oscurata. Ciò nonostante, visto che, a parte la nuvolosità del momento, le principali caratteristiche astronomiche dell’eclissi sono note da tempo, il settore elettrico sta comunque adottando le misure del caso in modo da mitigare l’impatto dell’eclissi stessa.

La radiazione ultravioletta è la componente più pericolosa in quanto ha energia sufficiente per spezzare i legami chimici, provocando danni a carico dell’occhio come lo pterigio, la pinguecola, la cheratite, la cataratta senile e la degenerazione maculare senile, nonchè una percentuale maggiore dello sviluppo di tumori a carico della cute perioculare. Fonte: dott. Benedetti.

La radiazione ultravioletta è la componente più pericolosa in quanto ha energia sufficiente per spezzare i legami chimici, provocando danni a carico dell’occhio come lo pterigio, la pinguecola, la cheratite, la cataratta senile e la degenerazione maculare senile, nonchè una percentuale maggiore dello sviluppo di tumori a carico della cute perioculare. Fonte: dott. Benedetti.

Per concludere, vorrei ancora sottolineare un aspetto. L’eclissi di Sole è un fenomeno sicuramente intrigante e il fatto che la radiazione proveniente dalla nostra stella sia ridotta potrebbe indurre a pensare che sia molto meno pericoloso osservare il Sole, magari addirittura ad occhio nudo. Ebbene, non fatelo. Se guardare il Sole pieno ad occhio nudo produce un’immediata sensazione di dolore che costringe a chiudere l’occhio e non è particolarmente dannoso, un’esposizione prolungata può produrre lesioni alla retina e danni all’apparato oculare, soprattutto per effetto dei raggi ultravioletti, mentre la componente infrarossa può riscaldare eccessivamente le pareti oculari. In caso di eclissi parziale, il pericolo tuttavia è maggiore, in quanto la pupilla rimane spiazzata dalla vicinanza tra la porzione di disco solare non ombreggiato e la parte in ombra, e tende a dilatarsi, esponendo quindi maggiormente la retina alla radiazione da parte della porzione di Sole non eclissata ed aumentando il rischio di danneggiamento permanente delle cellule della retina, per di più senza sperimentare alcun dolore. È quindi opportuno utilizzare filtri ottici appropriati, del tipo delle lenti da saldatore, in grado di filtrare opportunamente la componente ultravioletta dello spettro; mentre l’efficacia di dispositivi improvvisato, come ad esempio i vecchi rullini fotografici vergini, rischia di essere minima o nulla, e pertanto è sconsigliata. Allo stesso modo, osservare il Sole con un binocolo senza filtri equivale a concentrare sulla retina la radiazione, ed è operazione dannosissima. Ricordiamoci che un’eclissi dura due ore, ma un eventuale danno all’apparato oculare potrebbe produrre danni permanenti che ci porteremo dietro quindi per tutta la vita. La cautela è d’obbligo!

Ondate di tempesta: l’uragano Sandy

Ondate di tempesta: l’uragano Sandy

Ripropongo qui sul mio blog la traduzione in italiano di un interessante post pubblicato ieri 29 ottobre 2014 su Real Climate, in questo sito. Con l’intento di pubblicizzare un libro sulle conseguenze dell’uragano Sandy negli USA, sono stati estratti da tale libro alcuni passaggi chiave di poche righe nei quali si discute in modo (a mio giudizio) molto chiaro sul funzionamento dei modelli per le previsioni meteorologiche, sui collegamenti tra eventi estremi e cambiamenti climatici, e sulla questione dell’importanza delle politiche di adattamento e mitigazione nella prevenzione dei danni futuri. La questione assume particolare rilevanza pensando che, non più tardi di tre settimane fa, diverse aree del nostro paese hanno subito ancora una volta danni ingenti ad opera di fenomeni estremi. Anche se la genesi dei fenomeni era diversa, la discussione sulla relazione tra il verificarsi di tali eventi ed i cambiamenti climatici in corso appare del tutto adatta, così come appare scritta appositamente per noi anche la discussione sulle opere di mitigazione ed adattamento necessarie per minimizzare danni e vittime.

Ho tradotto la parola inglese “surge” del titolo originale del post (Storm surge: Hurricane Sandy) con l’espressione italiana “ondate”. Non si tratta di una traduzione letterale, ma la scelta è stata veicolata dalla considerazione che il principale effetto distruttivo dell’uragano sulla terraferma è stato causato dalla violenza delle ondate lungo le aree costiere, e dall’allagamento delle zone sotterranee e, talora, anche superficiali da parte di acqua marina proveniente dall’oceano.

Allo stesso tempo, ho tradotto “storm” con “tempesta”, da intendersi non nel senso di grandine ma in quello di sistema meteorologico in grado di provocare danni a causa dell’estrema intensità del vento e, talora, anche delle precipitazioni ad essa associate.

Infine, ricordo che “uragano” (hurricane) è il modo americano di chiamare i cicloni tropicali atlantici, che invece in Asia sono chiamati tifoni (typhoon) ed in Oceania semplicemente cicloni (cyclones o cyclonic storms). Questi sistemi hanno una genesi e dinamica completamente diversa da quelli che si verificano invece alle medie latitudini, e che sono sempre chiamati cicloni ma extratropicali (extratropical cyclones): in quelli tropicali, infatti, l’energia del sistema deriva dalla condensazione del vapore acqueo “aspirato” dal sistema sopra la superficie del mare (e questo è il motivo per il quale, generalmente, tali sistemi si dissipano quando si trovano su mari più freschi o sopra la teraferma, dove la quantità di vapore acqueo è minore), mentre in quelli extratropicali l’energia è insita alla baroclinicità del sistema e proviene dalla differenza di temperatura tra la massa d’aria calda (tipicamente subtropicale) e quella fredda (tipicamente subpolare, talora artica) dal cui scontro ha origine il sistema. Per concludere questa breve digressione, ricordiamo che anche nel Mediterraneo possono formarsi dei cicloni tropicali (vengono chiamati Medicane – crasi di Mediterranean hurricane – oppure TLC – acronimo di Tropical Like Cyclones: si veda questo mio post scritto in occasione dell’ultimo evento verificatosi sul Mediterraneo, nel novembre 2011), anche se sono piuttosto rari (mediamente nell’ultimo quarantennio se ne sono verificati circa uno all’anno); poiché sia la temperatura superficiale sia l’estensione del Mediterraneo sono notevolmente inferiori a quelle di un oceano tropicale, tali sistemi hanno una genesi mista e generalmente rimangono di debole intensità per tutta la loro breve vita.

Veniamo ora alla traduzione del post di Real Climate.

copertina libro Adam Sobel "Storm Surge: Hurricane Sandy, Our Changing Climate, and Extreme Weather of the Past and Future"

La copertina del nuovo libro di Adam Sobel “Storm Surge: Hurricane Sandy, Our Changing Climate, and Extreme Weather of the Past and Future”

Nel secondo anniversario del giorno in cui il Superstorm Sandy ha toccato terra [NdT: 29 ottobre 2012], abbiamo preparato alcuni estratti del nuovo libro di Adam Sobel “Storm Surge: Hurricane Sandy, Our Changing Climate, and Extreme Weather of the Past and Future”. Si tratta di un’ottima lettura che spazia dalla meteorologia dell’evento, alla preparazione, alle risposte e implicazioni per il futuro.

Estratti

Il 28 ottobre 2012, un uragano gigante e deforme ha fatto una svolta a sinistra rispetto alla sua precedente traiettoria verso nord sull’Oceano Atlantico e si è diretto verso la costa del New Jersey. La sera del 29 ottobre, a seguito di un percorso mai osservato in precedenza in 160 anni di osservazioni di uragani sull’Atlantico, il centro della tempesta ha toccato terra nei pressi di Atlantic City.

La dimensione della tempesta, così come la traiettoria, non hanno precedenti nella memoria scientifica. Sandy è stato il più grande uragano mai osservato nei diversi decenni in cui esistono misure di buona qualità delle dimensioni degli uragani atlantici.

Uragano Sandy

Immagine dell’uragano Sandy (fonte: NASA)

Quando toccò terra, venti di burrasca interessarono una gran parte della costa orientale e un enorme gruppo di costruzioni sull’oceano. A nord del centro del ciclone, le correnti orientali di Sandy si spinsero per oltre mille miglia sul mare prima di arrivare a terra, creando enormi ondate: una serie gigante di lente ondate che hanno letteralmente trascinato l’oceano verso l’interno, come un’enorme alta marea, sommergendo alcuni dei territori più densamente popolati, economicamente attivi, e preziosi.

L’entità del disastro è stata storica. A New York, l’acqua non era mai arrivata così in alto almeno dal 1821, se poi. Per le persone nelle zone più colpite, si è trattato di un evento che gli ha rovinato la vita, in alcuni casi letteralmente.

Mentre il bilancio delle vittime è stato contenuto rispetto all’uragano Katrina, ed estremamente basso rispetto a quello dei peggiori disastri causati da cicloni tropicali nella storia recente di tutto il mondo [NdT: si veda, ad esempio, il caso del tifone Haiyan sulle Filippine, nel 2013, che ha fatto oltre seimila vittime], è stato comunque abbastanza alto da essere gravemente scioccante qui, a New York City, dove perdere la vita per un uragano era visto come un qualcosa che accade solo in luoghi lontani. Molte, moltissime persone hanno visto le loro case distrutte, e in alcuni casi interi quartieri. L’uragano ha paralizzato le infrastrutture di uno dei più vivaci centri economici e culturali del mondo per settimane intere. Il danno economico è stato conteggiato in almeno cinquanta miliardi di dollari, e forse ancora di più: 65 miliardi.

Vista aerea della distruzione causata da Sandy nelle aree costiere del New Jersey scattatadurante una missione del 1-150 Assault Helicopter Battalion, New Jersey Army National Guard, il giorno 30 ottobre 2012  (foto U.S. Air Force di Master Sgt. Mark C. Olsen/Released).

Vista aerea della distruzione causata da Sandy nelle aree costiere del New Jersey scattatadurante una missione del 1-150 Assault Helicopter Battalion, New Jersey Army National Guard, il giorno 30 ottobre 2012 (foto U.S. Air Force di Master Sgt. Mark C. Olsen/Released).

Le lezioni fondamentali che possiamo trarre da Sandy ruotano attorno alle previsioni: come facciamo le previsioni del comportamento dell’atmosfera, e il modo in cui vi rispondiamo una volta che sono state fatte. Fare le previsioni del tempo è un’impresa unica. La gente fa previsioni di molti tipi: sui risultati delle elezioni, o sulle partite di baseball, o sulle fluttuazioni del mercato azionario, o su questioni economiche ancor più grandi. Alcune di queste previsioni si basano su modelli matematici. La maggior parte di questi modelli matematici sono statistici, nel senso che usano regole empiriche sulla base di quanto è successo in passato. I modelli utilizzati per le previsioni del tempo (e i loro parenti stretti, i modelli per la previsione del clima), al contrario, sono dinamici. Usano le leggi della fisica per prevedere come il tempo cambia da un momento all’altro. Le leggi che regolano le elezioni o il mercato – le regole del comportamento della moltitudine di persone che determinano i risultati – non sono conosciute bene, se esistono. I modelli devono quindi essere costruiti sull’ipotesi che l’esperienza passata sia indicativa dei risultati futuri. Se le previsioni meteorologiche fossero ancora fatte in questo modo, sarebbe stato semplicemente impossibile da prevedere, giorni prima dell’evento, che l’uragano Sandy svoltasse a sinistra e colpisse la costa americana durante il suo moto verso ovest. Nessun meteorologo aveva mai visto succedere una cosa del genere, perché nessuna tempesta si era mai comportata così. Per la stessa ragione, nessun modello statistico addestrato sulla base del comportamento passato avrebbe riprodotto quanto accaduto come risultato probabile.

Nel caso di Sandy, i meteorologi non solo sono riusciti a vedere questo risultato come una possibilità già oltre una settimana prima del tempo, ma erano abbastanza sicuri che ciò accadesse da quattro o cinque giorni prima che l’uragano arrivasse [NdT: a New York]. Le previsioni, come quelle che abbiamo visto, che hanno previsto come Sandy si è formato e come si è trasferito fin sulla costa, non nascono dal cielo. Sono invece il risultato di un secolo di notevole successo scientifico, a partire dai primordi in Norvegia nei primi anni del 1900 [NdT: la teoria della ciclogenesi della famiglia Bjerkenes]. Il fondamento intellettuale di tutta la costruzione delle previsioni del tempo era l’idea che le leggi della fisica avrebbero potuto essere utilizzate per capire il tempo; un’idea radicale agli inizi del XX secolo. Realizzare questo obbiettivo ha richiesto moltissimi progressi concettuali, nel corso dei decenni, e miglioramenti nella tecnologia (in particolare i computer digitali).

I più gravi problemi evidenziati da Sandy non sono consistiti nelle attività di preparazione subito prima del disastro, o nella risposta all’emergenza immediatamente dopo. Ma sono invecelegati alla costruzione delle nostre coste nell’arco di molti decenni. A lungo termine, inoltre, ci sono state ottime previsioni di ciò che potrebbe accadere al nostro ambiente costruito lungo l’acqua costiera nella zona di New York City. Non si tratta, in questo caso, di previsioni di un singolo evento in una data e ora specifiche, ma piuttosto di valutazioni scientifiche dei rischi di una tempesta così violenta come è stata Sandy, o ancora peggio. Si sapeva da decenni, almeno, che New York è vulnerabile a inondazioni indotte da una tempesta o un uragano. Così come erano anche note le conseguenze che ne sarebbero derivate, a grandi linee. L’inondazione delle linee della metropolitana, ad esempio, era stata immaginata sin dal 1990.

Sandy non ha avuto bisogno dei cambiamenti climatici per verificarsi, e la storia del disastro non ha bisogno di cambiamenti climatici per renderlo importante. Il tema principale di questo libro è Sandy, e si può leggere gran parte del libro senza vedere menzionati i cambiamenti climatici. Ma è un fatto che i cambiamenti climatici si delineano protagonisti sullo sfondo quando cerchiamo di pensare a cosa significhi Sandy per il futuro.

Sandy non è stato solo un estremo colpo di sfortuna, qualcosa che si può supporre non accadrà ancora per qualche centinaio di anni. D’altra parte, non rappresenta neppure “la nuova normalità”, cioè qualcosa che è sicuro che accadrà di nuovo presto, e spesso d’ora in poi.

Quasi certamente si tratta di una via di mezzo. Sarà molto improbabile vedere un altro Sandy quest’anno, o l’anno prossimo, o anche nel prossimo decennio, o nei prossimi due. Non siamo molto più vulnerabili oggi di quanto non lo eravamo un paio di decenni fa. Ma, quando è arrivato Sandy, abbiamo capito di essere più vulnerabili di quanto immaginassimo. E il ritmo del cambiamento sta accelerando.

A causa [NdT: della crescita] del livello del mare, soprattutto, il rischio di ulteriori catastrofi tipo Sandy è in aumento. La scienza degli uragani e dei cambiamenti climatici è ancora giovane, e alcune delle caratteristiche che hanno reso Sandy e le sue ondate così grandi (le loro enormi dimensioni, il carattere ibrido, la svolta a sinistra e l’approdo con traiettoria verso ovest) sono questioni per le quali le connessioni con il clima sono meno note. Ma, a causa dell’innalzamento del livello del mare, si sa che i grandi eventi alluvionali lungo le coste diventeranno più frequenti, quasi indipendentemente da quali siano queste connessioni.

Per quanto riguarda il potenziale di allagamento, ogni metro di innalzamento del livello del mare è equivalente ad un sostanziale aumento dell’intensità delle tempeste. Usando la vecchia scala di intensità degli uragani Saffir-Simpson, quando teneva ancora conto dell’altezza delle ondate di una tempesta (prima che fosse semplificata [NdT: nel 2009] nel tener soltanto conto della velocità massima del vento), il passaggio dalla prima alla seconda categoria, o dalla seconda alla terza, ha fatto diventare molto probabile il vedere un incremento permanente di tre piedi [NdT: circa un metro] del livello del mare, e anche un incremento di sei piedi [NdT: circa due metri] non è affatto fuori questione. Questo è più o meno equivalente ad un aumento di una o due categorie nell’intensità degli uragani.

D’altra parte, il livello del mare sale lentamente. Abbiamo tempo per prepararci. Se ci adattiamo ad esso, poi nel futuro l’innalzamento del livello del mare di un piede [NdT: circa 30 cm] non avrà gli stessi effetti di un innalzamento equivalente oggi, perché saremo più protetti. Potremmo mettere in atto altre difese che avrebbero lo stesso effetto come se avessimo sollevato le nostre città e paesi lungo il mare. Pertanto, un aumento di quattro piedi [NdT: 1.30 m circa] nel futuro non provocherà un disastro come lo farebbe un aumento di quattro piedi oggi. Si tratta di adattamento al cambiamento del clima. Nel linguaggio della politica climatica, la parola “adattamento” si riferisce a qualsiasi azione intrapresa per ridurre i danni del riscaldamento.

Ancora meglio, si potrebbe fare allo stesso tempo anche la mitigazione del clima … Se dovessimo ridurre abbastanza [NdT: le emissioni di gas serra], si potrebbe rallentare in modo significativo il rateo del riscaldamento globale, e conseguentemente il tasso di innalzamento del livello del mare. Una parte del riscaldamento e dell’innalzamento del livello del mare sono già inevitabili, a causa del carbonio che abbiamo già immesso in atmosfera. Ma se dovessimo raggiungere un accordo internazionale serio per trasformare i nostri sistemi energetici in modo che siano più efficienti e facciano più affidamento su fonti rinnovabili come l’energia solare ed eolica – o anche quella nucleare, anche se questo porta un altro insieme di rischi – potremmo intaccare in maniera significativa questo problema.

Però, riusciremo mai a fare qualcosa di tutto ciò?

Il mese di luglio 2014 a Torino visto dalla stazione meteorologica dell’istituto di fisica

Il mese di luglio 2014 a Torino visto dalla stazione meteorologica dell’istituto di fisica

Vediamo come si colloca, dal punto di vista climatico, il mese di luglio appena trascorso esaminando i dati della stazione meteorologica ubicata sul tetto dell’istituto di fisica dell’università di Torino.

immagine della collocazione della capannina meteorologica posta sul tetto dell'istituto di fisica dell'università di Torino, contenente una parte della strumentazione.

Immagine della collocazione della capannina meteorologica posta sul tetto dell’istituto di fisica dell’università di Torino, contenente una parte della strumentazione.

Abbiamo deciso di usare un doppio riferimento climatico in questa analisi: gli ultimi dieci anni (2005-2014, periodo che chiameremo decennio recente), in cui, tra l’altro, i dati della stazione sono disponibili sul web, ed il periodo 1981-2014 (detto periodo lungo); in quest’ultimo caso, i dati relativi a temperature minime e massime, ed alla piovosità giornaliera, relativi ai periodi precedenti al 2005, sono stati presi dalla climatologia di Torino.

Nella fase finale, cercheremo di collocare i risultati all’interno degli andamenti relativi all’Europa ed all’intero planisfero.

Temperature minime: il valore medio mensile di 17,3 °C rappresenta il valore inferiore del periodo lungo; il precedente valore minimo medio si registrò nel 1993, con 17,4 °C. L’anomalia rispetto al valor medio del periodo lungo è di -2,3 °C. I 13,0 °C registrati il 9 luglio non rappresentano però il minimo assoluto, che fu invece registrato il 13 luglio 1981 con 11,0 °C, ma il terzo valor minimo.

Temperature massime: il valore medio mensile di 27,3 °C rappresenta il sestultimo valore inferiore del periodo lungo, e l’ultimo valore del decennio recente; il valore minimo delle medie si registrò nel 1981, con 26,5 °C. Tre anni fa, nel 2011, il valor medio fu simile a quello di quest’anno, con 27,5 °C. In ogni caso, l’anomalia rispetto alla media del periodo lungo è di -1,9 °C. I 32,5 °C registrati il 17 luglio, che sono il valore massimo assoluto del mese, sono molto lontani dal valore massimo assoluto di 36,9 °C del 22 luglio 2006.

Temperature medie: con 21,9 °C il mese di luglio 2014 batte il precedente record negativo del luglio 1981, di 22,0 °C. L’anomalia rispetto alla media del periodo lungo è di -2,5 °C. Relativamente a tutti i valori termici, le anomalie superano la dispersione dei dati intorno al valor medio (deviazioni standard comprese tra 1,3 e 1,5 °C): questo significa che, se assumiamo che la distribuzione delle temperature sia normale, la probabilità di accadimento di un evento compreso tra 1 e 2 deviazioni standard sarebbe compresa tra il 3 ed il 16%.

Piovosità: sul tetto dell’istituto sono caduti 151,6 mm di pioggia, valore lievemente superiore a quello di un anno fa (149,8) e massimo assoluto del periodo lungo, ben superiore al valore medio pari a 62,0 mm (anomalia quindi di +89,6 mm, pari al 145% di pioggia in più). Anche in questo caso, l’anomalia supera la deviazione standard dei dati (41,1 mm).

Ci sono stati 14 giorni di pioggia a luglio (nuovo record: il precedente, di 13 giorni, si verificò nel 1981), molti di più rispetto ad un anno fa (8), pur avendo registrato un quantitativo di pioggia simile, che costituiscono il doppio del valor medio di luglio (7 giorni). In sei di questi giorni è stato superato il quantitativo giornaliero di 10 mm (anche questo dato rappresenta un nuovo record che aggiorna il precedente, di 5 giorni, detenuto dal luglio 2011), a fronte di una media di due giorni. Il valore massimo giornaliero è stato di 34,2 mm, lontano dal massimo assoluto di 64,4 del 1° luglio 1987.

In relazione al decennio recente, possiamo notare come soltanto in cinque giorni sia stata registrata una temperatura massima superiore a 30 °C, a fronte di una media di 14 giorni; parallelamente, la temperatura minima ha superato 23 °C soltanto in un caso, a fronte di una media di 4 casi. L’umidità relativa media è stata del 70%, superiore alla media del 62% e valore massimo del decennio recente. La pressione atmosferica media mensile è stata di 1012,7 hPa: pur non battendo il minimo di 1010,9 hPa, registrato nel 2011, rappresenta un valore inferiore alla media (1014 hPa).

In definitiva, i dati registrati presso la stazione dell’istituto di fisica delineano un mese di luglio con temperature molto inferiori non soltanto al decennio più recente, ma anche al periodo lungo preso come riferimento, in particolare per quanto riguarda le minime e le medie giornaliere. Dal punto di vista pluviometrico, l’apporto di pioggia è stato il maggiore del periodo lungo ed ha quasi uguagliato il quantitativo di un anno fa, distribuendolo però su più giorni di pioggia, il numero dei quali è stato di gran lunga superiore alla media in tutte le soglie di precipitazione, come si deduce anche dal valore elevato dell’umidità relativa media e dal valore inferiore alla norma della pressione atmosferica, nonostante le basse temperature.

Vogliamo sottolineare, in questa sede, che l’analisi si riferisce ai valori di una singola stazione, quella dell’istituto di fisica. Mentre, dal punto di vista pluviometrico, non è lecito attendersi differenze clamorose, per quanto riguarda la pioggia, in occasione di precipitazioni a carattere di rovescio o temporale, è possibile che altre stazioni, anche limitrofe, abbiano registrato quantitativi di pioggia sensibilmente differenti: come noto, infatti, la pioggia è una variabile meteorologica che risente firtemente dalla caratterizzazione geografica e orografica del territorio.

Cerchiamo, ora, di vedere come si collocano i valori termici sopra menzionati all’interno del clima a più grande scala.

La distribuzione delle anomalie delle temperature medie a livello del suolo relativa all’Europa nel mese di luglio 2014 evidenzia una grossa area, che ingloba praticamente l’intero Mediterraneo ed i paesi che si affacciano ad esso da nord (dalla penisola iberica fino al bordo occidentale della Turchia) in cui spicca un’anomalia termica negativa, con valori che, sui Pirenei e lungo la nostra penisola, sfiorano e talora eccedono i -2 °C. Al contrario, tutto il resto dell’Europa e gran parte dell’Atlantico settentrionale evidenziano anomalie positive, che culminano sulla Scandinavia settentrionale, in particolare sulla Svezia settentrionale, dove l’anomalia eccede i +6 °C.

anomalia della temperatura media superficiale rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

Anomalia della temperatura media superficiale rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

A livello planetario, si nota come siano presenti anomalie termiche negative su Alaska, Stati Uniti orientali, Mediterraneo, Kazakhstan, Siberia e Cina centrali (emisfero nord) e Cile, Sudafrica e Namibia, Australia nordoccidentale e Oceania, e su vaste zone dell’Antartide, compensate da valori positivi i cui massimi sono identificabili in Scandinavia e tutta L’Europa tranne le zone mediterranee, in Antartide a sud della terra del fuoco e dell’Australia, in Canada occidentale ed orientale, in Siberia orientale, India, Africa sahariana, Australia occidentale (si noti che, per esaltare le piccole differenze termiche, i colori nelle due mappe precedenti sono stati limitati all’intervallo tra -4 e +4 °C).

anomalia della temperatura media superficiale nel mondo rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

Anomalia della temperatura media superficiale nel mondo rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

Queste due mappe dimostrano come i valori termici particolarmente bassi registrati praticamente sull’intero territorio nazionale siano ascrivibili ad un pattern a scala continentale che, in questo periodo estivo, penalizza fortemente la regione mediterranea, che è una delle zone nel mondo densamente abitato che ha fatto registrare l’anomalia termica più negativa. Per inciso, si nota anche come, complessivamente, ovvero a scala globale, l’anomalia termica risulti tutt’altro che negativa.

Che cosa ha provocato questa situazione termica? Possiamo farci aiutare dalla mappa della distribuzione dell’altezza di geopotenziale a 500 hPa: esso rappresenta la quota a cui la pressione vale 500 hPa e, come valore grossolano di stima, si può approssimare al livello di 5500 m circa. Le isolinee su queste mappe rappresentano quindi una stima delle isobare ad un ipotetico livello di 5500 m. La mappa mostra, proprio sulla stessa area mediterranea in cui si è registrata l’anomalia termica negativa, un campo decisamente inferiore alla media, così come c’è un’anomalia negativa anche in corrispondenza delle isole Azzorre, zona in cui, abitualmente, d’estate è presente un’area di alta pressione ben strutturata anche in quota. Si nota, invece, un’anomalia gigantesca sulla Scandinavia.

anomalia dell'altezza di geopotenziale a 500 hPa nel mondo rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

Anomalia dell’altezza di geopotenziale a 500 hPa nel mondo rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

L’alterazione di questi sistemi barici provoca una rimodellazione di tutto il sistema di correnti a scala sinottica e addirittura planetaria, il cui effetto è l’arrivo fin sul Mediterraneo dei sistemi perturbati atlantici. Vediamo infatti la distribuzione media delle correnti in quota in questo mese di luglio, confrontandola con la media climatica.

Di norma, a luglio il ramo principale delle correnti più intense emerge dal nordamerica e si dirige, in direzione ENE, verso le isole britanniche e l’Europa centrosettentrionale, spingendo in tali zone i sistemi perturbati; l’Europa meridionale ed il Mediterraneo occidentale sono interessate solo di striscio da un ramo secondario di tali correnti, in direzione ESE.

andamento medio delle correnti a 500 hPa nel mondo riferito al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

Andamento medio delle correnti a 500 hPa nel mondo riferito al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

In questo mese di luglio, invece, il ramo principale delle correnti si è diviso in due parti al largo delle isole britanniche: il ramo più robusto ha circumnavigato la Scandinavia per poi ritornare quasi da N sul Kazakhstan , mentre l’altro ramo, anch’esso intenso, si è diretto sul Mediterraneo, attraversando la penisola iberica e rinforzandosi (probabilmente per motivi orografici) proprio sul Mediterraneo occidentale.

andamento delle correnti a 500 hPa nel mondo nel mese di luglio 2014.  Dati NOAA/NCEP.

Andamento delle correnti a 500 hPa nel mondo nel mese di luglio 2014. Dati NOAA/NCEP.

L’intero anello di flussi occidentali che, alle medie latitudini, circonda l’emisfero nord (e che può essere ascritto alle note correnti di Rossby) appare molto meno intenso e più ondulato del solito, di modo che le onde di Rossby risultano molto più ampie di quanto normalmente non succeda a luglio. Notiamo, per inciso, che anche nell’emisfero sud le correnti sull’oceano indiano risultano nettamente meno intense del solito, pur mantenendo la loro struttura e direzione.

Queste mappe mostrano chiaramente come la circolazione a grande scala abbia assunto caratteristiche anomale nel passato mese di luglio, con deviazioni più vistose proprio sulla zona atlantica e dell’Europa, con conseguenti ripercussioni sui valori termici e sulla piovosità.

L’interpretazione dei prodotti dei modelli meteorologici

L’interpretazione dei prodotti dei modelli meteorologici

Instabilità numerica. Fonte: MIT.

Figura 1. Instabilità numerica. Fonte: MIT.

Nei due post precedenti abbiamo visto come un modello meteorologico risolva numericamente le principali equazioni fisiche, e di quali tipi di dati abbia bisogno per essere inizializzato. In questo post vedremo come interpretare le uscite di tali modelli. Ci limiteremo a considerare il caso dei modelli globali, e mostreremo alcune mappe previsionali, che commenteremo non per fare una previsione meteorologica, ma per capire come valutarne l’attendibilità nel tempo.

Come abbiamo visto, le principali variabili necessarie per la definizione dello stato dinamico e termodinamico del sistema sono: la pressione, la temperatura, le tre componenti della velocità del vento, la quantità di vapore acqueo, acqua liquida e ghiaccio. Siccome un modello meteorologico è prognostico, calcola i valori delle grandezze nel futuro. Per poterlo fare, deve conoscere i valori delle grandezze nel presente.

Per capire meglio questo punto, dobbiamo entrare un po’ nel dettaglio delle equazioni, ma non spaventatevi: cercherò di dare una spiegazione il più semplice possibile facendo un esempio facile facile, con soltanto TRE equazioni, di cui una differenziale. E spero che gli addetti ai lavori mi perdoneranno questa semplificazione.

Dunque: partiamo dall’inizio. Una tipica equazione differenziale prognostica ha la forma:

\frac{\partial y}{\partial t} = f(x_1,x_2. ... , x_n)

dove y è la variabile di cui si vuole conoscere il valore futuro (ad esempio, la velocità del vento o la temperatura) e f è una funzione di altre n variabili x_1,x_2. ... , x_n (ad esempio, le componenti della velocità del vento, la pressione, l’umidità, la densità, ecc.).

La derivata è indicata con una delta particolare (\partial) che indica la derivata parziale, cioè la derivata della funzione soltanto rispetto al tempo. La derivata temporale deve esserci, altrimenti l’equazione non sarebbe prognostica ma diagnostica.

Una possibile soluzione numerica di tale equazione (userò la più semplice per la spiegazione, anche se non è la più corretta, e quindi normalmente non è usata) consiste nel sostituire alla derivata temporale il rapporto incrementale, e di valutare la funzione a secondo membro nel presente (cioè usando i dati attuali); tale schema viene detto schema backward, in quanto appunto usa i dati (la funzione) del passato. In questo modo l’equazione diventa:

\frac{\Delta y}{\Delta t} = f(x_1,x_2. ... , x_n)

dove \Delta y è la differenza tra il valore y futuro e il valore y presente, cioè \Delta y = y_{futuro} - y_{presente} (e ovviamente anche \Delta t = t_{futuro} - t_{presente} ). In questo modo, è facile vedere che la soluzione di tale equazione è semplicemente:

y_{futuro} = y_{presente} + \Delta t f(x_1,x_2. ... , x_n)

Questo esempio, anche se relativamente semplice, è generalizzabile. Il risultato mostra che, in qualunque equazione prognostica, è necessario conoscere il valore iniziale (y_{presente}) per potersi calcolare il valore futuro (y_{futuro}). La grandezza  \Delta t f(x_1,x_2. ... , x_n)rappresenta appunto la “correzione” che deve essere apportata a y_{presente} per poter conoscere y_{futuro}. Anche se, come dicevo, gli schemi usati in pratica sono più complessi di questo, il discorso generale non cambia. Infatti, una delle soluzioni più comunemente usate è quella dello schema trapezoidal, che è:

y_{futuro} = y_{presente} + \frac {\Delta t f(x_1,x_2. ... , x_n)} {[1 - \frac {\Delta t}{2} \frac {\partial f}{\partial y} ]}

e, come si vede, non cambia la dipendenza da \Delta t.

Chi è un po’ esperto di algoritmi numerici ha già anche capito che il valore di \Delta t deve rimanere sufficientemente piccolo al fine di garantire la stabilità numerica di un’integrazione numerica di questo tipo, e questo perché la “correzione” deve rimanere piccola rispetto a y_{presente}. Pensate, infatti, a quanto varia la temperatura in presenza di un’avvezione termica: sarebbe certamente sbagliato supporre che quel rateo di variazione rimanga costante per periodi molto più lunghi della durata dell’avvezione stessa, e se formulassi una tale ipotesi, mi troverei con valori di molto maggiori, o minori, di quelli reali. Questo potrebbe portare all’insorgenza dell’instabilità numerica, in quanto, se ad un certo time step il valore di risultasse – per fare un esempio – molto maggiore del dovuto, allo step successivo è probabile che il sistema reagirebbe imponendo una grande correzione negativa, col risultato probabile di far precipitare a valori molto minori del dovuto, generando quindi oscillazioni irrealistiche del risultato. Questa è proprio la situazione raffigurata nella Figura 1, relativa all’integrazione numerica dell’equazione y=exp(-10 x). Si nota come le prime tre curve, valutate usando gli step \Delta y=0.001, \Delta y=0.01 e \Delta y=0.05, appaiano sovrapposte tra loro e con l’andamento analitico, mentre la curva corrispondente a \Delta y=0.2 mostra delle oscillazioni tra uno step e l’altro e dà origine ad un risultato del tutto scorrelato dall’andamento analitico. Ancora peggio capita usando lo step \Delta y=0.21: in questo caso l’oscillazione cresce nel tempo e, in pochi step, porta all’esplosione numerica della soluzione. È quindi evidente che, in questo esempio, gli ultimi due time step sono troppo grandi per poter permettere la soluzione numerica del problema.

Nel caso dei modelli numerici di circolazione, il discorso è ancora più complicato in quanto ci sono step spaziali e temporali di cui tenere conto. Nel lontano 1928, Richard Courant, Kurt Otto Friedrichs e Hans Lewy pubblicarono un articolo in cui proposero una condizione da dover rispettare al fine di garantire la stabilità numerica delle soluzioni per equazioni n-dimensionali. Tale criterio, nel caso unidimensionale, può scriversi come:

\frac{u \Delta t}{\Delta x} \leq 1

Tale criterio fu in seguito battezzato, in loro onore, criterio CFL (dalle loro iniziali). Il principio alla base della condizione è che, per esempio, se un’onda si muove attraverso una griglia spaziale discreta e vogliamo calcolarne l’ampiezza usando passi discreti di uguale lunghezza, allora questa lunghezza deve essere inferiore al tempo necessario all’onda per raggiungere i punti griglia adiacenti. Di conseguenza, quando il grigliato spaziale viene ridotto, anche quello temporale deve essere conseguentemente ridotto.

È per questo motivo che, nei modelli meteorologici, normalmente l’intervallo temporale (il time-step) di integrazione varia tra qualche secondo e qualche minuto, a seconda della sofisticazione degli schemi numerici e/o delle parametrizzazioni. Negli intervalli temporali delle integrazioni successive, il valore “futuro” appena calcolato viene poi usato come nuovo valore “presente” in modo iterativo, fino al termine della corsa del modello.

Fino a quanto si può iterare un metodo di questo tipo per integrare numericamente le equazioni differenziali? In teoria, fino all’infinito. In pratica, non per molto tempo.

Innanzitutto, i dati iniziali necessari per il primo step di integrazione (ovvero quelli su , che in questo caso diventa ) sono affetti da un certo errore (che chiameremo ). L’errore non è necessariamente legato all’imprecisione della misura, che pure può esserci: può anche succedere che un sito di misura non sia rappresentativo a causa dell’inadeguatezza della postazione di misura, oppure perché il volume di atmosfera rappresentato da quella misura potrebbe non essere omogeneo: si pensi a una stazione su erba posta in mezzo ad una grande città, o viceversa una stazione su un tetto scuro di una casa in mezzo alla campagna, o anche ad una stazione di collina quando la collina è l’unica altura presente per chilometri.

Anche le funzioni di dati affetti da errore forniscono risultati affetti da errore. E ogni operazione tra valori affetti da errore fornisce a sua volta un risultato affetto da errore. Così, un’equazione come quella sopra descritta, che rappresenta la soluzione numerica dell’integrazione di un’equazione, fornisce un valore il cui errore è maggiore dell’errore di partenza . Con il procedere delle iterazioni, pertanto, anche l’errore cresce.

Se la crescita dell’errore fosse lineare, avrei comunque un momento in cui l’errore diventerebbe troppo grande rispetto al dato. Sarebbe come se, quando una persona si pesa per controllare se il suo peso è aumentato, il risultato fosse: 70 kg, con un errore di 100 kg. È evidente che non avrebbe alcun valore un dato simile.

Però, se la crescita dell’errore fosse lineare, sarei in grado di prevedere quando l’errore stesso renderebbe non rappresentativo il risultato. Il problema è che questa crescita non è lineare, poiché le equazioni che regolano la dinamica dell’atmosfera sono non lineari. In determinate circostanze e situazioni meteorologiche, gli errori crescono molto rapidamente, finché – a un certo punto – diventano maggiori del dato stesso. Questa proprietà viene anche illustrata dicendo che il comportamento dell’atmosfera è caotico o, meglio, che le soluzioni delle equazioni di Navier-Stokes per il flusso del fluido atmosferico hanno una natura caotica. In questa accezione, come vedremo, la parola “caos”, o l’aggettivo “caotico”, denotano, più che il disordine del comportamento, la sua imprevedibilità.

L’identificazione del comportamento caotico dei sistemi atmosferici fu scoperto accidentalmente da Edward Norton Lorenz nel 1961, anche se va detto che, a livello teorico e in ambiti diversi, all’inizio dello scorso secolo Jules Henri Poincaré aveva già identificato e studiato il comportamento caotico delle dinamiche dei moti dei corpi celesti perturbando un sistema a due corpi con l’aggiunta di un terzo corpo ed osservando come questo terzo corpo rendeva le orbite altamente sensibili alle condizioni iniziali. Lorenz, comunque, utilizzando un modello molto semplificato dell’atmosfera, scoprì che soluzioni numeriche corrispondenti a condizioni iniziali lievemente differenti tra loro, anche solo per il numero di cifre significative, tendevano a essere molto simili tra loro per un certo periodo, per poi divergere e diventare completamente scorrelate l’una dall’altra a partire da un certo momento.

 In un giorno particolare durante l'inverno del 1961, Lorenz volle rivedere una sequenza di dati provenienti dal suo modello. Invece di riavviare l'intera esecuzione, decise, per risparmiare tempo, di riavviare la corsa da un certo punto. Utilizzando le stampe dei dati, inserì in input le condizioni relative a quel punto, prendendole dall’esecuzione precedente, e riavviò il modello di calcolo. Il risultato fu molto insolito e inaspettato. I dati della seconda corsa avrebbero dovuto sovrapporsi esattamente a quelli della prima corsa. Al contrario, dopo un primo momento in cui i dati si sovrapponevano, le uscite, a partire da un certo punto, cominciarono a divergere drasticamente, e la seconda corsa perse ogni somiglianza con la prima nel giro di pochi mesi. Un esempio grafico è mostrato in questa figura. Fonte: questo link.

Figura 2. In un giorno particolare durante l’inverno del 1961, Lorenz volle rivedere una sequenza di dati provenienti dal suo modello. Invece di riavviare l’intera esecuzione, decise, per risparmiare tempo, di riavviare la corsa da un certo punto. Utilizzando le stampe dei dati, inserì in input le condizioni relative a quel punto, prendendole dall’esecuzione precedente, e riavviò il modello di calcolo. Il risultato fu molto insolito e inaspettato. I dati della seconda corsa avrebbero dovuto sovrapporsi esattamente a quelli della prima corsa. Al contrario, dopo un primo momento in cui i dati si sovrapponevano, le uscite, a partire da un certo punto, cominciarono a divergere drasticamente, e la seconda corsa perse ogni somiglianza con la prima nel giro di pochi mesi. Un esempio grafico è mostrato in questa figura. Fonte: questo link.

In un primo momento Lorenz pensò che si fosse guastato un transistor nel suo computer, un originale vecchio McBee, macchina estremamente lenta e grezza per gli standard odierni. Dopo aver scoperto che non c’era nessun guasto, Lorenz finalmente trovò la fonte del problema. Per risparmiare spazio, le sue stampe avevano riportato solo tre cifre, mentre i dati nella memoria del computer contenevano sei cifre. Lorenz aveva quindi inserito dei dati arrotondati prendendoli dalle stampe, supponendo ovviamente che la differenza fosse irrilevante.

Il semplice modello di Lorenz (il cui risultato è noto come attrattore di Lorenz) evidenzia il fenomeno noto come “dipendenza sensibile dalle condizioni iniziali”, a volte indicato anche col nome di “effetto farfalla”, per il motivo dell’analogia seguente: una farfalla che batte le ali in Sud America può influenzare il tempo in una città degli Stati Uniti. L’esempio del battito d’ali di una farfalla simboleggia, infatti, una deviazione minima, pressoché infinitesima, impressa dalla farfalla alla velocità del vento. Naturalmente, l’esistenza di una farfalla sconosciuta che batte le ali non ha alcuna relazione diretta con le previsioni del tempo, poiché ci vorrebbe troppo tempo per una piccola perturbazione, come quella causata nella realtà dal battito d’ali di una farfalla, per crescere e raggiungere una dimensione significativa tale da perturbare il moto. Nella realtà, ci sono incertezze molto più grandi di cui preoccuparsi, come ad esempio quelle strumentali, o la scarsità di misure rispetto ai punti griglia dei modelli, fatto che determina la necessità di compiere delle interpolazioni. Senza poi dimenticare che ogni modello consta di equazioni differenziali che descrivono sì i processi fisici fondamentali alle scale considerate, ma sempre in modo approssimato. Tuttavia, anche se l’impatto diretto del caos sulla previsione meteo è spesso un po’ sopravvalutato, e questo rimane evidente osservando che, in determinate occasioni, i modelli non riescono a riprodurre le condizioni reali dopo pochi giorni, indipendentemente dal modo in cui sono inizializzati, la teoria del caos continua a svolgere un ruolo importante nella ricerca e sviluppo di metodi di previsione meteorologica cosiddetti “di ensemble”.

Un lettore attento, a questo punto, potrebbe chiedersi perché un insieme di equazioni completamente deterministiche (con la dicitura “equazione deterministica”, o in senso lato “modello deterministico” si intende un’equazione – o un modello basato su quella equazione – la cui soluzione è completamente determinata dai valori delle condizioni iniziali per le quali non vengono considerate le incertezze) presenti un simile comportamento. Dopo tutto, gli scienziati spesso insegnano che piccole perturbazioni iniziali conducono a piccoli cambiamenti nel comportamento. Tuttavia, non sempre è così, e dipende dalla tipologia delle equazioni. Il fatto che una piccola perturbazione causi piccole variazioni si verifica quando le equazioni sono lineari. Ma questo non è chiaramente il caso delle equazioni che regolano la dinamica atmosferica o dei fluidi, cioè proprio il set di equazioni usate nel modello di Lorenz. Tali equazioni, infatti, sono non lineari. In un sistema non lineare, ricordiamo che non è soddisfatto il principio di sovrapposizione: ovvero, non è vero che l’output sia proporzionale all’input.

Oltre che a essere difficili da risolvere – nel caso delle equazioni che regolano la dinamica atmosferica, basate sulle equazioni di Navier-Stokes per il flusso del fluido atmosferico, addirittura analiticamente impossibili da risolvere – i sistemi non lineari mostrano spesso un comportamento straordinariamente complesso e caotico.

Tale fenomeno è attualmente ben noto e compreso e caratterizza tutti i modelli globali, rendendo impossibile l’effettuazione di previsioni meteorologiche precise a lungo termine. Si noti che uno può sempre eseguire una simulazione che duri diversi mesi ed analizzarne i risultati; il problema è che tali risultati diventano completamente svincolati dall’andamento reale dopo alcuni giorni, per cui non hanno alcuna utilità dal punto di vista della previsione del tempo (Figura 3). Si può dire che i risultati siano casuali? In realtà no. Un sistema caotico (di cui l’attrattore di Lorenz è il prototipo) non è casuale, e le equazioni non lineari di un sistema caotico mostrano alcuni comportamenti molto interessanti. Se il sistema non è casuale, allora il suo moto dovrebbe essere prevedibile, ma questa prevedibilità dipende dal flusso atmosferico: la posizione nell’attrattore determina la direzione in cui il flusso si muoverà, dove andrete, ma alcuni punti di partenza sono correlati a insiemi molto più strettamente vincolati nei comportamenti rispetto ad altri. Come risultato, la dispersione (statistica) dei possibili stati finali dipende dallo stato iniziale, e alcuni stati risultano più prevedibili rispetto ad altri.

L'ensemble forecasting spiegato in una figura. L'analisi rappresenta il punto di partenza della previsione numerica, e la previsione deterministica rappresenta il punto di arrivo (per ogni ora di validità della previsione), che si colloca all’interno dell’incertezza previsionale, area che si allarga sempre più allontanandosi dall’istante iniziale della previsione fino a sconfinare nel campo della climatologia.

Figura 3. L’ensemble forecasting spiegato in una figura. L’analisi rappresenta il punto di partenza della previsione numerica, e la previsione deterministica rappresenta il punto di arrivo (per ogni ora di validità della previsione), che si colloca all’interno dell’incertezza previsionale, area che si allarga sempre più allontanandosi dall’istante iniziale della previsione fino a sconfinare nel campo della climatologia.

L’impossibilità di stabilire, a priori, l’esattezza di una previsione affidandosi ad un’unica previsione deterministica ha portato a sviluppare una nuova tecnica di previsione nella quale si integrano simultaneamente più stati dell’atmosfera caratterizzati da condizioni iniziali che differiscono di poco l’una dall’altra. Con questa nuova tecnica, nota con il nome di ensemble predictions (previsioni di insieme), lo scenario meteorologico previsto è quindi legato alla probabilità che si possa verificare, cioè alla frequenza con cui il pattern atmosferico ricorre nella gamma di tutte le previsioni calcolate. Tale sistema diventa particolarmente utile nei casi in cui si verifichino transizioni nei regimi meteorologici che i modelli prevedono con maggiore difficoltà.

Pertanto, usando i modelli numerici di circolazione atmosferica, occorre eseguire diverse simulazioni perturbando le condizioni iniziali di una corsa di riferimento, e vedere cosa succede. E infatti questa rappresenta proprio gran parte della sfida delle previsioni meteorologiche, che consiste nel saggiare l’incertezza nelle condizioni iniziali. Invece di utilizzare una singola simulazione di previsione (run deterministico), la meteorologia moderna si avvale delle previsioni di ensemble, che indagano lo spazio dei possibili risultati a partire da un dato stato iniziale (incerto). Questo permette quindi ai previsori di valutare tutti i possibili risultati, di stimarne i rischi e le possibilità, e al termine di comunicare i rischi agli utenti. Sottolineiamo qui la frase “permette ai previsori di …“: il ruolo degli esperti nell’interpretare le previsioni e spiegare i rischi correlati rimane fondamentale anche nell’epoca dei modelli numerici, in cui uno potrebbe credere di essere in grado di realizzare un centro meteo, o addirittura un servizio meteorologico, semplicemente assemblando le uscite dei modelli fatti girare da altri, senza la necessità di persone qualificate (ahimè esistono alcuni centri, a livello sia nazionale sia internazionale, di questo tipo).

esempio di una serie temporale delle integrazioni numeriche relative alle previsioni di ensemble del modello IFS dell’ECMWF per la temperatura superficiale su Londra. Le due mappe si riferiscono esattamente a un anno di distanza l’una dall’altra. In ogni mappa, la linea continua nera spessa indica la previsione deterministica del modello, mentre la tratteggiata blu indica le osservazioni. In rosso sono invece indicate le previsioni dei vari run ottenuti perturbando le condizioni iniziali (previsioni di ensemble). Fonte: ECMWF.

Figura 4. Esempio di una serie temporale delle integrazioni numeriche relative alle previsioni di ensemble del modello IFS dell’ECMWF per la temperatura superficiale su Londra. Le due mappe si riferiscono esattamente a un anno di distanza l’una dall’altra. In ogni mappa, la linea continua nera spessa indica la previsione deterministica del modello, mentre la tratteggiata blu indica le osservazioni. In rosso sono invece indicate le previsioni dei vari run ottenuti perturbando le condizioni iniziali (previsioni di ensemble). Fonte: ECMWF.

A titolo di esempio del discorso relativo all’incertezza della previsione, mostriamo due previsioni della temperatura a 2 metri dal suolo per Londra, a partire dal 26 giugno di due anni consecutivi, 1994 e 1995. Le curve rosse sottili mostrano i singoli membri di una previsione di ensemble. La diffusione delle previsioni appare molto diversa nei due casi, pur trattandosi dello stesso giorno dell’anno (quindi stessa stagione, nella stessa località). Questo dimostra che alcune condizioni iniziali sono più prevedibili di altre: in un caso si ha una diffusione delle previsioni del modello molto elevata, nell’altro no. Si nota anche come, in entrambi i casi, le osservazioni reali si trovino all’interno del fascio delle linee rosse così come la previsione deterministica, ma siano “distanti” tra loro.

Come risultato, nella mappa relativa al 1994 la previsione diverge dalle osservazioni già dopo meno di due giorni, mentre in quella relativa al 1995 la previsione risulta attendibile fino al sesto giorno. Si noti anche la corrispondenza tra il momento della divergenza e la larghezza del fascio delle previsioni di ensemble.

Al giorno d’oggi, i vari centri meteorologici fanno ampio uso delle previsioni di ensemble, che vengono affiancate alle previsioni deterministiche. La tecnica è stata applicata per la prima volta nel 1992 sia dall’ECMWF europeo, sia dal NCEP americano. Si noti che l’esecuzione delle previsioni di ensemble costituisce un netto aggravio a livello di tempi di calcolo, in quanto è necessario eseguire diverse simulazioni aggiuntive oltre a quella che costituisce lo scenario di riferimento. Di solito, viene usata una versione meno risoluta dello stesso modello per le previsioni di ensemble, in modo da minimizzare i tempi di simulazione.

Come vengono perturbate le condizioni iniziali, e quante simulazioni vengono condotte con questa tecnica? Per rispondere a queste domande, possiamo vedere come fa l’ECMWF di Reading. Presso tale centro, vengono eseguite 50 simulazioni usando un modello di minore risoluzione rispetto a quello (IFS) usato per le previsioni deterministiche (attualmente, per l’ensemble prediction system, si usa il T639 per i primi dieci giorni di run e il T319 per gli altri cinque). Le perturbazioni delle condizioni iniziali non sono generate in modo casuale ma consistono in una combinazione di 25 modi che hanno il maggiore impatto sulle previsioni per l’emisfero settentrionale nel breve termine, e quindi tengono conto anche delle deviazioni tra i membri dell’ensemble e la previsione deterministica (maggiori informazioni si possono reperire qui). Un metodo analogo viene utilizzato anche per il modello GFS del NCEP (maggiori dettagli, un po’ tecnici, sono reperibili qui), per il quale ci sono però 20 membri delle previsioni di ensemble.

I risultati delle previsioni di ensemble sono normalmente sintetizzati in grafici simili a quelli mostrati in Figura 4 , oppure su mappe bidimensionali come quelle mostrate in Figura 5, e in gergo vengono chiamati spaghetti plot, probabilmente per la somiglianza delle isolinee frammischiate tra loro con la vista di un piatto di spaghetti. La Figura 5 è stata prodotta sovrapponendo soltanto tre isoipse a 500 hPa comuni tra tutte le previsioni di ensemble a ogni scadenza giornaliera di previsione; il modello usato è il GFS, e la simulazione usata per questa figura è partita alle ore 06 UTC del 20 aprile 2014.

Esempio di spaghetti plot relativi alle altezze di geopotenziale a 500 hPa previste dalle previsioni di ensemble del modello GFS girato il 20 aprile 2014 alle 06 UTC. Fonte: wetterzentrale.de

Figura 5. Esempio di spaghetti plot relativi alle altezze di geopotenziale a 500 hPa previste dalle previsioni di ensemble del modello GFS girato il 20 aprile 2014 alle 06 UTC. Fonte: wetterzentrale.de

L’analisi di questa figura mostra già chiaramente come debbano poi interpretarsi le mappe previsionali (come quella relativa alla previsione deterministica dello stesso modello: vedi ad esempio la Figura 6) alla luce mostrata in Figura 5, delle informazioni aggiuntive fornite dagli spaghetti plot. Infatti, il rischio di mettere in rete immagini è che un internauta disattento guardi le mappe previste dal modello (p. es. quelle mostrate in Figura 6) e le prenda alla lettera, ritenendo – erroneamente – che, poiché sono state messe in rete da un centro meteo riconosciuto, abbiano tutte la stessa validità (in effetti, sulle singole mappe non c’è scritto quanto siano affidabili!!! è l’utente che dovrebbe essere in grado di interpretarle correttamente). In realtà, guardando gli spaghetti plot, si può provare a dare da soli il grado di attendibilità alla previsione, almeno “a spanne”.

È importante capire, in primo luogo, che non in tutte le regioni le previsioni hanno lo stesso grado di attendibilità. Ad esempio, guardando gli spaghetti plot di Figura 5, il tempo sulla Groenlandia occidentale appare incerto già dal martedì 22, ovvero già al secondo giorno di validità della previsione, mentre sul Regno Unito si comincia a notare una divergenza delle isoipse soltanto nel giorno di venerdì 25. È comunque chiaro che la significatività delle tre ultime mappe, relative ai giorni da domenica 27 aprile in poi, è assolutamente nulla e non consente alcun tipo di previsione oggettiva.

Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hhPa (Z500, colori e isolinee nere) ottenuto mediando le previsioni di ensemble (a sinistra). La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 6a. Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hhPa (Z500, colori e isolinee nere) ottenuto mediando le previsioni di ensemble (a sinistra). La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hPa (Z500, isolinee nere), sovrapposte  al campo della deviazione standard della Z500, calcolato sempre sulle previsioni di ensemble. La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 6b. Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hPa (Z500, isolinee nere), sovrapposte al campo della deviazione standard della Z500, calcolato sempre sulle previsioni di ensemble. La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Dovrebbe quindi apparire abbastanza chiaro, a questo punto, come gli spaghetti plot e, in generale, i prodotti delle previsioni di ensemble, possano consentire di attribuire un indice di affidabilità alla previsione. È infatti importante essere a conoscenza del fatto che una previsione meteorologica non è mai, e non potrebbe mai neppure esserlo, assimilabile ad una certezza, ma rappresenta uno scenario evolutivo più o meno probabile, a seconda di quanto lontano si va nel tempo, allo stesso modo di come un dottore che fa una diagnosi dello stato di un paziente, emette poi una prognosi relativa all’evoluzione della sua patologia, prognosi che non rappresenta una certezza.

Per cui, chi vende certezze nel campo meteorologico “mente sapendo di mentire”, soprattutto quando questo avviene per le previsioni che si estendono oltre i classici 2-3 giorni. Io sono solito paragonare l’attendibilità delle previsioni meteo alla scadenza degli yogurt, e questa analogia si ricollega allo stesso discorso: dopo alcuni giorni, le nuove simulazioni condotte con i modelli portano a risultati più aggiornati, diminuendo quindi l’incertezza di cui abbiamo parlato finora, per cui le previsioni più vecchie vanno considerate alla stregua di un cibo scaduto, in quanto sono “scadute” anch’esse (e, in senso lato, possono “far male” ai fini della previsione allo stesso modo in cui un cibo scaduto potrebbe far male allo stomaco).

previsioni deterministiche del modello GFS relative alla simulazione del 20 aprile 2014 alle ore 06 UTC. Fonte: wetterzentrale.de

Figura 7. Previsioni deterministiche del modello GFS relative alla simulazione del 20 aprile 2014 alle ore 06 UTC. Fonte: wetterzentrale.de

I centri meteo o i portali più completi (tra i quali segnalo il tedesco wetterzentrale) mettono comunque online anche altri prodotti che possono consentire una migliore quantificazione dell’incertezza rispetto al metodo “spannometrico” appena delineato, basato sull’analisi “a vista” degli spaghetti plot.

Molti di tali prodotti sono addirittura reperibili anche online. Ad esempio, guardando le due mappe mostrate in Figura 6, relative al settimo giorno di previsione, si nota come siano disponibili la media di tutte le previsioni di ensemble e la dispersione attorno al valore medio per ogni scadenza previsionale e per alcune grandezze significative.

sono qui rappresentare le istantanee di tutti i 21 membri delle previsioni di ensemble inizializzate il 20 aprile 2014 e relative al 27 aprile 2014, alle ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 8. Sono qui rappresentate le istantanee di tutti i 21 membri delle previsioni di ensemble inizializzate il 20 aprile 2014 e relative al 27 aprile 2014, alle ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Ad esempio, nella mappa di Figura 6b, si può osservare come la zona arancione-rossa corrisponda ad una deviazione standard dell’altezza di geopotenziale rispetto alla media, tra tutte le varie previsioni di ensemble in tali punti, superiore ai 100 decametri, ovvero 1000 metri: un valore paragonabile alla stessa profondità dei minimi o ampiezza dei massimi. Pertanto, la sezione della mappa corrispondente a simili deviazioni standard non consente di poter considerare significativi i valori medi corrispondenti alle stesse mappe, in quanto l'”errore” è paragonabile al valor medio. La Figura 8 permette di vedere le mappe che si riferiscono ai singoli run della previsione di ensemble, sulla cui base sono poi stati valutati il valor medio e la deviazione standard mostrata inFigura 6b. Si nota subito come alcuni elementi di questo cluster presentino evoluzioni meteorologiche completamente distinte da altri. Si veda ad esempio come il Portogallo possa essere coinvolto da profonde saccature (membri 16, 17 e 18) o da robuste celle anticicloniche (P5, P6 e P7). Si nota anche come non sempre la mappa media abbia un riscontro nei singoli elementi del cluster. La mappa media è una mappa che è il risultato di un’operazione di media, e pertanto potrebbe essere rappresentativa soltanto se un elevato numero di membri dell’ensemble possiede una struttura barica analoga che “abbia sufficiente peso” nell’operazione di media. In generale, quindi, non solo non è detto che tale mappa corrisponda alla configurazione più probabile, ma in certi casi potrebbe anche non corrispondere ad una configurazione possibile!

Per oggi ci fermiamo qui, e direi che di materiale ce n’è già abbastanza da digerire. Ma quello che spero sinceramente è di aver fatto capire perché, leggendo una previsione in cui si elenca, luogo per luogo, il tempo che farà tra sette giorni senza usare nessun condizionale e senza mettere da nessuna parte una frasetta, o almeno un logo, che indichi la poca attendibilità di tale previsione, che quindi va presa alla stregua di una possibile indicazione della tendenza generale e nulla più, non si fornisce un’informazione corretta. Ricordiamoci la Figura 5, in particolare le ultime tre mappe in basso, e pensiamo che quella previsione si basa su un singolo run che magari può anche essere rappresentativo del tempo che si verificherà, ma molto probabilmente ha una probabilità di verificarsi molto piccola.

Aggiungo un’ultima considerazione. Ho basato questo post sulla discussione relativa ai modelli globali, poiché normalmente sono questi ad essere fatti girare per lungo tempo (fino a 15 giorni). Uno potrebbe pensare che un modello a mesoscala o locale, avendo un grigliato più fitto, possa consentire una notevole riduzione degli errori e quindi possa bypassare questo problema. La realtà dimostra che non è così, ed è questo il motivo per cui raramente i run dei modelli alla mesoscala si estendono oltre i 3-5 giorni. E il motivo per cui si arriva a questa conclusione è presto detto: i modelli alla mesoscala vengono inizializzati con le uscite dei modelli globali. E pertanto, se il modello globale ha un’incertezza che cresce nel tempo, non può fare altro che propagarla al modello alla mesoscala, che ne digerisce in dati in input.

In un prossimo post parleremo di previsioni stagionali e di previsioni climatiche, tentando di rispondere alla classica domanda: “ma se non siamo in grado di prevedere il tempo oltre la prossima settimana, perché è possibile fare previsioni stagionali? E, soprattutto, quale validità hanno?”.

La circolazione atmosferica nel nostro emisfero dall’inizio del 2014

La circolazione atmosferica nel nostro emisfero dall’inizio del 2014

L’inizio dell’anno è stato caratterizzato da una circolazione atmosferica un po’ particolare. La figura sottostante (tutte le mappe mostrate in questo post le ho realizzate con i dati prelevati dal sito NOAA/NCEP) mostra il valore medio dell’altezza di geopotenziale a 500 hPa (che può essere intesa in prima approssimazione come la quota alla quale la pressione è di 500 hPa, ovvero circa la metà di quella al livello del mare) nei primi 42 giorni del 2014. Le isoipse a tale quota ci dicono come si muovono, in media, le correnti. Nel seguito, abbrevierò la dicitura “altezza di geopotenziale” semplicemente con “geopotenziale”, valore ad essa proporzionale anche se propriamente quest’ultima è un’energia potenziale per unità di massa.

2014_z500hPa

Valore medio dell’altezza di geopotenziale a 500 hPa relativo ai primi 42 giorni del 2014 (in m). Dati NCEP/NCAR.

Si nota che la stuttura, identificabile dalla macchia azzurro-violacea più scura, che raggruppa i valori delle altezze inferiori, presenta cinque “punte”, abbastanza elongate e strette, raggruppate in due grossi lobi: uno è disposto tra l’America settentrionale, parte orientale, e le coste occidentali europee, mentre l’altra si estende dagli Urali alle coste nordorientali asiatiche. Il nucleo centrale di tale configurazione possiede la forma di una grossa Z in cui i due bracci hanno praticamente gli stessi valori.

Il lobo atlantico, molto allungato, nella zona colorata di giallo-verde indirizza, in media, delle correnti sudoccidentali dall’oceano Atlantico: tali correnti rappresentano delle linee guida che hanno diretto innumerevoli saccature in questo inizio di anno verso il Mediterraneo, saccature che, una volta giunte nei pressi delle Alpi, hanno dato il via a classici episodi di ciclogenesi sottovento alle Alpi (come Buzzi, Speranza e Tibaldi ci hanno insegnato in tutta una serie di magistrali articoli scritti negli anni ’80-’90: si veda ad esempio qui).

Anche le isole britanniche sono state colpite in pieno da correnti sudoccidentali intense (le isoipse sono molto ravvicinate) che hanno sospinto i fronti scaricandoli sulle prime alture che hanno trovato nel loro tragitto, e cioè le modeste colline inglesi (culminanti nel Ben Nevis, ma tanto basta…), e con essi tutta l’umidità raccolta nel tragitto sopra l’oceano Atlantico, nella parte centrale parzialmente scaldato dalla corrente del Golfo e quindi ricco di umidità. Il terreno inzuppato di acqua a causa delle abbondanti precipitazioni, l’assenza di evapotraspirazione nelle pause tra le piogge (a causa dei valori termici limitati e del fatto che, in questa stagione, le piante non hanno ancora le foglie), la presenza di pendii molto dolci o quasi inesistenti, e quindi correnti fluviali lente a trasportare le piene verso le foci sono le concause che stanno mettendo in ginocchio le isole britanniche in questi giorni. Un altro aspetto non trascurabile è costituito dai valori termici relativamente alti, che non permettono nevicate neppure sulle alture, favorendo quindi la raccolta dell’acqua piovana sull’intera superficie dei bacini.

Un’altra caratteristica rimarchevole nella mappa è costituita dai valori superiori alla media assunti dal geopotenziale sulle regioni subtropicali orientali dei due oceani Atlantico e Pacifico, rispetto ai valori medi. Soprattutto sull’Atlantico, questo fatto comporta isoipse più ravvicinate alle medie latitudini, e quindi correnti più intense. L’ondulazione più pronunciata del lobo americano e la corrispondente anomalia positiva sul Pacifico tropicale orientale comporta allo stesso modo correnti più intense e più meridionali sull’America settentrionale, che appare tagliata in due parti all’incirca a metà: la parte orientale sotto l’influenza del lobo, e quindi delle correnti più fredde, e quella occidentale invece sotto l’influenza del promontorio sul Pacifico, e quindi dell’avvezione calda.

climo_z500hPa

Valore medio dell’altezza di geopotenziale a 500 hPa relativo ai primi 42 giorni di ogni anno tra il 1981 e il 2010 (climatologia, in m). Dati NCEP/NCAR.

L’andamento della media climatica relativa al periodo 1981-2010 ed allo stesso intervallo di giorni (qui sopra) mostra una struttura media con tre grossi lobi, dei quali i due principali risultano meno elongati di quanto non sia avvenuto nel 2014. In media, l’area di minimo è compresa tra il polo Nord e la baia di Baffin, con un lobo meno intenso rivolto verso il Giappone, ed uno appena abbozzato sugli Urali. Nel 2014 i due lobi principali sono invece della stessa intensità, molto superiore alla media, e sono anche molto elongati, mentre c’è un piccolo promontorio anticiclonico sulla Scandinavia. Il lobo Atlantico nel 2014 coinvolge anche le latitudini medioalte, interessando Canada e USA orientali e allungandosi fino alle isole britanniche, con isoipse disposte quasi lungo i paralleli sull’Atlantico. Notiamo come, nella configurazione media, il bacino occidentale del Mediterraneo sia interessato da correnti provenienti da Ovest-Nord-Ovest, e le isoipse siano ivi divergenti e allargate, segno di correnti non molto intense, a differenza di quanto riscontrato, invece, nel 2014, la cui configurazione mostrava isoipse raggruppate, e quindi correnti mediamente più intense, provenienti da sudovest.

anomaly_z500hPa

Anomalia dell’altezza di geopotenziale a 500 hPa relativa ai primi 42 giorni tra il 2014 ed il periodo 1981-2010 (in m). Dati NCEP/NCAR.

L’anomalia del geopotenziale a 500 hPa del 2014 rispetto al periodo medio di riferimento, sempre per i primi 42 giorni dell’anno, ovvero la differenza tra le due mappe precedenti, mostra valori inferiori alla media alle latitudini medioalte dell’oceano Atlantico e su Stati Uniti e Canada orientali, e, in misura minore, sulla Siberia, e valori decisamente superiori alla media sulle zone polari e anche subtropicali dell’oceano Atlantico. In particolare, si nota come l’anomalia più negativa, sull’oceano Atlantico settentrionale, sia posta in mezzo a due zone con anomalia positiva, rispettivamente poste vicino al polo Nord e poco ad est degli Stati Uniti sudorientali.

2014_wind500hPa

Valore medio del vento a 500 hPa relativo ai primi 42 giorni del 2014 (in m/s). Dati NCEP/NCAR.

È interessante osservare come i valori del geopotenziale si ripercuotano sulle correnti alla stessa quota barica. In sequenza, sono riportate le velocità del vento relative a 500 hPa per il 2014, per il periodo climatico di riferimento 1981-2010, e l’anomalia delle stesse.

Nel 2014, si ha una zona di forti correnti zonali tra le coste orientali degli Stati Uniti e del Canada, e la penisola iberica; la velocità del vento in questa zona è superiore a quella che si riscontra sul Pacifico orientale alle stesse latitudini medioalte. È inoltre rimarchevole la netta curvatura delle correnti nei pressi delle isole britanniche, interessate da correnti sudoccidentali molto intense.

climo_wind500hPa

Valore medio del vento a 500 hPa relativo ai primi 42 giorni di ogni anno tra il 1981 e il 2010 (climatologia, in m/s). Dati NCEP/NCAR.

anomaly_wind500hPa

Anomalia della velocità del vento a 500 hPa relativa ai primi 42 giorni tra il 2014 ed il periodo 1981-2010 (in m/s). Dati NCEP/NCAR.

Tale andamento è sensibilmente differente da quello medio, che mostra invece la presenza di venti più intensi sul Pacifico che non sull’Atlantico, e una curvatura molto più dolce delle correnti in arrivo sull’Europa nordoccidentale. Anche i flussi in transito sul Mediterraneo occidentale sono moderati occidentali, e non forti sudoccidentali come è avvenuto nei primi giorni del nel 2014. Si nota anche come, sul nord America, le correnti abbiano un andamento più occidentale e meno settentrionale, almeno in media, rispetto a quanto avvenuto nel 2014.

Questa differenza è ben evidente sulla mappa dell’anomalia del vettore velocità del vento orizzontale a 500 hPa, ovvero la mappa delle differenze tra le due mappe precedenti. Essa evidenzia sia i venti più intensi della media sull’Atlantico centrale che la forte curvatura presente ad ovest delle isole britanniche, che su questa mappa si configura proprio come se si trattasse di un ciclone secondario.

Passiamo ora ad analizzare le mappe relative alla quota barica di 100 hPa. In atmosfera standard, 100 hPa corrispondono a circa 16 km di quota, un livello che, d’inverno, a latitudini polari o delle medie latitudini, si trova nella bassa stratosfera, poco sopra la tropopausa che, come noto, rappresenta il limite superiore della troposfera.

2014_100hPa

Valore medio dell’altezza di geopotenziale a 100 hPa relativo ai primi 42 giorni del 2014 (in m). Dati NCEP/NCAR.

Perchè uno dovrebbe guardare delle mappe relative a quote così elevate? La circolazione atmosferica a quote così alte è molto meno distorta di quella relativa alla troposfera, e risente in pratica soltanto dei “disturbi” a grande scala. Questo poiché la stratosfera è uno strato caratterizzato da una elevata stabilità termica, dovuta al fatto che ivi la temperatura cresce con la quota.

La prima mappa che mostriamo si riferisce ai primi 42 giorni del 2014. Si nota come siano presenti due lobi, quasi della stessa intensità, molto elongati verso sud. Uno dei due si estende in Asia fino a sfiorare la Mongolia, mentre l’altro abbraccia la parte orientale del continente nordamericano. Si può notare ache come, in corrispondenza di Alaska e Scandinavia, sia presente una rimonta di alti valori digeopotenziale, che favoriscono così una struttura simile al numero OTTO.

climo_100hPa

Valore medio dell’altezza di geopotenziale a 100 hPa relativo ai primi 42 giorni di ogni anno tra il 1981 e il 2010 (climatologia, in m). Dati NCEP/NCAR.

L’andamento climatologico (media del periodo 1981-2010) della circolazione a questa quota è invece normalmente trilobato. Il lobo europeo, il cui asse si trova in pratica sugli Urali, è il meno evidente dei tre, ma anche gli altri due, pur essendo posizionati, come asse, quasi esattamente come nel 2014, appaiono molto meno profondi ed elongati, così come la rimonta di alto geopotenziale evidente nel 2014 sul nord Europa non fa parte delle caratteristiche climatiche della circolazione a queste quote. Notiamo anche come le correnti atlantiche, dirette dall’America verso l’Europa alle medie latitudini, appaiano molto più tese nel 2014 di quanto non lo siano in media.

anomaly_100hPa

Anomalia dell’altezza di geopotenziale a 100 hPa relativa ai primi 42 giorni tra il 2014 ed il periodo 1981-2010 (in m). Dati NCEP/NCAR.

L’esame della mappa relativa all’anomalia di geopotenziale a 100 hPa del 2014 rispetto alla media climatica evidenzia proprio le peculiarità del 2014: la presenza dei due lobi molto più profondi ed elongati verso sud su Asia e America, l’assenza del lobo europeo, sostituito da un’anomalia positiva di geopotenziale sulla Scandinavia, e l’anomalia positiva presente anche sull’Atlantico tropicale. Queste caratteristiche si ripercuotono sull’intensità delle correnti, che nel 2014 fluiscono molto più velocemente e vorticosamente sull’Asia, sul nord America e sull’Atlantico.

Anche la mappa delle anomalie termiche superficiali è notevole. Nei pressi del polo nord è presente un’area con oltre +14°C di anomalia, e comunque tutte le aree colorate di giallo, arancione e rosso evidenziano anomalie di oltre 6°C nell’intera zona artica.

anomalyTsfc

Anomalia della temperatura media superficiale relativa ai primi 42 giorni tra il 2014 ed il periodo 1981-2010 (in °C). Dati NCEP/NCAR.

La mappa evidenzia come il freddo si sia spostato seguendo i lobi del geopotenziale, coinvolgendo in primis la Siberia e il Kazakistan, dove si sono registrate anomalie termiche fredde comprese tra -6 e -12 °C (di cui nessuno ha parlato sui media), e poi anche Canada ed USA orientali (con anomalie tra -2 e -6 °C, valori sicuramente ragguardevoli, ma che hanno raggiunto la notorietà della cronaca soltanto perchè hanno interessato le zone ad alta densità di popolazione abitate dalla prima nazione del mondo.

A prima vista, la mappa potrebbe apparire “poco colorata”, ma la cosa non inganni: le aree con variazioni tra +/-2°C sono infatti bianche, e 2°C non sono poca cosa. Ad esempio, l’area del Mediterraneo occidentale, che ci comprende, possiede un’anomalia termica compresa tra +1 e +2 °C. È tanto o poco? Tradotta in incremento del livello della quota neve, ad esempio, o anche di livello dello zero termico, 2°C in più significano quasi 300-400 metri di quota più elevata, in media. Non è certamente poco, considerando che 300-400 metri di quota in più significano una buona percentuale di bacino che riceve pioggia invece di neve, e quindi acqua che è in grado di entrare subito in circolo e trasformarsi in portata fluviale.

La mappa sopra riportata dell’anomalia termica rende conto di alcune notizie di cronaca, almeno per quanto riguarda il lobo del vortice polare che si è disteso sopra una porzione degli USA: quella orientale. Hanno fatto grande notizia (si veda ad esempio questo post) soprattutto le basse temperature registrate negli stati orientali degli USA in occasione di ripetute ondate di gelo associate a tempeste di neve, che hanno colpito anche le coste orientali in questo inizio del 2014. Ha fatto invece molto meno scalpore il record di caldo registrato in Alaska nello stesso periodo (per trovarne notizia occorre andare sui siti e blog meteo specializzati, come questo; i media classici hanno appena accennato la cosa), mentre uno spazio più ampio è stato dedicato alla siccità californiana (vedi qui), che non è stata attenuata dalle recenti piogge (vedi qui). Sebbene tali notizie siano state anche usate dai negazionisti dei cambiamenti climatici come prova per affermare che il riscaldamento globale è una bufala (per esempio leggere qui), il mondo scientifico si è invece interrogato cercando di capire se questo sia veramente un segnale di cambiamento globale del tempo meteorologico associato al global warming. In particolare, si è cercato di capire se le estensioni minime della copertura glaciale artica nella stagione calda (a settembre) possa avere avuto un ruolo determinante nelle anomalie climatiche invernali, che recentemente hanno visto frequentemente fuori posizione il vortice polare.

Uno dei ragionamenti che è stato fatto è che il motore che guida le correnti a scala globale è la differenza di altezza di geopotenziale tra le zone del polo nord e quelle tropicali. In condizioni cosiddette “normali” (ovvero, nel clima del secolo scorso), il gradiente termico tra polo nord ed equatore ha un certo valore, fluttuante tra anno ed anno per effetto delle oscillazioni interannuali e dei fenomeni di teleconnessione, ma comunque pari ad un certo valore medio. Per effetto della maggiore fusione estiva della calotta glaciale artica, si ipotizza che una maggiore porzione di acqua superficiale nell’artico riceva ed immagazzini energia nel tardo autunno ed inizio inverno, prima cioè che la calotta di ghiacio stagionale si riformi. L’incremento termico conseguente, in linea con i rapidi e vistosi aumenti di temperatura registrati nell’artico, potrebbe far calare il gradiente di temperatura polo-equatore, e questo potrebbe avere come conseguenza una diminuzione dell’intensità media delle correnti. Venti in quota più deboli potrebbero pertanto contribuire a rendere meno stabile il vortice polare, che così potrebbe far assumere delle ondulazioni più pronunciate alla corrente a getto, ed alle onde di Rossby ad essa collegate, favorendo pattern di circolazione atmosferica molto più meridionali del solito. L’effetto potrebbe essere analogo a quello della precessione di una trottola, fenomeno visibile quando diminuisce la velocità di rotazione della trottola stessa (si veda questo filmato): quando la trottola rallenta, inizia ad oscillare molto, come se improvvisamente si fosse ubriacata. Questo indebolimento delle correnti potrebbe pertanto far sì che il vortice polare inizi a oscillare sempre di più, creando meandri sempre più ampi all’interno dei quali aria molto fredda occupa latitudini più meridionali (in questo caso nella East Coast americana o, più recentemente, in Giappone) mentre, al contempo, aria molto calda si spinge invece a latitudini più settentrionali (come già visto, California e Alaska, ma temporaneamente anche Scandinavia).

Un esempio di “meandering” del vortice polare è stato osservato, ad esempio, nel gennaio 2013, ed è visualizzabile su questo filmato. Tuttavia, se la lunghezza d’onda di questo tipo di ondulazioni a scala planetaria è quella “giusta”, può inoltre succedere anche che le ondulazioni diventino stazionarie, favorendo quindi una persistenza delle condizioni per lunghi periodi di tempo, come sta accadendo quest’anno. Su questo sito si trovano alcune interessanti considerazioni sul legame tra le onde planetarie, o di Rossby (dal nome dello scienziato Gustaf Rossby che per primo le studiò teoricamente), il vortice polare ed i riscaldamenti improvvisi stratosferici.

Da notare che, oltre alle questioni legate agli sbalzi termici, conseguenze altrettanto e forse ancora più serie sono legate all’andamento delle precipitazioni, sia dove esse sono in eccesso (in questi giorni, sulle isole britanniche, e poche settimane fa sull’Italia settentrionale e centrale), a causa di frequenti assi di saccatura o effetti ciclogenetici, sia dove sono in difetto (per esempio, in California), per effetto della configurazione anticiclonica del campo. In entrambi i casi, la presenza di correnti più rapide rispetto alla media favorirebbe lo sviluppo di eventi più energetici e, quindi, di maggiore intensità.

Tale ipotesi, pur essendo controintuitiva (è difficile immaginare che la scomparsa del ghiaccio marino artico durante la stagione calda comporti situazioni più fredde del solito in determinate aree) è nello stesso tempo suggestiva e drammatica, in quanto confermerebbe non solo il ruolo centrale dell’uomo sul riscaldamento globale e la sua capacità di modificarne alcuni meccanismi chiave legati addirittura alla circolazione generale atmosferica, ma anche la considerazione che, senza misure di mitigazione, la Terra continuerà a riscaldarsi nel corso del prossimo secolo, con gravi ripercussioni sul suo clima.

Nel contempo, come fa notare ad esempio questa lettera su Science, essa necessita ancora di solide verifiche sperimentali, poiché la circolazione atmosferica a grande scala presenta una variabilità naturale molto grande in tutte le stagioni, e al momento ci sono troppi pochi casi per consentire di elaborare una teoria generale. È pertanto ancora prematuro paventare, per i prossimi anni, una recrudescenza del freddo invernale, soprattutto alla luce della considerazione che, in ogni caso, le temperature medie tenderanno comunque ad incrementarsi.

Resta comunque il fatto che, in linea generale, il riscaldamento globale in atto comporta delle conseguenze dirette e indirette. Tra le prime, si annoverano, ad esempio, l’aumento delle temperature e delle precipitazioni a scala globale. Se la distribuzione delle precipitazioni è molto complessa da dettagliare a scala locale o regionale, quello che invece è più prevedibile è un incremento degli episodi di precipitazioni piovose a quote maggiori rispetto ad oggi, fatto che comporterà inevitabilmente un maggior quantitativo di acqua nei fiumi.

La possibilità di un’alterazione della circolazione atmosferica globale, e dello spostamento del vortice polare, fa parte, invece, delle possibili conseguenze indirette. Nonostante molti dettagli sulle cause di teli fenomenologie richiedano ancora studi approfonditi sui meccanismi che li generano, o sugli effetti delle teleconnessioni (si veda ad esempio questo post), è un fatto che le cronache di questi giorni di inizio 2014, così come era successo anche in altri inverni recenti o in altre stagioni, mostrano un elenco ancora troppo numeroso di vittime e danni da maltempo, o per troppo freddo, o per troppa siccità, o per troppa pioggia. Queste cifre evidenziano, purtroppo, come la società moderna sia ancora impreparata a fronteggiare gli eventi meteorologici estremi, e quindi come sia necessario percorrere ancora molta strada sulla via dell’adattamento.