L’eclissi solare del 20 marzo 2015

L’eclissi solare del 20 marzo 2015

Nell'immagine, il punto scuro sulla superficie terrestre rappresenta la zona in cui si ha l'eclissi totale di Sole, mentre l'area grigia indica le zone in cui si vede un'eclissi parziale di Sole, con la superficie del disco solare tanto più "intaccata" dalla Luna quanto più ci si viene a trovare vicini alla zona di eclissi totale. Fonte: G. Veneziano.

Nell’immagine, il punto scuro sulla superficie terrestre rappresenta la zona in cui si ha l’eclissi totale di Sole, mentre l’area grigia indica le zone in cui si vede un’eclissi parziale di Sole, con la superficie del disco solare tanto più “intaccata” dalla Luna quanto più ci si viene a trovare vicini alla zona di eclissi totale. Fonte: G. Veneziano.

Il prossimo 20 marzo 2015, in Italia si verificherà un’eclissi solare. Il fenomeno fu osservato sin da tempi molto remoti, e siccome le conoscenze scientifiche dell’epoca non riuscivano a darne una spiegazione plausibile, veniva considerato portatore di sciagure (in questo documento si può trovare un bel riassunto di varie credenze ed aneddoti in diverse epoche storiche).

Oggi sappiamo che un’eclissi è un fenomeno ottico di oscuramento di una parte o anche tutto il disco solare da parte della Luna. Si verifica sempre in condizioni di novilunio o luna nuova. Si tratta di un evento piuttosto raro: Sole, Luna e Terra devono essere perfettamente allineati in quest’ordine; ciò è possibile solo quando la Luna, la cui orbita è inclinata di cinque gradi rispetto all’eclittica, interseca quest’ultima in un punto detto nodo. Quando il nodo si trova tra la Terra e il Sole, l’ombra della Luna passa in alcuni punti della superficie terrestre e si assiste a un’eclissi solare. Se invece il nodo si trova dalla parte opposta, si ha un’eclissi lunare.

Il fenomeno comunque si presenta così come lo vediamo grazie ad una fortunata coincidenza. Infatti, la distanza Terra-Sole è circa 400 volte maggiore della distanza Terra-Luna, ma anche il diametro del Sole è circa 400 volte maggiore del diametro della Luna; proprio perchè questi rapporti sono all’incirca uguali, Sole e Luna visti dalla Terra appaiono praticamente grandi uguali, e la loro dimensione angolare è pari a 0.5 gradi di arco. La Luna colpita dal Sole, proietta un cono d’ombra che, quando raggiunge la Terra, è largo solo 160 chilometri e viaggia a velocità comprese tra i 1800 chilometri orari all’equatore, fino a 7200 chilometri orari a latitudini più elevate, per cui può coprire un punto sulla superficie terrestre solo per alcuni minuti (all’incirca 8-9 all’equatore).

Percorso apparente dell'eclissi dell'11 agosto 1999 in cui si evidenzia la zona di totalità, sull'Europa, e le zone in cui risultò visibile un'eclissi parziale, con l'evidenziazione della percentuale di disco solare coperto dalla Luna. Fonte: G. Veneziano.

Percorso apparente dell’eclissi dell’11 agosto 1999 in cui si evidenzia la zona di totalità, sull’Europa, e le zone in cui risultò visibile un’eclissi parziale, con l’evidenziazione della percentuale di disco solare coperto dalla Luna. Fonte: G. Veneziano.

Dallo spazio un’eclissi solare si presenta come un cerchio di luce oscurata del Sole in moto su tutta la Terra. Ad esempio, questa animazione mostra, a titolo di esempio, la propagazione dell’ombra della Luna sulla superficie terrestre in occasione dell’eclissi di Sole dello scorso 11 agosto 1999. In tale occasione, il percorso della totalità dell’eclisse passò appena a nord dell’arco alpino, dopo aver sfiorato Parigi, e da tutte le città italiane si assistette soltanto ad una eclisse parziale con il disco solare coperto mediamente per il 90% del suo diametro.

Dopo aver visto perchè il fenomeno si verifica, cerchiamo ora di dare una risposta ad un’altra domanda: esistono, e se sì, quali sono le conseguenze di un’eclissi di Sole sulla fenomenologia meteorologica? Per dare una risposta, andiamo ad esaminare i dati raccolti da quattro stazioni meteorologiche in occasione dell’eclissi estiva di Sole sopra menzionata, praticamente l’ultima di un certo rilievo – pur se non totale – vista dall’Italia: quella dell’11 agosto 1999 (di cui qui si trova un interessante resoconto). Come stazioni meteorologiche abbiamo scelto: quella dell’università di Torino, ubicata sul tetto dell’istituto di fisica (da ora in poi UniTo); quella di Torino Buon Pastore, attiva fino al 2008 ed ubicata nella periferia urbana torinese (ToBP); quella dell’università del Piemonte Orientale, sede di Alessandria, ubicata sul tetto dell’edificio universitario (UniAl); e infine quella di Alessandria Lobbi, ubicata presso il casello di Alessandria Est, e quindi in area periferica, lontana dal centro cittadino (Lobbi).

Stazione meteorologica dell'Università a Torino.

Stazione meteorologica dell’Università a Torino.

Stazione meteorologica di Torino Buon Pastore.

Stazione meteorologica di Torino Buon Pastore.

Stazione meteorologica dell'Università ad Alessandria.

Stazione meteorologica dell’Università ad Alessandria.

Stazione meteorologica di Lobbi vicino ad Alessandria.

Stazione meteorologica di Lobbi vicino ad Alessandria.

Di queste quattro stazioni andiamo ora ad esaminare tre grandezze fisiche: la radiazione solare globale, la temperatura dell’aria e la velocità del vento. Premettiamo che i dati a cui facciamo riferimento non hanno la stessa frequenza di acquisizione: quelli relativi alle due stazioni universitarie sono infatti disponibili con frequenze di un dato ogni dieci minuti (UniTo e UniAl), mentre quelli delle altre due stazioni hanno frequenze di un dato ogni mezzora.

La radiazione solare globale mostra, in tutte e tre le stazioni, un brusco calo per un’ora e mezza circa, passando da valori compresi tra circa 600 e 700 W m-2 a valori ovunque inferiori a 100 W m-2 (riscontrati in precedenza tra le 5 e le 6 di mattina), per poi risalire su valori tra circa 730 e 850 W m-2, compatibili con la stagione in corso nel caso di un giorno soleggiato.

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999.

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999.

Andamento giornaliero della temperatura dell'aria (misurata in °C) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

Andamento giornaliero della temperatura dell’aria (misurata in °C) misurata nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

I diversi valori di picco riflettono sia la diversa torbidità del cielo nelle diverse postazioni, sia un’eventuale staratura dei sensori (specialmente per quello di UniAl, se paragonato con Lobbi). Il rapporto percentuale tra il valore minimo (tra le ore 10 e le 11) e massimo (tra le 11:30 e 12:30) del giorno, nei tre siti, vale: 8% per UniTo, 10% per ToBP, 9% per UniAl e 10% per Lobbi.

La temperatura, nelle quattro stazioni, mostra un andamento del tutto paragonabile ed evidenzia un anomalo e brusco calo termico, a metà mattina, proprio – non inaspettatamente – in corrispondenza alle ore dell’eclissi, e quantificabile in 1.5-2.5 °C circa, col minimo posizionato intorno alle ore 11, e di durata praticamente trioraria (dalle 9:30 alle 12:30).

Il modulo della velocità orizzontale del vento è una grandezza che risente, ovviamente, molto di più delle precedenti del posizionamento della stazione meteorologica. Le stazioni di ToBP e Lobbi, ad esempio, sono installate al livello del suolo stradale, ed in esse l’anemometro (non visibile in figura, nel caso di ToBP) non è posizionato in maniera standard, ovvero è posto ad altezze inferiori ai canonici 10 m.

Le stazioni di UniTo e UniAl, invece, sono posizionate sul tetto dei rispettivi edifici universitari, ad altezze di una ventina di metri dal fondo stradale; tuttavia, il palo anemometrico di UniTo (non visibile in figura, in quanto messo nel punto da quale è stata presa la foto) è sopraelevato di 10 m rispetto al livello del tetto, mentre quello di UniAl lo è di soli 2,5 metri. Questo fa ovviamente sì che il dato di UniTo risulti maggiore rispetto a quello delle altre località. In questo caso, inoltre, è anche importante il tempo di media del dato, che per ToBP e Lobbi è di mezzora, e per UniTo e UniAl di dieci minuti. Non ho voluto, tuttavia, manipolare troppo i dati, al fine di mostrare i loro reali andamenti osservati.

Andamento giornaliero del modulo della velocità del vento (misurato in m/s) misurato nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

Andamento giornaliero del modulo della velocità del vento (misurato in m/s) misurato nelle quattro stazioni meteorologiche prese in esame nel giorno 11 agosto 1999. Al fine di evidenziare il fenomeno, il grafico è stato ritagliato tra le ore 8 e le ore 14.

Pur tenendo conto della grande variabilità intrinseca della grandezza fisica modulo della velocità del vento, si nota come, in tre stazioni, i valori centrati sulle ore 11 non mostrano incrementi rispetto a quelli delle ore 10, mentre tendono ad aumentare leggermente verso le ore 12. Fa eccezione ToBP, che invece mostra un valore pressoché stabile in mattinata.

L’analisi combinata dei vari grafici evidenzia come il calo di radiazione solare causato dall’eclissi dell’11 agosto 1999 abbia interrotto il riscaldamento del terreno, e questo abbia rallentato leggermente anche l’intensità della brezza diurna. L’effetto risulta quindi paragonabile a quello dovuto al passaggio di un esteso banco di nubi (a parte le eventuali precipitazioni ad esse associate).

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014. Sono ovviamente mostrate soltanto le ore di sole.

Andamento giornaliero della radiazione solare globale (espressa in W m-2) misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014. Sono ovviamente mostrate soltanto le ore di sole.

Vediamo ora, sulla base dei dati registrati nella stazione di UniTo negli ultimi anni, cosa è lecito aspettarsi il prossimo 20 marzo 2015 a livello di quantitativi di radiazione.

Innanzitutto osserviamo i grafici relativi alla radiazione osservata negli ultimi dieci anni (dal 2005 al 2014) nella stazione UniTo. Come si vede dalla figura, nei dieci anni si sono avute giornate con nuvolosità di vario tipo (si notano anche i picchi di radiazione superiori a quelli delle giornate a cielo sereno, nel 2010, dovuti alla riflessione da parte delle nubi in condizioni di cielo poco nuvoloso), per cui l’insieme statistico, pur se limitato a soli dieci anni, risulta abbastanza indicativo della situazione che potrebbe accadere il prossimo 20 Marzo. La curva nera e spessa indica il valore medio nel decennio considerato.

A questo punto, possiamo ipotizzare a quanto ammonterebbe l’oscuramento causato dall’eclissi. Abbiamo fortunatamente già a disposizione tutti i dati astronomici relativi all’eclissi: a Torino, l’eclissi inizierà alle 9:24 e si concluderà alle 11:44, ora locale solare, e la porzione di disco solare arriverà ad un valore massimo del 66% alle ore 10:30. Ipotizzando una variazione lineare della radiazione solare tra il 100% alle 9:22 ed il 66% alle ore 10:30, per tornare al 100% alle ore 11:41 (dati tratti da questa fonte). Pertanto, risulta possibile valutare la radiazione che si sarebbe ottenuta in ognuno dei dieci anni precedenti se vi fosse stata un’eclissi con le stesse caratteristiche, e pertanto valutare la quantità di radiazione che non sarebbe giunta a terra: chiameremo tale quantitativo “radiazione eclissata”. Tali valori sono mostrati nella figura seguente (in basso a destra).

Andamento giornaliero del quantitativo di radiazione eclissata (espressa in W m-2) che sarebbe stata misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014 se si fosse verificata l'eclissi. Per motivi grafici, si è ristretto l'asse dei tempi alle sole ore dell'eclissi (tra le 9 e le 12).

Andamento giornaliero del quantitativo di radiazione eclissata (espressa in W m-2) che sarebbe stata misurata a UniTo nei giorni 20 marzo degli anni compresi tra il 2005 ed il 2014 se si fosse verificata l’eclissi. Per motivi grafici, si è ristretto l’asse dei tempi alle sole ore dell’eclissi (tra le 9 e le 12).

Andamento giornaliero del quantitativo di radiazione media nel decennio 2005-2014 rilevata a UniTo (linea continua) e del quantitativo teorico medio senza la radiazione media eclissata eclissata (linea tratteggiata), entrambe espresse in W m-2.

Andamento giornaliero del quantitativo di radiazione media nel decennio 2005-2014 rilevata a UniTo (linea continua) e del quantitativo teorico medio senza la radiazione media eclissata eclissata (linea tratteggiata), entrambe espresse in W m-2.

Naturalmente, il grafico evidenzia valori di eclissamento diversi in funzione della nuvolosità presente nel giorno in questione. Ci sono due approssimazioni in questo grafico: la prima consiste nell’aver ipotizzato lineare il fattore di eclissamento del disco solare (questa ipotesi, pur se rozza, è – a mio giudizio – abbastanza ragionevole); la seconda consiste nell’aver ipotizzato che, se il disco solare viene elissato di un tot percento, anche la radiazione solare globale ricevuta a terra risulta eclissata della stessa percentuale. Quest’ultima approssimazione, a rigore, sarebbe valida per la sola componente diretta, e non per quella diffusa. Tuttavia, dal momento che, nell’intorno della stazione, la percentuale di eclissamento del disco solare non varia in modo apprezzabile, si può ritenere che anche questa seconda approssimazione comporti errori trascurabili rispetto alla precisione strumentale: il radiometro installato è infatti costituito da una termopila della Eppley Psp con range di misura 0÷2800 W/m² nella banda spettrale 0.285÷2.8 µm e possiede un’incertezza dell’1% (pari a circa 5-10 W/m²).

Considerando il valore della radiazione solare globale media nel decennio, si può far riferimento al grafico (in alto a sinistra) che mostra il valore medio della radiazione osservata e quello della radiazione osservata diminuita del quantitativo eclissato (linea tratteggiata). Sul Piemonte, l’eclissi si verificherà in mattinata, e quindi la radiazione eclissata risulterà essere attenuata, in media, di circa 200 W/m² nel momento del minimo. L’integrale dell’area sottesa tra le due curve fornisce il quantitativo di energia media perduta a causa dell’eclissi.

Radiazione solare osservata presso la stazione di UniTo oggi 15 marzo 2015 fino alle ore 16:00 solari.

Radiazione solare osservata presso la stazione di UniTo oggi 15 marzo 2015 fino alle ore 16:00 solari.

Il valore numerico di tale area è quantificabile in circa 0,88 MJ/m². A titolo di paragone, si può valutare quale sia il consumo di una lampadina ad incandescenza da 100W lasciata accesa per la durata dell’eclissi (circa 2 ore e 20 minuti): si trova 233 Wattora, ovvero 0,84 MJ/m², una quantità paragonabile alla radiazione eclissata per metro quadrato. Naturalmente, non si deve pensare che tale valore corrisponda esattamente al quantitativo di energia prodotta, in quanto la termodinamica insegna che nessun sistema fisico è in grado di trasformare interamente in energia elettrica o termica tutta la radiazione solare ricevuta. Si noti tuttavia come il valore di minimo raggiunto dalla curva media abbia un valore di circa 100 W/m², che risulta pienamente compatibile con il valore di una tipica giornata caratterizzata da cielo coperto. Ad esempio, oggi 15 marzo 2015, data in cui sto ultimando questo post, la radiazione solare globale osservata presso UniTo (i dati sono consultabili in questa pagina) è rimasta fino ad ora quasi sempre inferiore ai 100 W/m², a parte un breve periodo intorno a mezzogiorno; tali condizioni sono peraltro comuni a buona parte dell’Italia settentrionale ed aree limitrofe.

Esempio di ciclone extratropicale: il sistema del 18 dicembre 2007 (fonte: pixgood).

Esempio di ciclone extratropicale: il sistema del 18 dicembre 2007 (fonte: pixgood).

I valori appena calcolati mostrano che l’effetto dell’eclissi non è trascurabile, ma risulta paragonabile all’effetto del passaggio di un sistema di nubi esteso per circa un migliaio di km. In effetti, questa animazione relativa all’eclissi dell’agosto 1999 sulla Terra mostra come l’area interessata dal fenomeno sia risultata paragonabile all’area di nuvolosità di un classico ciclone extratropicale (ovvero di una depressione con annessi fronti freddo e caldo, quali quelle che si presentano sulla nostra testa con una frequenza media di una ogni quattro giorni – si veda ad esempio la figura a fianco), solo in moto molto più rapido: abbiamo infatti detto sopra che il cono d’ombra viaggia a circa 1800 km/h, ovvero 500 m/s, da paragonare con i circa 10-50 m/s che costituiscono la tipica velocità di fase di un ciclone extratropicale: così il transito del cono di ombra e penombra impiega circa 2 ore, mentre il transito dell’area nuvolosa collegata ad un ciclone extratropicale impiega circa 1-4 giorni.

Dal momento che l’Unione europea produce circa 90 GW di energia solare e la produzione si potrebbe ridurre temporaneamente fino a 34 GW, se il cielo sarà sereno, secondo quanto si deduce dalle analisi dei gestori (si veda ad esempio questa analisi), ci si attende che l’eclissi solare del 20 marzo 2015 possa avere un impatto significativo sul sistema di potenza elettrica generato con fonti non convenzionali. A questo proposito, giova ricordare che la riduzione potrebbe non riguardare soltanto la produzione di energia solare, ma anche quella eolica (si veda questo documento). Sicuramente la produzione di elettricità da fonti non convenzionali è aumentata in modo rilevante negli ultimi anni. Nonostante queste considerazioni, tuttavia la mia precedente analisi mostra come il fenomeno dell’eclissi non sembra avere effetti così drammaticamente diversi da quelli prodotti dall’arrivo, sulle stesse zone, di un normale ciclone extratropicale delle medie latitudini, se non per la rapidità del passaggio della zona oscurata. Ciò nonostante, visto che, a parte la nuvolosità del momento, le principali caratteristiche astronomiche dell’eclissi sono note da tempo, il settore elettrico sta comunque adottando le misure del caso in modo da mitigare l’impatto dell’eclissi stessa.

La radiazione ultravioletta è la componente più pericolosa in quanto ha energia sufficiente per spezzare i legami chimici, provocando danni a carico dell’occhio come lo pterigio, la pinguecola, la cheratite, la cataratta senile e la degenerazione maculare senile, nonchè una percentuale maggiore dello sviluppo di tumori a carico della cute perioculare. Fonte: dott. Benedetti.

La radiazione ultravioletta è la componente più pericolosa in quanto ha energia sufficiente per spezzare i legami chimici, provocando danni a carico dell’occhio come lo pterigio, la pinguecola, la cheratite, la cataratta senile e la degenerazione maculare senile, nonchè una percentuale maggiore dello sviluppo di tumori a carico della cute perioculare. Fonte: dott. Benedetti.

Per concludere, vorrei ancora sottolineare un aspetto. L’eclissi di Sole è un fenomeno sicuramente intrigante e il fatto che la radiazione proveniente dalla nostra stella sia ridotta potrebbe indurre a pensare che sia molto meno pericoloso osservare il Sole, magari addirittura ad occhio nudo. Ebbene, non fatelo. Se guardare il Sole pieno ad occhio nudo produce un’immediata sensazione di dolore che costringe a chiudere l’occhio e non è particolarmente dannoso, un’esposizione prolungata può produrre lesioni alla retina e danni all’apparato oculare, soprattutto per effetto dei raggi ultravioletti, mentre la componente infrarossa può riscaldare eccessivamente le pareti oculari. In caso di eclissi parziale, il pericolo tuttavia è maggiore, in quanto la pupilla rimane spiazzata dalla vicinanza tra la porzione di disco solare non ombreggiato e la parte in ombra, e tende a dilatarsi, esponendo quindi maggiormente la retina alla radiazione da parte della porzione di Sole non eclissata ed aumentando il rischio di danneggiamento permanente delle cellule della retina, per di più senza sperimentare alcun dolore. È quindi opportuno utilizzare filtri ottici appropriati, del tipo delle lenti da saldatore, in grado di filtrare opportunamente la componente ultravioletta dello spettro; mentre l’efficacia di dispositivi improvvisato, come ad esempio i vecchi rullini fotografici vergini, rischia di essere minima o nulla, e pertanto è sconsigliata. Allo stesso modo, osservare il Sole con un binocolo senza filtri equivale a concentrare sulla retina la radiazione, ed è operazione dannosissima. Ricordiamoci che un’eclissi dura due ore, ma un eventuale danno all’apparato oculare potrebbe produrre danni permanenti che ci porteremo dietro quindi per tutta la vita. La cautela è d’obbligo!

Annunci

4 novembre 1994 – 4 novembre 2014 a confronto

Sono passati quasi venti anni da quel giorno di novembre 1994 in cui il Piemonte venne travolto da un’alluvione che colpì l’immaginario collettivo in quanto si trattava di un fenomeno senza precedenti a memoria d’uomo su una scala così vasta, e che riportava alla mente eventi simili lontani, come l’alluvione di Firenze, che distrusse la città negli stessi giorni del 1966.

Il tutto ebbe inizio nella giornata di venerdì4 novembre, quando violente precipitazioni a carattere temporalesco presero ad abbattersi sulle aree meridionali del Piemonte e sulla costa ligure, estendendosi col passare delle ore a gran parte del territorio regionale, con ratei di oltre 35 mm di pioggia all’ora e picchi di 55 mm/ora. I notiziari ed i giornali tardarono a parlare dell’evento in corso, e quando le immagini cominciarono ad arrivare in TV inondarono le case degli italiani di immagini orribili di vittime, distruzione, rabbia, rassegnazione. Questo video descrive molto bene le dimensioni dell’evento ed i danni. Questo post invece racconta un nostro studio sull’evento, una tesi che ho seguito e che rappresenta uno dei tanti usciti dopo l’evento che si proponeva di capire se e quanto i modelli dell’epoca erano in gradi di ricostruire eventi simili. Eventi che, dopo tale data, si sono susseguiti sempre più intensi e più frequenti, in varie zone d’Italia, riproponendo ogni volta immagini simili di devastazione, incredulità, ed un senso di impotenza e rassegnazione.

Oggi, a venti anni esatti di distanza, uno scherzo del destino ripropone una situazione meteorologica apparentemente simile a quella del 4 novembre 1994. Ma simile quanto? Per tentare di rispondere, proviamo a mettere a confronto alcune mappe e diagrammi relativi al 1994 con le omologhe di oggi. Concentreremo la nostra attenzione, in particolare, su quattro tipi di figure.

La prima figura mostra insieme l’altezza di geopotenziale a 500 hPa (colori e linee nere) e la pressione a livello del mare (linee bianche). La seconda figura mostra le temperature (colori) e l’altezza di geopotenziale a 850 hPa (linee bianche). La terza figura mostra i radiosondaggi eseguiti a Milano. In tutti i casi, la figura a destra si riferisce alla mattina del 4 novembre 1994, e quella a destra alla mattina del 4 novembre 2014. Infine, la quarta mostra le cumulate di pioggia durante l’intero evento; nel 1994, si riferiscono al periodo 4-6 novembre e rappresentano le misure, mentre nel 2014 si riferiscono alle stime della pioggia cumulata prevista da un modello meteorologico. Il modello scelto è il WRF inizializzato GFS che abbiamo fatto girare nei nostri laboratori al fine di produrre le previsioni meteorologiche che pubblichiamo sul nostro sito universitario. Il WRF che abbiamo usato è la versione ARW 3.6, che giriamo su un grigliato padre di 18 km ed un grigliato figlio centrato sul Piemonte di 6 km, guidato dai dati GFS a 1° di risoluzione. Confronti con run eseguiti da altri centri usando modelli simili in configurazioni diverse, o altri modelli, hanno mostrato quantitativi e localizzazioni simili per le piogge previste.

Iniziamo ad esaminare la distribuzione del campo barico al suolo ed in quota. In entrambi i casi si nota un anticiclone robusto sul basso Atlantico, una profonda saccatura tra l’Atlantico e l’Europa, un’altra saccatura a sudovest della Groenlandia, ed un’alta pressione ad est dell’Italia. Apparentemente le configurazioni appaiono simili, ma in realtà ci sono delle differenze

Altezza di geopotenziale a 500 hPa e pressione a livello del mare relative al 4 novembre. A sinistra, 1994; a destra, 2014.

Altezza di geopotenziale a 500 hPa e pressione a livello del mare relative al 4 novembre. A sinistra, 1994; a destra, 2014.

sostanziali. La saccatura del 1994 era più stretta in quanto l’onda anticiclonica in quota sull’Europa orientale presentava un massimo robusto sul Mediterraneo centrale, che includeva anche l’Italia meridionale, ed al suolo era presente una cella anticiclonica molto intensa sulla Scandinavia. La saccatura del 2014 è più allargata e coinvolge anche la Scandinavia; l’anticiclone sull’Europa orientale c’è ma non è molto intenso, e soprattutto non è statico, per cui permette la traslazione del sistema verso est. Nel 1994 la saccatura rimase bloccata per tre giorni in quella posizione, e il flusso di aria fredda lungo il bordo occidentale della saccatura attivò un richiamo di aria calda africana che andò a scorrere proprio sull’Italia. La saccatura di oggi è più profonda, in quota, di quella del 1994, in quanto l’altezza di geopotenziale sulla Gran Bretagna è decisamente inferiore, ma è più allargata e può sfogarsi verso est; pertanto, il flusso di aria calda in quota non è diretto da sud verso nord, come nel 1994, ma da SSO verso NNE, con un minore effetto di convergenza al suolo. Notiamo anche, inoltre, come tutto il sistema si trovi leggermente shiftato verso ovest, sia al suolo che in quota.

Temperatura al livello barico di 850 hPa relativa al 4 novembre. A sinistra, 1994; a destra, 2014.

Temperatura al livello barico di 850 hPa relativa al 4 novembre. A sinistra, 1994; a destra, 2014.

Vediamo ora la situazione a 850 hPa. Qui si può notare come l’aria fredda che scende sul bordo occidentale della saccatura nel 2014 al largo della Spagna sia mediamente più fresca di quanto non lo fu nel 1994, mentre al contrario l’aria calda avvettata dal nord Africa verso l’Italia era leggermente più calda nel 1994 rispetto ad oggi. Notiamo anche come l’Europa orientale risulti mediamente più calda nel 2014 di quanto non lo fosse nel 1994, e questo spiega in parte la pressione al suolo mediamente inferiore.

Radiosondaggio condotto a Milano alle ore 00 UTC del 4 novembre. A sinistra, 1994; a destra, 2014.

Radiosondaggio condotto a Milano alle ore 00 UTC del 4 novembre. A sinistra, 1994; a destra, 2014.

L’analisi del radiosondaggio eseguito a Milano alle 00 UTC mostra una bassa troposfera similmente umida, ma un’alta troposfera nettamente più secca oggi che nel 1994, e questo ci permette di evidenziare un’altra grande differenza tra i due eventi. Nel 1994, l’alluvione arrivò dopo un lungo periodo di piogge precedenti che avevano già saturato il suolo ed innalzato i livelli dei fiumi. L’evento del 2014, nonostante l’estate molto piovosa, avviene dopo un lungo periodo di precipitazioni inferiori alla media e terreni mediamente asciutti o poco umidi; i livelli dei fiumi fino ad ieri erano ben sotto la norma. Ne è prova l’aria più secca che si osserva sopra i 5000 m di quota a Milano oggi. Lo zero termico nel 1994 sfiorava i 4000 metri, e rimase alto durante tutto il periodo dell’alluvione. Oggi lo zero termico supera comunque i 3000 metri di quota, ma è destinato ad abbassarsi lievemente in quanto il flusso di aria meridionale appare meno caldo del 1994 (è meno diretto).

Pioggia accumulata durante l'evento di maltempo. A sinistra: valori osservati relativi alle 72 ore dei giorni 4-5-6 novembre 1994. A destra: valori previsti da WRF/GFS relativi alle 48 ore dei giorni 4-5 novembre 2014.

Pioggia accumulata durante l’evento di maltempo. A sinistra: valori osservati relativi alle 72 ore dei giorni 4-5-6 novembre 1994. A destra: valori previsti da WRF/GFS relativi alle 48 ore dei giorni 4-5 novembre 2014.

Diamo infine un’occhiata ai quantitativi di precipitazione osservati nel 1994 e previsti nel 2014. Si nota come ci siano delle somiglianze sulla localizzazione delle zone che ospitano i massimi di precipitazione, ma anche alcune differenze. Nel 1994, il massimo assoluto della precipitazione fu osservato tra le valli di Lanzo, valle Orco e Soana ed il canavese, e su alto biellese e VCO, mentre sul versante piemontese dell’Appennino ligure e sulle Alpi marittime si registrò un massimo secondario molto localizzato temporalmente. Sul resto della regione, le precipitazioni furono comunque cospicue. L’evento durò tre giorni.

Nel 2014, si prevede che il grosso dell’evento duri tra 24 e 36 ore. I quantitativi di pioggia che, secondo la simulazione di WRF inizializzato GFS, cadranno sulla regione mostrano valori lievemente superiori sulle Alpi marittime, con i massimi però apparentemente localizzati sui versanti francese e ligure (a questo proposito, tuttavia, occorre ricordare che talora i modelli non sempre centrano esattamente la posizione dei massimi, a seguito di imprecisioi anche legate alla rappresentazione approssimata dell’orografia, per cui tali massimi potrebbero anche coinvolgere, nella realtà, il versante piemontese) e valori quantitativamente inferiori sul nord Piemonte, più spostati verso est in quanto coinvolgerebbero la zona compresa tra il canavese e la zona laghi, risparmiando le Alpi Graie. Sulle pianure piemontesi i quantitativi di pioggia risulterebbero decisamente più modesti che nel 1994.

In definitiva, il confronto tra i due eventi, quello in corso e l’alluvione del 1994, mostra come, quest’anno, siamo di fronte ad un evento che – stando alle previsioni – si profila fortunatamente come meno drammatico, pur se i quantitativi di precipitazione previsti, nelle zone in cui si registreranno i massimi, siano talora maggiori di quelli del 1994. Tuttavia, quello che a questo evento mancherebbe è la pioggia generalizzata che, nel 1994, si scaricò su tutta la regione, anche nelle zone dove non si registrarono i massimi, a seguito della stazionarietà del sistema per molte ore sullo stesso territorio. E, soprattutto, la condizione iniziale molto diversa del terreno e dei fiumi, oggi in grado di assorbire parte dell’acqua precipitata, al contrario di quanto avvenne nel 1994, quando erano già saturi e praticamente incapaci di assorbire già le prime piogge. Speriamo che, in questo caso, l’atmosfera sia ubbidiente e segua la previsione dei modelli, sulla quale si basa la mia analisi, in modo da non dover fare la conta dei danni e delle vittime all’indomani del termine dell’evento.

Gli stratocumuli anticiclonici

Non è inusuale, durante le giornate autunnali e invernali, trovarsi in una situazione anticiclonica in cui spesso lo zero termico assume valori molto elevati e, in montagna, si assiste a giornate soleggiate e calde, mentre chi abita in pianura osserva dei cieli grigi che spesso non lasciano passare la radiazione solare neppure nelle ore più calde, oppure si ma limitatamente a 1-2 ore, e con temperature relativamente basse. Perchè si assiste a questa fenomenologia, e perché d’estate è molto più raro?

Per capirlo dobbiamo far ricorso agli insegnamenti della fisica dell’atmosfera. Di norma, quando ci si trova in regime anticiclonico, si è in presenza di correnti che, a livello del suolo, tendono a ruotare in senso orario attorno al massimo di pressione e contemporaneamente a divergere, come mostrato in Fig. 1.

Schema semplificato di circolazione atmosferica in presenza di depressioni e anticicloni. Nella realtà, la verticalità dei flussi subsidenti non è sempre rispettata.

Fig. 1 – Schema semplificato di circolazione atmosferica in presenza di depressioni e anticicloni. Nella realtà, la verticalità dei flussi subsidenti non è sempre rispettata.

La divergenza delle correnti al suolo richiama aria dall’alto e quindi siamo in presenza di moti discendenti (in gergo tecnico: correnti subsidenti) sopra le strutture anticloniche; nella realtà, tali correnti non sono esattamente verticali, ma possono mostrare lievi inclinazioni, soprattutto negli anticicloni dinamici. L’aria in moto discendente tende ad essere secca in quanto la sua temperatura interna aumenta a seguito della compressione adiabatica (l’aria in discesa, incontrando pressioni superiori, viene compressa adiabaticamente e quindi si riscalda) e allontana la massa d’aria dal punto di saturazione del vapore acqueo (questo poiché, in base alla legge di Clausius-Clapeyron, il contenuto di vapore acqueo alla saturazione aumenta esponenzialmente con la temperatura). Come risultato, in generale le correnti discendenti portano cieli sereni o quasi sereni, e non è un caso se la maggior parte delle aree desertiche del mondo si trova nelle fasce di latitudine tropicale, dove i moti verticali associati alle celle di Hadley della circolazione atmosferica globale sono discendenti. Per concludere, aggiungiamo che i moti di tali correnti discendenti sono molto deboli, di pochi cm/s.

Esempio di profilo vrticale di temperatura in area anticiclonica. Immagine semplificata da Università Wyoming e modificata dall'autore del blog.

Fig. 2 – Esempio di profilo vrticale di temperatura in area anticiclonica. Immagine semplificata da Università Wyoming e modificata dall’autore del blog.

A questo ragionamento, tuttavia, va aggiunto un altro fattore, ovvero quanto avviene nello strato limite. Infatti, in condizioni di alta pressione e cielo sereno, il suolo si riscalda e riscalda anche l’aria a contatto col suolo stesso, la quale, essendo leggera, tende a creare delle “bolle d’aria calda” (in gergo tecnico: termiche) che salgono; tale fenomeno si chiama convezione. In una giornata serena anticiclonica, quindi, siamo in presenza di due moti verticali opposti: il moto subsidente di discesa dall’alto verso il basso, legato all’anticiclone, e quello di salita dal basso verso l’alto, legato alla convezione. Chi vince? Generalmente, nessuno dei due. Questo perchè essi avvengono in due strati di atmosfera ben distinti, separati da uno straterello in cui la temperatura aumenta con la quota (inversione termica). Perchè si forma la zona di inversione termica? Perché, generalmente, la compressione adiabatica riscalda molto sensibilmente la massa d’aria, la quale assume temperature quindi molto alte. L’aria in salita dal suolo è soggetta allo stesso processo, ma siccome sale e incontra pressioni inferiori, si espande adiabaticamente, diminuendo quindi la propria temperatura. Quando le due masse d’aria si incontrano, risulta sensibilmente più calda quella che scende, e pertanto il moto si arresta (l’aria meno densa non può penetrare dentro quella più densa). In Fig. 2 è rappresentato un profilo verticale reale di temperatura eseguito in una località tropicale che ben evidenzia i due strati con profilo adiabatico, sopra e sotto la zona di inversione termica. Questo tipo di profili rappresenta la norma nelle zone tropicali, ma situazioni simili si verificano anche in prossimità dei massimi anticiclonici delle medie latitudini, specialmente durante la stagione estiva e quando l’umidità atmosferica nello strato limite non è troppo alta.

Radiosondaggio del 18 ottobre 2014 ore 00UTC a Cuneo. Fonte: università Wyoning.

Fig. 3 – Radiosondaggio del 18 ottobre 2014 ore 00UTC a Cuneo. Fonte: università Wyoning.

Radiosondaggio del 19 ottobre 2014 ore 00UTC a Cuneo. Fonte: università Wyoning.

Fig. 4 – Radiosondaggio del 19 ottobre 2014 ore 00UTC a Cuneo. Fonte: università Wyoning.

Cosa c’entra l’umidità? C’entra. Perchè, durante i moti convettivi nello strato limite, se l’umidità dell’aria è elevata, può succedere che il raffreddamento dell’aria durante la salita porti il vapore acqueo a superare il punto di saturazione, favorendone quindi la condensazione in minute goccioline di nube. Si formano, quindi, delle nubi le quali, data la loro collocazione all’interno dello strato limite e il loro limitato sviluppo verticale (sono limitate in alto dalla base dell’inversione termica), rientrano nella categoria degli stratocumuli.

In presenza di stratocumuli, nello strato limite il soleggiamento risulta ridotto o assente, e pertanto il suolo non si riscalda. L’atmosfera in tale strato rimane pressoché neutrale, ovvero né stabile né instabile, e i debolissimi moti verticali risultanti sono dovuto soltanto alla turbolenza episodica o residua dentro tale strato. D’estate, la lunga durata delle ore di sole in genere alla lunga provoca la rimozione dello strato di inversione, almeno temporaneamente nelle ore più calde, e le termiche riescono a diminuire l’umidità nello strato limite diluendola in quota. D’inverno, date le temperature inferiori e lo scarso soleggiamento, spesso lo strato limite risulta separato dall’atmosfera superiore, e in presenza di nubi il soleggiamento è più difficoltoso; talora lo strato di nubi si rompe soltanto nelle ore più calde del giorno, quando la radiazione solare è più efficace, ma si riforma poi quasi immediatamente all’avvicinarsi del tramonto.

Immagine satellitare nella banda del visibile alle ore 10:30 locali del 19/10/2014. Fonte: sat24.com

Fig. 5 – Immagine satellitare nella banda del visibile alle ore 10:30 locali del 19/10/2014. Fonte: sat24.com

Come esempio, guardiamo il radiosondaggio notturno registrato a Cuneo alle 00UTC del 18/10/2014, in condizioni di cielo poco nuvoloso (Fig. 3) e quello registrato 24 ore dopo, sempre a Cuneo, alle 00UTC del 19/10/2014, in condizioni di cielo coperto da stratocumuli (Fig. 4). Si nota l’irrobustimento dello strato di inversione termica sopra la città.

Se l’estensione verticale il giorno 18 era maggiore, l’intensità in termini di differenza di temperatura era invece minore; il giorno 19, lo strato si estende da circa 900 a 1600 metri, e l’inversione termica assomma a quasi 10 °C, valore che spiega bene il denso strato di stratocumuli presente su praticamente tutto il Piemonte e su gran parte della pianura padana, ad eccezione delle aree apine e prealpine (immagine satellitare in Fig. 5).

Con queste premesse, si può quindi capire come, anche in condizioni anticicloniche, che quindi sono legate a stabilità dell’aria che sfavorisce i moti verticali turbolenti, è possibile avere cieli nuvolosi; talora, nelle giornate invernali o autunnali caratterizzate da inversioni termiche molto pronunciate, lo strato di stratocumuli può essere così spesso da dare origine a deboli precipitazioni (pioviggini o piogge leggere) mentre, al di sopra dell’inversione, il cielo può essere sereno e le temperature molto gradevoli.

Il mese di luglio 2014 a Torino visto dalla stazione meteorologica dell’istituto di fisica

Il mese di luglio 2014 a Torino visto dalla stazione meteorologica dell’istituto di fisica

Vediamo come si colloca, dal punto di vista climatico, il mese di luglio appena trascorso esaminando i dati della stazione meteorologica ubicata sul tetto dell’istituto di fisica dell’università di Torino.

immagine della collocazione della capannina meteorologica posta sul tetto dell'istituto di fisica dell'università di Torino, contenente una parte della strumentazione.

Immagine della collocazione della capannina meteorologica posta sul tetto dell’istituto di fisica dell’università di Torino, contenente una parte della strumentazione.

Abbiamo deciso di usare un doppio riferimento climatico in questa analisi: gli ultimi dieci anni (2005-2014, periodo che chiameremo decennio recente), in cui, tra l’altro, i dati della stazione sono disponibili sul web, ed il periodo 1981-2014 (detto periodo lungo); in quest’ultimo caso, i dati relativi a temperature minime e massime, ed alla piovosità giornaliera, relativi ai periodi precedenti al 2005, sono stati presi dalla climatologia di Torino.

Nella fase finale, cercheremo di collocare i risultati all’interno degli andamenti relativi all’Europa ed all’intero planisfero.

Temperature minime: il valore medio mensile di 17,3 °C rappresenta il valore inferiore del periodo lungo; il precedente valore minimo medio si registrò nel 1993, con 17,4 °C. L’anomalia rispetto al valor medio del periodo lungo è di -2,3 °C. I 13,0 °C registrati il 9 luglio non rappresentano però il minimo assoluto, che fu invece registrato il 13 luglio 1981 con 11,0 °C, ma il terzo valor minimo.

Temperature massime: il valore medio mensile di 27,3 °C rappresenta il sestultimo valore inferiore del periodo lungo, e l’ultimo valore del decennio recente; il valore minimo delle medie si registrò nel 1981, con 26,5 °C. Tre anni fa, nel 2011, il valor medio fu simile a quello di quest’anno, con 27,5 °C. In ogni caso, l’anomalia rispetto alla media del periodo lungo è di -1,9 °C. I 32,5 °C registrati il 17 luglio, che sono il valore massimo assoluto del mese, sono molto lontani dal valore massimo assoluto di 36,9 °C del 22 luglio 2006.

Temperature medie: con 21,9 °C il mese di luglio 2014 batte il precedente record negativo del luglio 1981, di 22,0 °C. L’anomalia rispetto alla media del periodo lungo è di -2,5 °C. Relativamente a tutti i valori termici, le anomalie superano la dispersione dei dati intorno al valor medio (deviazioni standard comprese tra 1,3 e 1,5 °C): questo significa che, se assumiamo che la distribuzione delle temperature sia normale, la probabilità di accadimento di un evento compreso tra 1 e 2 deviazioni standard sarebbe compresa tra il 3 ed il 16%.

Piovosità: sul tetto dell’istituto sono caduti 151,6 mm di pioggia, valore lievemente superiore a quello di un anno fa (149,8) e massimo assoluto del periodo lungo, ben superiore al valore medio pari a 62,0 mm (anomalia quindi di +89,6 mm, pari al 145% di pioggia in più). Anche in questo caso, l’anomalia supera la deviazione standard dei dati (41,1 mm).

Ci sono stati 14 giorni di pioggia a luglio (nuovo record: il precedente, di 13 giorni, si verificò nel 1981), molti di più rispetto ad un anno fa (8), pur avendo registrato un quantitativo di pioggia simile, che costituiscono il doppio del valor medio di luglio (7 giorni). In sei di questi giorni è stato superato il quantitativo giornaliero di 10 mm (anche questo dato rappresenta un nuovo record che aggiorna il precedente, di 5 giorni, detenuto dal luglio 2011), a fronte di una media di due giorni. Il valore massimo giornaliero è stato di 34,2 mm, lontano dal massimo assoluto di 64,4 del 1° luglio 1987.

In relazione al decennio recente, possiamo notare come soltanto in cinque giorni sia stata registrata una temperatura massima superiore a 30 °C, a fronte di una media di 14 giorni; parallelamente, la temperatura minima ha superato 23 °C soltanto in un caso, a fronte di una media di 4 casi. L’umidità relativa media è stata del 70%, superiore alla media del 62% e valore massimo del decennio recente. La pressione atmosferica media mensile è stata di 1012,7 hPa: pur non battendo il minimo di 1010,9 hPa, registrato nel 2011, rappresenta un valore inferiore alla media (1014 hPa).

In definitiva, i dati registrati presso la stazione dell’istituto di fisica delineano un mese di luglio con temperature molto inferiori non soltanto al decennio più recente, ma anche al periodo lungo preso come riferimento, in particolare per quanto riguarda le minime e le medie giornaliere. Dal punto di vista pluviometrico, l’apporto di pioggia è stato il maggiore del periodo lungo ed ha quasi uguagliato il quantitativo di un anno fa, distribuendolo però su più giorni di pioggia, il numero dei quali è stato di gran lunga superiore alla media in tutte le soglie di precipitazione, come si deduce anche dal valore elevato dell’umidità relativa media e dal valore inferiore alla norma della pressione atmosferica, nonostante le basse temperature.

Vogliamo sottolineare, in questa sede, che l’analisi si riferisce ai valori di una singola stazione, quella dell’istituto di fisica. Mentre, dal punto di vista pluviometrico, non è lecito attendersi differenze clamorose, per quanto riguarda la pioggia, in occasione di precipitazioni a carattere di rovescio o temporale, è possibile che altre stazioni, anche limitrofe, abbiano registrato quantitativi di pioggia sensibilmente differenti: come noto, infatti, la pioggia è una variabile meteorologica che risente firtemente dalla caratterizzazione geografica e orografica del territorio.

Cerchiamo, ora, di vedere come si collocano i valori termici sopra menzionati all’interno del clima a più grande scala.

La distribuzione delle anomalie delle temperature medie a livello del suolo relativa all’Europa nel mese di luglio 2014 evidenzia una grossa area, che ingloba praticamente l’intero Mediterraneo ed i paesi che si affacciano ad esso da nord (dalla penisola iberica fino al bordo occidentale della Turchia) in cui spicca un’anomalia termica negativa, con valori che, sui Pirenei e lungo la nostra penisola, sfiorano e talora eccedono i -2 °C. Al contrario, tutto il resto dell’Europa e gran parte dell’Atlantico settentrionale evidenziano anomalie positive, che culminano sulla Scandinavia settentrionale, in particolare sulla Svezia settentrionale, dove l’anomalia eccede i +6 °C.

anomalia della temperatura media superficiale rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

Anomalia della temperatura media superficiale rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

A livello planetario, si nota come siano presenti anomalie termiche negative su Alaska, Stati Uniti orientali, Mediterraneo, Kazakhstan, Siberia e Cina centrali (emisfero nord) e Cile, Sudafrica e Namibia, Australia nordoccidentale e Oceania, e su vaste zone dell’Antartide, compensate da valori positivi i cui massimi sono identificabili in Scandinavia e tutta L’Europa tranne le zone mediterranee, in Antartide a sud della terra del fuoco e dell’Australia, in Canada occidentale ed orientale, in Siberia orientale, India, Africa sahariana, Australia occidentale (si noti che, per esaltare le piccole differenze termiche, i colori nelle due mappe precedenti sono stati limitati all’intervallo tra -4 e +4 °C).

anomalia della temperatura media superficiale nel mondo rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

Anomalia della temperatura media superficiale nel mondo rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

Queste due mappe dimostrano come i valori termici particolarmente bassi registrati praticamente sull’intero territorio nazionale siano ascrivibili ad un pattern a scala continentale che, in questo periodo estivo, penalizza fortemente la regione mediterranea, che è una delle zone nel mondo densamente abitato che ha fatto registrare l’anomalia termica più negativa. Per inciso, si nota anche come, complessivamente, ovvero a scala globale, l’anomalia termica risulti tutt’altro che negativa.

Che cosa ha provocato questa situazione termica? Possiamo farci aiutare dalla mappa della distribuzione dell’altezza di geopotenziale a 500 hPa: esso rappresenta la quota a cui la pressione vale 500 hPa e, come valore grossolano di stima, si può approssimare al livello di 5500 m circa. Le isolinee su queste mappe rappresentano quindi una stima delle isobare ad un ipotetico livello di 5500 m. La mappa mostra, proprio sulla stessa area mediterranea in cui si è registrata l’anomalia termica negativa, un campo decisamente inferiore alla media, così come c’è un’anomalia negativa anche in corrispondenza delle isole Azzorre, zona in cui, abitualmente, d’estate è presente un’area di alta pressione ben strutturata anche in quota. Si nota, invece, un’anomalia gigantesca sulla Scandinavia.

anomalia dell'altezza di geopotenziale a 500 hPa nel mondo rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

Anomalia dell’altezza di geopotenziale a 500 hPa nel mondo rispetto al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

L’alterazione di questi sistemi barici provoca una rimodellazione di tutto il sistema di correnti a scala sinottica e addirittura planetaria, il cui effetto è l’arrivo fin sul Mediterraneo dei sistemi perturbati atlantici. Vediamo infatti la distribuzione media delle correnti in quota in questo mese di luglio, confrontandola con la media climatica.

Di norma, a luglio il ramo principale delle correnti più intense emerge dal nordamerica e si dirige, in direzione ENE, verso le isole britanniche e l’Europa centrosettentrionale, spingendo in tali zone i sistemi perturbati; l’Europa meridionale ed il Mediterraneo occidentale sono interessate solo di striscio da un ramo secondario di tali correnti, in direzione ESE.

andamento medio delle correnti a 500 hPa nel mondo riferito al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

Andamento medio delle correnti a 500 hPa nel mondo riferito al trentennio di riferimento 1981-2010. Dati NOAA/NCEP.

In questo mese di luglio, invece, il ramo principale delle correnti si è diviso in due parti al largo delle isole britanniche: il ramo più robusto ha circumnavigato la Scandinavia per poi ritornare quasi da N sul Kazakhstan , mentre l’altro ramo, anch’esso intenso, si è diretto sul Mediterraneo, attraversando la penisola iberica e rinforzandosi (probabilmente per motivi orografici) proprio sul Mediterraneo occidentale.

andamento delle correnti a 500 hPa nel mondo nel mese di luglio 2014.  Dati NOAA/NCEP.

Andamento delle correnti a 500 hPa nel mondo nel mese di luglio 2014. Dati NOAA/NCEP.

L’intero anello di flussi occidentali che, alle medie latitudini, circonda l’emisfero nord (e che può essere ascritto alle note correnti di Rossby) appare molto meno intenso e più ondulato del solito, di modo che le onde di Rossby risultano molto più ampie di quanto normalmente non succeda a luglio. Notiamo, per inciso, che anche nell’emisfero sud le correnti sull’oceano indiano risultano nettamente meno intense del solito, pur mantenendo la loro struttura e direzione.

Queste mappe mostrano chiaramente come la circolazione a grande scala abbia assunto caratteristiche anomale nel passato mese di luglio, con deviazioni più vistose proprio sulla zona atlantica e dell’Europa, con conseguenti ripercussioni sui valori termici e sulla piovosità.

L’interpretazione dei prodotti dei modelli meteorologici

L’interpretazione dei prodotti dei modelli meteorologici

Instabilità numerica. Fonte: MIT.

Figura 1. Instabilità numerica. Fonte: MIT.

Nei due post precedenti abbiamo visto come un modello meteorologico risolva numericamente le principali equazioni fisiche, e di quali tipi di dati abbia bisogno per essere inizializzato. In questo post vedremo come interpretare le uscite di tali modelli. Ci limiteremo a considerare il caso dei modelli globali, e mostreremo alcune mappe previsionali, che commenteremo non per fare una previsione meteorologica, ma per capire come valutarne l’attendibilità nel tempo.

Come abbiamo visto, le principali variabili necessarie per la definizione dello stato dinamico e termodinamico del sistema sono: la pressione, la temperatura, le tre componenti della velocità del vento, la quantità di vapore acqueo, acqua liquida e ghiaccio. Siccome un modello meteorologico è prognostico, calcola i valori delle grandezze nel futuro. Per poterlo fare, deve conoscere i valori delle grandezze nel presente.

Per capire meglio questo punto, dobbiamo entrare un po’ nel dettaglio delle equazioni, ma non spaventatevi: cercherò di dare una spiegazione il più semplice possibile facendo un esempio facile facile, con soltanto TRE equazioni, di cui una differenziale. E spero che gli addetti ai lavori mi perdoneranno questa semplificazione.

Dunque: partiamo dall’inizio. Una tipica equazione differenziale prognostica ha la forma:

\frac{\partial y}{\partial t} = f(x_1,x_2. ... , x_n)

dove y è la variabile di cui si vuole conoscere il valore futuro (ad esempio, la velocità del vento o la temperatura) e f è una funzione di altre n variabili x_1,x_2. ... , x_n (ad esempio, le componenti della velocità del vento, la pressione, l’umidità, la densità, ecc.).

La derivata è indicata con una delta particolare (\partial) che indica la derivata parziale, cioè la derivata della funzione soltanto rispetto al tempo. La derivata temporale deve esserci, altrimenti l’equazione non sarebbe prognostica ma diagnostica.

Una possibile soluzione numerica di tale equazione (userò la più semplice per la spiegazione, anche se non è la più corretta, e quindi normalmente non è usata) consiste nel sostituire alla derivata temporale il rapporto incrementale, e di valutare la funzione a secondo membro nel presente (cioè usando i dati attuali); tale schema viene detto schema backward, in quanto appunto usa i dati (la funzione) del passato. In questo modo l’equazione diventa:

\frac{\Delta y}{\Delta t} = f(x_1,x_2. ... , x_n)

dove \Delta y è la differenza tra il valore y futuro e il valore y presente, cioè \Delta y = y_{futuro} - y_{presente} (e ovviamente anche \Delta t = t_{futuro} - t_{presente} ). In questo modo, è facile vedere che la soluzione di tale equazione è semplicemente:

y_{futuro} = y_{presente} + \Delta t f(x_1,x_2. ... , x_n)

Questo esempio, anche se relativamente semplice, è generalizzabile. Il risultato mostra che, in qualunque equazione prognostica, è necessario conoscere il valore iniziale (y_{presente}) per potersi calcolare il valore futuro (y_{futuro}). La grandezza  \Delta t f(x_1,x_2. ... , x_n)rappresenta appunto la “correzione” che deve essere apportata a y_{presente} per poter conoscere y_{futuro}. Anche se, come dicevo, gli schemi usati in pratica sono più complessi di questo, il discorso generale non cambia. Infatti, una delle soluzioni più comunemente usate è quella dello schema trapezoidal, che è:

y_{futuro} = y_{presente} + \frac {\Delta t f(x_1,x_2. ... , x_n)} {[1 - \frac {\Delta t}{2} \frac {\partial f}{\partial y} ]}

e, come si vede, non cambia la dipendenza da \Delta t.

Chi è un po’ esperto di algoritmi numerici ha già anche capito che il valore di \Delta t deve rimanere sufficientemente piccolo al fine di garantire la stabilità numerica di un’integrazione numerica di questo tipo, e questo perché la “correzione” deve rimanere piccola rispetto a y_{presente}. Pensate, infatti, a quanto varia la temperatura in presenza di un’avvezione termica: sarebbe certamente sbagliato supporre che quel rateo di variazione rimanga costante per periodi molto più lunghi della durata dell’avvezione stessa, e se formulassi una tale ipotesi, mi troverei con valori di molto maggiori, o minori, di quelli reali. Questo potrebbe portare all’insorgenza dell’instabilità numerica, in quanto, se ad un certo time step il valore di risultasse – per fare un esempio – molto maggiore del dovuto, allo step successivo è probabile che il sistema reagirebbe imponendo una grande correzione negativa, col risultato probabile di far precipitare a valori molto minori del dovuto, generando quindi oscillazioni irrealistiche del risultato. Questa è proprio la situazione raffigurata nella Figura 1, relativa all’integrazione numerica dell’equazione y=exp(-10 x). Si nota come le prime tre curve, valutate usando gli step \Delta y=0.001, \Delta y=0.01 e \Delta y=0.05, appaiano sovrapposte tra loro e con l’andamento analitico, mentre la curva corrispondente a \Delta y=0.2 mostra delle oscillazioni tra uno step e l’altro e dà origine ad un risultato del tutto scorrelato dall’andamento analitico. Ancora peggio capita usando lo step \Delta y=0.21: in questo caso l’oscillazione cresce nel tempo e, in pochi step, porta all’esplosione numerica della soluzione. È quindi evidente che, in questo esempio, gli ultimi due time step sono troppo grandi per poter permettere la soluzione numerica del problema.

Nel caso dei modelli numerici di circolazione, il discorso è ancora più complicato in quanto ci sono step spaziali e temporali di cui tenere conto. Nel lontano 1928, Richard Courant, Kurt Otto Friedrichs e Hans Lewy pubblicarono un articolo in cui proposero una condizione da dover rispettare al fine di garantire la stabilità numerica delle soluzioni per equazioni n-dimensionali. Tale criterio, nel caso unidimensionale, può scriversi come:

\frac{u \Delta t}{\Delta x} \leq 1

Tale criterio fu in seguito battezzato, in loro onore, criterio CFL (dalle loro iniziali). Il principio alla base della condizione è che, per esempio, se un’onda si muove attraverso una griglia spaziale discreta e vogliamo calcolarne l’ampiezza usando passi discreti di uguale lunghezza, allora questa lunghezza deve essere inferiore al tempo necessario all’onda per raggiungere i punti griglia adiacenti. Di conseguenza, quando il grigliato spaziale viene ridotto, anche quello temporale deve essere conseguentemente ridotto.

È per questo motivo che, nei modelli meteorologici, normalmente l’intervallo temporale (il time-step) di integrazione varia tra qualche secondo e qualche minuto, a seconda della sofisticazione degli schemi numerici e/o delle parametrizzazioni. Negli intervalli temporali delle integrazioni successive, il valore “futuro” appena calcolato viene poi usato come nuovo valore “presente” in modo iterativo, fino al termine della corsa del modello.

Fino a quanto si può iterare un metodo di questo tipo per integrare numericamente le equazioni differenziali? In teoria, fino all’infinito. In pratica, non per molto tempo.

Innanzitutto, i dati iniziali necessari per il primo step di integrazione (ovvero quelli su , che in questo caso diventa ) sono affetti da un certo errore (che chiameremo ). L’errore non è necessariamente legato all’imprecisione della misura, che pure può esserci: può anche succedere che un sito di misura non sia rappresentativo a causa dell’inadeguatezza della postazione di misura, oppure perché il volume di atmosfera rappresentato da quella misura potrebbe non essere omogeneo: si pensi a una stazione su erba posta in mezzo ad una grande città, o viceversa una stazione su un tetto scuro di una casa in mezzo alla campagna, o anche ad una stazione di collina quando la collina è l’unica altura presente per chilometri.

Anche le funzioni di dati affetti da errore forniscono risultati affetti da errore. E ogni operazione tra valori affetti da errore fornisce a sua volta un risultato affetto da errore. Così, un’equazione come quella sopra descritta, che rappresenta la soluzione numerica dell’integrazione di un’equazione, fornisce un valore il cui errore è maggiore dell’errore di partenza . Con il procedere delle iterazioni, pertanto, anche l’errore cresce.

Se la crescita dell’errore fosse lineare, avrei comunque un momento in cui l’errore diventerebbe troppo grande rispetto al dato. Sarebbe come se, quando una persona si pesa per controllare se il suo peso è aumentato, il risultato fosse: 70 kg, con un errore di 100 kg. È evidente che non avrebbe alcun valore un dato simile.

Però, se la crescita dell’errore fosse lineare, sarei in grado di prevedere quando l’errore stesso renderebbe non rappresentativo il risultato. Il problema è che questa crescita non è lineare, poiché le equazioni che regolano la dinamica dell’atmosfera sono non lineari. In determinate circostanze e situazioni meteorologiche, gli errori crescono molto rapidamente, finché – a un certo punto – diventano maggiori del dato stesso. Questa proprietà viene anche illustrata dicendo che il comportamento dell’atmosfera è caotico o, meglio, che le soluzioni delle equazioni di Navier-Stokes per il flusso del fluido atmosferico hanno una natura caotica. In questa accezione, come vedremo, la parola “caos”, o l’aggettivo “caotico”, denotano, più che il disordine del comportamento, la sua imprevedibilità.

L’identificazione del comportamento caotico dei sistemi atmosferici fu scoperto accidentalmente da Edward Norton Lorenz nel 1961, anche se va detto che, a livello teorico e in ambiti diversi, all’inizio dello scorso secolo Jules Henri Poincaré aveva già identificato e studiato il comportamento caotico delle dinamiche dei moti dei corpi celesti perturbando un sistema a due corpi con l’aggiunta di un terzo corpo ed osservando come questo terzo corpo rendeva le orbite altamente sensibili alle condizioni iniziali. Lorenz, comunque, utilizzando un modello molto semplificato dell’atmosfera, scoprì che soluzioni numeriche corrispondenti a condizioni iniziali lievemente differenti tra loro, anche solo per il numero di cifre significative, tendevano a essere molto simili tra loro per un certo periodo, per poi divergere e diventare completamente scorrelate l’una dall’altra a partire da un certo momento.

 In un giorno particolare durante l'inverno del 1961, Lorenz volle rivedere una sequenza di dati provenienti dal suo modello. Invece di riavviare l'intera esecuzione, decise, per risparmiare tempo, di riavviare la corsa da un certo punto. Utilizzando le stampe dei dati, inserì in input le condizioni relative a quel punto, prendendole dall’esecuzione precedente, e riavviò il modello di calcolo. Il risultato fu molto insolito e inaspettato. I dati della seconda corsa avrebbero dovuto sovrapporsi esattamente a quelli della prima corsa. Al contrario, dopo un primo momento in cui i dati si sovrapponevano, le uscite, a partire da un certo punto, cominciarono a divergere drasticamente, e la seconda corsa perse ogni somiglianza con la prima nel giro di pochi mesi. Un esempio grafico è mostrato in questa figura. Fonte: questo link.

Figura 2. In un giorno particolare durante l’inverno del 1961, Lorenz volle rivedere una sequenza di dati provenienti dal suo modello. Invece di riavviare l’intera esecuzione, decise, per risparmiare tempo, di riavviare la corsa da un certo punto. Utilizzando le stampe dei dati, inserì in input le condizioni relative a quel punto, prendendole dall’esecuzione precedente, e riavviò il modello di calcolo. Il risultato fu molto insolito e inaspettato. I dati della seconda corsa avrebbero dovuto sovrapporsi esattamente a quelli della prima corsa. Al contrario, dopo un primo momento in cui i dati si sovrapponevano, le uscite, a partire da un certo punto, cominciarono a divergere drasticamente, e la seconda corsa perse ogni somiglianza con la prima nel giro di pochi mesi. Un esempio grafico è mostrato in questa figura. Fonte: questo link.

In un primo momento Lorenz pensò che si fosse guastato un transistor nel suo computer, un originale vecchio McBee, macchina estremamente lenta e grezza per gli standard odierni. Dopo aver scoperto che non c’era nessun guasto, Lorenz finalmente trovò la fonte del problema. Per risparmiare spazio, le sue stampe avevano riportato solo tre cifre, mentre i dati nella memoria del computer contenevano sei cifre. Lorenz aveva quindi inserito dei dati arrotondati prendendoli dalle stampe, supponendo ovviamente che la differenza fosse irrilevante.

Il semplice modello di Lorenz (il cui risultato è noto come attrattore di Lorenz) evidenzia il fenomeno noto come “dipendenza sensibile dalle condizioni iniziali”, a volte indicato anche col nome di “effetto farfalla”, per il motivo dell’analogia seguente: una farfalla che batte le ali in Sud America può influenzare il tempo in una città degli Stati Uniti. L’esempio del battito d’ali di una farfalla simboleggia, infatti, una deviazione minima, pressoché infinitesima, impressa dalla farfalla alla velocità del vento. Naturalmente, l’esistenza di una farfalla sconosciuta che batte le ali non ha alcuna relazione diretta con le previsioni del tempo, poiché ci vorrebbe troppo tempo per una piccola perturbazione, come quella causata nella realtà dal battito d’ali di una farfalla, per crescere e raggiungere una dimensione significativa tale da perturbare il moto. Nella realtà, ci sono incertezze molto più grandi di cui preoccuparsi, come ad esempio quelle strumentali, o la scarsità di misure rispetto ai punti griglia dei modelli, fatto che determina la necessità di compiere delle interpolazioni. Senza poi dimenticare che ogni modello consta di equazioni differenziali che descrivono sì i processi fisici fondamentali alle scale considerate, ma sempre in modo approssimato. Tuttavia, anche se l’impatto diretto del caos sulla previsione meteo è spesso un po’ sopravvalutato, e questo rimane evidente osservando che, in determinate occasioni, i modelli non riescono a riprodurre le condizioni reali dopo pochi giorni, indipendentemente dal modo in cui sono inizializzati, la teoria del caos continua a svolgere un ruolo importante nella ricerca e sviluppo di metodi di previsione meteorologica cosiddetti “di ensemble”.

Un lettore attento, a questo punto, potrebbe chiedersi perché un insieme di equazioni completamente deterministiche (con la dicitura “equazione deterministica”, o in senso lato “modello deterministico” si intende un’equazione – o un modello basato su quella equazione – la cui soluzione è completamente determinata dai valori delle condizioni iniziali per le quali non vengono considerate le incertezze) presenti un simile comportamento. Dopo tutto, gli scienziati spesso insegnano che piccole perturbazioni iniziali conducono a piccoli cambiamenti nel comportamento. Tuttavia, non sempre è così, e dipende dalla tipologia delle equazioni. Il fatto che una piccola perturbazione causi piccole variazioni si verifica quando le equazioni sono lineari. Ma questo non è chiaramente il caso delle equazioni che regolano la dinamica atmosferica o dei fluidi, cioè proprio il set di equazioni usate nel modello di Lorenz. Tali equazioni, infatti, sono non lineari. In un sistema non lineare, ricordiamo che non è soddisfatto il principio di sovrapposizione: ovvero, non è vero che l’output sia proporzionale all’input.

Oltre che a essere difficili da risolvere – nel caso delle equazioni che regolano la dinamica atmosferica, basate sulle equazioni di Navier-Stokes per il flusso del fluido atmosferico, addirittura analiticamente impossibili da risolvere – i sistemi non lineari mostrano spesso un comportamento straordinariamente complesso e caotico.

Tale fenomeno è attualmente ben noto e compreso e caratterizza tutti i modelli globali, rendendo impossibile l’effettuazione di previsioni meteorologiche precise a lungo termine. Si noti che uno può sempre eseguire una simulazione che duri diversi mesi ed analizzarne i risultati; il problema è che tali risultati diventano completamente svincolati dall’andamento reale dopo alcuni giorni, per cui non hanno alcuna utilità dal punto di vista della previsione del tempo (Figura 3). Si può dire che i risultati siano casuali? In realtà no. Un sistema caotico (di cui l’attrattore di Lorenz è il prototipo) non è casuale, e le equazioni non lineari di un sistema caotico mostrano alcuni comportamenti molto interessanti. Se il sistema non è casuale, allora il suo moto dovrebbe essere prevedibile, ma questa prevedibilità dipende dal flusso atmosferico: la posizione nell’attrattore determina la direzione in cui il flusso si muoverà, dove andrete, ma alcuni punti di partenza sono correlati a insiemi molto più strettamente vincolati nei comportamenti rispetto ad altri. Come risultato, la dispersione (statistica) dei possibili stati finali dipende dallo stato iniziale, e alcuni stati risultano più prevedibili rispetto ad altri.

L'ensemble forecasting spiegato in una figura. L'analisi rappresenta il punto di partenza della previsione numerica, e la previsione deterministica rappresenta il punto di arrivo (per ogni ora di validità della previsione), che si colloca all’interno dell’incertezza previsionale, area che si allarga sempre più allontanandosi dall’istante iniziale della previsione fino a sconfinare nel campo della climatologia.

Figura 3. L’ensemble forecasting spiegato in una figura. L’analisi rappresenta il punto di partenza della previsione numerica, e la previsione deterministica rappresenta il punto di arrivo (per ogni ora di validità della previsione), che si colloca all’interno dell’incertezza previsionale, area che si allarga sempre più allontanandosi dall’istante iniziale della previsione fino a sconfinare nel campo della climatologia.

L’impossibilità di stabilire, a priori, l’esattezza di una previsione affidandosi ad un’unica previsione deterministica ha portato a sviluppare una nuova tecnica di previsione nella quale si integrano simultaneamente più stati dell’atmosfera caratterizzati da condizioni iniziali che differiscono di poco l’una dall’altra. Con questa nuova tecnica, nota con il nome di ensemble predictions (previsioni di insieme), lo scenario meteorologico previsto è quindi legato alla probabilità che si possa verificare, cioè alla frequenza con cui il pattern atmosferico ricorre nella gamma di tutte le previsioni calcolate. Tale sistema diventa particolarmente utile nei casi in cui si verifichino transizioni nei regimi meteorologici che i modelli prevedono con maggiore difficoltà.

Pertanto, usando i modelli numerici di circolazione atmosferica, occorre eseguire diverse simulazioni perturbando le condizioni iniziali di una corsa di riferimento, e vedere cosa succede. E infatti questa rappresenta proprio gran parte della sfida delle previsioni meteorologiche, che consiste nel saggiare l’incertezza nelle condizioni iniziali. Invece di utilizzare una singola simulazione di previsione (run deterministico), la meteorologia moderna si avvale delle previsioni di ensemble, che indagano lo spazio dei possibili risultati a partire da un dato stato iniziale (incerto). Questo permette quindi ai previsori di valutare tutti i possibili risultati, di stimarne i rischi e le possibilità, e al termine di comunicare i rischi agli utenti. Sottolineiamo qui la frase “permette ai previsori di …“: il ruolo degli esperti nell’interpretare le previsioni e spiegare i rischi correlati rimane fondamentale anche nell’epoca dei modelli numerici, in cui uno potrebbe credere di essere in grado di realizzare un centro meteo, o addirittura un servizio meteorologico, semplicemente assemblando le uscite dei modelli fatti girare da altri, senza la necessità di persone qualificate (ahimè esistono alcuni centri, a livello sia nazionale sia internazionale, di questo tipo).

esempio di una serie temporale delle integrazioni numeriche relative alle previsioni di ensemble del modello IFS dell’ECMWF per la temperatura superficiale su Londra. Le due mappe si riferiscono esattamente a un anno di distanza l’una dall’altra. In ogni mappa, la linea continua nera spessa indica la previsione deterministica del modello, mentre la tratteggiata blu indica le osservazioni. In rosso sono invece indicate le previsioni dei vari run ottenuti perturbando le condizioni iniziali (previsioni di ensemble). Fonte: ECMWF.

Figura 4. Esempio di una serie temporale delle integrazioni numeriche relative alle previsioni di ensemble del modello IFS dell’ECMWF per la temperatura superficiale su Londra. Le due mappe si riferiscono esattamente a un anno di distanza l’una dall’altra. In ogni mappa, la linea continua nera spessa indica la previsione deterministica del modello, mentre la tratteggiata blu indica le osservazioni. In rosso sono invece indicate le previsioni dei vari run ottenuti perturbando le condizioni iniziali (previsioni di ensemble). Fonte: ECMWF.

A titolo di esempio del discorso relativo all’incertezza della previsione, mostriamo due previsioni della temperatura a 2 metri dal suolo per Londra, a partire dal 26 giugno di due anni consecutivi, 1994 e 1995. Le curve rosse sottili mostrano i singoli membri di una previsione di ensemble. La diffusione delle previsioni appare molto diversa nei due casi, pur trattandosi dello stesso giorno dell’anno (quindi stessa stagione, nella stessa località). Questo dimostra che alcune condizioni iniziali sono più prevedibili di altre: in un caso si ha una diffusione delle previsioni del modello molto elevata, nell’altro no. Si nota anche come, in entrambi i casi, le osservazioni reali si trovino all’interno del fascio delle linee rosse così come la previsione deterministica, ma siano “distanti” tra loro.

Come risultato, nella mappa relativa al 1994 la previsione diverge dalle osservazioni già dopo meno di due giorni, mentre in quella relativa al 1995 la previsione risulta attendibile fino al sesto giorno. Si noti anche la corrispondenza tra il momento della divergenza e la larghezza del fascio delle previsioni di ensemble.

Al giorno d’oggi, i vari centri meteorologici fanno ampio uso delle previsioni di ensemble, che vengono affiancate alle previsioni deterministiche. La tecnica è stata applicata per la prima volta nel 1992 sia dall’ECMWF europeo, sia dal NCEP americano. Si noti che l’esecuzione delle previsioni di ensemble costituisce un netto aggravio a livello di tempi di calcolo, in quanto è necessario eseguire diverse simulazioni aggiuntive oltre a quella che costituisce lo scenario di riferimento. Di solito, viene usata una versione meno risoluta dello stesso modello per le previsioni di ensemble, in modo da minimizzare i tempi di simulazione.

Come vengono perturbate le condizioni iniziali, e quante simulazioni vengono condotte con questa tecnica? Per rispondere a queste domande, possiamo vedere come fa l’ECMWF di Reading. Presso tale centro, vengono eseguite 50 simulazioni usando un modello di minore risoluzione rispetto a quello (IFS) usato per le previsioni deterministiche (attualmente, per l’ensemble prediction system, si usa il T639 per i primi dieci giorni di run e il T319 per gli altri cinque). Le perturbazioni delle condizioni iniziali non sono generate in modo casuale ma consistono in una combinazione di 25 modi che hanno il maggiore impatto sulle previsioni per l’emisfero settentrionale nel breve termine, e quindi tengono conto anche delle deviazioni tra i membri dell’ensemble e la previsione deterministica (maggiori informazioni si possono reperire qui). Un metodo analogo viene utilizzato anche per il modello GFS del NCEP (maggiori dettagli, un po’ tecnici, sono reperibili qui), per il quale ci sono però 20 membri delle previsioni di ensemble.

I risultati delle previsioni di ensemble sono normalmente sintetizzati in grafici simili a quelli mostrati in Figura 4 , oppure su mappe bidimensionali come quelle mostrate in Figura 5, e in gergo vengono chiamati spaghetti plot, probabilmente per la somiglianza delle isolinee frammischiate tra loro con la vista di un piatto di spaghetti. La Figura 5 è stata prodotta sovrapponendo soltanto tre isoipse a 500 hPa comuni tra tutte le previsioni di ensemble a ogni scadenza giornaliera di previsione; il modello usato è il GFS, e la simulazione usata per questa figura è partita alle ore 06 UTC del 20 aprile 2014.

Esempio di spaghetti plot relativi alle altezze di geopotenziale a 500 hPa previste dalle previsioni di ensemble del modello GFS girato il 20 aprile 2014 alle 06 UTC. Fonte: wetterzentrale.de

Figura 5. Esempio di spaghetti plot relativi alle altezze di geopotenziale a 500 hPa previste dalle previsioni di ensemble del modello GFS girato il 20 aprile 2014 alle 06 UTC. Fonte: wetterzentrale.de

L’analisi di questa figura mostra già chiaramente come debbano poi interpretarsi le mappe previsionali (come quella relativa alla previsione deterministica dello stesso modello: vedi ad esempio la Figura 6) alla luce mostrata in Figura 5, delle informazioni aggiuntive fornite dagli spaghetti plot. Infatti, il rischio di mettere in rete immagini è che un internauta disattento guardi le mappe previste dal modello (p. es. quelle mostrate in Figura 6) e le prenda alla lettera, ritenendo – erroneamente – che, poiché sono state messe in rete da un centro meteo riconosciuto, abbiano tutte la stessa validità (in effetti, sulle singole mappe non c’è scritto quanto siano affidabili!!! è l’utente che dovrebbe essere in grado di interpretarle correttamente). In realtà, guardando gli spaghetti plot, si può provare a dare da soli il grado di attendibilità alla previsione, almeno “a spanne”.

È importante capire, in primo luogo, che non in tutte le regioni le previsioni hanno lo stesso grado di attendibilità. Ad esempio, guardando gli spaghetti plot di Figura 5, il tempo sulla Groenlandia occidentale appare incerto già dal martedì 22, ovvero già al secondo giorno di validità della previsione, mentre sul Regno Unito si comincia a notare una divergenza delle isoipse soltanto nel giorno di venerdì 25. È comunque chiaro che la significatività delle tre ultime mappe, relative ai giorni da domenica 27 aprile in poi, è assolutamente nulla e non consente alcun tipo di previsione oggettiva.

Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hhPa (Z500, colori e isolinee nere) ottenuto mediando le previsioni di ensemble (a sinistra). La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 6a. Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hhPa (Z500, colori e isolinee nere) ottenuto mediando le previsioni di ensemble (a sinistra). La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hPa (Z500, isolinee nere), sovrapposte  al campo della deviazione standard della Z500, calcolato sempre sulle previsioni di ensemble. La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 6b. Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hPa (Z500, isolinee nere), sovrapposte al campo della deviazione standard della Z500, calcolato sempre sulle previsioni di ensemble. La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Dovrebbe quindi apparire abbastanza chiaro, a questo punto, come gli spaghetti plot e, in generale, i prodotti delle previsioni di ensemble, possano consentire di attribuire un indice di affidabilità alla previsione. È infatti importante essere a conoscenza del fatto che una previsione meteorologica non è mai, e non potrebbe mai neppure esserlo, assimilabile ad una certezza, ma rappresenta uno scenario evolutivo più o meno probabile, a seconda di quanto lontano si va nel tempo, allo stesso modo di come un dottore che fa una diagnosi dello stato di un paziente, emette poi una prognosi relativa all’evoluzione della sua patologia, prognosi che non rappresenta una certezza.

Per cui, chi vende certezze nel campo meteorologico “mente sapendo di mentire”, soprattutto quando questo avviene per le previsioni che si estendono oltre i classici 2-3 giorni. Io sono solito paragonare l’attendibilità delle previsioni meteo alla scadenza degli yogurt, e questa analogia si ricollega allo stesso discorso: dopo alcuni giorni, le nuove simulazioni condotte con i modelli portano a risultati più aggiornati, diminuendo quindi l’incertezza di cui abbiamo parlato finora, per cui le previsioni più vecchie vanno considerate alla stregua di un cibo scaduto, in quanto sono “scadute” anch’esse (e, in senso lato, possono “far male” ai fini della previsione allo stesso modo in cui un cibo scaduto potrebbe far male allo stomaco).

previsioni deterministiche del modello GFS relative alla simulazione del 20 aprile 2014 alle ore 06 UTC. Fonte: wetterzentrale.de

Figura 7. Previsioni deterministiche del modello GFS relative alla simulazione del 20 aprile 2014 alle ore 06 UTC. Fonte: wetterzentrale.de

I centri meteo o i portali più completi (tra i quali segnalo il tedesco wetterzentrale) mettono comunque online anche altri prodotti che possono consentire una migliore quantificazione dell’incertezza rispetto al metodo “spannometrico” appena delineato, basato sull’analisi “a vista” degli spaghetti plot.

Molti di tali prodotti sono addirittura reperibili anche online. Ad esempio, guardando le due mappe mostrate in Figura 6, relative al settimo giorno di previsione, si nota come siano disponibili la media di tutte le previsioni di ensemble e la dispersione attorno al valore medio per ogni scadenza previsionale e per alcune grandezze significative.

sono qui rappresentare le istantanee di tutti i 21 membri delle previsioni di ensemble inizializzate il 20 aprile 2014 e relative al 27 aprile 2014, alle ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 8. Sono qui rappresentate le istantanee di tutti i 21 membri delle previsioni di ensemble inizializzate il 20 aprile 2014 e relative al 27 aprile 2014, alle ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Ad esempio, nella mappa di Figura 6b, si può osservare come la zona arancione-rossa corrisponda ad una deviazione standard dell’altezza di geopotenziale rispetto alla media, tra tutte le varie previsioni di ensemble in tali punti, superiore ai 100 decametri, ovvero 1000 metri: un valore paragonabile alla stessa profondità dei minimi o ampiezza dei massimi. Pertanto, la sezione della mappa corrispondente a simili deviazioni standard non consente di poter considerare significativi i valori medi corrispondenti alle stesse mappe, in quanto l'”errore” è paragonabile al valor medio. La Figura 8 permette di vedere le mappe che si riferiscono ai singoli run della previsione di ensemble, sulla cui base sono poi stati valutati il valor medio e la deviazione standard mostrata inFigura 6b. Si nota subito come alcuni elementi di questo cluster presentino evoluzioni meteorologiche completamente distinte da altri. Si veda ad esempio come il Portogallo possa essere coinvolto da profonde saccature (membri 16, 17 e 18) o da robuste celle anticicloniche (P5, P6 e P7). Si nota anche come non sempre la mappa media abbia un riscontro nei singoli elementi del cluster. La mappa media è una mappa che è il risultato di un’operazione di media, e pertanto potrebbe essere rappresentativa soltanto se un elevato numero di membri dell’ensemble possiede una struttura barica analoga che “abbia sufficiente peso” nell’operazione di media. In generale, quindi, non solo non è detto che tale mappa corrisponda alla configurazione più probabile, ma in certi casi potrebbe anche non corrispondere ad una configurazione possibile!

Per oggi ci fermiamo qui, e direi che di materiale ce n’è già abbastanza da digerire. Ma quello che spero sinceramente è di aver fatto capire perché, leggendo una previsione in cui si elenca, luogo per luogo, il tempo che farà tra sette giorni senza usare nessun condizionale e senza mettere da nessuna parte una frasetta, o almeno un logo, che indichi la poca attendibilità di tale previsione, che quindi va presa alla stregua di una possibile indicazione della tendenza generale e nulla più, non si fornisce un’informazione corretta. Ricordiamoci la Figura 5, in particolare le ultime tre mappe in basso, e pensiamo che quella previsione si basa su un singolo run che magari può anche essere rappresentativo del tempo che si verificherà, ma molto probabilmente ha una probabilità di verificarsi molto piccola.

Aggiungo un’ultima considerazione. Ho basato questo post sulla discussione relativa ai modelli globali, poiché normalmente sono questi ad essere fatti girare per lungo tempo (fino a 15 giorni). Uno potrebbe pensare che un modello a mesoscala o locale, avendo un grigliato più fitto, possa consentire una notevole riduzione degli errori e quindi possa bypassare questo problema. La realtà dimostra che non è così, ed è questo il motivo per cui raramente i run dei modelli alla mesoscala si estendono oltre i 3-5 giorni. E il motivo per cui si arriva a questa conclusione è presto detto: i modelli alla mesoscala vengono inizializzati con le uscite dei modelli globali. E pertanto, se il modello globale ha un’incertezza che cresce nel tempo, non può fare altro che propagarla al modello alla mesoscala, che ne digerisce in dati in input.

In un prossimo post parleremo di previsioni stagionali e di previsioni climatiche, tentando di rispondere alla classica domanda: “ma se non siamo in grado di prevedere il tempo oltre la prossima settimana, perché è possibile fare previsioni stagionali? E, soprattutto, quale validità hanno?”.

La circolazione atmosferica nel nostro emisfero dall’inizio del 2014

La circolazione atmosferica nel nostro emisfero dall’inizio del 2014

L’inizio dell’anno è stato caratterizzato da una circolazione atmosferica un po’ particolare. La figura sottostante (tutte le mappe mostrate in questo post le ho realizzate con i dati prelevati dal sito NOAA/NCEP) mostra il valore medio dell’altezza di geopotenziale a 500 hPa (che può essere intesa in prima approssimazione come la quota alla quale la pressione è di 500 hPa, ovvero circa la metà di quella al livello del mare) nei primi 42 giorni del 2014. Le isoipse a tale quota ci dicono come si muovono, in media, le correnti. Nel seguito, abbrevierò la dicitura “altezza di geopotenziale” semplicemente con “geopotenziale”, valore ad essa proporzionale anche se propriamente quest’ultima è un’energia potenziale per unità di massa.

2014_z500hPa

Valore medio dell’altezza di geopotenziale a 500 hPa relativo ai primi 42 giorni del 2014 (in m). Dati NCEP/NCAR.

Si nota che la stuttura, identificabile dalla macchia azzurro-violacea più scura, che raggruppa i valori delle altezze inferiori, presenta cinque “punte”, abbastanza elongate e strette, raggruppate in due grossi lobi: uno è disposto tra l’America settentrionale, parte orientale, e le coste occidentali europee, mentre l’altra si estende dagli Urali alle coste nordorientali asiatiche. Il nucleo centrale di tale configurazione possiede la forma di una grossa Z in cui i due bracci hanno praticamente gli stessi valori.

Il lobo atlantico, molto allungato, nella zona colorata di giallo-verde indirizza, in media, delle correnti sudoccidentali dall’oceano Atlantico: tali correnti rappresentano delle linee guida che hanno diretto innumerevoli saccature in questo inizio di anno verso il Mediterraneo, saccature che, una volta giunte nei pressi delle Alpi, hanno dato il via a classici episodi di ciclogenesi sottovento alle Alpi (come Buzzi, Speranza e Tibaldi ci hanno insegnato in tutta una serie di magistrali articoli scritti negli anni ’80-’90: si veda ad esempio qui).

Anche le isole britanniche sono state colpite in pieno da correnti sudoccidentali intense (le isoipse sono molto ravvicinate) che hanno sospinto i fronti scaricandoli sulle prime alture che hanno trovato nel loro tragitto, e cioè le modeste colline inglesi (culminanti nel Ben Nevis, ma tanto basta…), e con essi tutta l’umidità raccolta nel tragitto sopra l’oceano Atlantico, nella parte centrale parzialmente scaldato dalla corrente del Golfo e quindi ricco di umidità. Il terreno inzuppato di acqua a causa delle abbondanti precipitazioni, l’assenza di evapotraspirazione nelle pause tra le piogge (a causa dei valori termici limitati e del fatto che, in questa stagione, le piante non hanno ancora le foglie), la presenza di pendii molto dolci o quasi inesistenti, e quindi correnti fluviali lente a trasportare le piene verso le foci sono le concause che stanno mettendo in ginocchio le isole britanniche in questi giorni. Un altro aspetto non trascurabile è costituito dai valori termici relativamente alti, che non permettono nevicate neppure sulle alture, favorendo quindi la raccolta dell’acqua piovana sull’intera superficie dei bacini.

Un’altra caratteristica rimarchevole nella mappa è costituita dai valori superiori alla media assunti dal geopotenziale sulle regioni subtropicali orientali dei due oceani Atlantico e Pacifico, rispetto ai valori medi. Soprattutto sull’Atlantico, questo fatto comporta isoipse più ravvicinate alle medie latitudini, e quindi correnti più intense. L’ondulazione più pronunciata del lobo americano e la corrispondente anomalia positiva sul Pacifico tropicale orientale comporta allo stesso modo correnti più intense e più meridionali sull’America settentrionale, che appare tagliata in due parti all’incirca a metà: la parte orientale sotto l’influenza del lobo, e quindi delle correnti più fredde, e quella occidentale invece sotto l’influenza del promontorio sul Pacifico, e quindi dell’avvezione calda.

climo_z500hPa

Valore medio dell’altezza di geopotenziale a 500 hPa relativo ai primi 42 giorni di ogni anno tra il 1981 e il 2010 (climatologia, in m). Dati NCEP/NCAR.

L’andamento della media climatica relativa al periodo 1981-2010 ed allo stesso intervallo di giorni (qui sopra) mostra una struttura media con tre grossi lobi, dei quali i due principali risultano meno elongati di quanto non sia avvenuto nel 2014. In media, l’area di minimo è compresa tra il polo Nord e la baia di Baffin, con un lobo meno intenso rivolto verso il Giappone, ed uno appena abbozzato sugli Urali. Nel 2014 i due lobi principali sono invece della stessa intensità, molto superiore alla media, e sono anche molto elongati, mentre c’è un piccolo promontorio anticiclonico sulla Scandinavia. Il lobo Atlantico nel 2014 coinvolge anche le latitudini medioalte, interessando Canada e USA orientali e allungandosi fino alle isole britanniche, con isoipse disposte quasi lungo i paralleli sull’Atlantico. Notiamo come, nella configurazione media, il bacino occidentale del Mediterraneo sia interessato da correnti provenienti da Ovest-Nord-Ovest, e le isoipse siano ivi divergenti e allargate, segno di correnti non molto intense, a differenza di quanto riscontrato, invece, nel 2014, la cui configurazione mostrava isoipse raggruppate, e quindi correnti mediamente più intense, provenienti da sudovest.

anomaly_z500hPa

Anomalia dell’altezza di geopotenziale a 500 hPa relativa ai primi 42 giorni tra il 2014 ed il periodo 1981-2010 (in m). Dati NCEP/NCAR.

L’anomalia del geopotenziale a 500 hPa del 2014 rispetto al periodo medio di riferimento, sempre per i primi 42 giorni dell’anno, ovvero la differenza tra le due mappe precedenti, mostra valori inferiori alla media alle latitudini medioalte dell’oceano Atlantico e su Stati Uniti e Canada orientali, e, in misura minore, sulla Siberia, e valori decisamente superiori alla media sulle zone polari e anche subtropicali dell’oceano Atlantico. In particolare, si nota come l’anomalia più negativa, sull’oceano Atlantico settentrionale, sia posta in mezzo a due zone con anomalia positiva, rispettivamente poste vicino al polo Nord e poco ad est degli Stati Uniti sudorientali.

2014_wind500hPa

Valore medio del vento a 500 hPa relativo ai primi 42 giorni del 2014 (in m/s). Dati NCEP/NCAR.

È interessante osservare come i valori del geopotenziale si ripercuotano sulle correnti alla stessa quota barica. In sequenza, sono riportate le velocità del vento relative a 500 hPa per il 2014, per il periodo climatico di riferimento 1981-2010, e l’anomalia delle stesse.

Nel 2014, si ha una zona di forti correnti zonali tra le coste orientali degli Stati Uniti e del Canada, e la penisola iberica; la velocità del vento in questa zona è superiore a quella che si riscontra sul Pacifico orientale alle stesse latitudini medioalte. È inoltre rimarchevole la netta curvatura delle correnti nei pressi delle isole britanniche, interessate da correnti sudoccidentali molto intense.

climo_wind500hPa

Valore medio del vento a 500 hPa relativo ai primi 42 giorni di ogni anno tra il 1981 e il 2010 (climatologia, in m/s). Dati NCEP/NCAR.

anomaly_wind500hPa

Anomalia della velocità del vento a 500 hPa relativa ai primi 42 giorni tra il 2014 ed il periodo 1981-2010 (in m/s). Dati NCEP/NCAR.

Tale andamento è sensibilmente differente da quello medio, che mostra invece la presenza di venti più intensi sul Pacifico che non sull’Atlantico, e una curvatura molto più dolce delle correnti in arrivo sull’Europa nordoccidentale. Anche i flussi in transito sul Mediterraneo occidentale sono moderati occidentali, e non forti sudoccidentali come è avvenuto nei primi giorni del nel 2014. Si nota anche come, sul nord America, le correnti abbiano un andamento più occidentale e meno settentrionale, almeno in media, rispetto a quanto avvenuto nel 2014.

Questa differenza è ben evidente sulla mappa dell’anomalia del vettore velocità del vento orizzontale a 500 hPa, ovvero la mappa delle differenze tra le due mappe precedenti. Essa evidenzia sia i venti più intensi della media sull’Atlantico centrale che la forte curvatura presente ad ovest delle isole britanniche, che su questa mappa si configura proprio come se si trattasse di un ciclone secondario.

Passiamo ora ad analizzare le mappe relative alla quota barica di 100 hPa. In atmosfera standard, 100 hPa corrispondono a circa 16 km di quota, un livello che, d’inverno, a latitudini polari o delle medie latitudini, si trova nella bassa stratosfera, poco sopra la tropopausa che, come noto, rappresenta il limite superiore della troposfera.

2014_100hPa

Valore medio dell’altezza di geopotenziale a 100 hPa relativo ai primi 42 giorni del 2014 (in m). Dati NCEP/NCAR.

Perchè uno dovrebbe guardare delle mappe relative a quote così elevate? La circolazione atmosferica a quote così alte è molto meno distorta di quella relativa alla troposfera, e risente in pratica soltanto dei “disturbi” a grande scala. Questo poiché la stratosfera è uno strato caratterizzato da una elevata stabilità termica, dovuta al fatto che ivi la temperatura cresce con la quota.

La prima mappa che mostriamo si riferisce ai primi 42 giorni del 2014. Si nota come siano presenti due lobi, quasi della stessa intensità, molto elongati verso sud. Uno dei due si estende in Asia fino a sfiorare la Mongolia, mentre l’altro abbraccia la parte orientale del continente nordamericano. Si può notare ache come, in corrispondenza di Alaska e Scandinavia, sia presente una rimonta di alti valori digeopotenziale, che favoriscono così una struttura simile al numero OTTO.

climo_100hPa

Valore medio dell’altezza di geopotenziale a 100 hPa relativo ai primi 42 giorni di ogni anno tra il 1981 e il 2010 (climatologia, in m). Dati NCEP/NCAR.

L’andamento climatologico (media del periodo 1981-2010) della circolazione a questa quota è invece normalmente trilobato. Il lobo europeo, il cui asse si trova in pratica sugli Urali, è il meno evidente dei tre, ma anche gli altri due, pur essendo posizionati, come asse, quasi esattamente come nel 2014, appaiono molto meno profondi ed elongati, così come la rimonta di alto geopotenziale evidente nel 2014 sul nord Europa non fa parte delle caratteristiche climatiche della circolazione a queste quote. Notiamo anche come le correnti atlantiche, dirette dall’America verso l’Europa alle medie latitudini, appaiano molto più tese nel 2014 di quanto non lo siano in media.

anomaly_100hPa

Anomalia dell’altezza di geopotenziale a 100 hPa relativa ai primi 42 giorni tra il 2014 ed il periodo 1981-2010 (in m). Dati NCEP/NCAR.

L’esame della mappa relativa all’anomalia di geopotenziale a 100 hPa del 2014 rispetto alla media climatica evidenzia proprio le peculiarità del 2014: la presenza dei due lobi molto più profondi ed elongati verso sud su Asia e America, l’assenza del lobo europeo, sostituito da un’anomalia positiva di geopotenziale sulla Scandinavia, e l’anomalia positiva presente anche sull’Atlantico tropicale. Queste caratteristiche si ripercuotono sull’intensità delle correnti, che nel 2014 fluiscono molto più velocemente e vorticosamente sull’Asia, sul nord America e sull’Atlantico.

Anche la mappa delle anomalie termiche superficiali è notevole. Nei pressi del polo nord è presente un’area con oltre +14°C di anomalia, e comunque tutte le aree colorate di giallo, arancione e rosso evidenziano anomalie di oltre 6°C nell’intera zona artica.

anomalyTsfc

Anomalia della temperatura media superficiale relativa ai primi 42 giorni tra il 2014 ed il periodo 1981-2010 (in °C). Dati NCEP/NCAR.

La mappa evidenzia come il freddo si sia spostato seguendo i lobi del geopotenziale, coinvolgendo in primis la Siberia e il Kazakistan, dove si sono registrate anomalie termiche fredde comprese tra -6 e -12 °C (di cui nessuno ha parlato sui media), e poi anche Canada ed USA orientali (con anomalie tra -2 e -6 °C, valori sicuramente ragguardevoli, ma che hanno raggiunto la notorietà della cronaca soltanto perchè hanno interessato le zone ad alta densità di popolazione abitate dalla prima nazione del mondo.

A prima vista, la mappa potrebbe apparire “poco colorata”, ma la cosa non inganni: le aree con variazioni tra +/-2°C sono infatti bianche, e 2°C non sono poca cosa. Ad esempio, l’area del Mediterraneo occidentale, che ci comprende, possiede un’anomalia termica compresa tra +1 e +2 °C. È tanto o poco? Tradotta in incremento del livello della quota neve, ad esempio, o anche di livello dello zero termico, 2°C in più significano quasi 300-400 metri di quota più elevata, in media. Non è certamente poco, considerando che 300-400 metri di quota in più significano una buona percentuale di bacino che riceve pioggia invece di neve, e quindi acqua che è in grado di entrare subito in circolo e trasformarsi in portata fluviale.

La mappa sopra riportata dell’anomalia termica rende conto di alcune notizie di cronaca, almeno per quanto riguarda il lobo del vortice polare che si è disteso sopra una porzione degli USA: quella orientale. Hanno fatto grande notizia (si veda ad esempio questo post) soprattutto le basse temperature registrate negli stati orientali degli USA in occasione di ripetute ondate di gelo associate a tempeste di neve, che hanno colpito anche le coste orientali in questo inizio del 2014. Ha fatto invece molto meno scalpore il record di caldo registrato in Alaska nello stesso periodo (per trovarne notizia occorre andare sui siti e blog meteo specializzati, come questo; i media classici hanno appena accennato la cosa), mentre uno spazio più ampio è stato dedicato alla siccità californiana (vedi qui), che non è stata attenuata dalle recenti piogge (vedi qui). Sebbene tali notizie siano state anche usate dai negazionisti dei cambiamenti climatici come prova per affermare che il riscaldamento globale è una bufala (per esempio leggere qui), il mondo scientifico si è invece interrogato cercando di capire se questo sia veramente un segnale di cambiamento globale del tempo meteorologico associato al global warming. In particolare, si è cercato di capire se le estensioni minime della copertura glaciale artica nella stagione calda (a settembre) possa avere avuto un ruolo determinante nelle anomalie climatiche invernali, che recentemente hanno visto frequentemente fuori posizione il vortice polare.

Uno dei ragionamenti che è stato fatto è che il motore che guida le correnti a scala globale è la differenza di altezza di geopotenziale tra le zone del polo nord e quelle tropicali. In condizioni cosiddette “normali” (ovvero, nel clima del secolo scorso), il gradiente termico tra polo nord ed equatore ha un certo valore, fluttuante tra anno ed anno per effetto delle oscillazioni interannuali e dei fenomeni di teleconnessione, ma comunque pari ad un certo valore medio. Per effetto della maggiore fusione estiva della calotta glaciale artica, si ipotizza che una maggiore porzione di acqua superficiale nell’artico riceva ed immagazzini energia nel tardo autunno ed inizio inverno, prima cioè che la calotta di ghiacio stagionale si riformi. L’incremento termico conseguente, in linea con i rapidi e vistosi aumenti di temperatura registrati nell’artico, potrebbe far calare il gradiente di temperatura polo-equatore, e questo potrebbe avere come conseguenza una diminuzione dell’intensità media delle correnti. Venti in quota più deboli potrebbero pertanto contribuire a rendere meno stabile il vortice polare, che così potrebbe far assumere delle ondulazioni più pronunciate alla corrente a getto, ed alle onde di Rossby ad essa collegate, favorendo pattern di circolazione atmosferica molto più meridionali del solito. L’effetto potrebbe essere analogo a quello della precessione di una trottola, fenomeno visibile quando diminuisce la velocità di rotazione della trottola stessa (si veda questo filmato): quando la trottola rallenta, inizia ad oscillare molto, come se improvvisamente si fosse ubriacata. Questo indebolimento delle correnti potrebbe pertanto far sì che il vortice polare inizi a oscillare sempre di più, creando meandri sempre più ampi all’interno dei quali aria molto fredda occupa latitudini più meridionali (in questo caso nella East Coast americana o, più recentemente, in Giappone) mentre, al contempo, aria molto calda si spinge invece a latitudini più settentrionali (come già visto, California e Alaska, ma temporaneamente anche Scandinavia).

Un esempio di “meandering” del vortice polare è stato osservato, ad esempio, nel gennaio 2013, ed è visualizzabile su questo filmato. Tuttavia, se la lunghezza d’onda di questo tipo di ondulazioni a scala planetaria è quella “giusta”, può inoltre succedere anche che le ondulazioni diventino stazionarie, favorendo quindi una persistenza delle condizioni per lunghi periodi di tempo, come sta accadendo quest’anno. Su questo sito si trovano alcune interessanti considerazioni sul legame tra le onde planetarie, o di Rossby (dal nome dello scienziato Gustaf Rossby che per primo le studiò teoricamente), il vortice polare ed i riscaldamenti improvvisi stratosferici.

Da notare che, oltre alle questioni legate agli sbalzi termici, conseguenze altrettanto e forse ancora più serie sono legate all’andamento delle precipitazioni, sia dove esse sono in eccesso (in questi giorni, sulle isole britanniche, e poche settimane fa sull’Italia settentrionale e centrale), a causa di frequenti assi di saccatura o effetti ciclogenetici, sia dove sono in difetto (per esempio, in California), per effetto della configurazione anticiclonica del campo. In entrambi i casi, la presenza di correnti più rapide rispetto alla media favorirebbe lo sviluppo di eventi più energetici e, quindi, di maggiore intensità.

Tale ipotesi, pur essendo controintuitiva (è difficile immaginare che la scomparsa del ghiaccio marino artico durante la stagione calda comporti situazioni più fredde del solito in determinate aree) è nello stesso tempo suggestiva e drammatica, in quanto confermerebbe non solo il ruolo centrale dell’uomo sul riscaldamento globale e la sua capacità di modificarne alcuni meccanismi chiave legati addirittura alla circolazione generale atmosferica, ma anche la considerazione che, senza misure di mitigazione, la Terra continuerà a riscaldarsi nel corso del prossimo secolo, con gravi ripercussioni sul suo clima.

Nel contempo, come fa notare ad esempio questa lettera su Science, essa necessita ancora di solide verifiche sperimentali, poiché la circolazione atmosferica a grande scala presenta una variabilità naturale molto grande in tutte le stagioni, e al momento ci sono troppi pochi casi per consentire di elaborare una teoria generale. È pertanto ancora prematuro paventare, per i prossimi anni, una recrudescenza del freddo invernale, soprattutto alla luce della considerazione che, in ogni caso, le temperature medie tenderanno comunque ad incrementarsi.

Resta comunque il fatto che, in linea generale, il riscaldamento globale in atto comporta delle conseguenze dirette e indirette. Tra le prime, si annoverano, ad esempio, l’aumento delle temperature e delle precipitazioni a scala globale. Se la distribuzione delle precipitazioni è molto complessa da dettagliare a scala locale o regionale, quello che invece è più prevedibile è un incremento degli episodi di precipitazioni piovose a quote maggiori rispetto ad oggi, fatto che comporterà inevitabilmente un maggior quantitativo di acqua nei fiumi.

La possibilità di un’alterazione della circolazione atmosferica globale, e dello spostamento del vortice polare, fa parte, invece, delle possibili conseguenze indirette. Nonostante molti dettagli sulle cause di teli fenomenologie richiedano ancora studi approfonditi sui meccanismi che li generano, o sugli effetti delle teleconnessioni (si veda ad esempio questo post), è un fatto che le cronache di questi giorni di inizio 2014, così come era successo anche in altri inverni recenti o in altre stagioni, mostrano un elenco ancora troppo numeroso di vittime e danni da maltempo, o per troppo freddo, o per troppa siccità, o per troppa pioggia. Queste cifre evidenziano, purtroppo, come la società moderna sia ancora impreparata a fronteggiare gli eventi meteorologici estremi, e quindi come sia necessario percorrere ancora molta strada sulla via dell’adattamento.

Le misure necessarie per l’inizializzazione dei modelli per la previsione del tempo

Le misure necessarie per l’inizializzazione dei modelli per la previsione del tempo

John von Neumann, dopo aver teorizzato e realizzato il primo calcolatore numerico funzionante, nel 1950, decise di testarne le potenzialità applicandovi quella che secondo lui era la problematica più complessa: la previsione numerica delle condizioni meteorologiche. Fu per questo che, insieme a Jule Gregory Charney, il padre della meteorologia numerica funzionante, fondò il Geophysical Fluid Dynamics Laboratory.

Il meteorologo Lewis Fry Richardson, creatore del primo modello dinamico per la previsione del tempo, propone la creazione di una "fabbrica di previsione" che avrebbe occupato circa 64.000 "computer umani" seduti in sorte di "gironi danteschi" intorno alla circonferenza di un globo gigante. Ogni uomo-calcolatore sarebbe stato responsabile per la risoluzione di equazioni differenziali relative alla meteorologia in un quadrante della terra (adesso noi diremmo: in un punto griglia). Su un piedistallo al centro di questa fabbrica, un direttore avrebbe orchestrato questa "sinfonia" di equazioni proiettando un fascio luminoso sulle aree del globo in cui il calcolo era troppo veloce o lento: insomma, un direttore-sincronizzatore, ruolo che nei computer è ora occupato dal clock. Si può proprio dire che Richardson fu un antesignano...

Il meteorologo Lewis Fry Richardson, creatore del primo modello dinamico per la previsione del tempo, propone la creazione di una “fabbrica di previsione” che avrebbe occupato circa 64.000 “computer umani” seduti in sorte di “gironi danteschi” intorno alla circonferenza di un globo gigante. Ogni uomo-calcolatore sarebbe stato responsabile per la risoluzione di equazioni differenziali relative alla meteorologia in un quadrante della terra (adesso noi diremmo: in un punto griglia). Su un piedistallo al centro di questa fabbrica, un direttore avrebbe orchestrato questa “sinfonia” di equazioni proiettando un fascio luminoso sulle aree del globo in cui il calcolo era troppo veloce o lento: insomma, un direttore-sincronizzatore, ruolo che nei computer è ora occupato dal clock. Si può proprio dire che Richardson fu un antesignano…

Ho detto funzionante, in quanto, prima di loro due, alla fine degli anni ’20, Lewis Fry Richardson aveva già tentato di prevedere, retroattivamente, il tempo integrando numericamente le equazioni differenziali del moto relative ad una giornata, che specificamente era il 20 maggio 1910. Il suo tentativo, tuttavia, nonostante il fatto che egli dovette fare tutti i conti “a mano”, poichè i computer non esistevano ancora (la parola “computer” fu usata più volte da Richardson nel suo significato letterale di “persona che fa i conti”), fallì, in quanto i suoi calcoli previdero un incremento di pressione in sei ore di circa 150 hPa. A posteriori, si scoprì che il motivo del suo fallimento fu un problema di trattamento delle condizioni iniziali, che egli non adoperò in quanto non conosceva evidentemente questo tipo di problema, e che fece sì che i suoi risultati fossero viziati dalla presenza di onde di gravità (oggigiorno, le onde di gravità vengono opportunamente filtrate). Fu questo il vero motivo del fallimento, e non un problema di instabilità numerica, dovuto al non aver impiegato i criteri di stabilità delle soluzioni numeriche nei suoi calcoli, scoperti in seguito (criterio di stabilità di Courant-Friedrichs-Lewy), in quanto Richardson integrò le equazioni per un solo time step, della durata di sei ore. Anche se può sembrare molto breve, tale lavoro lo tenne impiegato part time almeno per sei settimane (come egli stesso lasciò scritto), ma secondo alcuni in realtà la mole di calcoli fu così monumentale che potrebbe averci impiegato addirittura due anni (si veda questo libro di Lynch). Il lavoro di Richardson, tuttavia, pur se non coronato dal successo, lo consacrò ai posteri come il vero pioniere della previsione meteorologica numerica, un risultato ancora più notevole se si pensa che lo fece nel tempo rimasto libero dal servizio presso la Ambulance Unit quaccher

Ancora oggi, la previsione meteorologica rappresenta uno dei campi scientifici che più necessita di calcolatori ad altissima capacità di calcolo e di memoria. Forse però pochi sanno che anche l’inizializzazione dei dati necessari alle corse dei modelli è un processo che richiede un’ingente capacità di calcolo ed una struttura internazionale molto efficiente di raccolta dei dati stessi.

Nello scorso post avevamo visto cosa sono i modelli meteorologici. In questo post parleremo dei tipi di dati necessari, mentre successivamente vedremo come i modelli li elaborano. Per ora, ci limitiamo semplicemente a dire che le principali variabili necessarie per la definizione dello stato dinamico e termodinamico del sistema sono: la pressione, la temperatura, le tre componenti della velocità del vento, la quantità di vapore acqueo, acqua liquida e ghiaccio. Siccome un modello meteorologico è prognostico, calcola i valori delle grandezze nel futuro; per farlo, deve conoscere i valori delle grandezze nel presente. Consentitemi in questo post di dare per scontata questa affermazione, sulla quale torneremo nel post seguente.

Esempio di stazione meteorologica. Questa stazione, fotogrfata nel 2008,  si trova ad Aegina Marina, sull’isola di Egina, e praticamente racchiude tutti gli errori che è possibile commettere nell’installazione di una stazione meteo (per fortuna, almeno non c’è l’anemometro).

Questa stazione, da me fotografata nel 2007, si trova(va) ad Aegina Marina, sull’isola di Egina, e praticamente racchiude tutti gli errori che è possibile commettere nell’installazione di una stazione meteo. Infatti, i dati che arrivano da una stazione simile sono totalmente inutili (per fortuna, almeno non c’è l’anemometro).

Esempio di capannina meteorologica. Questa stazione si trova a Torino, presso i Giardini Reali, ed è quasi a norma WMO: l’edificio sullo sfondo è però un po’ troppo vicino ed inoltre sono presenti degli alberi nelle vicinanze, ma non essendoci l’anemometro si può dire che questa stazione sia rappresentativa del clima urbano.

Questa stazione si trova a Torino, presso i Giardini Reali, ed è quasi a norma WMO: l’edificio sullo sfondo è però un po’ troppo vicino ed inoltre sono presenti degli alberi nelle vicinanze, ma non essendoci l’anemometro si può dire che questa stazione sia rappresentativa del clima urbano.

Esempio di capannina meteorologica

Esempio di capannina meteorologica e disposizione della strumentazione tipica al suo interno. Il suolo sottostante dovrebbe essere inerbito, ed il colore mantenuto bianco. La porta dovrebbe essere posizionata a Nord, per non essere colpita dalla radiazione solare quando si leggono i dati.

Nel post precedente, abbiamo visto come i modelli risolvano numericamente le equazioni su grigliati tridimensionali (ad esempio, nel caso dei due modelli più famosi, il GFS e l’IFS, si hanno oltre cento milioni di punti griglia). Questo significa che, su ogni punto griglia, all’inizio della simulazione, è necessario fornire i valori iniziali delle variabili sopra menzionate. Qui vogliamo dettagliare quali dati si usano, il che ci porta a parlare anche di quali dati si misurano.

Nel mondo, esistono moltissime stazioni meteorologiche che misurano diversi tipi di dati. Quelle più comuni sono dotate di una capannina in legno (Stevenson screen, o shelter) verniciata di bianco (al fine di riflettere il più possibile la radiazione solare, e di garantire l’omogeneità delle stazioni tra di loro), posta a circa 1.5 m di altezza rispetto al suolo.

Esempio di una stazione meteorologica moderna. In questa stazione, non è più presente la capannina, e gli strumenti sensibili sono alloggiati dentro apposite pagodine bianche al fine di non risentire della radiazione solare.

Esempio di una stazione meteorologica moderna. In questa stazione, non è più presente la capannina, e gli strumenti sensibili sono alloggiati dentro apposite pagodine bianche al fine di non risentire della radiazione solare.

Le regole dell’organizzazione meteorologica mondiale (WMO) prescrivono che, in una stazione a norma, la capannina sia posta su suolo inerbato, e che i principali ostacoli (alberi, edifici, ma anche colline, ecc.) siano collocati a circa 100 m di distanza in ogni direzione.

Prescrivono inoltre che gli strumenti, di tipo tradizionale, siano collocati in capannina, anche se, al giorno d’oggi, sono molto diffusi anche gli strumenti collocati su pagodina, i quali, tuttavia, non sono, incredibilmente, ancora soggetti a normative specifiche da parte del WMO.

La dotazione standard di una stazione meteorologica comprende: termometro, igrometro (o psicrometro), barometro, anemometro e pluviometro, dei quali i primi tre dovrebbero stare all’interno della capannina.  Alcune stazioni sono dotate anche di solarimetro o altri strumenti per la misura della radiazione solare o infrarossa, o anche ultravioletta.

Le stazioni poste in alta quota hanno i nivometri, che misurano lo spessore della neve al suolo, al posto del pluviometri, i quali non funzionano bene in presenza di nevicate molto copiose; e spesso non hanno anemometri, in quanto il ghiaccio potrebbe bloccarne il movimento o ricoprirne le parti sensibili, rendendoli così inutili.

In prossimità dei fiumi, inoltre, alcune stazioni idrologiche, oltre a strumenti per la misura del livello dei fiumi, come gli idrometri, possiedono anche alcuni strumenti meteorologici. Infine, sul mare, che, ricordiamolo, occupa i due terzi della superficie terrestre, sono presenti delle boe strumentate, sulle quali sono montati alcuni strumenti meteorologici. A queste misure si aggiungono, infine, le misure effettuate lungo le loro rotte da alcune navi, anch’esse dotate di strumentazione.

Struttura del Global Telecommunication System. Fonte: Wikipedia

Struttura del Global Telecommunication System. Fonte: Wikipedia

Una selezione di tutti questi dati meteorologici confluisce nel Global Telecommunication System. Ci sono due motivi sostanziali per i quali non tutte le misure vengono utilizzate. Il primo è che i dati debbono essere messi in circolo in tempo reale, per cui le stazioni meteorologiche debbono essere in grado di spedirli ai centri di raccolta istantaneamente. Il secondo, e più importante, è che la copertura delle stazioni non è affatto omogenea sul globo (come si vede dalle immagini relative al numero di dati circolanti nel GTS, sotto, la densità riflette contemporaneamente la densità abitativa, almeno fino ad una certa soglia, e lo sviluppo economico delle zone: Stati Uniti, Europa e Sud-Est asiatico sono le zone con maggiore densità di stazioni), e soprattutto non è proporzionale a quanto sarebbe richiesto. La densità di stazioni, infatti, dovrebbe essere rappresentativa delle caratteristiche della superficie stessa. Ad esempio, su un deserto omogeneo, sarebbe inutile avere molte stazioni, visto che presumibilmente le misure da esse rilevate non sarebbero troppo diverse tra loro. Invece, in una zona con sistemi orografici anche semplici, una maggiore ricchezza di stazioni può permettere di caratterizzare meglio la meteorologia dei singoli luoghi.

- varie tipologie di dati confluiti attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. (a) stazioni meteorologiche su terra e su nave; i puntini sul mare indicano sia le navi, sia a volte delle piccole isole; come si può notare, la copertura è molto disomogenea sulla superficie terrestre. (b) boe strumentate: la copertura è relativamente più omogenea delle precedenti (ad eccezione delle zone polari e subpolari), anche se la densità è di gran lunga inferiore. (c) dati meteorologici provenienti da aerei: la copertura rivela le principali rotte interne ed intercontinentali dei vari paesi del mondo. Si nota anche che non tutti i paesi partecipano in ugual modo alla raccolta dati (il che a volte dipende anche dall’orario: certe rotte hanno distribuzioni giornaliere differenziate). (d) dati meteorologici forniti dai satelliti geostazionari (direttamente o indirettamente) ; la colorazione diversa identifica i vari satelliti. (e) postazioni di radiosondaggio; (f) profilatori verticali (palloni senza sonda). Fonte: ecmwf.int.

Stazioni meteorologiche su terra e nave che hanno fatto confluire i dati attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. I puntini sul mare indicano le navi e, a volte, delle piccole isole. Come si può notare, la copertura è molto disomogenea sulla superficie terrestre. Fonte: ecmwf.int.

- varie tipologie di dati confluiti attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. (a) stazioni meteorologiche su terra e su nave; i puntini sul mare indicano sia le navi, sia a volte delle piccole isole; come si può notare, la copertura è molto disomogenea sulla superficie terrestre. (b) boe strumentate: la copertura è relativamente più omogenea delle precedenti (ad eccezione delle zone polari e subpolari), anche se la densità è di gran lunga inferiore. (c) dati meteorologici provenienti da aerei: la copertura rivela le principali rotte interne ed intercontinentali dei vari paesi del mondo. Si nota anche che non tutti i paesi partecipano in ugual modo alla raccolta dati (il che a volte dipende anche dall’orario: certe rotte hanno distribuzioni giornaliere differenziate). (d) dati meteorologici forniti dai satelliti geostazionari (direttamente o indirettamente) ; la colorazione diversa identifica i vari satelliti. (e) postazioni di radiosondaggio; (f) profilatori verticali (palloni senza sonda). Fonte: ecmwf.int.

Boe strumentate che hanno fatto confluire i dati attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. La copertura è relativamente più omogenea rispetto alle precedenti (ad eccezione delle zone polari e subpolari), anche se la densità è di gran lunga inferiore. Fonte: ecmwf.int.

- varie tipologie di dati confluiti attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. (a) stazioni meteorologiche su terra e su nave; i puntini sul mare indicano sia le navi, sia a volte delle piccole isole; come si può notare, la copertura è molto disomogenea sulla superficie terrestre. (b) boe strumentate: la copertura è relativamente più omogenea delle precedenti (ad eccezione delle zone polari e subpolari), anche se la densità è di gran lunga inferiore. (c) dati meteorologici provenienti da aerei: la copertura rivela le principali rotte interne ed intercontinentali dei vari paesi del mondo. Si nota anche che non tutti i paesi partecipano in ugual modo alla raccolta dati (il che a volte dipende anche dall’orario: certe rotte hanno distribuzioni giornaliere differenziate). (d) dati meteorologici forniti dai satelliti geostazionari (direttamente o indirettamente) ; la colorazione diversa identifica i vari satelliti. (e) postazioni di radiosondaggio; (f) profilatori verticali (palloni senza sonda). Fonte: ecmwf.int.

Dati meteorologici (diretti e indiretti) forniti dai satelliti geostazionari che hanno fatto confluire i dati attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. La colorazione diversa identifica i vari satelliti. Come si vede, numericamente il dataset è il più consistente tra tutte le fonti di dati, ma la copertura non è tridimensionalmente omogenea, e la qualità in certi casi è inferiore. Fonte: ecmwf.int.

- varie tipologie di dati confluiti attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. (a) stazioni meteorologiche su terra e su nave; i puntini sul mare indicano sia le navi, sia a volte delle piccole isole; come si può notare, la copertura è molto disomogenea sulla superficie terrestre. (b) boe strumentate: la copertura è relativamente più omogenea delle precedenti (ad eccezione delle zone polari e subpolari), anche se la densità è di gran lunga inferiore. (c) dati meteorologici provenienti da aerei: la copertura rivela le principali rotte interne ed intercontinentali dei vari paesi del mondo. Si nota anche che non tutti i paesi partecipano in ugual modo alla raccolta dati (il che a volte dipende anche dall’orario: certe rotte hanno distribuzioni giornaliere differenziate). (d) dati meteorologici forniti dai satelliti geostazionari (direttamente o indirettamente) ; la colorazione diversa identifica i vari satelliti. (e) postazioni di radiosondaggio; (f) profilatori verticali (palloni senza sonda). Fonte: ecmwf.int.

Dati meteorologici provenienti da aerei che hanno fatto confluire i dati attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. La copertura rivela le principali rotte interne ed intercontinentali dei vari paesi del mondo. Si nota anche che non tutti i paesi partecipano in ugual modo alla raccolta dati (il che a volte dipende anche dall’orario: certe rotte hanno distribuzioni giornaliere differenziate). Fonte: ecmwf.int.

- varie tipologie di dati confluiti attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. (a) stazioni meteorologiche su terra e su nave; i puntini sul mare indicano sia le navi, sia a volte delle piccole isole; come si può notare, la copertura è molto disomogenea sulla superficie terrestre. (b) boe strumentate: la copertura è relativamente più omogenea delle precedenti (ad eccezione delle zone polari e subpolari), anche se la densità è di gran lunga inferiore. (c) dati meteorologici provenienti da aerei: la copertura rivela le principali rotte interne ed intercontinentali dei vari paesi del mondo. Si nota anche che non tutti i paesi partecipano in ugual modo alla raccolta dati (il che a volte dipende anche dall’orario: certe rotte hanno distribuzioni giornaliere differenziate). (d) dati meteorologici forniti dai satelliti geostazionari (direttamente o indirettamente) ; la colorazione diversa identifica i vari satelliti. (e) postazioni di radiosondaggio; (f) profilatori verticali (palloni senza sonda). Fonte: ecmwf.int.

Profilatori verticali (palloni senza sonda) che hanno fatto confluire i dati attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. Fonte: ecmwf.int.

- varie tipologie di dati confluiti attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. (a) stazioni meteorologiche su terra e su nave; i puntini sul mare indicano sia le navi, sia a volte delle piccole isole; come si può notare, la copertura è molto disomogenea sulla superficie terrestre. (b) boe strumentate: la copertura è relativamente più omogenea delle precedenti (ad eccezione delle zone polari e subpolari), anche se la densità è di gran lunga inferiore. (c) dati meteorologici provenienti da aerei: la copertura rivela le principali rotte interne ed intercontinentali dei vari paesi del mondo. Si nota anche che non tutti i paesi partecipano in ugual modo alla raccolta dati (il che a volte dipende anche dall’orario: certe rotte hanno distribuzioni giornaliere differenziate). (d) dati meteorologici forniti dai satelliti geostazionari (direttamente o indirettamente) ; la colorazione diversa identifica i vari satelliti. (e) postazioni di radiosondaggio; (f) profilatori verticali (palloni senza sonda). Fonte: ecmwf.int.

Postazioni di radiosondaggio che hanno fatto confluire i dati attraverso il GTS al centro ECMWF per elaborare la corsa modellistica delle ore 00 UTC del 4 gennaio 2014. Fonte: ecmwf.int.

Non bisogna dimenticare, tuttavia, che il dettaglio dipende anche dalla scala risolta dal modello: per inizializzare la previsione su una determinata area, infatti, è richiesto un numero di stazioni diverso a seconda che si usi un modello globale (GCM – si noti che la sigla è la stessa usata per indicare i Global Climate Models) o uno ad area limitata (LAM): quest’ultimo, infatti, lavorando  su scale più piccole, richiede un maggior numero di dati. Nelle figure a fianco e sotto, abbiamo riportato il numero di dati che viene raccolto dal GTS per inizializzare il modello IFS dell’ECMWF: pur se il numero di stazioni è riferito ad un preciso istante temporale, l’ordine di grandezza può essere assunto come tipico e valido anche per gli altri modelli globali del mondo.

Le stazioni meteorologiche normalmente misurano in modo più o meno continuativo i dati. Nel circuito GTS, tuttavia, ne vengono trasmessi solamente alcuni, per lo stesso motivo di cui sopra, ed anche per non intasare con troppi dati il circuito stesso. Normalmente, una stazione meteo inserita nel circuito GTS appartiene o alla rete METAR (stazioni meteo di interesse aeronautico) o a quella SYNOP. Le prime prevedono la trasmissione su scala oraria dei dati meteo, mentre le seconde ogni tre ore. In alcuni casi, durante la notte la trasmissione dei dati si interrompe. L’orario di trasmissione dei dati segue in tutto il mondo l’orario UTC (Universel Temps Coordonné, in pratica l’ora del meridiano 0 di Greenwich) . Per le stazioni SYNOP, la trasmissione avviene alle: 00, 03, 06, 09, 12, 15, 18 e 21 UTC.

Fino ad ora abbiamo parlato soltanto di stazioni dislocate sulla superficie terrestre. Il modello richiede dati anche nel resto dell’atmosfera, o quantomeno della troposfera (lo strato che racchiude i 6-18 km più vicini al suolo) e della stratosfera medio-bassa (fino a 50 km di altezza). Come si ottengono misure in tali aree? Con i palloni sonda, gli aerei ed i satelliti.

Esempio di sonda meteorologica (in questo caso della VAISALA), con i sensori in essa dislocati.

Esempio di sonda meteorologica (in questo caso della VAISALA), con i sensori in essa dislocati. Queste sonde inviano un segnale che viene rilevato, a terra, da almeno tre antenne, in modo da poterla localizzare nello spazio tridimensionale e poterne quindi dedurre la velocità del moto, da cui si deriva quella del vento.

Sonda meteorologica attaccata ad un pallone riempito di elio. Il pallone, riempito ad una certa pressione, deve garantire una velocità ascensionale media di 1-3 m/s.

Sonda meteorologica attaccata ad un pallone riempito di elio. Il materiale rosso è il paracadute, Il pallone, riempito ad una certa pressione, deve garantire una velocità ascensionale media di 1-2 metri al secondo.

I palloni sonda sono grossi palloni, riempiti di elio, che salgono con velocità costante, ed ai quali è attaccata una sonda meteorologica che misura i principali parametri atmosferici e li trasmette via radio alle centrali di raccolta dati, mentre il vento lo si ricava dalla triangolazione del segnale radio. Ci sono circa settecento stazioni nel mondo che eseguono radiosondaggi, di norma due volte al giorno, ad ore fisse: le 00 e le 12 UTC. In Italia, ad esempio, ci sono otto stazioni di radiosondaggio fisse: Levaldigi (Cuneo), Milano, Udine, San Pietro Capofiume (Bologna), Roma, Brindisi, Palermo e Cagliari; di queste, quella cuneese e quella bolognese sono delle ARPA, mentre le altre fanno capo all’Aeronautica Militare, sotto la cui egida vi è ancora il Servizio Meteorologico Nazionale (in questi giorni sembra siano stati emanati i regolamenti attuativi del Servizio Meteorologico Distribuito, che potrebbe riunificare i servizi regionali con quello nazionale). Le radiosonde (qui un esempio) sono tutte a perdere, in quanto, a grandi altezze, il pallone di elio, che salendo si dilata sempre più a causa della ridotta pressione atmosferica esterna, ad un certo punto esplode e quindi la sonda ricade al suolo.

Strumentazione tipica presente su un aeroplano, in cui si distinguono anche alcuni sensori meteorologici.

Strumentazione tipica presente su un aereo, in cui si distinguono anche alcuni sensori meteorologici.

Molti aerei di linea sono strumentati con sensori meteorologici (necessari per la sicurezza del volo stesso) e raccolgono diversi dati con continuità durante le loro rotte. Questi dati hanno il vantaggio di essere molto fitti, in quanto ci sono molti aerei nel mondo, ma anche lo svantaggio di fornire dati soltanto in determinate porzioni di atmosfera, e cioè le aerovie, come si vede dalla figura precedente che mostra i dati AIRCRAFT confluiti all’ECMWF. Pertanto, la maggior parte dei dati si riferisce a quote situate nei pressi della tropopausa. Ovviamente ci sono anche i profili verticali durante le fasi di decollo e atterraggio. Inoltre, poichè spesso gli orari dei voli sono discontinui, non c’è neppure la continuità temporale. In ogni caso, numericamente gli aerei forniscono alcune decine di migliaia di dati di alta qualità al circuito GTS.

Esistono due principali tipi di satelliti meteorologici che orbitano intorno alla Terra. Quelli che seguono un’orbita geosincrona orbitano attorno all’equatore con una velocità angolare uguale a quella di rotazione terrestre, e pertanto “vedono” sempre la stessa porzione di superficie; di questi ce ne sono sette, tra i quali quello che “vede” l’Europa è il MSG3; essi orbitano necessariamente ad una distanza di circa 36000 km dalla superficie terrestre. Quelli che seguono invece un’orbita polare si trovano molto più vicini alla Terra (circa 6000 km) ed effettuano una rivoluzione in circa 1.5-2 ore, ma inquadrano ogni volta una porzione diversa della superficie, in media ripassando sulla stessa zona (ma con angolazioni diverse) 1-2 volte al giorno.

Esistono due principali tipi di satelliti meteorologici che orbitano intorno alla Terra. Quelli che seguono un’orbita geosincrona orbitano attorno all’equatore con una velocità angolare uguale a quella di rotazione terrestre, e pertanto “vedono” sempre la stessa porzione di superficie; di questi ce ne sono sette, tra i quali quello che “vede” l’Europa è il MSG3; essi orbitano necessariamente ad una distanza di circa 36000 km dalla superficie terrestre. Quelli che seguono invece un’orbita polare si trovano molto più vicini alla Terra (circa 6000 km) ed effettuano una rivoluzione in circa 1.5-2 ore, ma inquadrano ogni volta una porzione diversa della superficie, in media ripassando sulla stessa zona (ma con angolazioni diverse) 1-2 volte al giorno.

Infine, i satelliti meteorologici, monitorando l’atmosfera praticamente con continuità temporale in bande spettrali a diverse lunghezze d’onda, forniscono una grande mole di dati, molto superiore – numericamente – a quella delle altre metodologie di misura (come si può vedere da una delle Figura 2, che rappresenta il numero e la dislocazione di dati usati per l’inizializzazione dell’IFS dell’ECMWF); si tratta, però, di dati indiretti, ovvero di valori molte volte ricavati dalle misure primarie (quelle di radiazione), e quindi affetti da errori maggiori. E, per certi valori, la copertura di dati è anche discontinua. Ad esempio, il satellite può ricavare una stima della temperatura superficiale del mare (la SST), ma ovviamente lo fa soltanto nelle zone in cui non sono presenti nubi (che schermano la vista del mare da parte del satellite).

A questi strumenti si possono aggiungere eventuali altri strumenti, come per esempio quelli che effettuano misure di remote sensing da terra (Sodar, RASS, Wind Profiler, Radar, Lidar, …), i quali forniscono misure di profili verticali (tipicamente di velocità del vento e temperatura, e talora di vapore acqueo). Tuttavia, a parte i Radar, essi sono abbastanza rari, dal momento che sono molto costosi. Tra quelli summenzionati, i Radar meteorologici sono in realtà abbastanza diffusi, in quanto la rete meteo Radar mondiale ricopre quasi tutte le zone orograficamente non troppo complesse del pianeta; tuttavia, al momento, appare ancora problematico arrivare ad una disponibilità del dato Radar utile per l’inizializzazione dei modelli in tempo reale, e non tutti i centri modellistici includono tali dati.

Abbiamo citato praticamente tutti i dati relativi alle variabili atte a caratterizzare lo stato dell’atmosfera. Un modello meteorologico ha però anche la necessità di conoscere lo stato della superficie di interfaccia con l’atmosfera, e cioè del suolo o del mare. Ormai i modelli numerici più avanzati (come ad esempio l’IFS) girano accoppiati con un modello che, in modo analogo a quanto avviene con l’atmosfera, prevede le condizioni dello stato del mare, ed in particolare la sua temperatura (superficiale e profonda) e gli scambi (termici e di vapore acqueo) con l’atmosfera. Inoltre essi contengono anche delle apposite routine che prevedono i processi nello strato di sottosuolo di interesse meteorologico (e cioè quello convolto negli scambi di calore e vapore acqueo con l’atmosfera su tempi scala dell’ordine delle due settimane). Poiché anche questi due sottosistemi (suolo e mare) debbono essere inizializzati, è necessario fornire come condizioni iniziali i valori delle variabili (temperatura ed umidità del sottosuolo, e temperatura del mare) a diverse profondità. Dal momento che sono molto poche le stazioni di misura che registrano la temperatura e l’umidità del sottosuolo, e per quanto riguarda il mare, a parte le SST (temperature superficiali), per le quali i satelliti forniscono un dataset sufficientemente completo, ci sono pochissime misure sott’acqua, si ricorre a metodi numerici o a particolari algoritmi di ricostruzione a partire da altre variabili.

Abbiamo quindi visto che la raccolta dei dati necessari per l’inizializzazione dei modelli richiede un’organizzazione estremamente complessa che li raccolga presso dei centri e poi li ridistribuisca in tutto il mondo. A loro volta, i centri meteorologici più importanti memorizzano i dati di loro interesse nei propri archivi e li processano per renderli disponibili ai modelli numerici. L’organizzazione dell’accentramento dei dati meteorologici avviene a diversi livelli, e non sempre le strutture comunicano tra di loro (così, non è purtroppo raro vedere più stazioni a breve distanza tra loro).

In particolare, nel nostro paese esistono attualmente diverse reti meteorologiche che fanno capo ad enti, strutture o istituti diversi, pubblici e privati. Alla rete del servizio meteorologico dell’aeronautica si affiancano, a livello regionale o sovraregionale, le reti delle varie ARPA, del CNR, dei servizi agrometeorologici regionali, delle società di distribuzione elettrica, ma anche dei consorzi agrari e di una miriade di altre entità più o meno grandi, tra le quali non si possono dimenticare quelle che raccolgono i dati delle stazioni amatoriale, attualmente in grande diffusione. Al momento, non esiste un ente nazionale che sovraintenda e coordini tutte le tipologie di dati, mentre esiste invece un centro che si occupa di raccogliere tutti i dati che confluiranno nel circuito del WMO. Risulterebbe troppo lungo e noioso ricostruire tutti gli eventi storici che hanno portato, nel tempo, a questa situazione molto intricata e confusionaria, e praticamente unica nel panorama meteorologico europeo e mondiale, soprattutto pensando che, originariamente, l’Italia fu uno dei primi paesi nel mondo a dotarsi di un’efficiente rete di monitoraggio meteorologico.

Limitandoci, pertanto, alla situazione attuale, già di per sé parecchio complicata, per quanto riguarda la strutturazione delle attività meteorologiche in Italia, dal 2006 il comparto della Difesa ha ristrutturato il Servizio Meteorologico dell’Aeronautica Militare, l’organo ufficialmente riconosciuto dal WMO come rappresentante ufficiale della meteorologia italiana, in questo modo:

  • Ufficio Generale Spazio Aereo e Meteorologia – Reparto Meteorologia, USAM, che è l’organismo politico e di rappresentanza, e che organizza le attività del servizio e sovraintende i rapporti con l’estero;
  • Centro Nazionale di Meteorologia e Climatologia Aeronautica, CNMCA, che si occupa della raccolta, elaborazione e diffusione di dati e prodotti meteorologici (analisi, previsioni, avvisi, ecc.) su tutto il territorio nazionale.

Dal CNMCA dipendono 84 stazioni presidiate (di cui 44 in servizio 24 ore) e 110 stazioni automatiche, nonché il 1° CMR che ha lo scopo di svolgere la Veglia Meteorologica Aeronautica Nazionale sull’intero spazio aereo italiano, anche ai fini militari. Inoltre, è il CNMCA che si occupa di dirottare presso i vari centri meteorologici, operativi e non, il flusso dei dati meteorologici provenienti dal GTS, e viceversa di indirizzare le informazioni meteorologiche nazionali verso il GTS stesso.

Alle attività del Servizio Meteorologico dell’Aeronautica Militare (ricordiamo che soltanto in un altro paese europeo, la Grecia, il servizio meteorologico è appannaggio dei militari) si sono affiancate, negli ultimi venti anni, quelle delle varie ARPA (acronimo di Agenzia regionale per la protezione dell’ambiente). Queste agenzie, istituite dal 1993 con funzioni sostitutive del servizio sanitario nazionale, hanno assunto via via diverse competenze anche nel campo ambientale, soprattutto negli anni successivi all’entrata in vigore della legge 21 gennaio 1994, quando è diventato loro compito istutuzionale la diffusione delle informazioni e dei dati ambientali e il loro monitoraggio e controllo. In talune regioni, come in Emilia Romagna, l’ARPA ha assunto le competenze di preesistenti organismi che esercitavano attività meteorologica in ambito locale (l’ERSA, Ente Nazionale Sviluppo Agricolo, istituito in tale regione sin dal 1977). In diverse regioni italiane, soprattutto al Nord, le ARPA posseggono al loro interno una struttura che si occupa di dati e bollettini meteorologici in ambio regionale e/o locale.

Naturalmente, se il riordino delle attività meteorologiche derivante dalla messa in opera del Servizio Meteorologico Distribuito andasse in porto, è possibile, e per certi versi altamente auspicabile, che si assista ad una ulteriore ristrutturazione.

Per concludere questo post, ritengo utile sottolineare due ulteriori aspetti delle misure. Il primo è che i dati meteorologici hanno una grande utilità anche per gli studi sul clima: anche se le scienze del clima abbracciano molteplici discipline, tra le quali la meteorologia è soltanto una di esse, è pur vero che la risostruzione degli andamenti termici del passato è un parametro che permette di avere un’idea di massima sulla climatologia, a livello generale ed a scala globale o almeno continentale, di un periodo o di una macrozona. Il secondo è che un requisito fondamentale per una corretta effettuazione delle misure è la necessità di effettuare una manutenzione accurata dei siti e degli strumenti di misura, mediante una taratura rigorosa degli strumenti ed il controllo delle condizioni del sito di acquisizione,  e della qualità dei dati acquisiti.

Questi due aspetti sono strettamente interconnessi. Da un lato, la presenza di dati non corretti può alterare l’inizializzazione dei modelli meteorologici, alterando quindi sin dal principio la correttezza delle previsioni su di essi basate. Dall’altro, l’analisi climatica delle serie storiche confronta i valori medi al fine di trovare delle piccole differenze (di temperatura e altre variabili) e, sulla base di queste, dedurre la presenza di eventuali cambiamenti climatici e quantificarne l’ammontare; sotto questo aspetto, un’alterazione della misura dovuta a cattiva manutenzione della stazione può causare l’indisponibilità di tale stazione ai fini della valutazione climatologica (in quanto le tecniche di analisi climatica dei dati ne rivelano l’inadeguatezza per analisi di questo tipo), facendo perdere di fatto un’utile risorsa per ottenere la quale sono stati impiegati quattrini e persone: il che sarebbe un vero peccato.