L’interpretazione dei prodotti dei modelli meteorologici

Instabilità numerica. Fonte: MIT.

Figura 1. Instabilità numerica. Fonte: MIT.

Nei due post precedenti abbiamo visto come un modello meteorologico risolva numericamente le principali equazioni fisiche, e di quali tipi di dati abbia bisogno per essere inizializzato. In questo post vedremo come interpretare le uscite di tali modelli. Ci limiteremo a considerare il caso dei modelli globali, e mostreremo alcune mappe previsionali, che commenteremo non per fare una previsione meteorologica, ma per capire come valutarne l’attendibilità nel tempo.

Come abbiamo visto, le principali variabili necessarie per la definizione dello stato dinamico e termodinamico del sistema sono: la pressione, la temperatura, le tre componenti della velocità del vento, la quantità di vapore acqueo, acqua liquida e ghiaccio. Siccome un modello meteorologico è prognostico, calcola i valori delle grandezze nel futuro. Per poterlo fare, deve conoscere i valori delle grandezze nel presente.

Per capire meglio questo punto, dobbiamo entrare un po’ nel dettaglio delle equazioni, ma non spaventatevi: cercherò di dare una spiegazione il più semplice possibile facendo un esempio facile facile, con soltanto TRE equazioni, di cui una differenziale. E spero che gli addetti ai lavori mi perdoneranno questa semplificazione.

Dunque: partiamo dall’inizio. Una tipica equazione differenziale prognostica ha la forma:

\frac{\partial y}{\partial t} = f(x_1,x_2. ... , x_n)

dove y è la variabile di cui si vuole conoscere il valore futuro (ad esempio, la velocità del vento o la temperatura) e f è una funzione di altre n variabili x_1,x_2. ... , x_n (ad esempio, le componenti della velocità del vento, la pressione, l’umidità, la densità, ecc.).

La derivata è indicata con una delta particolare (\partial) che indica la derivata parziale, cioè la derivata della funzione soltanto rispetto al tempo. La derivata temporale deve esserci, altrimenti l’equazione non sarebbe prognostica ma diagnostica.

Una possibile soluzione numerica di tale equazione (userò la più semplice per la spiegazione, anche se non è la più corretta, e quindi normalmente non è usata) consiste nel sostituire alla derivata temporale il rapporto incrementale, e di valutare la funzione a secondo membro nel presente (cioè usando i dati attuali); tale schema viene detto schema backward, in quanto appunto usa i dati (la funzione) del passato. In questo modo l’equazione diventa:

\frac{\Delta y}{\Delta t} = f(x_1,x_2. ... , x_n)

dove \Delta y è la differenza tra il valore y futuro e il valore y presente, cioè \Delta y = y_{futuro} - y_{presente} (e ovviamente anche \Delta t = t_{futuro} - t_{presente} ). In questo modo, è facile vedere che la soluzione di tale equazione è semplicemente:

y_{futuro} = y_{presente} + \Delta t f(x_1,x_2. ... , x_n)

Questo esempio, anche se relativamente semplice, è generalizzabile. Il risultato mostra che, in qualunque equazione prognostica, è necessario conoscere il valore iniziale (y_{presente}) per potersi calcolare il valore futuro (y_{futuro}). La grandezza  \Delta t f(x_1,x_2. ... , x_n)rappresenta appunto la “correzione” che deve essere apportata a y_{presente} per poter conoscere y_{futuro}. Anche se, come dicevo, gli schemi usati in pratica sono più complessi di questo, il discorso generale non cambia. Infatti, una delle soluzioni più comunemente usate è quella dello schema trapezoidal, che è:

y_{futuro} = y_{presente} + \frac {\Delta t f(x_1,x_2. ... , x_n)} {[1 - \frac {\Delta t}{2} \frac {\partial f}{\partial y} ]}

e, come si vede, non cambia la dipendenza da \Delta t.

Chi è un po’ esperto di algoritmi numerici ha già anche capito che il valore di \Delta t deve rimanere sufficientemente piccolo al fine di garantire la stabilità numerica di un’integrazione numerica di questo tipo, e questo perché la “correzione” deve rimanere piccola rispetto a y_{presente}. Pensate, infatti, a quanto varia la temperatura in presenza di un’avvezione termica: sarebbe certamente sbagliato supporre che quel rateo di variazione rimanga costante per periodi molto più lunghi della durata dell’avvezione stessa, e se formulassi una tale ipotesi, mi troverei con valori di molto maggiori, o minori, di quelli reali. Questo potrebbe portare all’insorgenza dell’instabilità numerica, in quanto, se ad un certo time step il valore di risultasse – per fare un esempio – molto maggiore del dovuto, allo step successivo è probabile che il sistema reagirebbe imponendo una grande correzione negativa, col risultato probabile di far precipitare a valori molto minori del dovuto, generando quindi oscillazioni irrealistiche del risultato. Questa è proprio la situazione raffigurata nella Figura 1, relativa all’integrazione numerica dell’equazione y=exp(-10 x). Si nota come le prime tre curve, valutate usando gli step \Delta y=0.001, \Delta y=0.01 e \Delta y=0.05, appaiano sovrapposte tra loro e con l’andamento analitico, mentre la curva corrispondente a \Delta y=0.2 mostra delle oscillazioni tra uno step e l’altro e dà origine ad un risultato del tutto scorrelato dall’andamento analitico. Ancora peggio capita usando lo step \Delta y=0.21: in questo caso l’oscillazione cresce nel tempo e, in pochi step, porta all’esplosione numerica della soluzione. È quindi evidente che, in questo esempio, gli ultimi due time step sono troppo grandi per poter permettere la soluzione numerica del problema.

Nel caso dei modelli numerici di circolazione, il discorso è ancora più complicato in quanto ci sono step spaziali e temporali di cui tenere conto. Nel lontano 1928, Richard Courant, Kurt Otto Friedrichs e Hans Lewy pubblicarono un articolo in cui proposero una condizione da dover rispettare al fine di garantire la stabilità numerica delle soluzioni per equazioni n-dimensionali. Tale criterio, nel caso unidimensionale, può scriversi come:

\frac{u \Delta t}{\Delta x} \leq 1

Tale criterio fu in seguito battezzato, in loro onore, criterio CFL (dalle loro iniziali). Il principio alla base della condizione è che, per esempio, se un’onda si muove attraverso una griglia spaziale discreta e vogliamo calcolarne l’ampiezza usando passi discreti di uguale lunghezza, allora questa lunghezza deve essere inferiore al tempo necessario all’onda per raggiungere i punti griglia adiacenti. Di conseguenza, quando il grigliato spaziale viene ridotto, anche quello temporale deve essere conseguentemente ridotto.

È per questo motivo che, nei modelli meteorologici, normalmente l’intervallo temporale (il time-step) di integrazione varia tra qualche secondo e qualche minuto, a seconda della sofisticazione degli schemi numerici e/o delle parametrizzazioni. Negli intervalli temporali delle integrazioni successive, il valore “futuro” appena calcolato viene poi usato come nuovo valore “presente” in modo iterativo, fino al termine della corsa del modello.

Fino a quanto si può iterare un metodo di questo tipo per integrare numericamente le equazioni differenziali? In teoria, fino all’infinito. In pratica, non per molto tempo.

Innanzitutto, i dati iniziali necessari per il primo step di integrazione (ovvero quelli su , che in questo caso diventa ) sono affetti da un certo errore (che chiameremo ). L’errore non è necessariamente legato all’imprecisione della misura, che pure può esserci: può anche succedere che un sito di misura non sia rappresentativo a causa dell’inadeguatezza della postazione di misura, oppure perché il volume di atmosfera rappresentato da quella misura potrebbe non essere omogeneo: si pensi a una stazione su erba posta in mezzo ad una grande città, o viceversa una stazione su un tetto scuro di una casa in mezzo alla campagna, o anche ad una stazione di collina quando la collina è l’unica altura presente per chilometri.

Anche le funzioni di dati affetti da errore forniscono risultati affetti da errore. E ogni operazione tra valori affetti da errore fornisce a sua volta un risultato affetto da errore. Così, un’equazione come quella sopra descritta, che rappresenta la soluzione numerica dell’integrazione di un’equazione, fornisce un valore il cui errore è maggiore dell’errore di partenza . Con il procedere delle iterazioni, pertanto, anche l’errore cresce.

Se la crescita dell’errore fosse lineare, avrei comunque un momento in cui l’errore diventerebbe troppo grande rispetto al dato. Sarebbe come se, quando una persona si pesa per controllare se il suo peso è aumentato, il risultato fosse: 70 kg, con un errore di 100 kg. È evidente che non avrebbe alcun valore un dato simile.

Però, se la crescita dell’errore fosse lineare, sarei in grado di prevedere quando l’errore stesso renderebbe non rappresentativo il risultato. Il problema è che questa crescita non è lineare, poiché le equazioni che regolano la dinamica dell’atmosfera sono non lineari. In determinate circostanze e situazioni meteorologiche, gli errori crescono molto rapidamente, finché – a un certo punto – diventano maggiori del dato stesso. Questa proprietà viene anche illustrata dicendo che il comportamento dell’atmosfera è caotico o, meglio, che le soluzioni delle equazioni di Navier-Stokes per il flusso del fluido atmosferico hanno una natura caotica. In questa accezione, come vedremo, la parola “caos”, o l’aggettivo “caotico”, denotano, più che il disordine del comportamento, la sua imprevedibilità.

L’identificazione del comportamento caotico dei sistemi atmosferici fu scoperto accidentalmente da Edward Norton Lorenz nel 1961, anche se va detto che, a livello teorico e in ambiti diversi, all’inizio dello scorso secolo Jules Henri Poincaré aveva già identificato e studiato il comportamento caotico delle dinamiche dei moti dei corpi celesti perturbando un sistema a due corpi con l’aggiunta di un terzo corpo ed osservando come questo terzo corpo rendeva le orbite altamente sensibili alle condizioni iniziali. Lorenz, comunque, utilizzando un modello molto semplificato dell’atmosfera, scoprì che soluzioni numeriche corrispondenti a condizioni iniziali lievemente differenti tra loro, anche solo per il numero di cifre significative, tendevano a essere molto simili tra loro per un certo periodo, per poi divergere e diventare completamente scorrelate l’una dall’altra a partire da un certo momento.

 In un giorno particolare durante l'inverno del 1961, Lorenz volle rivedere una sequenza di dati provenienti dal suo modello. Invece di riavviare l'intera esecuzione, decise, per risparmiare tempo, di riavviare la corsa da un certo punto. Utilizzando le stampe dei dati, inserì in input le condizioni relative a quel punto, prendendole dall’esecuzione precedente, e riavviò il modello di calcolo. Il risultato fu molto insolito e inaspettato. I dati della seconda corsa avrebbero dovuto sovrapporsi esattamente a quelli della prima corsa. Al contrario, dopo un primo momento in cui i dati si sovrapponevano, le uscite, a partire da un certo punto, cominciarono a divergere drasticamente, e la seconda corsa perse ogni somiglianza con la prima nel giro di pochi mesi. Un esempio grafico è mostrato in questa figura. Fonte: questo link.

Figura 2. In un giorno particolare durante l’inverno del 1961, Lorenz volle rivedere una sequenza di dati provenienti dal suo modello. Invece di riavviare l’intera esecuzione, decise, per risparmiare tempo, di riavviare la corsa da un certo punto. Utilizzando le stampe dei dati, inserì in input le condizioni relative a quel punto, prendendole dall’esecuzione precedente, e riavviò il modello di calcolo. Il risultato fu molto insolito e inaspettato. I dati della seconda corsa avrebbero dovuto sovrapporsi esattamente a quelli della prima corsa. Al contrario, dopo un primo momento in cui i dati si sovrapponevano, le uscite, a partire da un certo punto, cominciarono a divergere drasticamente, e la seconda corsa perse ogni somiglianza con la prima nel giro di pochi mesi. Un esempio grafico è mostrato in questa figura. Fonte: questo link.

In un primo momento Lorenz pensò che si fosse guastato un transistor nel suo computer, un originale vecchio McBee, macchina estremamente lenta e grezza per gli standard odierni. Dopo aver scoperto che non c’era nessun guasto, Lorenz finalmente trovò la fonte del problema. Per risparmiare spazio, le sue stampe avevano riportato solo tre cifre, mentre i dati nella memoria del computer contenevano sei cifre. Lorenz aveva quindi inserito dei dati arrotondati prendendoli dalle stampe, supponendo ovviamente che la differenza fosse irrilevante.

Il semplice modello di Lorenz (il cui risultato è noto come attrattore di Lorenz) evidenzia il fenomeno noto come “dipendenza sensibile dalle condizioni iniziali”, a volte indicato anche col nome di “effetto farfalla”, per il motivo dell’analogia seguente: una farfalla che batte le ali in Sud America può influenzare il tempo in una città degli Stati Uniti. L’esempio del battito d’ali di una farfalla simboleggia, infatti, una deviazione minima, pressoché infinitesima, impressa dalla farfalla alla velocità del vento. Naturalmente, l’esistenza di una farfalla sconosciuta che batte le ali non ha alcuna relazione diretta con le previsioni del tempo, poiché ci vorrebbe troppo tempo per una piccola perturbazione, come quella causata nella realtà dal battito d’ali di una farfalla, per crescere e raggiungere una dimensione significativa tale da perturbare il moto. Nella realtà, ci sono incertezze molto più grandi di cui preoccuparsi, come ad esempio quelle strumentali, o la scarsità di misure rispetto ai punti griglia dei modelli, fatto che determina la necessità di compiere delle interpolazioni. Senza poi dimenticare che ogni modello consta di equazioni differenziali che descrivono sì i processi fisici fondamentali alle scale considerate, ma sempre in modo approssimato. Tuttavia, anche se l’impatto diretto del caos sulla previsione meteo è spesso un po’ sopravvalutato, e questo rimane evidente osservando che, in determinate occasioni, i modelli non riescono a riprodurre le condizioni reali dopo pochi giorni, indipendentemente dal modo in cui sono inizializzati, la teoria del caos continua a svolgere un ruolo importante nella ricerca e sviluppo di metodi di previsione meteorologica cosiddetti “di ensemble”.

Un lettore attento, a questo punto, potrebbe chiedersi perché un insieme di equazioni completamente deterministiche (con la dicitura “equazione deterministica”, o in senso lato “modello deterministico” si intende un’equazione – o un modello basato su quella equazione – la cui soluzione è completamente determinata dai valori delle condizioni iniziali per le quali non vengono considerate le incertezze) presenti un simile comportamento. Dopo tutto, gli scienziati spesso insegnano che piccole perturbazioni iniziali conducono a piccoli cambiamenti nel comportamento. Tuttavia, non sempre è così, e dipende dalla tipologia delle equazioni. Il fatto che una piccola perturbazione causi piccole variazioni si verifica quando le equazioni sono lineari. Ma questo non è chiaramente il caso delle equazioni che regolano la dinamica atmosferica o dei fluidi, cioè proprio il set di equazioni usate nel modello di Lorenz. Tali equazioni, infatti, sono non lineari. In un sistema non lineare, ricordiamo che non è soddisfatto il principio di sovrapposizione: ovvero, non è vero che l’output sia proporzionale all’input.

Oltre che a essere difficili da risolvere – nel caso delle equazioni che regolano la dinamica atmosferica, basate sulle equazioni di Navier-Stokes per il flusso del fluido atmosferico, addirittura analiticamente impossibili da risolvere – i sistemi non lineari mostrano spesso un comportamento straordinariamente complesso e caotico.

Tale fenomeno è attualmente ben noto e compreso e caratterizza tutti i modelli globali, rendendo impossibile l’effettuazione di previsioni meteorologiche precise a lungo termine. Si noti che uno può sempre eseguire una simulazione che duri diversi mesi ed analizzarne i risultati; il problema è che tali risultati diventano completamente svincolati dall’andamento reale dopo alcuni giorni, per cui non hanno alcuna utilità dal punto di vista della previsione del tempo (Figura 3). Si può dire che i risultati siano casuali? In realtà no. Un sistema caotico (di cui l’attrattore di Lorenz è il prototipo) non è casuale, e le equazioni non lineari di un sistema caotico mostrano alcuni comportamenti molto interessanti. Se il sistema non è casuale, allora il suo moto dovrebbe essere prevedibile, ma questa prevedibilità dipende dal flusso atmosferico: la posizione nell’attrattore determina la direzione in cui il flusso si muoverà, dove andrete, ma alcuni punti di partenza sono correlati a insiemi molto più strettamente vincolati nei comportamenti rispetto ad altri. Come risultato, la dispersione (statistica) dei possibili stati finali dipende dallo stato iniziale, e alcuni stati risultano più prevedibili rispetto ad altri.

L'ensemble forecasting spiegato in una figura. L'analisi rappresenta il punto di partenza della previsione numerica, e la previsione deterministica rappresenta il punto di arrivo (per ogni ora di validità della previsione), che si colloca all’interno dell’incertezza previsionale, area che si allarga sempre più allontanandosi dall’istante iniziale della previsione fino a sconfinare nel campo della climatologia.

Figura 3. L’ensemble forecasting spiegato in una figura. L’analisi rappresenta il punto di partenza della previsione numerica, e la previsione deterministica rappresenta il punto di arrivo (per ogni ora di validità della previsione), che si colloca all’interno dell’incertezza previsionale, area che si allarga sempre più allontanandosi dall’istante iniziale della previsione fino a sconfinare nel campo della climatologia.

L’impossibilità di stabilire, a priori, l’esattezza di una previsione affidandosi ad un’unica previsione deterministica ha portato a sviluppare una nuova tecnica di previsione nella quale si integrano simultaneamente più stati dell’atmosfera caratterizzati da condizioni iniziali che differiscono di poco l’una dall’altra. Con questa nuova tecnica, nota con il nome di ensemble predictions (previsioni di insieme), lo scenario meteorologico previsto è quindi legato alla probabilità che si possa verificare, cioè alla frequenza con cui il pattern atmosferico ricorre nella gamma di tutte le previsioni calcolate. Tale sistema diventa particolarmente utile nei casi in cui si verifichino transizioni nei regimi meteorologici che i modelli prevedono con maggiore difficoltà.

Pertanto, usando i modelli numerici di circolazione atmosferica, occorre eseguire diverse simulazioni perturbando le condizioni iniziali di una corsa di riferimento, e vedere cosa succede. E infatti questa rappresenta proprio gran parte della sfida delle previsioni meteorologiche, che consiste nel saggiare l’incertezza nelle condizioni iniziali. Invece di utilizzare una singola simulazione di previsione (run deterministico), la meteorologia moderna si avvale delle previsioni di ensemble, che indagano lo spazio dei possibili risultati a partire da un dato stato iniziale (incerto). Questo permette quindi ai previsori di valutare tutti i possibili risultati, di stimarne i rischi e le possibilità, e al termine di comunicare i rischi agli utenti. Sottolineiamo qui la frase “permette ai previsori di …“: il ruolo degli esperti nell’interpretare le previsioni e spiegare i rischi correlati rimane fondamentale anche nell’epoca dei modelli numerici, in cui uno potrebbe credere di essere in grado di realizzare un centro meteo, o addirittura un servizio meteorologico, semplicemente assemblando le uscite dei modelli fatti girare da altri, senza la necessità di persone qualificate (ahimè esistono alcuni centri, a livello sia nazionale sia internazionale, di questo tipo).

esempio di una serie temporale delle integrazioni numeriche relative alle previsioni di ensemble del modello IFS dell’ECMWF per la temperatura superficiale su Londra. Le due mappe si riferiscono esattamente a un anno di distanza l’una dall’altra. In ogni mappa, la linea continua nera spessa indica la previsione deterministica del modello, mentre la tratteggiata blu indica le osservazioni. In rosso sono invece indicate le previsioni dei vari run ottenuti perturbando le condizioni iniziali (previsioni di ensemble). Fonte: ECMWF.

Figura 4. Esempio di una serie temporale delle integrazioni numeriche relative alle previsioni di ensemble del modello IFS dell’ECMWF per la temperatura superficiale su Londra. Le due mappe si riferiscono esattamente a un anno di distanza l’una dall’altra. In ogni mappa, la linea continua nera spessa indica la previsione deterministica del modello, mentre la tratteggiata blu indica le osservazioni. In rosso sono invece indicate le previsioni dei vari run ottenuti perturbando le condizioni iniziali (previsioni di ensemble). Fonte: ECMWF.

A titolo di esempio del discorso relativo all’incertezza della previsione, mostriamo due previsioni della temperatura a 2 metri dal suolo per Londra, a partire dal 26 giugno di due anni consecutivi, 1994 e 1995. Le curve rosse sottili mostrano i singoli membri di una previsione di ensemble. La diffusione delle previsioni appare molto diversa nei due casi, pur trattandosi dello stesso giorno dell’anno (quindi stessa stagione, nella stessa località). Questo dimostra che alcune condizioni iniziali sono più prevedibili di altre: in un caso si ha una diffusione delle previsioni del modello molto elevata, nell’altro no. Si nota anche come, in entrambi i casi, le osservazioni reali si trovino all’interno del fascio delle linee rosse così come la previsione deterministica, ma siano “distanti” tra loro.

Come risultato, nella mappa relativa al 1994 la previsione diverge dalle osservazioni già dopo meno di due giorni, mentre in quella relativa al 1995 la previsione risulta attendibile fino al sesto giorno. Si noti anche la corrispondenza tra il momento della divergenza e la larghezza del fascio delle previsioni di ensemble.

Al giorno d’oggi, i vari centri meteorologici fanno ampio uso delle previsioni di ensemble, che vengono affiancate alle previsioni deterministiche. La tecnica è stata applicata per la prima volta nel 1992 sia dall’ECMWF europeo, sia dal NCEP americano. Si noti che l’esecuzione delle previsioni di ensemble costituisce un netto aggravio a livello di tempi di calcolo, in quanto è necessario eseguire diverse simulazioni aggiuntive oltre a quella che costituisce lo scenario di riferimento. Di solito, viene usata una versione meno risoluta dello stesso modello per le previsioni di ensemble, in modo da minimizzare i tempi di simulazione.

Come vengono perturbate le condizioni iniziali, e quante simulazioni vengono condotte con questa tecnica? Per rispondere a queste domande, possiamo vedere come fa l’ECMWF di Reading. Presso tale centro, vengono eseguite 50 simulazioni usando un modello di minore risoluzione rispetto a quello (IFS) usato per le previsioni deterministiche (attualmente, per l’ensemble prediction system, si usa il T639 per i primi dieci giorni di run e il T319 per gli altri cinque). Le perturbazioni delle condizioni iniziali non sono generate in modo casuale ma consistono in una combinazione di 25 modi che hanno il maggiore impatto sulle previsioni per l’emisfero settentrionale nel breve termine, e quindi tengono conto anche delle deviazioni tra i membri dell’ensemble e la previsione deterministica (maggiori informazioni si possono reperire qui). Un metodo analogo viene utilizzato anche per il modello GFS del NCEP (maggiori dettagli, un po’ tecnici, sono reperibili qui), per il quale ci sono però 20 membri delle previsioni di ensemble.

I risultati delle previsioni di ensemble sono normalmente sintetizzati in grafici simili a quelli mostrati in Figura 4 , oppure su mappe bidimensionali come quelle mostrate in Figura 5, e in gergo vengono chiamati spaghetti plot, probabilmente per la somiglianza delle isolinee frammischiate tra loro con la vista di un piatto di spaghetti. La Figura 5 è stata prodotta sovrapponendo soltanto tre isoipse a 500 hPa comuni tra tutte le previsioni di ensemble a ogni scadenza giornaliera di previsione; il modello usato è il GFS, e la simulazione usata per questa figura è partita alle ore 06 UTC del 20 aprile 2014.

Esempio di spaghetti plot relativi alle altezze di geopotenziale a 500 hPa previste dalle previsioni di ensemble del modello GFS girato il 20 aprile 2014 alle 06 UTC. Fonte: wetterzentrale.de

Figura 5. Esempio di spaghetti plot relativi alle altezze di geopotenziale a 500 hPa previste dalle previsioni di ensemble del modello GFS girato il 20 aprile 2014 alle 06 UTC. Fonte: wetterzentrale.de

L’analisi di questa figura mostra già chiaramente come debbano poi interpretarsi le mappe previsionali (come quella relativa alla previsione deterministica dello stesso modello: vedi ad esempio la Figura 6) alla luce mostrata in Figura 5, delle informazioni aggiuntive fornite dagli spaghetti plot. Infatti, il rischio di mettere in rete immagini è che un internauta disattento guardi le mappe previste dal modello (p. es. quelle mostrate in Figura 6) e le prenda alla lettera, ritenendo – erroneamente – che, poiché sono state messe in rete da un centro meteo riconosciuto, abbiano tutte la stessa validità (in effetti, sulle singole mappe non c’è scritto quanto siano affidabili!!! è l’utente che dovrebbe essere in grado di interpretarle correttamente). In realtà, guardando gli spaghetti plot, si può provare a dare da soli il grado di attendibilità alla previsione, almeno “a spanne”.

È importante capire, in primo luogo, che non in tutte le regioni le previsioni hanno lo stesso grado di attendibilità. Ad esempio, guardando gli spaghetti plot di Figura 5, il tempo sulla Groenlandia occidentale appare incerto già dal martedì 22, ovvero già al secondo giorno di validità della previsione, mentre sul Regno Unito si comincia a notare una divergenza delle isoipse soltanto nel giorno di venerdì 25. È comunque chiaro che la significatività delle tre ultime mappe, relative ai giorni da domenica 27 aprile in poi, è assolutamente nulla e non consente alcun tipo di previsione oggettiva.

Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hhPa (Z500, colori e isolinee nere) ottenuto mediando le previsioni di ensemble (a sinistra). La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 6a. Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hhPa (Z500, colori e isolinee nere) ottenuto mediando le previsioni di ensemble (a sinistra). La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hPa (Z500, isolinee nere), sovrapposte  al campo della deviazione standard della Z500, calcolato sempre sulle previsioni di ensemble. La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 6b. Mappa relativa al campo medio di pressione a livello del mare (slp, linee bianche) e di altezza di geopotenziale a 500 hPa (Z500, isolinee nere), sovrapposte al campo della deviazione standard della Z500, calcolato sempre sulle previsioni di ensemble. La mappa si riferisce alle previsioni lanciate il 20 aprile 2014 e relative al 25 Aprile 2014, ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Dovrebbe quindi apparire abbastanza chiaro, a questo punto, come gli spaghetti plot e, in generale, i prodotti delle previsioni di ensemble, possano consentire di attribuire un indice di affidabilità alla previsione. È infatti importante essere a conoscenza del fatto che una previsione meteorologica non è mai, e non potrebbe mai neppure esserlo, assimilabile ad una certezza, ma rappresenta uno scenario evolutivo più o meno probabile, a seconda di quanto lontano si va nel tempo, allo stesso modo di come un dottore che fa una diagnosi dello stato di un paziente, emette poi una prognosi relativa all’evoluzione della sua patologia, prognosi che non rappresenta una certezza.

Per cui, chi vende certezze nel campo meteorologico “mente sapendo di mentire”, soprattutto quando questo avviene per le previsioni che si estendono oltre i classici 2-3 giorni. Io sono solito paragonare l’attendibilità delle previsioni meteo alla scadenza degli yogurt, e questa analogia si ricollega allo stesso discorso: dopo alcuni giorni, le nuove simulazioni condotte con i modelli portano a risultati più aggiornati, diminuendo quindi l’incertezza di cui abbiamo parlato finora, per cui le previsioni più vecchie vanno considerate alla stregua di un cibo scaduto, in quanto sono “scadute” anch’esse (e, in senso lato, possono “far male” ai fini della previsione allo stesso modo in cui un cibo scaduto potrebbe far male allo stomaco).

previsioni deterministiche del modello GFS relative alla simulazione del 20 aprile 2014 alle ore 06 UTC. Fonte: wetterzentrale.de

Figura 7. Previsioni deterministiche del modello GFS relative alla simulazione del 20 aprile 2014 alle ore 06 UTC. Fonte: wetterzentrale.de

I centri meteo o i portali più completi (tra i quali segnalo il tedesco wetterzentrale) mettono comunque online anche altri prodotti che possono consentire una migliore quantificazione dell’incertezza rispetto al metodo “spannometrico” appena delineato, basato sull’analisi “a vista” degli spaghetti plot.

Molti di tali prodotti sono addirittura reperibili anche online. Ad esempio, guardando le due mappe mostrate in Figura 6, relative al settimo giorno di previsione, si nota come siano disponibili la media di tutte le previsioni di ensemble e la dispersione attorno al valore medio per ogni scadenza previsionale e per alcune grandezze significative.

sono qui rappresentare le istantanee di tutti i 21 membri delle previsioni di ensemble inizializzate il 20 aprile 2014 e relative al 27 aprile 2014, alle ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Figura 8. Sono qui rappresentate le istantanee di tutti i 21 membri delle previsioni di ensemble inizializzate il 20 aprile 2014 e relative al 27 aprile 2014, alle ore 06 UTC, modello GFS. Fonte: wetterzentrale.de

Ad esempio, nella mappa di Figura 6b, si può osservare come la zona arancione-rossa corrisponda ad una deviazione standard dell’altezza di geopotenziale rispetto alla media, tra tutte le varie previsioni di ensemble in tali punti, superiore ai 100 decametri, ovvero 1000 metri: un valore paragonabile alla stessa profondità dei minimi o ampiezza dei massimi. Pertanto, la sezione della mappa corrispondente a simili deviazioni standard non consente di poter considerare significativi i valori medi corrispondenti alle stesse mappe, in quanto l'”errore” è paragonabile al valor medio. La Figura 8 permette di vedere le mappe che si riferiscono ai singoli run della previsione di ensemble, sulla cui base sono poi stati valutati il valor medio e la deviazione standard mostrata inFigura 6b. Si nota subito come alcuni elementi di questo cluster presentino evoluzioni meteorologiche completamente distinte da altri. Si veda ad esempio come il Portogallo possa essere coinvolto da profonde saccature (membri 16, 17 e 18) o da robuste celle anticicloniche (P5, P6 e P7). Si nota anche come non sempre la mappa media abbia un riscontro nei singoli elementi del cluster. La mappa media è una mappa che è il risultato di un’operazione di media, e pertanto potrebbe essere rappresentativa soltanto se un elevato numero di membri dell’ensemble possiede una struttura barica analoga che “abbia sufficiente peso” nell’operazione di media. In generale, quindi, non solo non è detto che tale mappa corrisponda alla configurazione più probabile, ma in certi casi potrebbe anche non corrispondere ad una configurazione possibile!

Per oggi ci fermiamo qui, e direi che di materiale ce n’è già abbastanza da digerire. Ma quello che spero sinceramente è di aver fatto capire perché, leggendo una previsione in cui si elenca, luogo per luogo, il tempo che farà tra sette giorni senza usare nessun condizionale e senza mettere da nessuna parte una frasetta, o almeno un logo, che indichi la poca attendibilità di tale previsione, che quindi va presa alla stregua di una possibile indicazione della tendenza generale e nulla più, non si fornisce un’informazione corretta. Ricordiamoci la Figura 5, in particolare le ultime tre mappe in basso, e pensiamo che quella previsione si basa su un singolo run che magari può anche essere rappresentativo del tempo che si verificherà, ma molto probabilmente ha una probabilità di verificarsi molto piccola.

Aggiungo un’ultima considerazione. Ho basato questo post sulla discussione relativa ai modelli globali, poiché normalmente sono questi ad essere fatti girare per lungo tempo (fino a 15 giorni). Uno potrebbe pensare che un modello a mesoscala o locale, avendo un grigliato più fitto, possa consentire una notevole riduzione degli errori e quindi possa bypassare questo problema. La realtà dimostra che non è così, ed è questo il motivo per cui raramente i run dei modelli alla mesoscala si estendono oltre i 3-5 giorni. E il motivo per cui si arriva a questa conclusione è presto detto: i modelli alla mesoscala vengono inizializzati con le uscite dei modelli globali. E pertanto, se il modello globale ha un’incertezza che cresce nel tempo, non può fare altro che propagarla al modello alla mesoscala, che ne digerisce in dati in input.

In un prossimo post parleremo di previsioni stagionali e di previsioni climatiche, tentando di rispondere alla classica domanda: “ma se non siamo in grado di prevedere il tempo oltre la prossima settimana, perché è possibile fare previsioni stagionali? E, soprattutto, quale validità hanno?”.

One thought on “L’interpretazione dei prodotti dei modelli meteorologici

Please leave a comment

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...