...

Résumé

by user

on
Category: Documents
1

views

Report

Comments

Description

Transcript

Résumé
Résumé
Cet article présente un historique de la
prévision numérique à longue échéance,
depuis les années 1970 qui ont correspondu à la montée en puissance de
la prévision opérationnelle à moyenne
échéance, de 3 à 10 jours, aux État-Unis
et en Europe, avec la création du
CEPMMT. Les modèles d’atmosphère,
puis les modèles couplés océanatmosphère ont été utilisés pour prédire
la moyenne des paramètres météorologiques du mois à venir, puis de la saison
à venir. Assez vite, s’est posée la question de mettre les prévisions sous forme
probabiliste. Au milieu des années
1990, grâce à l’impulsion du CEPMMT
et au soutien financier de la
Commission européenne, l’Europe
prend une position dominante et de
grands projets comme Demeter et
Eurosip sont lancés. Cet article reprend
le contenu du Mémoire d’habilitation à
diriger des recherches de l’auteur
(Déqué, 2006) et en suit le même fil
directeur, à savoir les modèles successifs
de Météo-France qui ont été utilisés :
Sisyphe, Émeraude et Arpège. Un tour
d’horizon des perspectives futures termine cet article.
Abstract
From long-range to seasonal forecast
Numerical models to predict weather
beyond what can be foreseen
This paper presents historical aspects of
long-range numerical prediction from
the 1970s when medium range weather
forecast, from 3 to 10 days, was gaining
ground in America and in Europe with
the founding of ECMWF. Atmosphere
and later coupled ocean-atmosphere
models have been used to predict the
mean of meteorological parameters for
the forthcoming month, then the mean
forthcoming season. The question of
probabilistic formulation of the prediction was raised rather early. In the mid1990s, thanks to ECMWF initiatives
and with financial support from the
European Commission, Europe
became a leader and new projects such
as Demeter or Eurosip were lanched.
This paper summarizes the author’s
memorandum for his « Mémoire d’habilitation à diriger des recherches »
diploma (Déqué, 2006) and follows the
same thread, namely the models that
have successively been used: Sisyphe,
Emeraude, Arpege. An overview of
future prospects finishes this paper.
De la prévision
à longue échéance
à la prévision saisonnière
Des modèles numériques pour prédire le temps
au-delà du prévisible
Michel Déqué
Météo-France-CNRM, CNRS-GAME
42, avenue Gustave-Coriolis - 31057 Toulouse Cedex - [email protected]
l est difficile de dater les premières
prévisions à longue échéance utilisant
des techniques statistiques. On peut
citer les travaux de G. Walker au début du
XXe siècle qui découvrit l’oscillation australe en cherchant des prédicteurs pour la
mousson indienne. Mais on peut remonter d’autant plus loin qu’on est moins
regardant sur la rigueur statistique des
méthodes : les proverbes comme « Noël
au balcon, Pâques au tison » abondaient
dans les almanachs des siècles passés.
Les augures et haruspices romains observaient le vol des oiseaux et les entrailles
des animaux sacrifiés pour aider à la
prise de décision : il est fort probable
qu’ils aient été consultés pour des prévisions saisonnières avant une campagne
militaire. Évitons de sourire de la naïveté
des âges passés, car il existe encore de
nos jours des prévisions statistiques à
longue échéance, effectuées sur des calculateurs puissants, utilisant d’abondantes données météorologiques dont le
sérieux dans la mise en œuvre n’excède
pas celui de nos lointains prédécesseurs
(on ne citera pas de références ici, mais
toute méthode de prévision à nos latitudes qui annonce une corrélation supérieure à 0,80 pour une échéance
supérieure à un mois doit être considérée
avec suspicion).
I
En ce qui concerne les prévisions numériques, on peut être plus précis.
L’histoire de la modélisation numérique
de l’atmosphère remonte au milieu du
XX e siècle (Rochas et Javelle, 1993).
Pour la prévision à longue échéance,
qui nécessite un modèle global, on peut
prendre la date de 1975 comme point de
départ. C’est, en effet, à partir de cette
date que le service météorologique
Scientifique britannique et chef du service météorologique indien, Sir Gilbert
Walker fut affecté en 1920 en Inde,
afin de trouver un moyen de prévoir la
mousson. Axant ses recherches sur
l’oscillation australe, Sir Walker réussit
à déterminer, en 1923, un indice de
circulation générale auquel il donna
son nom. Ce dernier mesure l’écart de
pression entre l’est et l’ouest de l’océan Pacifique. Il n’a qu’un faible rapport avec l’intensité de la mousson indienne, mais on découvrit,
quarante ans plus tard, son lien avec le phénomène El
Niño.
américain, appelé maintenant NCEP
(National Center for Environmental
Prediction), commence à réaliser des
analyses opérationnelles globales. Avant
1975, les analyses opérationnelles disponibles couvraient au mieux l’hémisphère
nord et ne permettaient pas d’initialiser
un modèle global. À partir de 1979, le
Centre européen pour les prévisions
météorologiques à moyen terme
(CEPMMT) produit à son tour des
analyses globales grâce à un réseau
d’observation renforcé suite à la
Première expérience mondiale du Garp
(Global Atmosphere
Research Project),
[PEMG]. C’est 1979
qui a servi de point
de départ aux études du Centre national de recherches
météorologiques
(CNRM) de MétéoFrance.
Couverture
du n° 106 (1934)
de La Météorologie
consacré aux dictons.
Prévision
25
La Météorologie - n° 61 - mai 2008
26
Des modèles de circulation générale
(MCG) capables d’être intégrés
quelques mois, sans donner une climatologie irréaliste, existent bien depuis
les années 1960 (Manabe et al., 1965).
Mais la première référence de l’utilisation d’un MCG pour des prévisions à
longue échéance comparables à ce qui
se fait de nos jours date de 1977
(Gilchrist, 1977). À partir de prévisions
à 50 jours effectuées pour des jours
consécutifs pendant l’hiver 1975-1976,
Gilchrist constate que, même si l’on
obtient une grande dispersion des prévisions à longue échéance, on trouve une
ressemblance avec les observations
dans les ondes très longues. Il constate
aussi une amélioration des prévisions si
l’on utilise des températures de surface de la mer (TSM) observées plutôt
que des TSM climatologiques. Mais
Gilchrist ne dispose que d’une seule
saison puisque, au moment où il réalise
cette étude au Met Off ice (service
météorologique du Royaume-Uni), le
NCEP vient juste de commencer à produire des analyses globales. Gilchrist ne
peut donc pas retrancher l’erreur systématique de son modèle, ni explicitement par la soustraction d’un biais, ni
implicitement par le calcul d’un coefficient de corrélation d’anomalies.
Quatre années plus tard, Shukla publie
un article (1981) qui utilise trois hivers
consécutifs de 1975 à 1977 et trouve
une prévisibilité signif icative des
moyennes des jours 16 à 46, bien qu’il
utilise des TSM climatologiques.
En ce qui concerne plus particulièrement
l’aspect probabiliste des prévisions, on
cite souvent Epstein (1969) comme référence. Epstein propose d’utiliser une
équation pronostique pour la densité de
probabilité. Cependant, pour mener à
bien ses calculs, il doit faire de nombreuses simplifications. Cette démarche a été
abandonnée depuis, au moins pour les
MCG. Leith (1974) montre que la
méthode de Monte-Carlo, qui consiste à
répéter les intégrations du modèle en
introduisant de petites perturbations
initiales, est nettement plus adaptée aux
modèles de prévision météorologiques.
On parle alors de prévision d’ensemble
et les intégrations individuelles sont
appelées membres de l’ensemble.
Lorsque la taille de l’ensemble est inférieure à dix, on utilise plutôt la méthode
des prévisions décalées préconisée par
Hoffman et Kalnay (1983), qui consiste à
faire une prévision issue du jour J, une
autre du jour J-1, etc.
Au début des années 1980, la confiance
dans les progrès de l’observation (grâce
aux satellites) et de la modélisation
La Météorologie - n° 61 - mai 2008
(grâce aux calculateurs) fait que
l’aspect probabiliste des prévisions à
longue échéance n’est pas à l’ordre
du jour. Les chercheurs sont bien
conscients depuis Lorenz (1965) que
l’on ne parviendra pas à prévoir une
situation météorologique avec tous ses
détails au-delà de 10 jours, mais espèrent qu’au moyen de lissages appropriés (moyennes temporelles, filtres
spatiaux), on pourra faire une prévision
déterministe à l’échéance du mois ou de
la saison. La prévision numérique à longue échéance est née.
La présentation chronologique qui suit
est structurée par les noms des modèles
utilisés par Météo-France pour produire
les prévisions. Cette structure suit celle
du Mémoire d’habilitation à diriger des
recherches de l’auteur (Déqué, 2006).
En guise de conclusion, les perspectives
de développement des cinq à dix prochaines années sont examinées.
Sisyphe
Le premier modèle global dont s’est
doté Météo-France est un modèle
spectral eulérien, écrit pour faire des
prévisions à courte échéance sur l’hémisphère nord (Rochas et al., 1980),
étendu à l’hémisphère sud par des
conditions de parité-imparité des polynômes de Legendre et muni des paramétrisations physiques du modèle de
prévision hémisphérique en points de
grille Améthyste (Royer et al., 1981).
En 1980 comme en 2008, le modèle de
climat de Météo-France, utilisé aussi
bien pour les simulations climatiques
que pour la prévision à longue
échéance, s’appuie sur les travaux de
modélisation en prévision du temps à
courte échéance.
Le modèle Sisyphe a une résolution de
1 000 km, compatible avec les moyens
de calcul de l’époque (sur le calculateur
CDC Cyber 175, on peut faire, dans la
semaine, une simulation d’un mois). La
première tâche de l’auteur Michel
Déqué, dès son arrivée dans l’équipe de
Jean-François Royer au CNRM, est de
passer à une résolution T21 (résolution
560 km) : le CEPMMT, qui se prépare à
adopter un modèle spectral sous l’impulsion de Michel Jarraud, vient de
montrer que cette résolution permet de
représenter l’essentiel de la variance du
géopotentiel sur l’hémisphère nord.
Avec cette coûteuse version (qui de nos
jours, avec un PC bas de gamme, prend
vingt minutes pour simuler un an, mais
prenait six mois pour le même travail à
l’époque), Jean Clochard, alors élève de
l’École nationale de la météorologie
(ENM) en stage, réalise trois prévisions
de 30 jours (deux en hiver, une en
été). Ces prévisions sont réalisées à
partir des analyses de 1979 produites
à la suite de l’année internationale
de l’Organisation météorologique
mondiale (OMM) et de la Première
expérience mondiale du Garp. Six
prévisions d’hiver supplémentaires
limitées à 15 jours ont été ajoutées
quand on s’est rendu compte que les
scores étaient trop bruités. Pour prouver
que l’on peut prédire quelque chose audelà de 5 jours avec le modèle Sisyphe,
nous avons considéré les trois premières
composantes principales (CP) globales
du géopotentiel à 500 hPa. Elles représentent les grandes ondes planétaires.
L’erreur quadratique moyenne
(EQM) de ces trois composantes principales augmente avec le temps et
n’atteint l’EQM de la prévision climatologique qu’au bout de 15 jours. Ce qui
ne veut pas dire qu’au-delà de 15 jours
la prévisibilité a disparu, puisqu’il faut
atteindre 1,4 fois l’EQM climatologique
pour affirmer que la prévision et sa
vérification sont devenues indépendantes. Cette limite de 1,4 fois l’EQM est la
simple traduction que, lorsque la corrélation est nulle, le carré de l’erreur vaut
deux fois la variance. Si l’on remplace
la prévision du modèle par la prévision
par persistance, qui consiste à prendre
la situation initiale en guise de prévision, on atteint l’EQM climatologique
au bout de 5 jours seulement. Cet allongement au-delà de 5 jours, jusqu’à
15 jours, prouve que l’existence de prévisibilité n’est pas seulement due à la
lenteur de l’évolution des grandes
ondes atmosphériques, mais bien à la
capacité de Sisyphe à prévoir dans quel
sens se fait cette évolution.
Ce résultat était très encourageant.
Cependant, il s’agissait essentiellement
de prévisibilité issue des conditions
initiales. En 1982-1983, un phénomène
que l’on a appelé l’El Niño du siècle,
avant que celui de 1997-1998 ne vienne
le supplanter, a donné l’occasion d’aborder un autre type de prévisibilité,
celle due aux conditions aux limites.
L’anomalie de TSM de 4 °C, observée
cet hiver-là dans le Pacifique équatorial,
a été introduite dans le modèle Sisyphe
et a conduit à une réponse des températures, vents et précipitations sur la ceinture tropicale en accord avec les
analyses du CEPMMT (Déqué et Royer,
1984). Un peu plus tard, nous avons
raffiné la technique grâce aux analyses
globales de TSM du NCEP (Reynolds et Gemmill, 1984) disponibles à
27
La Météorologie - n° 61 - mai 2008
compter de 1982 grâce à la ceinture de
satellites géostationnaires. Nous avons
conf irmé ces résultats. Nous avons
aussi trouvé des scores similaires
en utilisant une version à plus basse
résolution.
Figure 1 - Prévisions
saisonnières
de précipitations
avec le modèle couplé
Arpège-Mercator-Océan,
pour la période de
septembre-octobrenovembre 2005.
Émeraude
Émeraude, le successeur de Sisyphe, a
une dynamique assez semblable, mais
des paramétrisations physiques plus
évoluées (que l’on retrouvera encore
dans certaines versions d’Arpège à
l’aube du XXIe siècle). Le modèle est utilisé à la fois pour la prévision à courte
échéance et pour la simulation climatique, et donc la prévision à longue
échéance. On ne parle pas encore de
prévisions saisonnières (f igure 1),
puisque les simulations ne vont que jusqu’au jour 45. Mais en 1986, nous
disposons de sept années d’analyses du
CEPMMT, et la méthode utilisée
(ensembles de prévisions décalées de
vingt-quatre heures, prévisions de référence réalisées sur les années précédentes, persistance des anomalies de TSM)
est pratiquement identique à celle de
la prévision saisonnière opérationnelle produite à Météo-France de
septembre 1999 à juin 2007, à un
facteur d’échelle près, dû à l’augmentation en vingt ans de la puissance des
calculateurs.
À l’époque, quatre instituts s’occupent
de prévision numérique à longue
échéance : le Met Office au RoyaumeUni, le NCEP et le GFDL (Geophysical
Fluid Dynamics Laboratory) aux ÉtatsUnis, et Météo-France. Les deux premiers diffusent leurs prévisions et les
associent à des prévisions purement statistiques. Pendant les six premiers mois
de 1988, nous nous appliquons à réaliser et diffuser dans les couloirs du
CNRM, en temps réel, une prévision le
15 de chaque mois pour le mois suivant.
Cet exercice permet de prouver la faisabilité opérationnelle. Mais l’opinion
n’est pas encore mûre pour accepter des
prévisions avec des scores aussi faibles.
De nos jours, les scores n’ont pas considérablement augmenté, mais le produit
s’est diffusé et il existe maintenant des
utilisateurs potentiels d’un aléa un peu
moins aléatoire qu’un jeu de dés.
C’est à cette époque que l’on commence à s’intéresser à la prévision
probabiliste et surtout à sa validation
(Déqué, 1988). Cet article considère
que l’ensemble de prévision représente
la loi de probabilité de l’événement à
venir. Il y a encore
de nos jours des
études qui font
cette hypothèse à l’échelle saisonnière,
ce qui explique le succès des prévisions
multimodèles. Dans la suite, l’auteur a
tenté de remplacer cette hypothèse
fausse (car le modèle ne reproduit pas
parfaitement les écoulements atmosphériques) par des approches plus
complexes et on trouvera plus de détails
dans Déqué (2006).
Au cours de cette période, le CEPMMT
se lance aussi dans l’aventure. Mais il
utilise son modèle à haute résolution, et
ne réalise ni des ensembles ni des prévisions de référence. Néanmoins, en
1991, nous disposons d’assez de cas
pour comparer leurs prévisions déterministes à 30 jours avec les nôtres. La
haute résolution (T106, maille 120 km)
n’améliore pas les scores par rapport à
notre résolution T42 (maille 280 km,
adoptée au CNRM en 1987, dès que le
calculateur Cray 2 (photo ci-dessous) a
permis d’abandonner la T21 dont la climatologie des moyennes latitudes laissait à désirer). Notons au passage que la
résolution T42 (devenue TL63 grâce au
passage à la grille linéaire, mais dont la
résolution horizontale reste la même)
est encore utilisée et le sera tant que
l’absence de gain de performance prévisionnelle le justifiera : il y a tellement
d’autres façons de consommer les ressources de calcul (taille des ensembles,
résolution verticale, raffinement de la
physique…). La figure 2 illustre ces
diverses résolutions par leur représentation du relief : celle de Sisyphe (2a),
celle utilisée par Météo-France en
prévision saisonnière de 1987 à aujourd’hui (2b) et la haute résolution utilisée
à l’heure actuelle par le CEPMMT (2c).
Les études sont souvent focalisées sur des
phénomènes climatiques. Après le phénomène El Niño 1982-1983 (qui n’a pas
eu d’impact sur l’Europe cet hiver-là), on
s’intéresse à la vague de froid sur
l’Europe occidentale de janvier 1985,
puis à la succession des moussons indiennes déficitaire et excédentaire de 1987 et
1988. Ces deux moussons extrêmes sont
l’occasion d’un projet international,
Moneg, coordonné par Tim Palmer du
CEPMMT. C’est la grande époque des
projets d’intercomparaison de modèles
supervisés par le Programme mondial de
recherche sur le climat (PMRC) de
l’OMM dans le cadre du projet Amip
(Atmospheric Models Intercomparison
Project). La communauté internationale
s’organise pour harmoniser ses procédures de production de prévisions expérimentales à longue échéance. Il ne s’agit
ni d’un concours de beauté ni de la construction d’une prévision multimodèles,
mais on veut s’assurer que les résultats
obtenus par certains modèles sont robustes. En effet, les échantillons sont courts
(une dizaine de cas indépendants) et on
peut suspecter qu’un centre de prévision
laissera tomber les expériences qui donnent des scores faibles et mettra en évidence celles où les résultats sont
impressionnants, c’est humain. Dans ce
contexte, de telles expériences sont
essentielles : en 2008, il est admis que
des modèles numériques puissent
produire des résultats significativement (mais faiblement) corrélés
à la réalité ; mais,
en 1990, on pouvait encore être
sceptique.
Le calculateur Cray 2,
opérationnel
à Météo-France
de 1987 à 1992.
28
La Météorologie - n° 61 - mai 2008
Figure 2 - Représentation du relief
dans trois configurations typiques des modèles :
a) celle des origines (T21, 560 km) ;
b) celle utilisée aujourd’hui à Météo-France
(TL63 alias T42, 280 km) ;
c) celle qualifiée de haute résolution
en prévision saisonnière (TL159 alias T106, 120 km).
Il existe une version d’Arpège-Climat à résolution
plus élevée (TL359, 50 km), mais son coût de calcul
la limite aux expériences de régionalisation
de scénarios climatiques. Les isohypses
sont 500, 1 000, 1 500, 2 000, 3 000 et 4 000 m.
a
rapidement. Une première concrétisation a été le projet européen Provost
auquel se sont aussi associés Électricité
de France (EDF), à la fois fournisseur
de calcul et usager potentiel, et d’autres
services météorologiques et instituts de
recherche. Ce projet Provost, coordonné
par Tim Palmer du CEPMMT, a été un
grand succès et un numéro spécial du
Quarterly Journal of the Royal
Meteorological Society (Provost, 2000)
lui a été consacré. Provost n’est pourtant pas une préfiguration opérationnelle, puisque l’on utilise les TSM
observées chaque mois (ce qui est
incompatible avec une production en
temps réel) et que l’aspect de la valeur
ajoutée d’une prévision a été assez peu
creusé.
b
c
Arpège
Quand Météo-France a remplacé son
modèle Émeraude par le modèle
Arpège, les retombées sur la prévision à
longue échéance ont été faibles dans
un premier temps. Les nouveautés
d’Arpège (grille à résolution variable,
modèle linéaire tangent) n’étaient pas
utiles à cette fin. Au cours de la décennie 1990, les progrès sont apparus progressivement. D’abord Arpège-IFS est
développé par Météo-France et le
CEPMMT afin de tirer le meilleur parti
des progrès des calculateurs (multitâches, puis multiprocesseurs à
mémoire distribuée). On est ainsi passé
de l’échéance mensuelle (45 jours) à
l’échéance saisonnière (4 mois). Par
ailleurs, dans le cadre de la modélisation communautaire du climat en
France, Arpège s’est vu doté d’un
modèle d’océan OPA issu de l’Institut
Pierre-Simon Laplace (IPSL) dont le
couplage a été construit et validé par le
Centre de recherches et de formation
avancées en calcul scientif ique
(Cerfacs).
On a assisté au cours de cette décennie
au retrait relatif des programmes internationaux et à la montée en puissance
de l’Europe, grâce aux financements de
la commission européenne. Le mouvement est issu du couple Météo-France CEPMMT sous l’impulsion de JeanClaude André, alors directeur du
CNRM. Le Met Office s’y est associé
Dans le même temps, un autre projet
européen, nommé Elmasifa, visait ces
deux objectifs de production en temps
réel et de valorisation des informations
obtenues. Ce projet a été coordonné par
Jean-Pierre Verdou de Médias-France et
associait Météo-France ainsi que les
services météorologiques marocain,
algérien et tunisien. Comme nous ne
disposions pas de version couplée
atmosphère-océan à l’époque, les TSM
étaient prévues par une méthode statistique indépendante. Les trois partenaires du Maghreb ont montré que les
précipitations d’automne et d’hiver,
convenablement adaptées par un traitement statistique, apportaient une information utile dans le domaine de la
gestion de l’eau pour en particulier
l’agriculture et la production d’énergie.
À l’issue du projet (1997), le service
marocain s’est engagé à héberger sur
son nouveau calculateur la production
mensuelle opérationnelle de prévisions
à 4 mois. Un système similaire est
devenu opérationnel (c’est-à-dire non
pas produit au coup par coup par le
CNRM, mais inséré dans une chaîne de
production) à Météo-France en 1999.
Quelques années plus tard, le service
tunisien adoptait une production du
même type. En 2007, ce mode de production a été arrêté dans les trois pays,
au profit de prévisions couplées océanatmosphère.
29
La Météorologie - n° 61 - mai 2008
Revenons au CEPMMT. À la fin du projet Provost, deux avancées majeures
étaient apparues. La première était le
démarrage d’une réanalyse météorologique par le CEPMMT de la période
1958-2001 (ERA40). Certes, Provost utilisait déjà une réanalyse (ERA15), mais
celle-ci ne couvrait que la période déjà
utilisée par les études antérieures (19791993) et, comme tout projet novateur,
elle souffrait de défauts de jeunesse, en
particulier sur les variables décrivant
l’état du sol. Avec ERA40, on allait pouvoir produire des échantillons suffisants
pour évaluer rétrospectivement la valeur
ajoutée d’une prévision et envisager des
adaptations statistiques robustes. La
deuxième avancée était le fait que les
modèles atmosphériques utilisés dans
Provost disposaient maintenant d’une
version couplée à un modèle d’océan.
Grâce aux flux quotidiens à l’interface
air-mer produits quotidiennement par
ERA40, on pouvait constituer des états
océaniques initiaux pour les prévisions,
même en l’absence d’observations subsurface. Le projet européen Demeter,
coordonné par Tim Palmer, a offert une
base de données unique pour décrire ce
que l’on peut attendre d’une prévision
saisonnière opérationnelle. Ce projet a
associé de nombreux partenaires spécialistes de l’utilisation des prévisions (de la
production agricole sur l’Europe à la
malaria en Afrique). Un numéro spécial
de Tellus (Demeter, 2005) décrit les principaux résultats, et on trouve un aperçu
de ces résultats dans Déqué (2003).
À l’issue de Demeter, deux autres projets
européens, n’impliquant pas MétéoFrance, ont apporté des prolongements
scientifiques. Le projet Enact a cherché à
améliorer les prévisions par l’utilisation
d’un état initial de l’océan prenant en
compte des observations océaniques
autres que la TSM. Les résultats ne montrent pas un gain phénoménal en termes
La première application véritablement opérationnelle de Météo-France, en collaboration avec l’Institut de recherche pour le développement (IRD), est la prévision du stock d’eau du barrage du Manantali (Mali) qui régule le débit
du fleuve Sénégal. (© IRD, Maïga Hamadoum)
de scores de prévision, ce qui conforte les
méthodes simples et robustes comme
celle utilisée dans Demeter. Le projet
Predicate a exploré la prévisibilité à
l’échelle décennale en mode modèle parfait, ce qui veut dire que, par d’autres
intégrations du modèle (avec d’autres
conditions initiales), on essaie de reproduire une intégration particulière de ce
même modèle. On trouve une prévisibilité intéressante dans l’Atlantique nord,
mais on est encore loin de passer au stade
de prévisions réelles, car on ignore l’état
initial réel de l’océan profond. Quand
nous disposerons d’une couverture globale continue de ce genre de données, il
faudra aussi disposer d’un nombre suffisant de décennies passées pour valider
ces prévisions décennales en mode réel.
La concrétisation opérationnelle de
Demeter a été baptisée Eurosip
(European Seasonal to Interannual
Predictions). Comme le cadre des prévisions de Demeter est compatible avec
une prévision opérationnelle, les trois
partenaires en mesure de maintenir une
production en temps réel, le Met Office,
le CEPMMT et Météo-France, se sont
associés pour fournir le 15 de chaque
mois un ensemble de prévisions à six
mois constitué de quarante membres
pour chacun des trois modèles. Les
deux premiers centres produisent leur
propre analyse océanique. MétéoFrance utilise celle du groupement
Mercator-Océan. Ces prévisions sont
utilisées par tous les États membres du
CEPMMT, aussi bien pour affichage
vers le grand public que pour des applications ciblées. Par exemple, MétéoFrance, en association avec l’Institut de
recherche pour le développement
(IRD), fournit chaque fin d’été des prévisions de la réserve d’eau d’un barrage
sur le Sénégal au Mali.
Tableau 1 - Récapitulation des projets européens
consacrés à la prévision saisonnière.
Site Internet
Coordinateur
Thème
www.ecmwf.int/research/demeter/links/QJRMS.html
T. Palmer (CEPMMT)
Prévisions avec TSM
observées
Elmasifa 1994-1997
www.mediasfrance.org/Activite/Coordination/Soutien/Elmasifa/
J.-P. Verdou
(Médias-France)
Prévisions avec TSM
statistiques, application
à l’Afrique du Nord
Demeter 2000-2003
www.ecmwf.int/research/demeter
T. Palmer (CEPMMT)
Prévisions couplées
www.ecmwf.int/research/EU_projects/ENACT
P. Mason
(Met Office)
Assimilation océanique
Predicate 2000-2003
ugamp.nerc.ac.uk/predicate
R. Sutton
Prévisibilité décennale
(Université de Reading)
Ensembles 2004-2009
ensembles-eu.metoffice.com
D. Griggs
(Met Office)
Acronyme Période
Provost 1996-1999
Enact 2002-2004
Mise à jour de Demeter
et de Predicate
30
Le projet de recherche européen en
cours qui fait suite à Demeter s’appelle
Ensembles et s’achèvera en 2009. La
prévision saisonnière ne représente
qu’un tiers de son domaine d’exploration. La base de données issue de
Demeter sera mise à jour. Le nombre
des utilisateurs qui testent les prévisions
est plus élevé (une soixantaine de partenaires dans Ensembles). Deux points
plus originaux ont été ajoutés : les
méthodes de production d’ensembles,
en particulier l’introduction d’un terme
aléatoire dans les équations des modèles, et l’échéance décennale, c’est-à-dire
essentiellement le rôle de l’accroissement des gaz à effet de serre à courte
échéance climatique. Le tableau 1 récapitule les caractéristiques des projets
européens mentionnés dans cet article.
Ce qui s’est passé hors Europe pendant
ces quinze dernières années n’a pas
beaucoup été évoqué. En fait, l’Europe a
été motrice et d’autres pays ont créé leur
propre Provost (baptisé Smip pour la
Corée, l’Australie, le Japon, le Canada
et DSP aux États-Unis) ou Demeter
(baptisé Smip-2 et US-Demeter), à
quelques années d’intervalle. Bien
entendu, l’Europe n’a pas le monopole
de la recherche ni des publications, et de
nombreux travaux individuels ont été
publiés aux États-Unis, au Canada, au
Japon ou en Australie. Cependant, les
financements de recherche dans ces
pays sont nationaux, et chaque pays
possède au mieux deux centres de
production de prévisions saisonnières
numériques, ce qui ne facilite pas les
expériences multi-modèles. À l’heure
actuelle, le Programme mondial de
recherche sur le climat a décidé de
reprendre la main, en élargissant la partie prévision saisonnière du projet
Ensembles à une expérience mondiale
baptisée TFSP (Task Force for Seasonal
Prediction). C’est Ben Kirtman du Cola
(Center for Ocean-Land-Atmosphere)
qui coordonne les expériences. Ce projet
s’inscrit dans un projet ambitieux nommé Copes (Coordinated Observation
and Prediction of the Earth System).
Copes fait en particulier la promotion du
concept de prévision sans raccord
(Seamless Prediction) entre l’échelle
quotidienne et le scénario climatique. Le
principe absolu et irréalisable de la prévision sans raccord est qu’un scénario
climatique n’est qu’une prévision à
vingt-quatre heures prolongée à cent
ans. Il faut bien entendu faire des compromis sur ce qui fera l’objet de raccord.
Suivant l’acception que l’on donne au
terme prévision sans raccord, on peut y
voir une perspective de progrès (fertilisation croisée de disciplines dont
La Météorologie - n° 61 - mai 2008
certains résultats et outils sont valables à
diverses échéances) ou de régression
(vassalisation de la communauté scientifique à deux ou trois centres mondiaux
dotés de très gros moyens de calcul et
chargés de faire de l’assimilation, de la
prévision à court et moyen terme, de la
prévision saisonnière à interannuelle et
des scénarios climatiques).
Perspectives
On a pu voir dans les sections qui précèdent, que l’évolution de la recherche
en prévision saisonnière s’est faite avec
une certaine cohérence, un aspect collaboratif indéniable, et surtout sur une
échelle de temps longue, de 1975 à nos
jours. Une première conclusion est
qu’il faudrait être naïf pour attendre un
grand bouleversement dans les cinq ou
dix prochaines années. Nous allons
néanmoins examiner, en guise de
conclusion, les domaines où les développements et les progrès sont attendus, sinon espérés.
Le premier domaine d’amélioration qui
vient à l’esprit est l’augmentation de la
résolution horizontale : comment peuton encore utiliser la résolution du
milieu des années 1980 ? La réponse est
simple : toutes les tentatives d’augmenter la résolution horizontale se sont soldées par une augmentation du temps de
calcul, mais pas des scores de prévision.
En particulier, la possibilité offerte par
Arpège d’avoir une résolution variable
a conduit à une expérience de type
Demeter (44 hivers et 44 étés) avec une
résolution de 50 km sur l’Europe et la
résolution standard de 280 km aux antipodes. Ni les prévisions d’hiver ni celles d’été n’ont été améliorées sur
l’Europe et a fortiori sur le reste du
globe. Peut-être faudrait-il une résolution de 50 km sur tout le globe ? Mais
avec les moyens de calcul à notre disposition aujourd’hui (calculateur IBM du
CEPMMT), il faudrait huit ans pour
faire l’expérience de référence (dix
simulations de six mois pour chaque
mois des vingt-cinq dernières années).
L’augmentation de résolution verticale
offre des perspectives plus encourageantes, car la stratosphère a une
mémoire de plusieurs semaines et peut
influencer en hiver la circulation des
latitudes tempérées de l’hémisphère
nord, en particulier l’Oscillation NordAtlantique (NAO). Des études fondées
sur l’observation (Baldwin et al., 2003),
puis sur une autre expérience de
type Demeter restreinte à la période
novembre-février (Déqué et Piedelièvre,
2006), nous ont convaincu d’adopter
une haute résolution (quatre-vingt-onze
niveaux verticaux) à partir de 2008 dans
les prévisions Eurosip.
Un domaine d’exploration mentionné
dans la section précédente est la prévision décennale. Le but de cette approche n’est pas une fuite en avant vers des
échéances plus confortables à cause du
verdict éloigné de la confrontation à la
réalité. La démarche est motivée par
l’étude du changement climatique. On
sait qu’au cours du XXe siècle, l’augmentation de température ne s’est pas
faite de manière uniforme, et il n’y a
pas de raison qu’il en soit autrement au
cours du XXIe siècle. Certains sont tentés d’extrapoler la hausse de 0,6 °C de
la dernière décennie aux prochaines
décennies. Si c’est une baisse des températures qui survient d’ici à dix ans,
comment conserver une crédibilité face
à des décideurs qui doivent faire des
choix lourds et à long terme ? Il est loin
d’être acquis que nous soyons capables
de prévoir cette baisse (si tant est
qu’elle doive se produire). En revanche,
grâce à la technique des ensembles et
l’approche probabiliste, on doit pouvoir évaluer l’éventail des variations
possibles pour la prochaine décennie.
À l’autre extrémité du spectre des
échéances, le retour à l’échéance mensuelle est aussi une piste envisageable.
Grâce à une approche fondée sur la fréquence des régimes de temps, plus prometteuse que la simple moyenne
mensuelle, on a analysé des cas récents
où les modèles avaient vu venir des
phénomènes concernant le mois suivant, alors qu’à l’échelle saisonnière la
prévision n’avait rien donné. Il reste
bien sûr à systématiser cette démarche
et à en quantifier les bénéfices.
Un troisième pôle de progrès possible
est la combinaison d’un modèle numérique, qui se fonde sur les lois de la physique, avec des données statistiques, qui
utilisent un demi-siècle d’observation à
l’échelle du globe. Grâce à la taille des
expériences de type Demeter ou
Ensembles, nous sommes mieux armés
qu’il y a dix ans pour développer des
méthodes robustes de ce type, qui ne
soient pas simplistes. On peut en attendre trois bénéfices : une amélioration de
la prévision (la statistique corrige), une
descente vers des échelles spatiales plus
adaptées aux besoins (la statistique
interpole) et une formulation probabiliste plus performante (la statistique
gère l’incertitude que le modèle, par
essence déterministe, ne sait pas prendre en compte).
La Météorologie - n° 61 - mai 2008
31
Bibliographie
Baldwin M. P., D. B. Stephenson, D. W. J. Thompson, T. J. Dunkerton, A. J. Charlton et A. O’Neill, 2003 : Stratospheric memory and extended-range weather
forecasts. Science, 301, 636-640.
Demeter, 2005. Tellus special issue 57A.
Déqué M. et J.-F. Royer, 1984 : A General Circulation Model simulation of the atmospheric response to the January 1983 El Nino.Tropical Ocean-Atmosphere Newsletter, 27, 2-4.
Déqué M., 1988 : The probabilistic formulation: a way to deal with ensemble forecasts. Annales Geophysicae, 6, 217-224.
Déqué M., 2003 : La prévision à l’échelle saisonnière : que sait-on faire et que peut-on espérer ? La Météorologie, 8e série, 41, 20-29.
Déqué M. et J.-P. Piedelièvre, 2006 : Seasonal forecast skill increase due to vertical resolution. Research Activities on Atmospheric and Oceanic Modelling, 36, 605-606.
Déqué M., 2006 : Contribution à l’étude de la formulation probabiliste des prévisions saisonnières. Mémoire d’habilitation à diriger des recherches. Institut national
polytechnique de Toulouse, 93 p. http://www.cnrm.meteo.fr/gmgec/publications/publications_these.html#2006.
Epstein E. S., 1969 : Stochastic dynamic prediction. Tellus, 21, 739-759.
Gilchrist A., 1977 : An experiment on extended range prediction using a general circulation model and including the influence of sea surface anomalies. Beitr. Phys.
Atmosph., 50, 25-40.
Hoffman N. R. et E. Kalnay, 1983 : Lagged average forecasting, an alternative to Monte-Carlo forecasting. Tellus, 35A, 100-118.
Leith C. E., 1974 : Theoretical skill of Monte-Carlo forecasts. Mon. Wea. Rev., 102, 409-418.
Lorenz E. N., 1965 : A study of the predictability of a 28-variable atmospheric model. Tellus, 17, 321-333.
Manabe S., J. Smagorinsky et R. F. Strickler, 1965 : Simulated climatology of a general circulation model with a hydrological cycle. Mon. Wea. Rev., 93, 769-798.
Provost, 2000 : Quart. J. Roy. Meteor. Soc. special issue N° 126.
Reynolds R. W. et W. H. Gemmill, 1984 : An objective global monthly mean sea surface temperature analysis. Tropical Ocean-Atmosphere Newsletter, 23, 4-5.
Rochas M. et J.-P. Javelle, 1993 : La météorologie; la prévision numérique du temps et du climat. Syros, 262 p.
Rochas M., G. Rochas, J.-P. Mittelberger, J.-F Royer et Y. Ernie, 1980 : Présentation d’un modèle spectral de simulation des mouvements atmosphériques à grande
échelle. Note technique de l’EERM, 76, 34 p.
Royer J.-F., M. Déqué, H. Canetti et M. Boulanger, 1981 : Présentation d’un modèle spectral de circulation générale à faible résolution. Simulation du climat de janvier.
Note de travail de l’EERM, 16, 124 p.
Shukla J., 1981 : Dynamical predictability of monthly means. J. Atmos. Sci., 38, 2547-2572.
Fly UP