L'activité de recherche est centrale, au sein de l'établissement public Météo-France. Elle est organisée en unités mixtes de recherche ou de services, en partenariat avec différentes entités – vous avez évoqué le CNRS. Le CNRM est la grande unité de recherche de Météo-France ; il est situé à Toulouse – avec une annexe à Grenoble pour l'étude des avalanches, qui ne nous concerne pas aujourd'hui – et compte 230 employés permanents et une centaine de non-permanents – doctorants, post-doctorants etc. Météo-France est également la tutelle du Laboratoire de l'atmosphère et des cyclones (LACY), situé à La Réunion, qui a pour vocation d'améliorer la prévision des cyclones et qui est en lien avec la mission de Météo-France de protection des risques cycloniques dans cette partie de l'océan Indien.
Le CNRM part de la recherche amont pour aller vers la recherche la plus appliquée, afin de répondre à la mission confiée à Météo-France : assurer la protection des personnes et des biens, mais aussi contribuer à la valorisation socio-économique de l'information météorologique et climatique.
Il importe, pour établir des prévisions météorologiques, de disposer d'une bonne information de l'état initial de l'atmosphère. C'est pourquoi nous développons une compétence particulière, d'une part pour instruire des processus, pour les comprendre afin, ensuite, de mieux les modéliser, d'autre part, pour qualifier des instruments qui, eux, ont vocation à être opérationnels. Nous allons par exemple tester des détections pour les lumières, dites « lidars », mais aussi des radars spécifiques. Voilà pour la partie amont.
Ces éléments doivent ensuite alimenter le modèle de prévision. Les équations sont connues, bien posées et elles sont résolues grâce aux modèles mathématiques ; puis il faut les écrire de manière informatique – les modèles différant en fonction du mode d'écriture. Reste que, fondamentalement, la première étape est la création des conditions initiales pour établir une prévision où que ce soit, en outre-mer, en métropole ou une prévision globale. Cette phase s'appelle l'assimilation. Il existe une école française en la matière puisque nous avons été très novateurs, depuis les années 1980, dans le développement d'une technique appelée 3D-Var. Pour démarrer nos prévisions, nous essayons de produire la meilleure condition initiale à l'instant T, tout en tenant compte de l'importance de l'histoire – en général les vingt-quatre heures précédant la prévision. Nous avons donc développé des techniques qui intègrent cette dimension temporelle. Il faut en outre savoir que le système des équations que nous employons est très fortement non-linéaire et, de fait, les méthodes utilisées jusqu'à présent nous obligeaient à les simplifier un peu, à les linéariser car les phénomènes rapides, intenses, avec de fortes variations dans le temps, pouvaient être indurés. Aussi la recherche de demain consistera-t-elle à employer une technique qui gardera l'avantage d'une assimilation étendue sur vingt-quatre heures, mais qui prendra en compte cette non-linéarité. C'est ce qu'on appelle l' « assimilation d'ensemble ».
La construction des conditions initiales comprend donc cette partie mathématique ; elle s'appuie également, dans un second temps, sur la valorisation des informations météorologiques dont nous disposons. Nous avons en effet besoin de traduire les images fournies par le satellite en informations utiles pour notre modèle. Ainsi développons-nous ce que nous appelons les opérateurs d'observation. Nous menons en outre d'importants travaux sur de futurs satellites comme ADM-Aeolus, programme de l'Agence spatiale européenne, qui permettra de mesurer le vent partout sur le globe. Nous pourrons également compter sur le programme européen Météosat troisième génération (MTG), avec un satellite qui sera mis sur orbite aux alentours de 2022 et qui sera pourvu d'un sondeur infrarouge centré à la fois sur la métropole et sur l'océan Indien – outil dont nous pourrons tirer une bonne information – et sur une nouvelle génération de satellites européens défilants qui nous permettront de disposer d'informations pour tout le globe. Autant d'instruments, j'y insiste, grâce auxquels nous pourrons améliorer les conditions initiales d'analyse de l'atmosphère.
Ensuite, pour ce qui concerne l'état de la mer, des travaux sont en cours visant à améliorer les conditions initiales de notre modèle de vagues. Nous pourrons compter, dans le cadre du projet Copernicus, sur le satellite Sentinel 1, pourvu d'un radar à synthèse d'ouverture, sur le satellite Sentinel 3, mais aussi sur le CFOSAT (China-France Oceanography satellite), satellite franco-chinois grâce auquel nous allons pouvoir améliorer la définition de l'état initial de la surface océanique.
Les conditions initiales définies, il faut passer au modèle destiné à la prévision. Les travaux en cours pour améliorer le système sont tous fondés, je l'ai dit, sur un jeu d'équations standard appelées équations de « Navier-Stokes ». Pour ce qui est de la partie physique de l'atmosphère, des interactions des particules de rayonnement dans les nuages, les travaux en cours visent à mieux représenter la microphysique nuageuse, à savoir les processus qui se développent au sein du nuage pour former les gouttelettes d'eau. Il s'agit d'un enjeu important, car on se rend compte que la dynamique des systèmes fortement précipitants, que ce soit pour les éléments dits cévenols qui concernent la côte du Sud de la France ou pour les cyclones qui concernent la plupart de nos territoires d'outre-mer, est assez difficile à comprendre sur le plan physique – il faut la mesurer puis la modéliser.
Autre élément important pour nous : connaître tout ce qui se passe à la surface. Nos modèles permettent de connaître la température de la surface de la mer, mais pas de mesurer les interactions réelles, comme c'est le cas dans les modèles de climat. Notre but à court terme est par conséquent de coupler notre modèle d'atmosphère avec le modèle d'océan car les flux, les interactions sont ici très importants. Cet aspect concerne aussi bien l'outre-mer que les éléments cévenols. Mieux représenter la surface – qui a un rôle crucial dans le comportement de l'atmosphère – est peut-être un aspect encore plus sensible pour la métropole – on pense ici à la réévaporation de l'humidité de la surface, qui passe directement par le sol ou bien par la végétation.
Nous sommes en train par ailleurs de franchir une étape. Nous avons longtemps considéré que l'évolution de l'atmosphère pouvait être prévue de façon déterministe : connaissant une condition initiale, on avait une grande confiance dans la prévision réalisée. On savait néanmoins que le système était chaotique, donc sensible aux conditions initiales. Or quand on s'attaque à des échelles comme celle de la convection, celle de la précipitation – voire des cyclones –, il faut savoir quel est l'univers du possible à partir d'une condition initiale connue. Aussi développons-nous depuis quelque temps une technique appelée ensembliste, très familière au monde climatologique, mais utilisée dans une moindre mesure pour la prévision numérique du temps car cette technique coûte cher et doit donc être appliquée dans un temps limité. Il s'agit de perturber les conditions initiales avec les méthodes mathématiques appropriées et d'obtenir plusieurs prévisions pour la même situation afin de tâcher d'en tirer une information probabiliste répondant à la double question suivante : quelle confiance puis-je avoir dans la prévision de référence et quel est le risque d'avoir une prévision extrême qui n'est représentée qu'une seule fois dans l'univers du possible ? Nous travaillons donc à la valorisation de cette information probabiliste sur la prévision, autrement dit, en langage simple, sur la confiance que je peux avoir dans la prévision et dans les risques qui lui sont associés.