next up previous contents
suivant: L'assimilation de données monter: Table des matières précédent: Table des matières   Table des matières

Introduction

La recherche scientifique repose sur deux sources d'information et d'étude différentes, les observations d'une part, et les modèles de l'autre. Au cours de l'histoire des Sciences, les observations ont d'abord été qualitatives puis se sont raffinées pour devenir quantitatives, alors que parallèlement, les modèles descriptifs se sont renforcés de l'apport des mathématiques, en particulier de l'Analyse Numérique.

Au cours des dernières décennies, les progrès dans l'étude de l'enveloppe fluide de la Terre, océans et atmosphère, ont été rendus possible par la conjonction systématique des observations et des apports de la théorie. La motivation et l'enjeu principal de ces deux sources de connaissances étaient et sont toujours le besoin immédiat de prévisions météorologiques numériquement calculables. Très rapidement, dans la recherche de méthodes adéquates, s'est imposée l'idée selon laquelle les modèles dynamiques utilisés devaient rendre compte de la propagation des informations dans le temps et dans l'espace. Cette notion fondamentale de propagation compense la disparité et l'imprécision des observations et permet de construire une image consistante, quadridimensionnelle, de l'atmosphère, ou plus généralement d'un fluide dont la taille rend compliquée voire impossible la description complète. L'un des enjeux de ce type d'étude est donc de confronter une nécessité d'information (météorologie ...), et la complexité des données : bruit, distribution très irrégulière des mesures dans le temps et dans l'espace. La combinaison de modèles numériques rendant compte des lois fondamentales de la Physique et des observations disponibles s'appelle assimilation de données, et donne lieu à des recherches actuellement en plein essor.

Les enjeux d'une telle connaissance prévisionnelle des océans et de l'atmosphère ne sont pas que purement scientifiques. Il y a en effet des enjeux environnementaux (traçabilité du dioxyde de carbone dans l'atmosphère, réchauffement de la planète, ...) ainsi qu'un aspect grand public : prévisions météorologiques accessibles à tous. Les prévisions ont également un rôle sécuritaire de plus en plus important, avec par exemple la mise en garde des populations contre d'éventuels événements climatiques hors normes (tempêtes, sécheresse, inondations, ...) et l'utilité de prévisions océanographiques et météorologiques fiables à moyen terme pour le transport public (aviation civile, transport maritime, ...).

Conscients de l'importance de toutes ces applications de l'assimilation de données, de nombreux centres de recherche participent depuis plusieurs années à de vastes projets mondiaux ayant pour but non seulement la prévision opérationnelle, mais aussi l'étude de l'impact humain sur l'évolution du système océans-atmosphère et une meilleure connaissance des nombreux phénomènes climatiques régissant ce système. Cela est rendu possible par une amélioration, qualitative et quantitative, des sources d'information, notamment grâce aux nouvelles générations de satellites d'observation (European Remote Sensing ERS 2, Jason, Envisat), et aussi par une incessante augmentation des moyens de calcul. Malgré tout, de nombreuses difficultés demeurent (résolution des modèles encore mal adaptée à certains phénomènes turbulents, simplification des équations du modèles, paramètres physiques mal estimés, ...).

Il existe à ce jour deux grandes classes de méthodes d'assimilation de données qui correspondent à deux approches bien distinctes. Tout d'abord, l'assimilation séquentielle, qui repose sur des considérations statistiques et qui procède par corrections successives de la prévision du modèle au fur et à mesure que des observations sont disponibles ; et l'assimilation variationnelle, qui consiste à ajuster au mieux une solution du modèle à toutes les observations disponibles tout au long de la période d'assimilation.

Quelle que soit la méthode choisie, les problèmes sont globalement les mêmes, essentiellement celui de la taille du système, qui comprend généralement plus de $ 10^7$ degrés de liberté, et qui pose certains soucis de temps de calcul et d'espace mémoire. La gestion des différentes erreurs commises dans le modèle et les observations est également délicate.

Les objectifs actuels en recherche sont donc les suivants : réduire la taille des systèmes étudiés sans perdre d'information, améliorer la connaissance des paramètres physiques et la statistique des erreurs de mesure, prendre en compte l'erreur modèle sans trop pénaliser la résolution numérique ...

Dans un premier temps, nous verrons dans le chapitre $ 2$ quelques notions et définitions générales sur l'assimilation de données, les différentes méthodes actuelles, leurs intérêts et inconvénients ainsi que les projets opérationnels actuellement en cours d'élaboration à l'échelle mondiale.

Puis nous étudierons dans le chapitre $ 3$ différents algorithmes de minimisation en vue d'une résolution effective d'un problème variationnel. Nous étudierons en détail l'algorithme L-BFGS (Limited memory Broyden-Fletcher-Goldfarb-Shanno), particulièrement adapté à des problèmes de grande taille et nous testerons ses différentes variantes sur l'équation de Burgers.

Le chapitre $ 4$ est consacré à l'étude de deux méthodes servant à résoudre le problème inverse de l'identification de l'état initial. Il s'agit respectivement du nudging (direct ou rétrograde), et de la quasi-réversibilité et certaines de ses variantes.

Le chapitre $ 5$ introduit la notion de dualité dans l'assimilation de données en vue d'incorporer au modèle un terme d'erreur qui soit numériquement gérable. Nous donnons tout d'abord les équations du modèle physique utilisé pour les expériences, avant de comparer l'algorithme variationnel quadri-dimensionnel 4D-VAR et l'algorithme dual sur ce modèle.

Différentes expériences numériques ont été menées sur un modèle quasi-géostrophique barocline afin de comparer ces deux méthodes, dans plusieurs cas de figures : reconstitution de l'état initial, prévisions, sensibilité à l'erreur modèle, aux observations ... Les différents résultats seront présentés dans le chapitre $ 6$ , qui précèdera une conclusion générale concernant ces différentes techniques liées de près ou de loin à l'assimilation de données.


next up previous contents
suivant: L'assimilation de données monter: Table des matières précédent: Table des matières   Table des matières
Retour à la page principale