next up previous contents
suivant: Projets opérationnels monter: Difficultés actuelles et objectifs précédent: Difficultés actuelles et objectifs   Table des matières

Difficultés et enjeux

Chacune des méthodes d'assimilation de données présentées dans ce chapitre a son lot de difficultés, plus ou moins faciles à gérer. Il ressort globalement deux principaux défauts communs à toutes ces techniques.

La première concerne la non linéarité. En effet, que ce soient les méthodes séquentielles ou les méthodes variationnelles, elles doivent toutes à un moment ou un autre utiliser les versions linéarisées des modèles et opérateurs. Elles ne sont plus optimales, rien n'assure même qu'elles fournissent un résultat intéressant dès qu'il y a des non linéarités présentes dans les équations. Or les équations régissant l'océan et l'atmosphère sont loin d'être linéaires. Les erreurs de diverses natures n'étant pas toujours bien connues, elles viennent s'ajouter à des calculs déjà approximatifs du fait des linéarisations qui interviennent tout au long de ces méthodes.

Quelques pistes sont actuellement explorées pour essayer d'atténuer les problèmes liés aux erreurs mal identifiées ainsi qu'aux non linéarités. Il faut notamment citer la classe d'algorithmes de type 4D-PSAS, qui permettent déjà de supprimer le problème de l'erreur modèle. De plus, il existe désormais un certain recul dans le monde de la prévision qui permet d'avoir de bonnes statistiques d'erreurs (sur l'ébauche et sur les observations).

L'enjeu est évidemment d'améliorer sensiblement les résultats de l'assimilation, et par là-même, les prévisions à plus ou moins court terme. Celles-ci ont déjà fait d'énormes progrès, et les prévisions météo à $ 3$ jours sont du même ordre de fiabilité que les prévisions à $ 24$ heures d'il y a quelques années. L'objectif est maintenant d'obtenir des prévisions que l'on pourrait qualifier de très fiables (faible taux d'erreur) une semaine à l'avance en météo.

Une seconde difficulté de ces méthodes est leur coût de mise en \oeuvre numérique exhorbitant. Ceci vient de la dimension du problème, environ $ 10^6$ à $ 10^7$ . À ce stade, il devient délicat de travailler avec des matrices, et une simple résolution d'un système d'équations différentielles peut déjà s'avérer coûteuse.

Là encore, plusieurs pistes sont explorées : le filtre SEEK avec la réduction d'ordre pour les méthodes séquentielles ; le 4D-VAR séquentiel pour réduire là aussi la dimension du vecteur de contrôle, le 4D-PSAS qui se place dans l'espace des observations, de dimension plus petite, pour les méthodes variationnelles.

L'objectif de réduire les dimensions du problème est double. D'une part on peut améliorer les modèles (plus de points de grille par exemple) et les résultats (minimisation plus poussée dans les méthodes variationnelles), mais on doit aussi rendre ces méthodes opérationnelles. En effet, il faut pouvoir traiter les observations que l'on récupère dans un certain laps de temps en beaucoup moins de temps. En imaginant qu'on récupère en un seul coup toutes les observations réalisées sur une fenêtre de $ 24$ heures, il faudra réussir à appliquer une méthode d'assimilation de données les utilisant en beaucoup moins que $ 24$ heures. Sinon le simple fait de traiter ces observations aura fait perdre $ 24$ heures de prévision opérationnelle. Si les prévisions ne sont très fiables qu'à $ 48$ heures, on ne pourra fournir des prévisions utilisables que pour $ 24$ heures. L'enjeu est donc énorme puisque chaque heure gagnée sur l'analyse des données est une heure de prévision utilisable gagnée.


next up previous contents
suivant: Projets opérationnels monter: Difficultés actuelles et objectifs précédent: Difficultés actuelles et objectifs   Table des matières
Retour à la page principale