next up previous contents
suivant: Principaux résultats théoriques de monter: Expériences numériques précédent: Modèle quasi-géostrophique multi-couches   Table des matières

Conclusions relatives aux expériences numériques

L'algorithme BFN (nudging direct et rétrograde) semble être une méthode d'assimilation de données extrêmement intéressante. Elle est en effet très simple à mettre en \oeuvre: pas de linéarisation des équations, pas de modèle adjoint, pas d'optimisation. La seule tâche consiste à ajouter le terme de relaxation dans les équations du modèle.

Cet algorithme a été testé et comparé avec la méthode variationnelle sur plusieurs types de systèmes non linéaires: Lorenz (équation différentielle ordinaire, chaotique), Burgers (équation aux dérivées partielles en dimension 1), Saint-Venant ou shallow water (dimension 2), modèle quasi-géostrophique (dimension 3). La conclusion de toutes ces expériences numériques est que notre algorithme converge beaucoup plus rapidement que la méthode variationnelle, et fournit de bien meilleurs résultats dans le même temps, pour les toutes premières itérations. La condition initiale est généralement moyennement bien identifiée, mais la solution correspondante à la fin de la période d'assimilation est nettement meilleure. C'est le point clé pour la phase de prévision, et notre algorithme se révèle beaucoup plus efficace pour obtenir de très bonnes prévisions, qui restent fiables dans le temps.

Les deux algorithmes (BFN et variationnel) peuvent être combinés de la façon suivante: puisque le BFN identifie à chaque itération une estimation de la condition initiale, il est possible d'appliquer quelques itérations du BFN, puis utiliser la solution ainsi identifiée comme point de départ pour la minimisation de l'algorithme variationnel. Cela a pour effet d'accélérer assez nettement la convergence de la méthode variationnelle, puisqu'il faut généralement 2 fois moins d'itérations pour converger, alors que seules quelques (2 à 5) itérations de BFN ont été réalisées au départ. Sans atteindre la convergence (i.e. lorsque le temps de calcul imparti ne permet de faire qu'un nombre assez faible d'itérations), l'utilisation du BFN en préconditionneur de la méthode variationnelle permet d'obtenir de bien meilleurs résultats qu'en faisant le nombre total d'itérations avec uniquement la méthode variationnelle.

Enfin, le nudging direct et rétrograde permet de prendre en compte l'erreur modèle de façon inhérente (sans coût additionnel) puisqu'il consiste justement à voir le modèle comme une contrainte faible et non comme une contrainte forte (comme c'est généralement le cas dans les méthodes variationnelles), la correction du modèle étant réalisée à l'aide des observations.


next up previous contents
suivant: Principaux résultats théoriques de monter: Expériences numériques précédent: Modèle quasi-géostrophique multi-couches   Table des matières
Retour à la page principale