next up previous contents
suivant: Justification théorique dans un monter: Nudging direct précédent: Nudging direct   Table des matières

Principe de la méthode

Le principe du nudging est le suivant : considérons un système dynamique dont l'état à l'instant $ t$ est défini par un vecteur $ X(t)$ de $ \mathbb{R}^n$ , et régi par une équation différentielle du type

$\displaystyle \displaystyle \frac{dX}{dt} = F(X).$ (4.14)

On suppose que l'on dispose d'un jeu d'observations d'une partie du système, effectuées sur une période d'assimilation $ [0,T]$ à intervalles réguliers de temps $ h$  : $ X_{obs}(t_0),X_{obs}(t_1),$ $ \ldots$ , $ X_{obs}(t_N)$ , avec $ t_0=0$ , $ t_i=t_0+ih$ et $ t_N=t_0+Nh=T$ .

Ces observations sont des vecteurs de $ \mathbb{R}^p$ avec $ p \le n$ . En effet, généralement, les observations ne concernent qu'une partie du système. Par exemple, il est assez difficile d'obtenir des observations océaniques en profondeur et elles sont en quantité négligeable par rapport aux observations de surface. Il faut donc un opérateur $ C$ de projection de l'espace des vecteurs d'état $ \mathbb{R}^n$ dans celui des vecteurs d'observation $ \mathbb{R}^p$ . Nous avons également besoin d'une matrice $ K\in \mathcal{M}_{np}(\mathbb{R})$ (appelée plus tard matrice de nudging) permettant de passer d'un vecteur d'observations $ X_{obs}$ à un vecteur d'état $ X$ .

Les observations dont on dispose étant réalisées par des stations-sondes ou des satellites par exemple dans le cas de la météorologie, elles ne sont pas parfaites. Nous appellerons dans la suite erreur d'observation la différence entre les observations et les états réels du système $ \varepsilon(t_i)=X_{obs}(t_i)-CX(t_i)$ .

Le nudging consiste alors à chercher une solution $ X$ de l'équation (4.14) qui soit la plus proche possible de l'échantillonage $ X_{obs}$ . Pour celà, on rajoute un terme de rappel aux observations aux instants $ t_i$  :

$\displaystyle \displaystyle \frac{dX}{dt} = F(X)+ \sum_{i=0}^N K(X_{obs}(t_i)-CX(t_i)) .\delta(t-t_i)$ (4.15)

Nous verrons dans la suite que le choix des c\oefficients de $ K$ est très important puisque si $ K$ est choisie trop petite, l'équation (4.15) sera pratiquement identique à l'équation (4.14) et la présence d'observations disponibles ne sera pratiquement pas exploitée. À l'inverse, si les c\oefficients de la matrice de nudging sont choisis trop grands, la solution ainsi fabriquée ne sera plus représentative des équations primitives du modèle. De plus, les différents c\oefficients de $ K$ permettent de répartir à toutes les coordonnées des vecteurs d'état l'information disponible uniquement sur certaines composantes. Cela permet par exemple dans le cas d'un océan de propager l'information souvent disponible uniquement en surface à tous les niveaux de profondeur.

L'avantage de cette méthode par rapport à des méthodes plus classiques d'assimilation de données est sa simplicité et son faible coût de mise en \oeuvre lors de tests numériques. En effet, à part le choix de $ K$ , certes important, la méthode ne consiste qu'à intégrer l'équation (4.15) pour obtenir une trajectoire passant relativement près de toutes les observations et à partir de laquelle des prévisions futures peuvent être obtenues en intégrant simplement le système initial (4.14). Nous verrons dans les parties concernant les applications numériques la qualité des prévisions que l'on pourra en déduire.


next up previous contents
suivant: Justification théorique dans un monter: Nudging direct précédent: Nudging direct   Table des matières
Retour à la page principale