next up previous contents
suivant: Interprétation séquentielle monter: Choix des matrices de précédent: Choix des matrices de   Table des matières

Interprétation variationnelle du nudging

Concernant la matrice de nudging direct, la méthode ayant été beaucoup étudiée et utilisée dans les $ 30$ dernières années [70,110,104,103], il existe plusieurs possibilités pour fixer la matrice $ K$ de nudging direct. La plus connue est la méthode du nudging optimal, permettant de déterminer les c\oefficients optimaux grâce à une méthode variationnelle d'estimation de paramètres [120,113].

Nous pouvons déjà noter qu'imposer $ K=0$ dans (3.2) nous ramène aux équations du modèle (3.1). D'un autre côté, imposer $ K=+\infty$ revient à substituer les observations à la trajectoire du modèle à chaque instant d'observation. L'un comme l'autre ont l'inconvénient de privilégier l'une des deux sources d'information (modèle et données) aux dépens de l'autre.

Soit $ R$ la matrice de covariance des erreurs d'observation. Cette matrice intervient dans les méthodes classiques d'assimilation de données, aussi bien variationnelles (3D-VAR, 4D-VAR, 4D-PSAS, ...) que séquentielles (filtres dérivés du filtre de Kalman) [54,61,91,66,67]. En pratique, on ne connaît pas exactement les statistiques d'erreur, et on considère donc une approximation de cette matrice, qu'on suppose symétrique définie positive.

On suppose ici que le modèle est linéaire, i.e. que $ F$ est un opérateur linéaire. On suppose également que $ F$ représente un opérateur symétrique. Une discrétisation temporelle classique (méthode d'Euler implicite) de l'équation (3.2) est la suivante:

$\displaystyle \frac{X^{n+1}-X^n}{\Delta t} = F X^{n+1} + K(X_{obs} - C X^{n+1}),$ (3.7)

$ \Delta t$ représente le pas de discrétisation temporelle, et $ X^n$ représente la solution du problème discret à l'insant $ t_n$ .

En choisissant

$\displaystyle K = C^T R^{-1},$ (3.8)

alors le problème (3.7) est équivalent au problème d'optimisation suivant:
$\displaystyle X^{n+1}=\textrm{arg}\min_X$   $\displaystyle \hspace*{-0.5cm}\left[ \displaystyle\frac{1}{2} \langle X-X^n,X-X^n\rangle - \frac{\Delta t}{2} \langle FX,X\rangle \right.$ (3.9)
    $\displaystyle \hspace*{-0.5cm} + \left. \frac{\Delta t}{2} \langle R^{-1}(X_{obs}-CX),X_{obs}-CX\rangle \right].$  

Les deux premiers termes correspondent exactement à l'énergie du modèle direct discrétisé, et le dernier terme est la partie relative aux observations de la fonctionnelle coût de l'algorithme 4D-VAR [78]. Ce principe variationnel montre qu'à chaque pas de temps, le nudging direct revient à faire un compromis entre minimiser l'énergie du système et minimiser l'écart aux données.

Comme conséquence directe, nous constatons qu'il n'y a aucune nécessité d'introduire un terme supplémentaire de régularisation, comme c'est le cas dans le 4D-VAR avec un terme de rappel à une ébauche de la condition initiale. Dans l'algorithme BFN, il suffit d'initialiser avec l'ébauche, sans besoin d'avoir une information sur ses statistiques d'erreur, et sans la prendre en considération dans le reste de l'algorithme.

Le BFN fournit automatiquement une correction du modèle grâce aux observations, et le modèle est alors une contrainte faible. L'énorme avantage est que cette méthode est moins sensible au fait que le modèle théorique ne modélise pas forcément bien la réalité.

À noter que dans les cas non linéaires, le terme $ \langle FX,X\rangle$ de l'équation (3.9) peut être remplacé par un terme $ -G(X)$ , où $ G$ est l'énergie du système à l'équilibre.


next up previous contents
suivant: Interprétation séquentielle monter: Choix des matrices de précédent: Choix des matrices de   Table des matières
Retour à la page principale