next up previous contents
suivant: Remarques générales sur les monter: Assimilation variationnelle précédent: 4D-VAR incrémental   Table des matières

4D-PSAS (Physical Space Analysis System)

À ce jour, le principal inconvénient du 4D-VAR (et de sa version incrémentale) est qu'il suppose le modèle parfait, et il ne peut à aucun moment prendre en compte une erreur modèle. En effet, cela reviendrait à rajouter un terme inconnu, dépendant du temps, au modèle direct (ainsi qu'au linéaire tangent et à l'adjoint). Il faudrait ensuite ajouter ces termes au vecteur de contrôle, et le problème de minimisation serait alors très délicat à résoudre, sa taille pouvant facilement dépasser $ 10^9$ . En effet, même si le nombre d'itérations à effectuer dans l'algorithme de minimisation est indépendant de la taille du problème, le coût de chaque itération augmente.

L'algorithme 4D-PSAS, encore appelé algorithme dual, permet de prendre en compte de façon inhérente l'erreur modèle ([4], [5], [1], [9], [33], [32]). Nous allons expliquer sommairement son principe, car nous reviendrons dessus en détail dans le chapitre $ 6$ .

Rajoutons une erreur dans le modèle discrétisé :

$\displaystyle x_{i+1} = M_i x_i + \varepsilon_i, \quad i\ge 0,$ (2.28)

$ M_i$ désignant, comme dans le paragraphe sur le filtre de Kalman, une approximation linéaire du modèle à l'instant $ t_i$ . $ \varepsilon_i$ représente l'erreur modèle à cet instant. Notons $ o_i$ l'erreur d'observation :

$\displaystyle y_i=H_i x_i + o_i,$ (2.29)

avec $ H_i$ une approximation linéaire de l'opérateur d'observation à l'instant $ t_i$ .

Il faut définir une nouvelle fonction coût, intégrant les erreurs modèle :

\begin{displaymath}\begin{array}{rcl} J(x_0,\varepsilon_0,\dots,\varepsilon_n) &...
...\sum_{i=0}^n \varepsilon_i^T Q_i^{-1} \varepsilon_i \end{array}\end{displaymath} (2.30)

$ Q_i$ est la matrice de covariance de l'erreur modèle à l'instant $ t_i$ .

Comme nous l'avons précédemment vu, il est difficile de minimiser une telle fonction, simplement au vu de la taille et du nombre des vecteurs inconnus.

Plaçons nous dans une optique lagrangienne, où l'on chercherait à minimiser la fonctionnelle $ J$ précédente. En écriture incrémentale, on peut définir le lagrangien suivant :

\begin{displaymath}\begin{array}{rcl} \mathcal{L}(\delta x_0,(\varepsilon_i)_{0\...
..._i\delta x_0 + \tilde{\varepsilon}_i) \right] . m_i \end{array}\end{displaymath} (2.31)

$ d_i=y_i-H_i(x_b(t_i))$ est le vecteur d'innovation à l'instant $ t_i$ et $ \mathcal{Y}_i=H_i(\delta x(t_i))$ est le représentant de l'état du système à l'instant $ t_i$ dans l'espace des observations. Si on suppose que $ \mathcal{Y}_i$ est désormais une inconnue, il faut rajouter à la fonctionnelle la contrainte de modèle portant sur $ \mathcal{Y}_i$  : $ \delta x(t_i)=\mathcal{M}_i \delta x_0 + \tilde{\varepsilon}_i$ , en notant $ \mathcal{M}_i$ le modèle linéaire tangent permettant de passer de l'instant 0 à l'instant $ t_i$ , et $ \tilde{\varepsilon}_i$ l'erreur correspondante. $ m_i$ désigne le multiplicateur de Lagrange associé à la $ i^{\textrm{\\lq eme}}$ contrainte.

Le modèle apparaît désormais comme une contrainte faible et n'est plus une contrainte forte comme dans le 4D-VAR. On a la propriété suivante (voir [43] pour les problèmes de min-max et d'optimisation sous contrainte) :

$\displaystyle \min_{\delta x_0,(\varepsilon_i)} J(x_0,(\varepsilon_i)_{0\le i\l...
...varepsilon_i)_{0\le i\le n},(\mathcal{Y}_i)_{0\le i\le n} ;(m_i)_{0\le i\le n})$ (2.32)

Il ne reste plus qu'à changer l'écriture de (2.32) pour obtenir un problème de maximisation (de la fonctionnelle duale), équivalent au problème de minimisation de la fonctionnelle primale (2.30) :

\begin{displaymath}\begin{array}{rl} & \displaystyle \min_{\delta x_0,(\varepsil...
...athcal{D}\left( (m_i)_{0\le i\le n} \right) \right] \end{array}\end{displaymath} (2.33)

Il faut noter que la réécriture du problème consistant à minimiser la fonctionnelle $ J$ sous forme d'un problème de min-max ainsi que la réécriture duale du problème ne nécessite pas que le problème soit linéaire, toute cette théorie reste valable lorsque le problème est convexe.

Quitte à changer le signe du résultat, on se ramène à devoir minimiser la fonctionnelle duale suivante :

\begin{displaymath}\begin{array}{rcl} J_\mathcal{D}\left( (m_i)_{0\le i\le n}\ri...
...]  [0.5cm] &-& \displaystyle \sum_{i=0}^n d_i.m_i \end{array}\end{displaymath} (2.34)

Sous forme matricielle, cela peut s'écrire

$\displaystyle J_\mathcal{D}(m)=\frac{1}{2} m^T (\mathcal{D}+ R) m - d^T m$ (2.35)

avec $ \mathcal{D}=H\mathcal{M}B\mathcal{M}^TH^T+HQH^T$ , appelée matrice des représenteurs car chacun de ses c\oefficients agit sur une et une seule observation. Dans un cadre linéaire, la fonctionnelle duale est quadratique et donc facile à minimiser, son gradient étant évident. La théorie classique de la dualité assure de plus que les deux fonctionnelles, primale (2.30) et duale (2.34), ont même minimum, et que ce minimum est atteint au même point.

L'autre point intéressant de cet algorithme est que le vecteur de contrôle dual ($ m$ ) appartient à l'espace des observations qui est de dimension souvent $ 10$ fois plus petite que l'espace des états pour la fonctionnelle primale. En effet, pour un modèle opérationnel, la dimension du vecteur d'état est compris entre $ 10^6$ et $ 10^7$ alors que les observations utilisables sont en général de l'ordre de $ 10^5$ pour les périodes d'assimilation usuelles. La minimisation intervient donc sur un espace plus petit, il est donc possible d'obtenir de meilleurs résultats pour un nombre comparable d'itérations dans l'algorithme de descente. En effet, chaque itération dans la minimisation a globalement le même coût que pour le 4D-VAR puisque le conditionnement du problème est sensiblement le même, mais pour le même coût, le 4D-PSAS prend en compte l'erreur modèle.

Enfin, l'algorithme dual utilise le modèle comme une contrainte faible, mais il suffit de faire tendre les erreurs modèle $ \varepsilon_i$ vers 0 pour retrouver à la limite l'algorithme primal (4D-VAR) à contrainte forte. Ce passage à la limite ne pose aucune difficulté puisque le 4D-PSAS utilise les matrices de covariance directes (et non leurs inverses comme dans le cas du 4D-VAR).

Le 4D-PSAS est donc une alternative intéressante au 4D-VAR puisqu'il conduit, en théorie, aux mêmes résultats, mais l'algorithme dual est le seul qui permet en pratique en prendre en compte l'erreur modèle. Pour ces raisons, cet algorithme est probablement celui qui devrait équiper prochainement les centres européens de prévision météo.



Sous-sections
next up previous contents
suivant: Remarques générales sur les monter: Assimilation variationnelle précédent: 4D-VAR incrémental   Table des matières
Retour à la page principale