next up previous contents
suivant: Filtre de Kalman monter: Assimilation séquentielle précédent: Assimilation séquentielle   Table des matières

Interpolation optimale

Le principe de l'interpolation optimale est de chercher une combinaison linéaire optimale entre les observations et les états du système aux mêmes instants. L'estimateur qui réalise le minimum de la variance de l'erreur d'estimation est alors appelé BLUE, Best Linear Unbiaised Estimator ([42], [31], [12], [36]). Si on note $ x_b$ (background ou ébauche) une estimation de l'état du système $ x$ avant assimilation de données, et $ x_a$ (analysis ou état analysé) le BLUE, le but est de chercher le meilleur terme correctif à $ x_b$ en fonction du vecteur d'innovation, le vecteur $ y-y_b$ , qui représente l'écart entre les observations et l'état correspondant du système.

Il y a deux façons de trouver cette meilleure estimation. La première repose essentiellement sur des considérations statistiques et l'autre plutôt sur la minimisation d'une fonctionnelle, mais ces deux approches sont en fait très comparables. Étudions tout d'abord l'approche statistique.

Étant données deux variables aléatoires $ x$ et $ y$ d'espérances mathématiques respectives $ x_b$ et $ y_b$ , la meilleure estimation linéaire de $ x$ à partir de $ y$ (qui minimise la variance de l'erreur d'estimation) est :

$\displaystyle x_a-x_b = E\left( (x-x_b)(y-y_b)^T \right).E\left( (y-y_b) (y-y_b)^T \right)^{-1}.(y-y_b).$ (2.2)

Il apparaît alors que $ x_a-x_b$ est la projection orthogonale (au sens de la covariance statistique) de $ x$ sur l'espace vectoriel engendré par $ y$ , et par conséquent, $ x-x_a$ et $ y-y_b$ sont orthogonaux et donc décorrélés.

Nous allons désormais considérer que $ y_b$ est relié à l'ébauche $ x_b$ par une relation linéaire de la forme $ y_b=Hx_b$ , $ H$ pouvant être considéré comme un opérateur d'observation servant à relier les états du système $ x$ aux observations $ y$ . En notant $ \displaystyle B = E\left( (x-x_b)^T(x-x_b) \right)$ la matrice de covariance de l'erreur d'ébauche, et $ \displaystyle R = E
\left( (y-y_b)^T(y-y_b) \right)$ la matrice de covariance d'erreur d'observation, et en supposant que les erreurs d'ébauche et d'observation sont décorrélées, on peut réécrire (2.2) sous la forme suivante :

$\displaystyle x_a = x_b + BH^T(HBH^T+R)^{-1}.(y-Hx_b).$ (2.3)

L'équation (2.3) donne le meilleur estimateur possible (le BLUE) de $ x$ connaissant le vecteur d'ébauche $ x_b$ , le vecteur d'innovation $ y-y_b$ et les matrices de covariance des erreurs relatives à l'estimation de l'état réel $ B$ et aux mesures des observations $ R$ .

Si on s'intéresse au même problème, mais en essayant de quantifier l'écart du vecteur d'état $ x$ par rapport à $ x_b$ et celui de l'observation $ y$ par rapport à $ Hx$ , nous pouvons introduire la fonction coût suivante :

$\displaystyle J(x) = \frac{1}{2} (x-x_b)^TB^{-1}(x-x_b) + \frac{1}{2} (y-Hx)^T R^{-1} (y-Hx).$ (2.4)

La première partie de la fonctionnelle $ J$ mesure l'écart au sens des moindres carrés (via la matrice de covariance d'erreur d'ébauche) entre l'état du système $ x$ et l'ébauche $ x_b$ . Le second terme mesure de la même façon l'écart aux observations. Le minimum d'une telle fonction coût devrait ainsi être proche à la fois de l'ébauche et des observations.

En supposant l'opérateur d'observation $ H$ linéaire, la fonctionnelle $ J$ est strictement convexe et son minimum est alors atteint lorsque son gradient est nul :

$\displaystyle \nabla J(x_a) = B^{-1}(x_a-x_b)-H^TR^{-1}(y-Hx_a) = 0$ (2.5)

ce qui donne

$\displaystyle \begin{array}{rcl}
x_a &=& \displaystyle \left( B^{-1}+H^TR^{-1}H...
...tyle x_b + \left(B^{-1}+H^TR^{-1}H\right)^{-1}
H^TR^{-1} (y-Hx_b). \end{array} $

Un calcul rapide portant sur la matrice de gain $ \left(B^{-1}+H^TR^{-1}H\right)^{-1}
H^TR^{-1}$ montre que cette formule est équivalente à

$\displaystyle x_a = x_b + BH^T(HBH^T+R)^{-1}.(y-Hx_b),$ (2.6)

ce qui est exactement la même équation que (2.3).

Cette méthode est relativement rapide, puisqu'il suffit de multiplier le vecteur d'innovation par une matrice (matrice de gain) pour obtenir le terme correctif à apporter à l'ébauche pour trouver la meilleure estimation linéaire de l'état réel du système. Ceci dit, elle repose essentiellement sur la connaissance des deux matrices de covariance d'erreur, ce qui est loin d'être le cas, ainsi que sur la linéarité de l'opérateur d'observation $ H$ , ce qui n'est pas toujours vrai. Enfin, la taille des matrices n'est pas sans poser quelques difficultés numériques.


next up previous contents
suivant: Filtre de Kalman monter: Assimilation séquentielle précédent: Assimilation séquentielle   Table des matières
Retour à la page principale