next up previous contents
suivant: 3D-VAR incrémental monter: Assimilation variationnelle précédent: Assimilation variationnelle   Table des matières

3D-VAR

Nous notons encore $ x_b$ l'ébauche de la condition initiale, $ y$ le vecteur des observations du système, $ H$ l'opérateur d'observations permettant de relier un état $ x$ du système aux observations $ y$ . La méthode du 3D-VAR (méthode variationnelle à 3 dimensions) consiste à minimiser une fonction coût qui mesure à la fois l'erreur sur la condition initiale et l'erreur sur les observations :

$\displaystyle J(x) = \frac{1}{2} (x-x_b)^TB^{-1}(x-x_b) + \frac{1}{2} (y-H(x))^T R^{-1}(y-H(x)),$ (2.14)

$ B$ et $ R$ sont les matrices de covariance d'erreur sur respectivement la condition initiale et les observations. La minimisation s'effectue en général avec un algorithme de type BFGS (voir le chapitre suivant) qui ne nécessite que la connaissance du gradient de la fonction coût pour la minimiser. En supposant que $ H$ est linéaire, celui-ci est évidemment :

$\displaystyle \nabla J(x) = B^{-1}(x-x_b)-H^TR^{-1}(y-H(x)).$ (2.15)

Lorsque des algorithmes de type Newton sont utilisés (uniquement lorsque la dimension du problème le permet), il faut également connaître le hessien de la fonction coût

$\displaystyle \nabla^2J(x)=B^{-1}+H^TR^{-1}H,$ (2.16)

indépendant de $ x$ (toujours dans l'hypothèse où $ H$ est linéaire).

Le point de départ de la minimisation est souvent une ébauche de la condition initiale, résultat d'une prévision passée. Lorsque la minimisation aboutit (le gradient de la fonctionnelle a suffisamment diminué), le minimum trouvé est une bonne approximation de l'état initial réel puisqu'il est proche de l'ébauche et des observations du système.



Sous-sections
next up previous contents
suivant: 3D-VAR incrémental monter: Assimilation variationnelle précédent: Assimilation variationnelle   Table des matières
Retour à la page principale