next up previous contents
suivant: Méthodologie expérimentale monter: Expériences numériques précédent: Expériences numériques   Table des matières

Valeurs numériques des matrices de nudging

D'un point de vue pratique, les expériences numériques ont pour la plupart été réalisées avec une matrice de nudging facile et rapide à implémenter:

$\displaystyle K = C^T(kI) = kC^T,$ (3.11)

$ k$ est un c\oefficient scalaire de gain, et $ I$ est la matrice identité de l'espace des observations. Ce choix est motivé par plusieurs remarques. Premièrement, les matrices de covariance telles que $ R$ sont généralement mal déterminées. Par ailleurs, ce choix est extrêmement simple et ne nécessite pas d'appliquer une méthode d'estimation de paramètres. Enfin, le choix naturel de la matrice de nudging est $ K = C^TL$$ L$ est un opérateur linéaire sur l'espace des observations. En effet, si les observations ne sont pas localisées aux points du maillage, la matrice $ K$ aura le rôle de ramener la correction $ X_{obs}-C(X)$ des points d'observation vers les points du maillage.

De même, pour la matrice rétrograde, nous choisissons généralement

$\displaystyle K' = C^T(k'I) = k'C^T,$ (3.12)

comme dans le cas direct. Ce choix est également motivé par la simplicité et la rapidité de notre méthode dans ce cas là.

Les deux uniques paramètres de cette méthode deviennent alors les scalaires $ k$ et $ k'$ . Le scalaire $ k>0$ est généralement fixé de sorte que le terme de nudging soit petit par rapport aux termes du modèle afin de respecter le compromis entre le modèle et les observations. Le scalaire $ k'>0$ est quant à lui choisi comme étant le plus petit c\oefficient qui stabilise la résolution numérique de l'équation rétrograde.


next up previous contents
suivant: Méthodologie expérimentale monter: Expériences numériques précédent: Expériences numériques   Table des matières
Retour à la page principale