next up previous contents
suivant: Erreur modèle monter: Algorithme 4D-VAR précédent: Modèle adjoint   Table des matières

Gradient

Le gradient de la première partie (notée $ \mathcal{J}_0$ ) de la fonctionnelle $ \mathcal{J}$ s'obtient en résolvant les équations (5.12-5.14) avec comme condition finale la nullité des fonctions de courant duales. On obtient alors :

$\displaystyle \nabla\mathcal{J}_0=h(-\Delta+W)h^{-1} \left( \begin{array}{c} \Lambda_1(0)  \vdots  \Lambda_n(0) \end{array} \right)$ (5.19)

$ h$ est la matrice diagonale avec les hauteurs $ h_k$ des couches sur la diagonale.

Le gradient de la seconde partie de $ \mathcal{J}$ s'obtient simplement par dérivation par rapport à $ u$ . On a alors :

$\displaystyle \nabla\mathcal{J}=h(-\Delta+W)h^{-1} \left( \begin{array}{c} \Lambda_1(0)  \vdots  \Lambda_n(0) \end{array} \right) + P_0^{-1}u.$ (5.20)

La minimisation effective de la fonction coût $ \mathcal{J}$ se fait en utilisant une méthode L-BFGS.



Retour à la page principale