next up previous contents
suivant: Convergence de l'algorithme BFGS monter: Application à l'équation de précédent: Équations du modèle   Table des matières

Paramètres des expériences numériques

Les observations sont réalisées à intervalles de temps réguliers, à des endroits fixés choisis aléatoirement. Les observations sont alors bruitées. Les erreurs d'observation suivent une loi normale, sont décorrélées et ont toutes la même variance, proportionnelle à la matrice identité.

Le maillage à grande résolution utilisé pour discrétiser le domaine comporte $ 258$ points de grille, et la dimension du problème discrétisé est donc $ 258$ . Mais dans un premier temps, nous utiliserons une grille de discrétisation à faible résolution, avec seulement $ 130$ points, et donc la dimension du vecteur de contrôle est restreinte à $ 130$ afin de pouvoir effectuer un grand nombre d'itérations. Le nombre de paires $ (s,y)$ stockées est $ 5$ . Les paramètres de recherche linéaire de Wolfe sont $ \alpha=10^{-4}$ et $ \beta=0.9$ . Le nombre maximal d'itérations a été fixé à $ 120$ , et le nombre maximal d'évaluations de la fonction coût et de son gradient est $ 144$ (le nombre maximal d'itérations augmenté d'un cinquième de sa valeur). La décroissance attendue de la fonction coût à la première itération est la moitié de sa valeur. La fonctionnelle quadratique approchée que l'on souhaite minimiser est la suivante :

$\displaystyle \tilde{J}(x)=\frac{1}{2} (x-x_e)^T \left[P_e(t_0)\right]^{-1} (x-x_e) + \frac{1}{2} (\tilde{H}(x)-y)^TR^{-1}(\tilde{H}(x)-y),$ (3.13)

$ \tilde{H}$ est une approximation linéaire de $ H$ , comprenant notamment la linéarisation du modèle. Le critère d'arrêt du processus de minimisation est le suivant :

$\displaystyle \frac{\Vert \nabla\tilde{J}(x_k)\Vert}{\Vert \nabla\tilde{J}(x_0\Vert)} < \varepsilon_g
$

$ \Vert.\Vert$ est la norme induite par le produit scalaire $ \langle , \rangle$ et $ \varepsilon_g$ est de l'ordre de $ 1.5\times
10^{-8}$ . La minimisation est réalisée à l'aide du minimiseur M1QN3 de l'INRIA.

La qualité de l'approximation de la hessienne inverse L-BFGS est mesurée en calculant le spectre de

$\displaystyle W^{-1}_{true}-W^{-1}_{L-BFGS}$ (3.14)

$ W^{-1}_{true}$ est la vraie hessienne, calculée à l'aide de la méthode de l'adjoint au second ordre, et $ W^{-1}_{L-BFGS}$ est l'approximation L-BFGS de la hessienne construite lors de la minimisation.

Afin de pouvoir mesurer aussi de manière relative cette qualité, le spectre de

$\displaystyle I-W^{-1}_{true}W_{L-BFGS}$ (3.15)

est aussi calculé. Comme $ W^{-1}_{true}$ et $ W_{L-BFGS}$ sont symétriques, le spectre de $ I-W_{L-BFGS}W^{-1}_{true}$ est sensiblement équivalent à celui de (3.15), et nous nous limiterons à calculer le spectre de $ I-W^{-1}_{true}W_{L-BFGS}$ .

Dans les deux cas, le spectre est calculé en utilisant une méthode de type Arnoldi [26].

Même si nous nous sommes essentiellement intéressés à la qualité de l'approximation de la hessienne L-BFGS, nous avons également regardé l'efficacité de l'algorithme de minimisation en mesurant le nombre d'itérations et de simulations (évaluations de la fonction coût et de son gradient) nécessaires à la convergence.


next up previous contents
suivant: Convergence de l'algorithme BFGS monter: Application à l'équation de précédent: Équations du modèle   Table des matières
Retour à la page principale