next up previous contents
suivant: Conclusion monter: Application à l'équation de précédent: Cas non quadratique   Table des matières

Conclusions relatives à ce problème test

Nous avons utilisé un problème test relativement simple, l'équation de Burgers en dimension 1, pour étudier les différentes formules de mise à jour de l'algorithme BFGS à mémoire limitée et les différentes stratégies qui s'offrent à nous. Nous nous sommes intéressés à la fois à la qualité de l'approximation de la hessienne construite, puisqu'elle correspond à une approximation de la matrice des covariances d'erreurs d'analyse, et à la convergence de l'algorithme de minimisation. La qualité de l'approximation de la hessienne a été mesurée à l'aide de la vraie hessienne, calculée avec la méthode de l'adjoint au second ordre. Il est évident que cela n'est numériquement réalisable que pour des problèmes de petite dimension.

Nous avons constaté plusieurs choses. Tout d'abord, l'utilisation de la paire $ (s,y)$ la plus récente donne de meilleurs résultats qu'avec la plus ancienne, sauf dans le cas non linéaire et sans mise à l'échelle. Ensuite, la formule de mise à jour de quasi-Cauchy a donné à de nombreuses reprises des résultats moins satisfaisants que les autres formules, aussi bien en terme de qualité de l'approximation de la hessienne qu'en convergence de la minimisation. La mise à l'échelle du préconditionneur diagonal accélère la convergence vers le minimum mais a tendance à détériorer la qualité de l'approximation de la hessienne. Enfin, il est possible d'accélérer la minimisation en mettant à l'échelle le préconditionneur diagonal, tout en ne détériorant pas l'approximation de la hessienne construite en utilisant une version non mise à l'échelle pour la mise à jour.


next up previous contents
suivant: Conclusion monter: Application à l'équation de précédent: Cas non quadratique   Table des matières
Retour à la page principale