next up previous contents
suivant: Quasi-réversibilité et nudging monter: Minimisation précédent: Conclusions relatives à ce   Table des matières

Conclusion

L'intérêt de la minimisation de la fonction coût est double, comme nous avons pu le voir. En effet, il y a la convergence (et la vitesse de convergence) de l'algorithme de minimisation vers le minimum de la fonctionnelle, mais il y a aussi la qualité de l'approximation de la hessienne construite lors de l'algorithme L-BFGS, puisque celle-ci est une très bonne approximation de la matrice de covariance d'erreur d'analyse, et elle a donc une importance statistique.

Nous avons vu plusieurs algorithmes de minimisation d'une fonction-coût, tous basés sur l'algorithme de Newton. Nous nous sommes plus particulièrement intéressés à l'algorithme L-BFGS, à mémoire limitée. Celui-ci est en effet couramment utilisé dans les problèmes d'assimilation variationnelle de données de grande taille, notamment en océanographie et météorologie. Il existe plusieurs degrés de liberté dans cet algorithme, notamment le choix de la formule de mise à jour, le nombre et le choix des paires de vecteurs stockées, l'utilisation ou non d'une mise à l'échelle du préconditionneur diagonal ...Néanmoins, il convient de tester les différentes possibilités qui s'offrent à nous pour chaque problème test, car les différentes méthodes sont loin de donner de façon universelle de bons ou mauvais résultats, comme on peut le voir dans [50]. Il y a certainement beaucoup d'autres façons d'utiliser les formules de l'algorithme L-BFGS, et il est également probable que pour certains problèmes, il existe de meilleures formules de mise à jour du préconditionneur diagonal.


next up previous contents
suivant: Quasi-réversibilité et nudging monter: Minimisation précédent: Conclusions relatives à ce   Table des matières
Retour à la page principale