next up previous contents
suivant: Traitement d'images monter: HDR précédent: Table des matières   Table des matières

Introduction

Plusieurs thématiques ont été étudiées dans le cadre de ce travail, avec le point commun et la volonté de fournir des algorithmes efficaces, robustes, faciles à implémenter et particulièrement rapides et performants. La rapidité des algorithmes est rendue nécessaire par le contexte généralement opérationnel des méthodes, et par un besoin de traiter de plus en plus d'informations en un temps de plus en plus court. L'autre contrainte que nous avons particulièrement prise en compte est la facilité d'utilisation et de mise en \oeuvre des méthodes développées.

Dans le chapitre 2, nous aborderons différents problèmes de traitement d'images par une approche originale dans le domaine: l'analyse asymptotique topologique, ou plus simplement le gradient topologique.

Le traitement d'images connaît à l'heure actuelle un nouvel éclairage, grâce d'une part aux nouvelles technologies de télécommunication et de diffusion de l'information, qui reposent désormais sur l'envoi et la réception de flux massifs de données numériques sous forme d'images, et d'autre part au monde médical, dans lequel de très grandes avancées ont été réalisées, notamment pour la détection précoce de tumeurs, grâce à de nouvelles techniques d'imagerie plus performantes.

Notre étude est motivée par plusieurs constatations. La première est que le gradient topologique est généralement utilisé pour des problèmes de mécanique des structures, design, conception et optimisation de formes. Il a également été appliqué avec succès en électromagnétisme pour la détection de fissures ou d'objets enfouis. Or de très nombreuses problématiques en traitement d'images reposent sur l'identification de formes, par exemples les contours ou un objet caractéristique de l'image. Ce point commun nous a paru intéressant, et nous a permis d'adapter la méthode du gradient topologique initialement utilisée pour la détection de fissures, à différents problèmes d'imagerie (restauration, classification, segmentation, inpainting).

Le deuxième aspect qui nous a paru intéressant est la rapidité de la méthode. L'analyse asymptotique topologique a permis dans de très nombreux domaines d'obtenir des résultats extrêmement rapidement. Or que ce soit dans l'imagerie médicale ou dans la diffusion audiovisuelle grand public (par exemple la télévision par satellite ou internet), le temps de traitement doit être négligeable pour ne pas retarder respectivement le diagnostic médical ou la diffusion du flux. Il est donc important d'apporter une réponse extrêmement rapide à ces différentes questions, en temps réel pour des films et en un temps négligeable (inférieur à la seconde) pour une image.

Comme nous le verrons par la suite, la méthode du gradient topologique a effectivement pu s'adapter parfaitement au traitement d'images, permettant d'obtenir des résultats très intéressants, et pour un coût de calcul particulièrement faible.

Dans le chapitre 3, nous nous intéresserons à l'assimilation de données pour les problèmes géophysiques et environnementaux, et plus particulièrement dans le cadre de l'atmosphère et des océans. Depuis plusieurs années, une des préoccupations majeures consiste à améliorer sensiblement la connaissance de ces systèmes réputés turbulents, l'un des buts étant de pouvoir prédire leur évolution à plus ou moins court terme avec une grande fiabilité.

Depuis la prévision météorologique grand public pour les prochains jours, jusqu'à l'étude du réchauffement climatique, en passant par la détection de phénomènes climatiques extrêmes plusieurs semaines à l'avance, les enjeux sont sensiblement les mêmes, et se résume au problème suivant. Il s'agit d'estimer rapidement et avec une très grande précision l'état d'un système turbulent, à partir d'une part d'équations mathématiques qui essayent de modéliser les phénomènes physiques régissant le système atmosphère-océans, et d'autre part d'observations de différente nature (in situ et satellitaires), portant sur différentes quantités physiques, et éparpillées dans le temps et l'espace.

Au delà de la taille extrême du problème à traiter (plusieurs milliards de valeurs à estimer, à partir de centaines de millions d'observations) et de fait du temps de calcul nécessaire pour le résoudre, un autre facteur rentre en jeu: le coût humain de développement et d'utilisation d'une méthode d'assimilation de données. À l'heure actuelle, il est extrêmement difficile de mettre en \oeuvre une telle méthode, même sur un problème relativement simple. Il nous a donc paru intéressant d'étudier la possibilité d'améliorer une des méthodes les plus simples d'assimilation de données, le nudging (ou relaxation newtonienne), afin d'obtenir de bien meilleurs résultats sans toutefois compliquer la méthode.

En appliquant la méthode du nudging au problème rétrograde en temps, nous avons constaté qu'il est possible de stabiliser le système rétrograde, a priori instable du fait de l'irréversibilité du problème physique. Ainsi, comme l'étude présentée au chapitre 3 le montre, nous pouvons remonter le temps, et récupérer une estimation plus fiable du système à un instant passé, à partir duquel des prévisions peuvent être déduites. En appliquant alternativement et itérativement la méthode du nudging standard au modèle direct et au modèle rétrograde en temps, nous obtenons un algorithme itératif extrêmement simple à mettre en \oeuvre, et qui fournit des résultats nettement meilleurs que le nudging simple. En effet, les résultats sont comparables en qualité et obtenus souvent beaucoup plus rapidement qu'en utilisant la méthode variationnelle d'assimilation de données.

Le chapitre 4 présente une étude à l'interface de ces deux disciplines, la problématique étant l'assimilation de données images. À l'heure actuelle, une très grande quantité d'observations provenant d'images satellitaires n'est quasiment pas utilisée pour améliorer la connaissance de l'état du système. Pourtant, sur les séquences d'images ainsi obtenues, on peut voir très nettement certaines structures caractéristiques (cyclones, tourbillons, courants d'eau chaude, pollution, ...) évoluer et se déplacer au fil du temps.

Plusieurs approches peuvent être considérées pour résoudre ce type de problème, et nous avons fait le choix d'essayer d'identifier et extraire des champs de vitesse à partir de séquences d'images. Cela nous a paru être le choix le plus approprié pour à la fois extraire rapidement des données conventionnelles (car directement reliées aux variables du modèle), et pouvoir les utiliser ensuite dans un système d'assimilation standard.

L'idée que nous développons au chapitre 4 repose sur la méthode du flot optique, qui consiste à chercher un champ de déplacement qui envoie une image sur une autre. L'originalité de notre approche réside dans la non linéarisation de la fonctionnelle à minimiser, combinée à une façon rapide d'assembler la matrice jacobienne. Une approche multi-grille permet enfin de garantir la qualité du minimum. Grâce à tout cela, nous arrivons à extraire des champs de vitesse complets en un temps très court, et il est également possible de fournir un estimateur de la qualité du champ de vitesse obtenu, ce qui peut être vu comme une information sur les statistiques d'erreur de ces pseudo-observations dans le cadre de l'assimilation de données.

Enfin quelques conclusions générales et perspectives de recherche sont données au chapitre 5.


next up previous contents
suivant: Traitement d'images monter: HDR précédent: Table des matières   Table des matières
Retour à la page principale