next up previous contents
suivant: Segmentation monter: Classification précédent: Approche couplée restauration-classification   Table des matières

Extension au cas non supervisé

En supposant que le nombre de classes $ n$ soit donné, mais pas leurs valeurs $ C_i$ , il est possible de les déterminer de façon optimale en les intégrant dans la minimisation de la fonction coût:

$\displaystyle \min_{(\Omega_i),(C_i)} j((\Omega_i),(C_i)) = \sum_{i=1}^n \int_{\Omega_i} \vert v(x)-C_i\vert^2  dx + \alpha \sum_{i\ne j} \vert\Gamma_{ij}\vert.$ (2.38)

L'idée est de minimiser la fonctionnelle $ j$ alternativement par rapport aux sous-domaines et par rapport aux classes. La minimisation par rapport aux sous-domaines revient à classifier l'image pour les valeurs $ C_i$ , et la minimisation par rapport aux classes revient à imposer

$\displaystyle C_i = \frac{1}{\vert\Omega_i\vert} \int_{\Omega_i} v(x) dx.$ (2.39)

L'algorithme de classification non supervisée est alors:

$ \bullet$
Initialisation: choisir un jeu de classes $ C_1,\dots,C_n$ , par exemple équi-réparties.
$ \bullet$
Répéter jusqu'à convergence:

De même, si le nombre $ n$ de classes n'est pas donné, on peut ajouter un terme supplémentaire ``$ +\beta n$ '' dans la fonction coût (2.38), et minimiser également par rapport à $ n$ . Le choix du paramètre de régularisation $ \beta$ influe directement sur le nombre de classes qui sera identifié.


next up previous contents
suivant: Segmentation monter: Classification précédent: Approche couplée restauration-classification   Table des matières
Retour à la page principale