next up previous contents
suivant: Algorithme monter: Restauration précédent: Formulation variationnelle   Table des matières

Gradient topologique

En s'appuyant sur le théorème 2.1, un développement asymptotique peut être dérivé pour la fonction coût (2.24) et s'écrit sous la forme:

$\displaystyle j(\rho)-j(0) = \rho^2 G(x_0,n) + o(\rho^2),$ (2.25)

avec

$\displaystyle G(x_0,n) = -\pi c (\nabla u_0(x_0).n)(\nabla p_0(x_0).n)-\pi \vert\nabla u_0(x_0).n\vert^2,$ (2.26)

$ p_0$ est la solution du problème adjoint non perturbé:

$\displaystyle \left\{ \begin{array}{lll} -div(c\nabla p_0)+p_0=-\partial_u J(\O...
...dans & \Omega, \partial_n p_0 = 0 & sur & \partial\Omega. \end{array} \right.$ (2.27)

Comme précédemment, le gradient topologique peut se réécrire sous la forme $ G(x,n)=\langle M(x)n,n\rangle$ , où $ M(x)$ est la matrice symétrique $ 2\times 2$ (en dimension 2) définie par

$\displaystyle M(x) = -\pi c \frac{\nabla u_0(x)\nabla p_0(x)^T+\nabla p_0(x)\nabla u_0(x)^T}{2}-\pi\nabla u_0(x)\nabla u_0(x)^T.$ (2.28)



Retour à la page principale