next up previous contents
suivant: Lien avec la méthode monter: Description théorique précédent: Méthode primale pour un   Table des matières

Approche duale

Notons $ \tilde{x}$ la solution du modèle direct sans erreur modèle et sans incertitude sur la condition initiale :

$\displaystyle \left\{ \begin{array}{l} \displaystyle \frac{d\tilde{x}}{dt}+A(t)\tilde{x}=f,  [0.4cm] \tilde{x}(0)=x_0. \end{array} \right.$ (5.26)

$ \tilde{x}$ sera appelée dans la suite solution de référence, et nous considérerons que c'est une ébauche de $ \hat{x}$ .

En vue de considérer des équations matricielles, on notera dans la suite $ y$ le vecteur comprenant toutes les observations :

$\displaystyle y=\left( \begin{array}{c} y_0  \vdots  y_N \end{array} \right).$

On notera $ d_o$ la dimension d'une observation $ y_i$ , le vecteur $ y$ étant alors de taille $ d_o\times (N+1)$ . On va également définir un opérateur d'observation global $ H$ , qui à un état $ x$ associe le vecteur

$\displaystyle Hx=\left( \begin{array}{c} H_0x(t_0)  \vdots  H_Nx(t_N) \end{array}\right).$

On note $ R$ la matrice diagonale par blocs, avec sur la diagonale les matrices $ R_i$ . On définit le vecteur d'innovation

$\displaystyle d=y-H\tilde{x}$

comme étant l'écart entre les observations et la solution de référence du problème. On note enfin

$\displaystyle m=\left( \begin{array}{c} m_0  \vdots  m_N \end{array} \right)$

un vecteur quelconque de l'espace des observations. En étudiant le système d'optimalité (5.25), on constate qu'il faut considérer le vecteur d'observation $ m=R^{-1}(y-Hx)$ .

L'algorithme dual est alors le suivant :

On a alors la proposition suivante :

Proposition 5.1   L'opérateur $ \mathcal{D}$ agissant sur l'espace des observations est linéaire symétrique défini positif. De plus, si on note $ \hat{m}$ la solution de

$\displaystyle (\mathcal{D}+ R)\hat{m}=d,$ (5.29)

alors

$\displaystyle \hat{m}=R^{-1}(y-H\hat{x}) \qquad \textrm{et} \qquad \hat{x} = \tilde{x} + x_{\hat{m}}.$ (5.30)

$ \blacksquare$

Démonstration : Notons $ M(t,t')$ la résolvante du système associée à l'opérateur $ A(t)$  : elle permet d'obtenir la solution à l'instant $ t$ de l'équation (5.21) en fonction de la solution à l'instant $ t'$ . Par exemple, $ x(T)=M(T,0)x(0)$ . L'équation (5.28) s'écrit alors

$\displaystyle x_m(t)=M(t,0)P_0p_m(0)+\int_0^tM(t,s) Qp_m(s) ds.$

Par transposition, on obtient que la résolvante du système associée à $ A(t)^T$ est $ M(t',t)^T$ . Donc

$\displaystyle p_m(0)=M(T,0)^Tp_m(T)+\int_0^TM(s,0)^T H_i^Tm_i\delta(t-t_i) ds.$

Choisissons un vecteur $ m$ particulier, dont toutes les composantes sont nulles, à l'exception de la $ i^{\textrm{\\lq eme}}$ où on trouve la valeur $ m_i$ . On a alors, pour ce vecteur $ m$ là,

$\displaystyle p_m(0)=M(t_i,0)^T H_i^Tm_i.$

On a donc

$\displaystyle x_m(t)=M(t,0)P_0M(t_i,0)^TH_i^Tm_i+\int_0^tM(t,s)Qp_m(s)ds,$

On a donc

$\displaystyle (\mathcal{D}m)_j=H_jx_m(t_j)=H_jM(t_j,0)P_0M(t_i,0)^TH_i^Tm_i
+\int_0^{t_j}H_jM(t_j,s)Qp_m(s)ds$

$\displaystyle =H_jM(t_j,0)P_0M(t_i,0)^TH_i^Tm_i+\int_0^{\min(t_i,t_j)}
H_jM(t_j,s)QM(t_i,s)^TH_i^Tm_ids$

car pour $ t>t_i$ , $ p_m(t)=0$ . On en déduit aisément que

$\displaystyle \mathcal{D}_{ij}=\mathcal{D}_{ji}^T$

ce qui démontre que $ \mathcal{D}$ est symétrique.

Sous l'hypothèse (non restrictive) $ P_0$ et $ Q$ symétriques définies positives, l'opérateur $ \mathcal{D}$ est alors symétrique non négatif. $ \mathcal{D}+ R$ est alors un opérateur symétrique défini positif puisque $ R$ est symétrique défini positif.

L'existence et l'unicité de $ \hat{m}$ en découle directement. La solution optimale $ \hat{x}$ du problème primal et la variable adjointe $ \hat{p}$ vérifient le système d'optimalité (5.25). On peut donc décomposer $ \hat{x}$ sous la forme $ \tilde{x}+\underbar{x}$ , avec $ \underbar{x}$ la solution de

$\displaystyle \left\{ \begin{array}{l} \displaystyle \frac{d\underbar{x}}{dt}+A...
...r{x}=Q\hat{p}(t),  [0.4cm] \underbar{x}(0)=P_0\hat{p}(0). \end{array} \right.$ (5.31)

Puisque $ (\mathcal{D}+R)\hat{m}=d$ , on a $ \mathcal{D}\hat{m}=Hx_{\hat{m}}=d-R\hat{m}$ . Or on constate que $ x_{\hat{m}}$ et $ \underbar{x}$ vérifient la même équation d'évoluation avec la même condition initiale. Il y a donc égalité, et $ \hat{x}=\tilde{x}+x_{\hat{m}}$ .

Enfin, par définition,

$\displaystyle \hat{m}=R^{-1}(d-\mathcal{D}\hat{m})=R^{-1}\left( (y-H\tilde{x})-Hx_{\hat{m}}\right)
=R^{-1}\left(y-H(\tilde{x}+x_{\hat{m}}) \right)$

ce qui achève la démonstration. $ \quad \square$

Pour résoudre l'équation (5.29), étant donné que $ (\mathcal{D}+R)$ est symétrique défini positif, une méthode de gradient permet d'approcher assez rapidement la solution. Il faut donc définir la fonctionnalle quadratique associée, appelée fonctionnelle duale :

$\displaystyle \mathcal{J}_\mathcal{D}(m)=\frac{1}{2}\langle (\mathcal{D}+R)m,m \rangle - \langle d,m \rangle$ (5.32)

$ \langle , \rangle$ désigne un produit scalaire sur l'espace des observations.


next up previous contents
suivant: Lien avec la méthode monter: Description théorique précédent: Méthode primale pour un   Table des matières
Retour à la page principale