next up previous contents
suivant: 4D-VAR incrémental monter: 4D-VAR précédent: Adjoint au premier ordre   Table des matières

Adjoint au second ordre

Certains algorithmes de descente nécessitent aussi la connaissance du hessien de la fonction coût. Nous allons voir rapidement la méthode de l'adjoint au second ordre qui donne le produit du hessien par un vecteur donné en une seule intégration supplémentaire d'une équation différentielle, là où une méthode classique de différences finies en aurait nécessité au moins autant que la dimension des variables.

Considérons une perturbation $ \delta x_0$ de la condition initiale $ x_0$ . La perturbation résultante de $ x$ est donnée au premier ordre par le modèle linéaire tangent

$\displaystyle \left\{ \begin{array}{l} \displaystyle \frac{d \delta x}{dt}=F'(x) \delta x,  \delta x(0)=\delta x_0, \end{array} \right.$ (2.24)

et la perturbation correspondant $ \delta p$ de la variable adjointe est alors donnée par le modèle adjoint au second ordre :

$\displaystyle \left\{ \begin{array}{rcl} \displaystyle -\frac{d \delta p}{dt} ...
... \delta x  \delta_{t_i}(t),  [0.4cm] \delta p (T) &=& 0. \end{array} \right.$ (2.25)

Si on note $ p_{x_0+\delta x_0}$ la solution du modèle adjoint au premier ordre après la perturbation $ \delta x_0$ de la condition initiale $ x_0$ du modèle direct, par définition, on a $ p_{x_0+\delta x_0}(0)=p(0)
+\delta p(0)$ , et donc

\begin{displaymath}\begin{array}{rcl}
\nabla^2 J(x_0).\delta x_0 &=& \nabla J(x_...
... [0.2cm]
&-& \left( B^{-1}(x_0-x_b)+p(0) \right)
\end{array} \end{displaymath}

et donc

$\displaystyle \nabla^2J(x_0).\delta x_0 = B^{-1}\delta x_0 + \delta p(0) .$ (2.26)


next up previous contents
suivant: 4D-VAR incrémental monter: 4D-VAR précédent: Adjoint au premier ordre   Table des matières
Retour à la page principale