Certains algorithmes de descente nécessitent aussi la connaissance du hessien de la fonction coût. Nous allons voir rapidement la méthode de l'adjoint au second ordre qui donne le produit du hessien par un vecteur donné en une seule intégration supplémentaire d'une équation différentielle, là où une méthode classique de différences finies en aurait nécessité au moins autant que la dimension des variables.
Considérons une perturbation
de la condition initiale
. La perturbation résultante de
est donnée au premier ordre
par le modèle linéaire tangent
Si on note
la solution du modèle adjoint au premier
ordre après la perturbation
de la condition initiale
du modèle direct, par définition, on a
, et donc
et donc