Le 4D-VAR est une généralisation du 3D-VAR en ajoutant une dimension supplémentaire au problème de minimisation, le temps. En effet, on va considérer désormais que les observations sont distribuées en temps, et les traiter séparément à divers instants.
Considérons à nouveau un système régi par une équation différentielle du type :
Notons
,
, les instants où des observations
sont disponibles. Notons
les opérateurs d'observation
correspondants et
leur matrice de covariance d'erreur. On
peut alors définir une fonction coût ainsi :
La minimisation de cette fonctionnelle requiert la connaissance de son
gradient. Celui-ci n'est plus évident à trouver, comme dans le cas
du 3D-VAR. En effet, comment dépendent les termes
de la
condition initiale
? Il faudrait, par une technique de
différences finies, résoudre le système différentiel
(2.17) au moins autant de fois que la dimension du vecteur
. Or, celle-ci dépasse souvent
, et il n'est pas
envisageable de résoudre des millions de fois un système déjà
coûteux à résoudre une fois. Pour parer à cet inconvénient
majeur, Le Dimet et al. [25] ont introduit en 1986 la
méthode de l'adjoint qui permet, en une seule résolution d'un
système équivalent au système (2.17), de trouver le
gradient de la fonctionnelle.