Le 4D-VAR est une généralisation du 3D-VAR en ajoutant une dimension supplémentaire au problème de minimisation, le temps. En effet, on va considérer désormais que les observations sont distribuées en temps, et les traiter séparément à divers instants.
Considérons à nouveau un système régi par une équation différentielle du type :
Notons , , les instants où des observations sont disponibles. Notons les opérateurs d'observation correspondants et leur matrice de covariance d'erreur. On peut alors définir une fonction coût ainsi :
La minimisation de cette fonctionnelle requiert la connaissance de son gradient. Celui-ci n'est plus évident à trouver, comme dans le cas du 3D-VAR. En effet, comment dépendent les termes de la condition initiale ? Il faudrait, par une technique de différences finies, résoudre le système différentiel (2.17) au moins autant de fois que la dimension du vecteur . Or, celle-ci dépasse souvent , et il n'est pas envisageable de résoudre des millions de fois un système déjà coûteux à résoudre une fois. Pour parer à cet inconvénient majeur, Le Dimet et al. [25] ont introduit en 1986 la méthode de l'adjoint qui permet, en une seule résolution d'un système équivalent au système (2.17), de trouver le gradient de la fonctionnelle.