Chacune des méthodes d'assimilation de données présentées dans ce chapitre a son lot de difficultés, plus ou moins faciles à gérer. Il ressort globalement deux principaux défauts communs à toutes ces techniques.
La première concerne la non linéarité. En effet, que ce soient les méthodes séquentielles ou les méthodes variationnelles, elles doivent toutes à un moment ou un autre utiliser les versions linéarisées des modèles et opérateurs. Elles ne sont plus optimales, rien n'assure même qu'elles fournissent un résultat intéressant dès qu'il y a des non linéarités présentes dans les équations. Or les équations régissant l'océan et l'atmosphère sont loin d'être linéaires. Les erreurs de diverses natures n'étant pas toujours bien connues, elles viennent s'ajouter à des calculs déjà approximatifs du fait des linéarisations qui interviennent tout au long de ces méthodes.
Quelques pistes sont actuellement explorées pour essayer d'atténuer les problèmes liés aux erreurs mal identifiées ainsi qu'aux non linéarités. Il faut notamment citer la classe d'algorithmes de type 4D-PSAS, qui permettent déjà de supprimer le problème de l'erreur modèle. De plus, il existe désormais un certain recul dans le monde de la prévision qui permet d'avoir de bonnes statistiques d'erreurs (sur l'ébauche et sur les observations).
L'enjeu est évidemment d'améliorer sensiblement les résultats de
l'assimilation, et par là-même, les prévisions à plus ou moins
court terme. Celles-ci ont déjà fait d'énormes progrès, et les
prévisions météo à
jours sont du même ordre de
fiabilité que les prévisions à
heures d'il y a quelques
années. L'objectif est maintenant d'obtenir des prévisions que
l'on pourrait qualifier de très fiables (faible taux d'erreur) une
semaine à l'avance en météo.
Une seconde difficulté de ces méthodes est leur coût de mise en
uvre numérique exhorbitant. Ceci vient de la dimension du
problème, environ
à
. À ce stade, il devient
délicat de travailler avec des matrices, et une simple résolution
d'un système d'équations différentielles peut déjà
s'avérer coûteuse.
Là encore, plusieurs pistes sont explorées : le filtre SEEK avec la réduction d'ordre pour les méthodes séquentielles ; le 4D-VAR séquentiel pour réduire là aussi la dimension du vecteur de contrôle, le 4D-PSAS qui se place dans l'espace des observations, de dimension plus petite, pour les méthodes variationnelles.
L'objectif de réduire les dimensions du problème est double. D'une
part on peut améliorer les modèles (plus de points de grille par
exemple) et les résultats (minimisation plus poussée dans les
méthodes variationnelles), mais on doit aussi rendre ces méthodes
opérationnelles. En effet, il faut pouvoir traiter les observations
que l'on récupère dans un certain laps de temps en beaucoup moins
de temps. En imaginant qu'on récupère en un seul coup toutes les
observations réalisées sur une fenêtre de
heures, il
faudra réussir à appliquer une méthode d'assimilation de
données les utilisant en beaucoup moins que
heures. Sinon le
simple fait de traiter ces observations aura fait perdre
heures
de prévision opérationnelle. Si les prévisions ne sont très
fiables qu'à
heures, on ne pourra fournir des prévisions
utilisables que pour
heures. L'enjeu est donc énorme puisque
chaque heure gagnée sur l'analyse des données est une heure
de prévision utilisable gagnée.