Ces mathématiques entretiennent des liens étroits avec la théorie. Passer de l’une à l’autre est un sport quotidien pour certains mathématiciens. Ces derniers s’intéressent souvent à des problèmes provenant des applications : couplage de processus, validation de modèles, paramétrisation, calcul haute performance ... Pont entre l’abstrait et le concret, les mathématiques numériques ont des difficultés à trouver leur place dans le monde de la recherche française.
Les mathématiques numériques ont pour intérêt la résolution de problèmes provenant d’autres disciplines (voir Le point de vue des numériciens). Nous retrouvons des problèmes souvent déjà cités dans la partie Mathématiques du monde réel mais abordés d’un autre point de vue. Le rôle des mathématiques est ici d’ajouter une utilité à la théorie continue, mais aussi de mieux définir les problèmes concrets en les ancrant dans un formalisme mathématique. Dans ce chapitre, nous verrons pourquoi cette discipline « entre les disciplines » est une discipline en soi, en parcourant différents thèmes : méthodes numériques, analyse de données, et approche intégrée de systèmes.
Les caractéristiques des modèles dépendent fortement des applications. Ainsi, si la modélisation océan-atmosphère se caractérise par des contraintes liées à la stratification, à la rotation ou au caractère turbulent des écoulements (cascade directe et inverse d’énergie), la modélisation des écoulements peu profonds est souvent plutôt contrainte par des effets physiques encore mal décrits par les modèles, tels que les mécanismes d’érosion, et de nombreux paramètres incertains, tels que la topographie ou les coefficients de lois rhéologiques. L’évolution des modèles doit se faire en lien avec les progrès des connaissances sur les applications. L’avènement des supers-calculateurs a cependant naturellement entraîné une course à la résolution. Résultat : de nombreux modèles numériques géophysiques sont maintenant utilisés hors de leur domaine de validité ou avec des forçages inadéquats. En effet, à des résolutions plus fines, certains effets comme les effets non-hydrostatiques ne sont plus négligeables, et les hypothèses simplificatrices des modèles sont alors à revoir. Modifier ces hypothèses influe directement sur les méthodes numériques à implémenter (différentes propriétés de conservation et/ou contraintes de stabilité). Il ne faut pas oublier cependant que les moyens de calcul supplémentaires pourraient aussi être utilisés pour augmenter la complexité des méthodes numériques ou bien évoluer vers des approches statistiques !
D’un autre côté, le choix des méthodes de discrétisation a un impact important sur la solution physique des modèles. Pour par exemple gérer les singularités aux pôles terrestres dans les modèles climatiques, de nouvelles approches sont considérées, comme les maillages icosaédriques et non structurés ou bien les systèmes de coordonnées hybrides basés sur les méthodes ALE (Arbitrary Lagrangian Eulerian). Pour évaluer leur potentiel, il faut mettre en place un développement systématique d’exercices d’inter-comparaisons dans des cas allant de l’idéal à l’opérationnel afin de rationaliser les différents choix numériques et physiques.
Les statistiques sont mobilisées lorsque se posent des questions d’exploration de jeux de données (observations et modèles), d’estimation de grandeurs ou de paramètres, de comparaison, de validation d’hypothèses scientifiques, ou encore de confrontation entre modèles1 et mesures. Voici quelques-unes des nouvelles tendances et nouveaux défis en statistiques pour le climat, l’environnement et l’écologie, ou pour l'évolution génomique des populations.
De la rareté des données à leur abondance. Les recherches actuelles s’attaquent entre autres à la sélection de covariables pertinentes, au test d’hypothèses scientifiques ou à la multiple dépendance due à l’hétérogénéité. Aussi, l’abondance de données entraîne un besoin d’affiner les techniques permettant d’extraire l’information disponible, notamment en s’appuyant en partie sur des données moins abondantes mais mieux standardisées (voir Faut-il suivre la mode « big data » ?). Une réflexion méthodologique sur l’optimalité des techniques de réduction de dimension est nécessaire. Il existe de plus un réel besoin d’échanges entre numériciens et statisticiens.
De l’échelle locale à l’échelle régionale ou globale. Le multi-échelle est essentiel dans les études sur le climat ou sur les populations et demande des recherches par exemple sur la définition de modèles pertinents de champs aléatoires spatio-temporels et multivariés. Un autre enjeu consiste à faire communiquer les échelles et les niveaux d’organisation. La modélisation hiérarchique généralement utilisée apporte de nombreux besoins en algorithmes d’inférence et simulations efficaces et rapides.
Combiner modèles et observations. Les développements récents des méthodes dites d’assimilation de données consistent à mieux prendre en compte les non-linéarités, à adapter les méthodes aux hiérarchies, aux couplages de modèles et aux observations multi-échelles (images, données lagrangiennes). Nous notons le besoin de renforcer la compréhension théorique et encourageons un rapprochement avec les spécialistes de l’optimisation. Enfin, dans le but d’accélérer la mise en œuvre des modèles de planification territoriale et également pour améliorer les modèles, ces méthodes sont étudiées pour l’estimation de paramètres physiques ou de forçages externes.
Validation et décision dans l’incertain. Deux stratégies sont à envisager en parallèle. D’une part, la simplification ou réduction de modèles (modèles approchés interprétables, analyse de sensibilité, méta-modèles) qui doit fournir l’erreur entre modèle initial et modèle approché. D’autre part, la mise en place d’une démarche multi-modèles avec comparaison et quantification d’incertitudes de différents modèles, éventuellement mêlant déterminisme et stochastique (Voir Mathématiques du monde réel). Ainsi, les méthodes de quantification ou d’analyse de sensibilité doivent pouvoir gérer un grand nombre de paramètres fortement corrélés, prendre en compte d’éventuelles contraintes physiques et gérer les interactions et rétroactions entre modèles.
Couplage et interactions. Les conditions aux limites ou aux interfaces ont un impact fort sur la qualité physique, numérique et mathématique ainsi que sur la faisabilité du système global. Il convient de réfléchir aux différentes stratégies, prendre en compte les méthodes intrusives comme non-intrusives, s’intéresser aux méthodes globales en temps limitant les interactions entre différents processeurs et donc optimisant les performances de calcul sur des architectures complexes. En géophysique, des packages comme AGRIF (Adaptive Grid Refinement In Fortran), pour le raffinement de maillage adaptatif, ou OASIS (Ocean, Atmosphere, Sea Ice, Snowpack coupler), pour le couplage océan-atmosphère, sont très populaires. Ces démarches sont à généraliser ! Enfin, une approche intégrée du système Terre ne peut ignorer l’homme, impactant et s’adaptant aux changements. Ces interactions, aux rétroactions complexes, appellent à une meilleure articulation entre mathématiques appliquées, géosciences et sciences humaines et sociales pour lier mathématiques décisionnelles et développement soutenable. Une vision intégrée d’un système nécessite également la mise en place de postes (ingénieurs, administratifs) permanents pour gérer les interactions entre chercheurs et la valorisation des recherches (voir Travailler ensemble : du temps et des moyens et Valoriser le travail à l’interface).