Journées MAS et Journée en l'honneur de Jacques Neveu

31 août - 3 septembre 2010 à Bordeaux

 
 
 

Propagation d'incertitudes (pdf)

Session organisée par Tony Lelièvre (Université Paris Est Marne la Vallée)

Le calcul de la propagation des erreurs dans un modèle est devenu un enjeu important en calcul scientifique. C'est un sujet qui intéresse indéniablement les industriels et les scientifiques de domaines très différents (climatologie, mécanique, finance, ...), et qui ouvre de nouvelles thématiques de recherche pour les mathématiciens appliqués, à l’intersection des méthodes numériques pour les équations aux dérivées partielles et des méthodes de Monte Carlo. Il s'agit aujourd'hui d’un domaine de recherche extrêmement actif, qui permet de confronter divers domaines des mathématiques appliquées traditionnellement disjoints.
La question posée est très simple : les modèles utilisés actuellement sont de plus en plus complexes, souvent non-linéaires, et il est donc difficile de prédire a priori comment des erreurs sur les paramètres du modèle (les données en entrée) influent sur le résultat (la sortie). Cette problématique générale a été abordée par diverses communautéés, en insistant sur différents aspects : l'estimation des évènements rares (la fiabilité), les méthodes de réductions de modèle (surface de réponse) pour diminuer les temps de calcul d'évaluation de la sortie et utiliser efficacement des méthodes de Monte Carlo, la modélisation de l'aléa sur les entrées (estimation de corrélation), le calcul déterministe de la sortie en fonction des données (méthodes issues de la résolution numériques des équations aux dérivées partielles, avec une problématique naturelle de discrétisation des fonctions en grande dimension), pour ne citer que quelques exemples.
L'objectif de cette session sera de présenter quelques aspects de cette problématique, au travers de quatre exposés : un exposé introductif, et trois exposés portant sur des problèmes spécifiques.

Exposé de 40 minutes A. Nouy (Université de Nantes) Méthodes spectrales stochastiques et réduction de modèle pour la propagation d'incertitudes paramétriques dans les modèles physiques transparents

La quantification des incertitudes apparaît comme une voie essentielle pour l'amélioration de la prédictibilité des modèles physiques. On rappellera ici les bases d'une famille de méthodes, appelées méthodes spectrales stochastiques, qui fournissent une démarche générale pour la simulation numérique d'une grande classe de modèles régis par des équations aux dérivées partielles stochastiques. Ces méthodes reposent sur une représentation fonctionnelle des incertitudes et permettent d'obtenir la réponse du modèle sous la forme d'une fonction explicite de variables aléatoires de base. Après l'introduction d'une base d'approximation adaptée au type de fonction à représenter, différentes définitions de l'approximation peuvent être adoptées (projections, collocation,...). Ces méthodes fournissent une représentation précise de la solution et permettent d'opérer de nombreuses analyses a posteriori: caractérisation probabiliste d'une quantité d'intérêt, estimation de la probabilité d'un événement, analyse de sensibilité par rapport aux paramètres de base, mais aussi analyse inverse, optimisation paramétrique... Cependant, ces méthodes spectrales souffrent de la malédiction de la dimensionnalité, associée à l'augmentation dramatique de la dimension des espaces d'approximation avec le nombre de paramètres aléatoires (ou dimension stochastique). On exposera alors une famille de méthodes alternatives, récemment baptisées Proper Generalized Decompositions, qui tentent de pallier les limitations des approches spectrales classiques. Ces méthodes reposent sur la construction a priori d'une représentation séparée de la solution d'un problème formulé sur une espace produit tensoriel. Elles peuvent s'interpréter comme une généralisation des décompositions de Karhunen-Loève, conduisant à la construction automatique d'une base réduite de fonctions qui est optimale pour la représentation de la solution. Des résultats de convergence et des algorithmes de construction des représentations séparées sont disponibles pour une large classe de problèmes variationnels. Dans le contexte des problèmes stochastiques, on utilise tout d'abord ces méthodes pour la séparation des variables déterministes et des variables aléatoires. Elles permettent ainsi la construction a priori d'une représentation (quasi)optimale de la solution aléatoire sous la forme d'une série de produits de fonctions déterministes et de fonctions stochastiques. Cette séparation déterministe/stochastique ne répond cependant pas à la malédiction de la dimensionnalité. Afin de vaincre cette malédiction, on introduit alors une représentation en variables séparées des fonctions stochastiques, les variables séparées étant ici les différents paramètres aléatoires du modèle. Pour de nombreux modèles, la stratégie proposée permet ainsi de construire une solution approchée vivant dans des espaces d'approximation de très grande taille (10^50, 10^100), cette solution étant inaccessible par des approches traditionnelles.

Exposé de 20 minutes N. Bousquet (EDF) Borner et estimer les probabilités d'évènements extrêmes sous faible coût computationnel : le cas des codes de calcul monotone

La survenue d'un évènement extrême, généralement défavorable, est souvent modélisée comme le franchissement d'une valeur-limite pour une variable de sortie d'un grand code de calcul dont les entrées sont stochastiques. Celui-ci étant parfois très lourd computationnellement, les méthodes de Monte Carlo, consistant à simuler les sorties à partir des entrées et à estimer la probabilité de l'évènement par un rapport fréquentiel, sont inefficaces. Dans de nombreuses applications, cependant, la variable de sortie du code est monotone par rapport aux entrées. Pour un nombre de simulations fixé (et souvent faible), cette propriété nous permet de construire un encadrement certain de la probabilité et de l'estimer de façon robuste avec une variance significativement moindre que celle de Monte Carlo.

Exposé de 20 minutes V. Ehrlacher (Ecole des Ponts ParisTech) Propagation des incertitudes sur des problèmes de l'obstacle en grande dimension

Nous nous intéressons à des méthodes pour le calcul de propagation des incertitudes, appliquées à des problèmes non-linéaires en mécanique du type problème de l'obstacle. La prise en compte des incertitudes dans le modèle aboutit à un problème en grande dimension, ce qui rend inapplicable des techniques standards d'approximation de la solution. Nous étudions la convergence d'un algorithme glouton (du type Generalized Spectral Decomposition) qui permet d'attaquer de tels problèmes en grande dimension, appliqué à un problème de l'obstacle approché par une méthode de pénalisation. La méthode est illustrée sur un cas test académique.

Exposé de 20 minutes L. Viry (Université Joseph Fourier) Etude la variabilité spatio-temporelle de la mousson en Afrique de l'ouest transparents

La mousson ouest Africaine est le phénomène atmosphérique qui génère l'ensemble des précipitations sur l'Afrique de l'Ouest. Le but de cette étude est de simuler les précipitations à l'aide d'un modèle régional atmosphérique (modèle MAR) et d'analyser la sensibilité spatio-temporelle des précipitations aux paramètres d'entrées du modèle. Pour approcher le code de calcul et réaliser son analyse de sensibilité, il s'agira d'une part d'approcher les entrées et les sorties par des décompositions sur des bases fonctionnelles spatio-temporelles et de réaliser ensuite une régression non paramétrique. Tant les entrées que les sorties apparaîtront comme des processus indexés par le temps et l'espace. Conditionnellement aux coordonnées spatiales, ces processus seront décomposés dans une base orthonormée (décomposition de Karhunen Loève) et la dépendance spatiale des observations sera transportée sur les coefficients de la décomposition. Les simulations se font dans un environnement de type grille de calcul à l'aide de l'intergiciel DIET-Solve qui permet une gestion automatisée du nombre important de runs et du flux des données entre ces runs.