IMB > Recherche > Equipes

Probabilités et Statistique

Membres permanents

Responsable : Vincent Couallier

Thèmes : Analyse de survie et de fiabilité, Statistique multidimensionnelle, Statistique appliquée, Contrôle stochastique, Algorithmes stochastiques, Matrices aléatoires.

Analyse de survie et de fiabilité

Vincent Couallier, Léo Gerville-Réache, Mikhail Nikulin, Jérôme Poix,

Les études menées dans cette thématique portent sur la modélisation et l’inférence statistique de problèmes de survie et de fiabilité basées sur les modèles de dégradation et de vies accélérées. Ces méthodes sont adaptées à l’analyse de survie pour les systèmes complexes évoluant dans un environnement dynamique (exprimé en terme de vecteur de covariables dépendant du temps). Ces résultats ont un fort impact dans le milieu médical, en anthropologie, en biologie, en cancérologie, en démographie ainsi que dans l’analyse de la durée de vie de composants industriels et de la fiabilité de systèmes complexes issus des sciences de l’ingénieur... (lire la suite).

Statistique multidimensionnelle

Bernard Bercu , François Caron , Marie Chavent, , Pierrick Legrand , Brigitte Patouille, Jérôme Saracco

On peut faire ressortir trois grands axes qui recouvrent le large spectre des compétences de l’équipe en Statistique multidimensionnelle tant sur le plan théorique qu’appliqué.
 Le premier axe concerne les méthodes semi et non paramétrique dans le cadre de modèles de régression. Une compétence majeure de l’équipe concerne plus particulièrement les méthodes de type SIR (Sliced Inverse Regression), permettant l’estimation d’un modèle semiparamétrique très général de régression. Un autre compétence porte sur l’estimation nonparamétrique des quantiles conditionnels ou non, uni-variés ou multivariés (spatiaux) pour des données complètes ou censurées.
 Le second axe concerne les méthodes statistiques de classification et d’analyse des données. L’équipe possède des compétences en classification supervisée ou non supervisée avec des approches géométriques et stochastiques, certaines méthodes permettant d’obtenir une classification d’individus (parfois modélisés par des intervalles), d’autres de variables. Un autre point fort de cet axe est le développement de nouvelles méthodes d’analyse de données qualitatives.
 Enfin, un troisième axe peut être mis en exergue dans le cadre de cette thématique. Il s’agit de la statistique appliquée : le point de départ des approches statistiques développées est une problématique réelle issue généralement de collaborations interdisplinaires telles que celles concernant la pollution de l’air par exemple ...(lire la suite).

Statistique appliquée

Une étude sur la pollution atmosphérique a été réalisé en réponse à l’APR "Particules’’ du programme PRIMEQUAL/PREDIT piloté par le MEDAD et l’ADEME. La question étudiée a été l’identification et la quantification des contributions de sources de poussières fines à un environnement. Ce projet, fruit d’une collaboration avec un organisme agrée de surveillance de la qualité de l’air (AIRAQ) et un laboratoire de physique nucléaire spécialisé dans l’analyse élémentaire par faisceaux d’ions de haute énergie (CENBG), a été réalisé selon un protocole en trois phases : le prélèvement de particules fines sur le site d’intérêt, l’analyse chimique de ces prélèvements à l’aide de la technique multi-élémentaire PIXE et enfin le traitement statistique des données. Dans cette dernière phase, nous avons étudié les limites des outils classiques d’analyse factorielle et nous avons proposé d’utiliser des modèles spécifiques qui s’apparentes à l’approximation d’une matrice par le produit de deux matrices de rang inférieur, sous certaines contraintes physiques dont la positivité des coefficients. L’algorithme PMF suivi d’une normalisation des résultats en fonction des contraintes physiques du modèle, a ainsi permis d’identifier les sources et surtout de quantifier leurs contributions à l’empoussièrement sur la période de l’étude

Dans un autre contexte, une étude sur l’analyse de durée de vie de prothèses lombaires, sujet proposé par la société Styker Spine, a fait l’objet d’un contrat industriel et d’une publication dans Journal of Statistical Planning and Inference. Il s’agissait de modéliser et d’estimer la durée de vie d’arthodèses lombaires à partir de données d’essais effectuées sur plusieurs configurations géométriques (plusieurs tailles, plusieurs longueur de vis, présence/absence de connecteur) pour définir les effets de vieillissement sous contraintes nominales ou accélérées.

Avec l’institut Bergonié et la société Imagene, une collaboration à long terme existe et porte sur l’analyse statistique et le calcul de probabilité pour la modélisation de la dégradation de l’ADN extrait à l’état sec. L’équipe intervient comme support mathématique et statistique pour le développement de la R&D d’Imagene dans la recherche de nouveau procédé de conservation de l’ADN. Les résultats les plus importants ont fait l’objet d’une première publication scientifique dans Analytical Biochemistry (un autre article est en révision pour Nucleic Acid Research).

Une collaboration avec le laboratoire d’Anthropologie des Populations du Passé, UMR 5199 - PACEA, Université Bordeaux 1 a également donné lieu à de nombreuses applications de la Statistique, portant le plus souvent sur les modèles linéaires, linéaires généralisés, avec estimation classique (par maximum de vraisemblance) ou par GEE. La première étude a porté sur une série de squelettes portugais (fin du 19ième/début du 20ième siècle). Son objectif était d’étudier les relations entre age, perte osseuse, arthrose et ostéoporose (article publié dans HOMO - Journal of Comparative Human Biology, 2007). Une seconde étude sur des collections de squelettes a porté sur l’analyse statistique de données mudidimensionnelles dichotomiques codant la présences d’entésopathies et sur un modèle permettant de prédire ces atteintes en fonction de variables telles que l’activité physique, le genre, l’âge ou la collection. Un article a été soumis à American Journal of Physical Anthropology en 2009.

D’autres contrats en cours ou achevé ont également sollicité les membres de l’équipe : EDF (classification de courbes de charges et les méthodes statistiques pour l’estimation de la consommation individuelle), DCNS (filtrage et poursuite multi cibles), CEA (optimisation stochastique sous contraintes, étude de problème de propagation de fissure), IFREMER (fiabilité de structures plates-formes pétrolières), VNF (Voies Navigables de France, définition de la méthodologie statistique d’une enquête par sondage des navigants plaisanciers sur le canal des deux mers), DANONE (application de méthodes NWAY aux données cliniques en nutrition-santé), CHANEL (estimation de courbes de tolérance), entre autres.

D’autres études sont plutôt liées à des projets ANR avec des organismes de recherches nationaux et des partenaires industriels : projet région (sur les méthodes de Monte Carlo par chaînes de Markov en interaction, équipe INRIA ALEA), ANR PREVASSEMBLE avec Météo France Toulouse sur le filtrage particulaire en assimilation de données (depuis 2009), ANR VIROSCOPY avec l’ENST Paris sur l’analyse de risques en épidémiologie (depuis 2009), ANR NEBBIANO sur la fiabilité des techniques de tatouage d’images avec l’IRISA de Rennes (2006-2009).

Contrôle stochastique

Bernard Bercu, François Dufour, Huilong Zhang.

Cet axe de recherche s’est pleinement développé ces dernières années tant sur le plan théorique que sur le plan des applications en analyse de risque et en sûreté de fonctionnement. Concernant les aspects théoriques, les premiers résultats marquants de l’équipe portent sur des problèmes de stabilité stochastique et de contrôle optimal de processus markoviens.

 Un premier axe de recherche concerne le contrôle optimal singulier d’équations différentielles stochastiques. Il a été dégagé de nouveaux résultats d’existence en utilisant des techniques de changement de temps contrôlées. Il s’agit à notre connaissance des premiers résultats de la littérature obtenus dans un cadre aussi général : forme du coût quelconque et gain non-linéaire. De plus, il a été dégagé une nouvelle forme du principe du maximum où les variables adjointes sont solutions d’équations différentielles stochastiques rétrogrades singulières.

 Un second axe de recherche traite des problèmes de contrôle pour les processus markoviens déterministes par morceaux. Il existe très peu de résultats dans la littérature concernant les problèmes de contrôle dits continus pour des coûts moyennés à long terme contrairement au contrôle impulsionnel ... (lire la suite).

Algorithmes stochastiques

Bernard Bercu, François Caron, Pierrick Legrand.

Les point forts de l’équipe sur ce thème émergent s’articulent principalement autour de deux axes de recherches :

 La confection et analyse de nouvelles classes d’algorithmes stochastiques en interaction : échantillonneur de Gibbs et recuits simulés en interaction, algorithmes d’apprentissage et d’exploration aléatoire de type génétiques, chaînes de Markov en auto-interaction avec leurs mesures d’occupation.

 L’étude des différents domaines d’applications liés à la physique, l’inférence bayesienne, l’optimisation stochastique et au traitement du signal : classification non supervisée de données fonctionnelles, chaînes de Markov cachées, estimation du haut du spectre d’opérateurs de Schrödinger, filtrage de trajectoires de signaux non linéaires et non gaussien en terme d’arbres généalogiques, techniques de type recuits simulés en interaction pour l’optimisation globale de fonction non convexes et l’exploration d’espaces combinatoires complexes ... (lire la suite).

Matrices aléatoires

B. Bercu, D. Féral.

Une toute nouvelle thématique concerne le comportement asymptotique du spectre de matrices aléatoires. C’est une thématique très récente de l’équipe.

 Un premier axe de recherche porte sur les modèles dits Gaz de Coulomb discrets et continus. Les gaz de Coulomb discrets sont les analogues discrets des modèles plus classiques de gaz de Coulomb continus rencontrés en théorie des matrices aléatoires. Les travaux portent sur des résultats de grandes déviations pour la mesure spectrale et la « valeur propre maximale » associées.

 Un second axe de recherche est consacré au comportement asymptotique du spectre de matrices aléatoires structurées comme les matrices de Toeplitz, de Hankel, ou de Jacobi.

 Un troisième axe de recherche concerne le comportement asymptotique des valeurs propres extrémales de certaines matrices aléatoires. Les modèles d’étude sont des déformations de modèles classiques et bien connus, à savoir les matrices de Wigner et les matrices de Wishart. Il s’agit en particulier d’étudier les effets de la perturbation sur la loi de la plus grande valeur propre pour des matrices aléatoires de grande dimension. Une autre approche, basée sur les transformées de Stieltjes, permet d’étudier des classes assez générales de matrices de Wigner déformées et de mettre en évidence un phénomène remarquable de non-universalité des fluctuations des valeurs propres extrémales (lire la suite).