IMB > Recherche > Séminaires

Séminaire Images Optimisation et Probabilités

Responsables : Arthur Leclaire et Camille Male

  • Le 14 janvier 2016 à 11:00
  • Salle 1
    Tom Rohmer (ISPED)
    Tests non-paramétriques de détection de rupture dans la copule d'observations multivariées avec et sans changement dans les lois marginales -illustration des méthodes et simulations de Monte Carlo-.
    De nombreux tests non paramétriques pour la détection de rupture dans la loi d'observations multivariées sont présents dans la littérature, cependant ces derniers sont très souvent peu puissants face à des alternatives de rupture dans la dépendance entre les composantes des observations lorsque les lois marginales sont inchangées. Dans le cas où les marges des vecteurs aléatoires sont continues, le théorème de Sklar garantit l?existence et l'unicité d'une fonction appelée copule, caractérisant la dépendance entre les composantes du vecteur aléatoire. De plus la donnée de la copule et des lois marginales va caractériser la loi du vecteur aléatoire. Dans cette présentation, j'exposerai un test CUSUM non paramétrique pour la détection de rupture dans la distribution d?observations multivariée, particulièrement sensible à un changement dans la copule des observations. J'exposerai également comment adapter ce test pour permettre en plus un ou plusieurs changement dans les lois marginales. Enfin j'illustrerai ces deux tests au travers d?une application sur des données et de simulations de Monte Carlo à tailles d'échantillon modérées.
  • Le 28 janvier 2016 à 11:00
  • Salle 1
    Koléhè Coulibaly (Université de Nancy)
    Une diffusion dans l'espace des lacets $C^1$
    Soit M une variété orientable, et un lacet $ \gamma : s \in [0,1] \mapsto M$, nous nous intéressons à l'existence d'une diffusion dans l'espace des lacets $C^1$, telle que pour tout $s\in [0,1]$, $ t \mapsto \gamma_s(t)$ soit un mouvement brownien. Nous en donnerons quelques propriétés. (Travail en cours avec Marc Arnaudon).
  • Le 4 février 2016 à 11:00
  • Salle 1
    Camille MALE (Paris 7)
    Spectre de matrices et de graphes aléatoires, probabilités libres
    Dans les années '80, Voiculescu a créé les probabilités libres afin d'étudier les algèbres de von Neumann des groupes libres. Il invente le concept de 'liberté', qui joue le role de l'indépendance statistique dans sa théorie non commutative. Vers le début des années '90, il réalisa que la liberté permet de calculer la distribution de valeurs propres de polynômes en certaines matrices aléatoires, lorsque la taille des matrices tend vers l'infini. Cependant, la théorie de Voiculescu ne s'applique pas lorsque les vecteurs propres des matrices aléatoires ne sont pas asymptotiquement uniformément distribués. Afin d'étudier ces matrices aléatoires, qui comprennent les matrices d'adjacence de graphes aléatoires, j'introduis un cadre étendu des probabilités non commutatives. Celui ci permet d'étendre l'étude de la distribution de valeurs propres de polynômes en des matrices aléatoires invariantes par conjugaison par des matrices de permutation.
  • Le 11 février 2016 à 11:00
  • Salle 1
    Jérémie Bigot (IMB)
    Generalized SURE for optimal shrinkage of singular values in low-rank matrix denoising
    We consider the problem of estimating a low-rank signal matrix from noisy measurements under the assumption that the distribution of the data matrix belongs to an exponential family. In this setting, we derive generalized SURE formulas that hold for any smooth spectral estimators which shrink or threshold the singular values of the data matrix. This allows to obtain new data-driven shrinkage rules, whose optimality is discussed using tools from random matrix theory and through numerical experiments.
  • Le 3 mars 2016 à 11:00
  • Salle 1
    Yousri Slaoui (Poitiers)
    Parameter Estimation in a linear mixed Model with Censored Response: An Approach using a SEM Algorithm and Gibbs Sampling.
    In this talk, we propose an approach, based on the stochastic expectation maximization (SEM) algorithm and Gibbs sampling, to deal with the problem caused by censoring in the response of a linear mixed models.We compared our approach with the existing methods via real datasets as well as simulations. Results showed that our approach outperformedother approaches in terms of estimation accuracy and computing efficiency.
  • Le 10 mars 2016 à 11:00
  • Salle de Conférences
    Jean-François Marckert (LaBRI)
    à propos du problème de Sylvester
    Mettons n points aléatoires uniformes dans un domaine compact convexe $K$ du plan. Notons $P_K^n$ la probabilité que ces points soient en position convexe, c'est-à-dire, soient les sommets d'un polygone convexe.Blaschke en 1917 a montré que $P_T^4 \leq P_K^4 \leq P_0^4$ où $T$ désigne un triangle, et $O$ le disque. Dans cet exposé nous montrerons que cette propriété est vraie pour 5 points également. Nous illustrerons par des exemples, que ce domaine de recherche allie des techniques géométriques, probabilistes, et combinatoires.
  • Le 24 mars 2016 à 11:00
  • Salle de Conférences
    Sofiane Saadane (Toulouse)
    Étude du regret associé aux algorithmes de bandit de type Narendra-Shapiro (N-S)
    Les algorithmes de bandit de types N-S ont été introduits dans les années 60 en vue d'applications aux tests cliniques notamment. Le principe d'un algorithme de bandit peut être défini de la manière suivante : on dispose de 2 sources A et B (ayant respectivement une probabilité pA et pB d'être satisfaisante lorsque qu'elle est utilisée) et on souhaite déterminer laquelle des deux est la plus performante. Récemment Lamberton et Pagès ont introduit une version dite “pénalisée” de cet algorithme pour laquelle divers résultats de convergence ont été démontrés. Nous nous intéressons dans ce travail à la question suivante : ces algorithmes sont-ils performants d'un point de vue de regret ? Le regret étant la différence entre la meilleure performance possible (i.e celle obtenue en choisissant toujours la meilleur source) et celle obtenue par l'algorithme. Dans cette présentation, nous verrons qu'une légère modification de cette algorithme conduit à des bornes de regret de l'ordre de \sqrt{n} uniformément en pA et pB. Nous étendrons aussi les résultats de Lamberton et Pagès à une version multidimensionnelle de l'algorithme. Nous établirons une convergence en loi vers la mesure invariante d'un PDMP pour lequel nous étudierons sa convergence à l'équilibre.Travail effectué en collaboration avec Sébastien Gadat et Fabien Panloup.
  • Le 31 mars 2016 à 14:00
  • Salle de Conférences
    Djalil Chafaï (Université Paris-Dauphine)
    Au bord de systèmes de particules en interaction (séminaire en commun avec l'équipe Analyse)
    Cet exposé présente des résultats et des questions ouvertes concernant le bord de systèmes de particules en interaction, liés à ou inspirés par des modèles de matrices aléatoires.
  • Le 7 avril 2016 à 11:00
  • Salle de Conférences
    Paul Doukhan (Université Cergy-Pontoise)
    dépendance faible, valeurs extrêmes et rééchantillonnage
    les propriétés de dépendance faible introduites avec Louhichi en 1999 sont rappelées avec leurs propriétés et des modèles adaptés. Leurs propriétés sont adaptées aux techniques de rééchantillonnage. L'objectif de l'exposé est de le démontrer en s'appuyant sur des questions issues de la théorie des valeurs extrêmes.
  • Le 14 avril 2016 à 11:00
  • Salle 2
    Joseph Salmon (Telecom Paris)
    GAP safe screening rule for sparsity enforcing penalties
    High dimensional regression benefits from sparsity promoting regularizations. In such a context, screening rules leverage the known sparsity of the solution by ignoring some variables during (or even before) the optimization process, hence speeding up solvers. Such rules are said to be 'safe' when they cannot wrongly discard features. In this talk, new safe rules for generalized linear models with sparsity enforcing regularization will be proposed. Our proposed GAP Safe (screening) rules can cope with any iterative solver and we illustrate their performance on coordinate descent, demonstrating interesting speed ups for learning problems.This is a joint work with E. Ndiaye, O. Fercoq and A. Gramfort
  • Le 28 avril 2016 à 11:00
  • Salle 1
    Jamal Najim (université de Marne La Vallée)
    Limiting spectral distribution for non-hermitian random matrices with a variance profile
    Consider a large $n \times n$ random matrix $Y_n$ with entries given by$$Y_{ij} = \frac{\sigma_{ij}}{\sqrt{n}} X_{ij}$$where the $X_{ij}$’s are independent and identically distributed random variables with four moments, and the $\sigma_{ij}$’s are deterministic, non-negative quantities and account for a variance profile. Notice that some of the $\sigma_{ij}$’s may be equal to zero. In this talk, we will describe the limiting spectral distribution of matrix $X_n$ as $n \rightarrow \infty$, that is the limit of the empirical distribution of $X_n$’s eigenvalues.We will carefully specify the assumptions on the variance profile $(\sigma_{ij} )$ under which we can describe the limiting spectral distribution.This is a joint work with Nicholas Cook, Walid Hachem and David Renfrew.
  • Le 12 mai 2016 à 11:00
  • Salle 2
    Clarice M H S Poon (Paris Dauphine)
    Geometric properties of solutions to the total variation denoising problem
    Total variation (TV) denoising has been extensively studied in imaging sciences since its introduction by Rudin, Osher and Fatemi in 1992. However, the majority of theoretical works TV regularization are actually concerned with solutions to total variation denoising in the absence of noise. For instance, it is known that the jump set of the regularized solutions are contained in the jump set of the original data, but this knowledge is fairly meaningless in the presence of noise since the noisy function can introduce arbitrarily many new discontinuities. Furthermore, works that consider the impact of noise on TV regularized solutions typically derive integral estimates such as L^2 error bounds or bounds on the total variation of the solution. However, such estimates do not inform on the proximity of the gradient support of the regularized solution to that of the clean function.This talk is concerned with the impact of noise on the regularized solutions. In particular, we consider stability in the gradient support of solutions and address the following question: Given a small neighbourhood around the support of Df, when will the gradient support of the regularized solution be contained inside this neighbourhood if the noise function has sufficiently small L^2 norm?
  • Le 26 mai 2016 à 11:00
  • Salle 385
    Nicolas Fournier
    Estimation statistique de l'entropie
    On observe un échantillon i.i.d. d'une loi de densité $f$ sur $R^d$et on cherche à estimer $H(f)=-\int_{R^d} f(x) log f(x) dx$.C'est un vieux problème manifestement très répandu en sciences appliquées,mais aucune vitesse de convergence n'est démontrée en dimension $d\geq 2$dans un cadre général (i.e. sans hypothèse structurelle sur $f$).Nous obtenons, pour l'estimateur proposé par Kozachenko-Leonenko en 1987,un TCL qui permet qui permet de fournir des intervalles de confiances (asymptotiques) exacts.La vitesse est en $1/\sqrt N$. (Travail en commun avec S. Delattre)
  • Le 2 juin 2016 à 11:00
  • Salle de Conférences
    Clément Chesseboeuf (Université de Poitiers)
    VARIANCE CHANGE-POINT DETECTION FOR STATIONARY GAUSSIAN PROCESSES
    We consider the problem of detecting and estimating abrupt changes in the variance of a piecewise stationary Gaussian sequence. Following the usual approach of the change-point analysis we define a contrast function and estimate the change-point as the point of maximum contrast. The consistency of such an estimator can be proven using a functional convergence theorem. A natural application of this method is the detection of change in the Hurst index of a piecewise fractional Brownian motion (fBm). Using the stationarity of increments, we can apply it to this problem.In this talk I will present the construction of the estimator and prove its consistency. A relative statistical test will be also discussed. Finally, I will give numerical results for the case of fractional Brownian motion.
  • Le 23 juin 2016 à 11:00
  • Salle de Conférences
    Franck Iutzeler (Université de Grenoble)
    Practical acceleration for some optimization methods using relaxation and inertia
    Optimization algorithms can often be seen as fixed-points iterations of some operators. To accelerate such iterations, two simple methods that can be used are i) relaxation (simple combination of current and previous iterate) and ii) inertia (slightly more involved modification made popular by Nesterov’s acceleration). These methods have been celebrated for accelerating linearly and sub-linearly converging algorithms such as gradient methods, proximal gradient (FISTA), or ADMM (Fast ADMM).In this presentation, we build upon generic contraction properties and affine approximations to propose generic auto-tuned acceleration methods and illustrate their compared interests on various optimization algorithms.
  • Le 8 septembre 2016 à 11:00
  • Salle de Conférences
    Thomas Hotz (université de Ilmenau)
    On the Topology of Projective Shape Spaces
    The projective shape of a configuration consists of the information that is invariant under projective transformations. It encodes the information about an object reconstructable from uncalibrated camera views. The space of projective shapes of k points in RP(d) is by definition the quotient space of k copies of RP(d) modulo the action of the projective linear group PGL(d). A detailed examination of the topology of projective shape space is given, and it is shown how to derive subsets that are differentiable Hausdorff manifolds and can be provided with a Riemannian metric. A special case are Tyler regular shapes for which a Riemannian metric is given.This is joint work with Florian Kelma (TU Ilmenau) and John T. Kent (University of Leeds).
  • Le 15 septembre 2016 à 11:00
  • Salle de Conférences
    Camille Male (IMB)
    Matrices, graphes aléatoires et probabilités libres
    'Dans cet exposé je commencerai par décrire ce que nous connaissons sur les mesures empiriques des valeurs propres de certains grands graphes aléatoires. J'expliquerai ensuite comment la convergence locale faible, au sens de Benjamini et Schramm, est utile pour connaitre le spectre de polynômes en plusieurs matrices de graphes indépendantes.'Certains résultat qui seront énoncé ont été établis en collaboration avec S. Péché.
  • Le 22 septembre 2016 à 11:00
  • Salle de Conférences
    Alice Le Brigant (IMB)
    Comparer et moyenner des courbes dans une variété pour des applications en traitement du signal
    De nombreuses applications nécessitent l'étude de courbes dans un certain espace (en toute généralité, une variété) et de leurs formes. Un exemple simple en courbure positive est l'étude de trajectoires sur la sphère terrestre. Dans le cadre du traitement du signal, nous nous intéressons à des courbes dans un espace à courbure négative, l'espace hyperbolique, qui coïncide avec la variété statistique des distributions gaussiennes. Dans notre application, ces courbes représentent les évolutions de processus gaussiens localement stationnaires. Afin de les manipuler et les comparer, nous munissons l'espace de ces courbes d'une métrique Riemannienne et nous étudions la géométrie induite, en particulier les géodésiques pour cette métrique. Cela nous permet de construire la déformation optimale d'une courbe à une autre et de calculer la moyenne de plusieurs courbes.
  • Le 29 septembre 2016 à 11:00
  • Salle de Conférences

  • Le 6 octobre 2016 à 11:00
  • Salle de Conférences

  • Le 13 octobre 2016 à 11:00
  • Salle 2
    Gabriele Facciolo (ENPC)
    MGM: A Significantly More Global Matching for Stereovision
    Semi-global matching (SGM) is among the top-ranked stereovision algorithms. SGM is an efficient strategy for approximately minimizing a global energy that comprises a pixel-wise matching cost and pair-wise smoothness terms. In SGM the two-dimensional smoothness constraint is approximated as the average of one-dimensional line optimization problems. The accuracy and speed of SGM are the main reasons for its widespread adoption, even when applied to generic problems beyond stereovision. This approximate minimization, however, also produces characteristic low amplitude streaks in the final disparity image, and is clearly suboptimal with respect to more comprehensive minimization strategies. Based on a recently proposed interpretation of SGM as a min-sum Belief Propagation algorithm, we propose a new algorithm that allows to reduce by a factor five the energy gap of SGM with respect to reference algorithms for MRFs with truncated smoothness terms. The proposed method comes with no compromises with respect to the baseline SGM, no parameters and virtually no computational overhead. At the same time it attains higher quality results by removing the characteristic streaking artifacts of SGM.
  • Le 3 novembre 2016 à 11:00
  • Salle de Conférences
    Raphaël BUTEZ (Paris Dauphine)
    Universalité des grandes déviations pour les racines de polynômes aléatoires
    Dans cet exposé nous étudierons les racines de polynômes dont les coefficients sont des variables réelles ou complexes à densité par rapport à la mesure de Lebesgue. Nous verrons que nous pouvons calculer explicitement la distribution des racines de ces polynômes et qu'elles forment un gaz de Coulomb qui présente de nombreuses similitudes avec les valeurs propres de certaines matrices aléatoires. Nous verrons comment obtenir un principe de grandes déviations pour la mesure empirique des zéros. Nous expliquerons pourquoi les grandes déviations sont universelles (le principe de grandes déviations que nous présenterons est vrai pour une large classe de coefficients, avec toujours la même fonction de taux et la même vitesse). La majorité de l'exposé reposera sur l'article http://arxiv.org/abs/1607.02392
  • Le 10 novembre 2016 à 11:00
  • Salle 2
    Iona Gavra (TSE Toulouse)
    Comment calculer le barycentre d'un (très grand) graphe ?
    L'objectif de cet exposé est de décrire un algorithme de calcul debarycentre pour des structures discrètes telles que les graphespondérés. De telles structures sont couramment utilisées pour décriredes bases de données, modéliser des communications, internet, des fluxde transport routier ou aérien, etc. Le calcul du barycentre de tellesstructures, pour un graphe possiblement très gros, induit desdifficultés liées à l'optimisation de fonctionnelles non convexes. Nousdécrivons dans cet exposé une première manière de calculer le barycentrede graphes pondérés (arêtes et nœuds), au travers d'un algorithme derecuit simulé homogénéisé et démontrons la convergence d'une telleprocédure. Enfin, nous appliquons sur données réelles la méthode etillustrerons ses forces, et ses faiblesses...Ce travail est en collaboration avec S. Gadat (Pr UT1), L.Miclo (DR CNRS) et L. Risser (IR CNRS).
  • Le 22 novembre 2016 à 11:00
  • Salle de Conférences
    Charles Soussen (U. de Lorraine)
    Algorithmes de type homotopiques pour la minimisation des moindres carrés régularisés par la pseudo-norme L0
    Cette présentation concerne le développement d'algorithmesd'approximation parcimonieuse pour les problèmes inverses malconditionnés. Les algorithmes heuristiques proposés sont conçus pourminimiser des critères mixtes L2-L0 du type$$min_x J(x;\lambda) = || y - Ax ||_2^2 + \lambda || x ||_0.$$Ce sont des algorithmes gloutons 'bidirectionnels' définis en tantqu'extensions d'Orthogonal Least Squares (OLS). Leur développement estmotivé par le très bon comportement empirique d'OLS et de ses versionsdérivées lorsque la matrice A est mal conditionnée. Je présenteraidans un premier temps l'algorithme 'Single Best Replacement' (SBR)pour minimiser J(x;lambda) à lambda fixé [1], en mettant en avantses propriétés structurelles. Dans la deuxième partie de la présentation,je présenterai deux algorithmes permettant de minimiser J pour uncontinuum de valeurs de lambda, ce qui conduit à estimer le cheminde régularisation L0 [2]. Ces algorithmes sont inspirés de l'algorithmed'homotopie pour la régularisaton L1 et exploitent le caractère constantpar morceaux du chemin de régularisation L0. Les simulations numériquesmontrent l'efficacité des deux algorithmes pour des problèmes inversesdifficiles comme la déconvolution impulsionnelle par un filtre passe-bas.Je montrerai finalement que les algorithmes proposés peuvent êtreavantageusement couplés avec des méthodes de sélection d'ordre commele MDL (Minimum Description Length) afin de sélectionner automatiquementl'une seule solutions parcimonieuses obtenues.[1] C. Soussen, J. Idier, D. Brie et J. Duan, From Bernoulli-Gaussiandeconvolution to sparse signal restoration, IEEE Transactions onSignal Processing, vol. 59, no. 10, pp. 4572-4584, oct. 2011.[2] C. Soussen, J. Idier, J. Duan et D. Brie, Homotopy basedalgorithms for l0-regularized least-squares, IEEE Transactions onSignal Processing, vol. 63, no.13, 3301-3316, juil. 2015
  • Le 24 novembre 2016 à 11:00
  • Salle de Conférences
    Pierre-Yves Louis (U. Poitiers)
    Systèmes de processus de renforcement en interaction champ moyen
    Nous nous intéressons à des systèmes de processus où l'interaction est de type champ moyen à travers un mécanisme de renforcement. Différents régimes de renforcement sont considérés. Un phénomène de synchronisation vers une limite commune en temps, aléatoire ou déterministe, est démontré. Nous étudions également les fluctuations et établissons des théorèmes centraux limite fonctionnels. Cet exposé se fonde principalement sur des travaux en collaboration avec I. Crimaldi, P. Dai Pra et I. Minelli (arXiv 1602.06217v2).
  • Le 8 décembre 2016 à 11:00
  • Salle 2
    Bruno Galerne (Paris 5)
    Champs aléatoires à variation bornée et calcul de leur variation moyenne
    En traitement d'images il est d'usage de considérer que la variation totale des images de textures est élevée voir infinie. Cependant, très peu de choses sont connues concernant la variation totale des modèles classiques de textures comme les champs gaussiens, les shot noises, etc.Le but de cet exposé est de définir et de caractériser les champs aléatoires à variation bornée, c'est-à-dire les champs aléatoires dont les réalisations sont des fonctions à variation bornée, et d'étudier leur variation totale moyenne. On s'intéressera plus particulièrement à la variation moyenne des champs aléatoires à incréments stationnaires. On montrera que leur variation moyenne est proportionnelle à la mesure de Lesbesgue, et une expression de la constante de proportionnalité, appelée intensité de variation, sera établie.En se restreignant au cas des ensembles aléatoires, les résultats obtenus fournissent des généralisations de formules standards de géométrie stochastique et de morphologie mathématique. L'intérêt de ces résultats généraux sera illustré en calculant l'intensité de variation de plusieurs modèles classiques de champs aléatoires, à savoir les champs gaussiens et leurs excursions, les shot noise poissonniens, les modèles booléens, et les modèles feuilles mortes.Référence :B. Galerne, Random Fields of Bounded Variation and Computation of their Variation Intensity,Accepted for publication in Advances in Applied Probability,https://hal.archives-ouvertes.fr/hal-01044582/en
  • Le 15 décembre 2016 à 11:00
  • Salle 2
    Martin Ehler (Vienne)
    Covering radius and numerical approximation: beating randomness on Grassmannians
    I will first briefly mention some of my research related to biomedical image analysis, somewhat hinting at my general interest in Grassmannians (the manifold of lower dimensional subspaces in Euclidean space). The actual talk is about the problem of selecting good collections of lower dimensional subspaces, where “good' is supposed to mean “better distributed than random points'. Indeed, we verify that cubature points on Grassmannians cover better than random points. We also numerically construct such deterministic cubature points. To further support our theoretical findings, we present numerical experiments on the approximation of Sobolev functions on Grassmannians from finitely many sampling points. The numerical results are in accordance with the theoretical findings.
  • Le 5 janvier 2017 à 11:00
  • Salle de Conférences
    Lionel Mathelin (LIMSI Orsay)
    Estimation et contrôle de systèmes peu observables en grande dimension par apprentissage statistique (séminaire commun avec l'équipe calcul scientifique)
    Dans un contexte d'assimilation de données, l'efficacité de l'inférence Bayésienne est typiquement limitée par le coût de l'évaluation numérique du modèle et le peu d'information disponible. Une réduction drastique de la dimension de l'espace d’échantillonnage, par apprentissage statistique sous contrainte d'observabilité et de parcimonie, sera discutée. On montre que le problème se formule comme un problème de double optimisation sous contraintes. Une approche Bayésienne est adoptée et une formulation hiérarchique permet, dans le cas d'un opérateur d'observation linéaire et d'un modèle de vraisemblance Gaussien, l'apprentissage de dictionnaires par une approche progressive. Cette approche est très efficace numériquement, et conduit à des expressions explicites pour l'estimation du champ aléatoire considéré (maximum a posteriori, matrice de covariance). L'estimation du champ est alors immédiate à partir de ces résultats. Dans le cas plus général, une approche MCMC peut-être utilisée avec le dictionnaire appris. Nous discuterons également du contrôle en boucle fermée d'un système complexe peu observable et sans modèle. L'apprentissage de sa variété neutre lors d'une étape d’entraînement permet de déterminer une politique de contrôle efficace. Cette approche sera illustrée par un exemple en mécanique des fluides.
  • Le 12 janvier 2017 à 11:30
  • Salle 2
    Hermine Biermé (université de Poitiers)
    Simulation de champs gaussiens anisotropes
    Certains travaux en imagerie médicale proposent de caractériser l'irrégularité des texturesobservées par leur dimension fractale. Ces études sont basées sur la modélisation stochastiquedes images par un champ brownien fractionnaire dont la dimension fractale est déterminée parle paramètre de Hurst qui gouverne son autosimilarité. Cependant, ce modèle stochastique ne permet pas de rendre compte de l'anisotropiedes images qui peut être importante pour l'aide au diagnostic. \ Nous considérons deux généralisations anisotropes de ces champs aléatoires dont on cherche à simuler des trajectoires sur une grille régulière. Le premier modèle reste un champ aléatoire autosimilaire dont l'anisotropie est déterminée par une fonction du tore. En collaboration avec Lionel Moisan (MAP5, Université Paris Descartes, France) et Frédéric Richard (LATP, Aix-Marseille Université, France), nous proposons une adaptation de la méthode des bandes tournantes, introduite par Matheron, à partir de simulations exactes de mouvement brownien fractionnaire unidimensionnel. Le second modèle est obtenu par une déformation anisotrope du variogramme du champ brownien fractionnaire. L'autosimilarité est remplacée par une propriété d'autosimilarité matricielle.En collaboration avec Céline Lacaux (IECN, Université Lorraine, Nancy, France), nous proposons une adaptation de la méthode de Stein, basée sur une représentation locale stationnaire, afin d'obtenir des simulations exactes.
  • Le 26 janvier 2017 à 11:00
  • Salle de Conférences
    Marianne Clausel (Univ. de Grenoble)
    Caractérisation de textures autosimilaires anisotropes a l'aide de la transformée hyperbolique en ondelettes
    Dans bien des situations, on est amené a analyser des textures qui sont anisotropes, c'est à dire dont les propriétés sont différentes suivant les directions considérées. Une question naturelle est alors de savoir comment définir puis éventuellement estimer le degré d'anisotropie d'une image donnée.Ici, nous nous intéressons à un modèle de champ aléatoire anisotrope autosimilaire. Nous utilisons la transformée hyperbolique en ondelettes pour définir des estimateurs d'une anisotropie et de l'indice de Hurst (mesurant la rugosité) du modèle étudié, dont nous étudions numériquement les performances.
  • Le 2 février 2017 à 11:00
  • Salle de Conférences
    Salem Said (IMS)
    lois Gaussiennes dans les espaces symétriques : outils pour l'apprentissage avec les matrices de covariance structurées
    la notion de loi Gaussienne peut être développée à partir de plusieurs définitions : loi à maximum d’entropie, à minimum d’incertitude (état cohérent), à travers le théorème de la limite centrale, ou la théorie cinétique des gaz. Sur un espace euclidien, toutes ces définitions mènent à la même forme pour la loi Gaussienne, mais dans des espaces plus généraux, elles donnent lieu à des formes différentes...la présentation propose une définition originale de la notion de loi Gaussienne, valable sur les espaces Riemanniens symétriques de courbure négative. Il s'agit de lois ayant la propriété : le max de vraisemblance est équivalent au barycentre Riemannien..Il n'y a pas de bonne ou de mauvaise définition dans l'absolu, mais celle-ci présente deux avantages, 1) plusieurs espaces de matrices de covariance(réelles, complexes, Toeplitz, Toeplitz par blocs) sont des espaces symétriques de courbure négative, 2) dans ce contexte, elle donne un fondement statistique à l'utilisation du barycentre Riemannien, qui est un outil très populaire pour grand nombre d'applications. Nous allons comparer la définition proposée aux autres définitions possibles, développer les conséquences théoriques de cette définition, et finalement dire comment elle permet de proposer de nouveaux algorithmes d'apprentissage statistique, spécifiquement adaptés au contexte des ''big data'' et 'données en grandes dimensions'. Le tout sera illustré par des d'exemples ... pour plus de détails, voir les deux papiers (2015 et 2016) :  https://arxiv.org/abs/1507.01760 https://arxiv.org/abs/1607.06929
  • Le 9 février 2017 à 11:00
  • Salle de Conférences
    Laurent Miclo (UPS Toulouse)
    Entrelacements markoviens : des mélanges de cartes aux théorèmes de densité elliptiques
    On commencera par présenter deux exemples classiques d'entrelacement markovien :le théorème de Pitman sur la relation entre le mouvement brownien unidimensionel et le processus de Bessel de dimension 3et l'estimation par Aldous et Diaconis de la convergence à l'équilibre de mélanges de cartes via des temps forts de stationarité.Puis on rappellera comment plonger ces exemples historiques dans un cadre unifié, grâce à la théorie de la dualité due à Diaconis et Fill.Enfin on étendra ces résultats en direction des diffusions elliptiques sur des variétés, pour retrouver des théorèmes de densité, à travers des modifications stochastiques des flots de courbure moyenne. Avec l'espoir que ceci conduira (dans un futur assez lointain ...) à une nouvelle approche probabiliste du théorème de H\'ormander.
  • Le 16 février 2017 à 11:00
  • Salle de Conférences
    Jérémie Bigot (IMB)
    Grandes matrices aléatoires et perturbations de faible rang
    Dans cet exposé, on propose de s’intéresser au problème de l’estimation d’une matrice de rang faible à partir d’observations aléatoires bruitées dont la distribution appartient à une famille exponentielle. La classe d’estimateurs considérée est celle des estimateurs spectraux construits à partir du seuillage des valeurs singulières de la matrice des observations. Pour certains types de bruit (Gaussien par exemple) il est possible de construire des estimateurs spectraux qui sont asymptotiquement optimaux en utilisant le comportement asymptotique de grandes matrices aléatoires en présence d’une perturbation additive de faible rang. L’un des buts de l’exposé est de discuter des possibilités d’extension de ce type de résultat au delà du cas d’un bruit Gaussien (modèle de bruit de Poisson ou Gamma).
  • Le 9 mars 2017 à 14:00
  • Salle de Conférences
    Djalil Chafaï (U. Paris Dauphine)

  • Le 16 mars 2017 à 11:00
  • Salle de Conférences

  • Le 23 mars 2017 à 11:00
  • Salle 1
    Nicolas Papadakis (IMB)
    Covariant LEAst-Square Re-fitting for image restoration
    We propose a new framework to remove parts of the systematic errors affecting popular restoration algorithms, with a special focus for image processing tasks. Generalizing ideas that emerged for l1 regularization, we develop an approach re-fitting the results of standard methods towards the input data. Total variation regularizations and non-local means are special cases of interest. We identify important covariant information that should be preserved by the re-fitting method, and emphasize the importance of preserving the Jacobian (w.r.t. the observed signal) of the original estimator. Then, we provide an approach that has a ``twicing'' flavor and allows re-fitting the restored signal by adding back a local affine transformation of the residual term. We illustrate the benefits of our method on numerical simulations for image restoration tasks. Joint work with C.-A. Deledalle (IMBordeaux), J. Salmon (TELECOM ParisTech) and S. Vaiter (IMBourgogne)
  • Le 30 mars 2017 à 11:00
  • Salle de Conférences
    Marc Arnaudon (IMB)
    Mouvement Brownien réfléchi : sélection, approximation, linéarisation

  • Le 6 avril 2017 à 11:00
  • Salle de Conférences
    Adrien Richou (IMB)
    Quelques résultats d'existence et d'unicité pour les équations différentielles stochastiques rétrogrades obliquement réfléchies
    Dans cet exposé j'expliquerai ce qu'est une équation différentielle stochastique rétrograde réfléchie et quels sont les liens avec les problèmes de contrôle stochastique optimal de type 'switching'. Cet exposé est issu d'un travail en cours avec J.F. Chassagneux (Paris 7).
  • Le 13 avril 2017 à 11:00
  • Salle de Conférences
    Michel Bonnefont (IMB)
    Une inégalité de Log-Sobolev sur le groupe de Heisenberg par la méthode de tensorisation de Gross
    En partant de l'espace à 2 points, en tensorisant au cube discret et en utilisant le TCL, Gross en 1975 a démontré l'inégalité de Poincaré et de Log-Sobolev avec constante optimale pour la gaussienne.Dans cet exposé, nous étudierons cette méthode sur le groupe de Heisenberg, qui est le premier espace modèle de la géométrie sus riemannienne.
  • Le 27 avril 2017 à 11:00
  • Salle de Conférences
    Fanny Augeri (UPS Toulouse)
    Grandes déviations des traces de matrices aléatoires
    L'étude des traces de matrices aléatoires est maintenant un outil classique pour comprendre le comportement asymptotique du spectre. Depuis la preuve originale du théorème de Wigner par la méthode des moments, jusqu'aux résultats d'universalité au bord du spectre de matrices de Wigner ou de covariance empirique, la 'méthode des traces' s'est révélée très efficace dans l'étude macroscopique aussi bien que microscopique du spectre de matrices aléatoires.En partant du théorème de Wigner, qui donne la convergence des traces normalisées vers les nombres de Catalan, on s'intéressera au grandes déviations des traces autour de leurs limites respectives. Comme l'application qui à une mesure de probabilité associe sont p ème moment n'est pas continue pour la topologie faible, il n'est pas possible de contracter les principes de grandes déviations connus pour la mesure spectrale, comme dans le cas des ensembles Gaussiens classiques (Ben-Arous - Guionnet, 1997), ou des matrices de Wigner sans queues sous-Gaussiennes (Bordenave-Caputo, 2014). Le problème des grandes déviations des traces implique de chercher d'autres stratégies que l'on exposera dans le cas de trois modèles : celui des matrices de Wigner à entrées Gaussiennes, celui des beta-ensembles à potentiel convexe et croissance polynomiale et le cas des matrices de Wigner sans queues sous-Gaussiennes.Cet exposé sera basé sur l'article 'On the large deviations of traces of random matrices', arXiv:1502.07983.
  • Le 4 mai 2017 à 11:00
  • Salle de Conférences
    Guillaume Cebron (IMT)
    Le semigroupe de la chaleur en grande dimension
    En grande dimension, la loi spectrale de matrices aléatoires provenant de mouvements browniens est décrite par des semigroupes qui ne sont plus homogènes. Je présenterai différentes façons de décrire ces semi-groupes limites, et j'en déduirai des résultats sur la limite en grande dimension de processus sur des groupes de Lie, et la q-deformation de la transformée de Segal-Bargmann (collaboration avec Ching Wei Ho).
  • Le 11 mai 2017 à 11:00
  • Salle de Conférences
    Jonathan Harter (IMB)
    EDS rétrogrades pour la recherche de(s) martingale(s) de valeur terminale donnée sur les variétés
    Initialement introduites par Bismut pour la résolution d’un problème de contrôle optimal, les EDSR sont rapidement devenues un domaine de recherche à part entière. Le cas de la croissance Lipschitzienne est bien connu depuis l’article fondateur de Pardoux et Peng en 1990. Pour certains problèmes, notamment celui de trouver les martingales de valeur terminale donnée sur une variété relativement à une filtration Brownienne, l’hypothèse de croissance Lipschitizienne est insuffisante. Il est alors nécessaire de considérer une croissance quadratique en z. Le cas de la dimension une est bien connu et a donné naissance à une importante littérature initiée par Kobylanski, Lepeltier, et San Martin. Le cas général lui reste encore ouvert. Je présenterai un certain nombre de résultats d’existence et d’unicité établis avec Adrien Richou (https://arxiv.org/abs/1606.08627). Une approche par stabilité est utilisée comme dans l’article de Briand et Elie https://hal.archives-ouvertes.fr/hal-00717226/), mais réadaptée pour la dimension supérieure.
  • Le 18 mai 2017 à 11:00
  • Salle de Conférences
    Laurence MAILLARD-TEYSSIER (RTE)
    La modélisation mathématique au service du transport de l’électricité (Séminaire commun avec l'équipe Optimal)
    Dans le contexte de la transition énergétique, avec l’intégration massive des énergies renouvelables, la modulation croissante de la consommation électrique et les scénarios futurs de mix énergétiques, RTE (le gestionnaire du Réseau de Transport d’Électricité) doit continuer d’acheminer l’électricité en tout point du territoire, en équilibrant instantanément production et consommation et en garantissant la sûreté du système. La R&DI développe des outils et méthodes visant à optimiser les performances techniques et économiques du système électrique français et européen : gestion des risques, gestion des actifs et exploitation du système, gestion de l’équilibre offre/demande, construction de l’architecture du marché, insertion de nouveaux composants dans le réseau... Nous présenterons quelques-unes des problématiques qui font appel à la modélisation mathématique, par exemple pour expliquer ou prévoir (les flux, la consommation, les échanges, les productions à base d’énergies renouvelables…) à toutes échelles de temps et d’espace, ou pour observer le réseau et suivre le vieillissement des équipements, avec l’analyse des données issues de la numérisation des équipements ou des images prises par des drones…
  • Le 1er juin 2017 à 11:00
  • Salle 1
    Claire Delplancke (IMT)
    Entrelacements et facteurs de Stein pour les processus de naissance-mort
    Dans cet exposé, on s’intéressera à des relations d’entrelacement entre processus de naissance-mort et gradient discret. Ces relations, qui peuvent être vues comme un raffinement du critère de Bakry-Emery, existent au premier ordre ; on établit l’analogue au second ordre, pour le Laplacien discret. La principale application concerne les facteurs de Stein associés aux mesures de probabilité sur N. L’évaluation de ces facteurs est une étape-clé de la méthode de Stein, qui permet de majorer la distance entre deux mesures de probabilité.
  • Le 14 septembre 2017 à 11:00
  • Salle de Conférences
    Edoardo Provenzi (IMB)
    Le modèle de Philipona-O'Regan, les couleurs pures et les propriétés de la reflectance des surfaces
    Dans le séminaire je vais discuter une formalisation mathématique du modèle de Philipona et O’Regan pour la représentation de l'information rétinienne de la reflectance des surfaces. En particulier, je montrerai les interactions de ce modèle avec 1) la caractérisation des couleurs pures et 2) la technique diagonale de von Kries utilisée en traitement d'images en couleur pour atteindre la balance des blancs.
  • Le 28 septembre 2017 à 11:00
  • Salle de Conférences
    Matthieu Lerasle (Université Paris-Saclay)
    Apprentissage de données latentes sur des graphes partiellement observés
    Le modèle de Bradley-Terry (introduit par Zermelo) étudie des championnats ou les participants sont comparés par paires. Le problème statistique de base est de retrouver la valeur des participants à partir de l’observation de ces comparaisons. On sait que ce problème ne peut être résolu que lorsque le graphe orienté ou une arrête est tracée du joueur i vers le joueur j lorsque i a battu j est fortement connexe. Nous nous intéressons à un championnat ou chaque participant joue une fois par journée. On peut montrer (on le conjecture fortement en tout cas) qu’alors, le temps d’atteinte de forte convexité est de l’ordre de log N journées lorsque les valeurs des joueurs sont bornées. Pour faire des prédictions sur l’issue du championnat avant ce temps, nous proposons de modéliser la variabilité des joueurs par des variables aléatoires dont nous cherchons à estimer la loi. Ce changement de point de vue a le double avantage de fournir un nouvel objectif statistiquement atteignable tout en fournissant une information d’intérêt dans des cas pratiques. Je présenterai quelques résultats déjà obtenus dans ce cadre avec R. Diel et S. Le Corff et discuterai quelques extensions sur lesquelles nous nous penchons.
  • Le 5 octobre 2017 à 11:00
  • Salle 2
    Sami Capderou (IMB)
    Estimation récursive non paramétrique de la dérivée\nd'une fonction de régression avec applications en valvométrie
    Cet exposé est consacré à l'estimation non paramétriquede la dérivée d'une fonction de régression. On propose une procédurestatistique efficace basée sur la dérivée de la version récursive del'estimateur de Nadaraya-Watson. On montre la convergence presquesûre ainsi que la normalité asymptotique de notre estimateur.Ces résultats théoriques sont utilisés sur des données réellesafin de surveiller la qualité des eaux côtières.
  • Le 12 octobre 2017 à 10:00
  • Salle 2
    Paul Escande
    Méthodes numériques pour la résolution de problèmes inverses et d'apprentissage pour la grande dimension
    Dans cet expose, je présenterai une vue globale de mes travaux de recherches. Ils ont été motives par des problématiques de traitement d'images. Récemment, mon champ d’intérêt s’est agrandi à l’analyse de données en grandes dimensions et aux problèmes d’apprentissage.Le problème de restauration d'images dégradées par des flous variables connaît un attrait croissant et touche plusieurs domaines tels que l'astronomie, la vision par ordinateur et la microscopie à feuille de lumière où les images peuvent être constituées de milliards de voxels. Les flous variables peuvent être modélisés par des opérateurs intégraux linéaires. Une fois discrétisés pour être appliqués sur des images de N pixels, ces opérateurs peuvent être vus comme des matrices gigantesques de taille N x N. Pour les applications visées, les matrices contiennent 10^(18) coefficients. On voit apparaître ici les difficultés liées à ce problème de restauration des images qui sont i) le stockage de ce grand volume de données, ii) les coûts de calculs prohibitifs des produits matrice-vecteur. On dit que ce problème souffre du fléau de la dimension. De plus, dans beaucoup d'applications, l'opérateur de flou n'est pas ou que partiellement connu. Il faut donc simultanément estimer et approcher ces opérateurs intégraux.Je présenterai de nouveaux modèles et méthodes numériques avec des garanties théoriques fortes permettant de traiter ces difficultés.
  • Le 12 octobre 2017 à 11:00
  • Salle 2
    Lénaïc CHIZAT(ENS)
    Transport optimal entre mesures positives de masse quelconque
    Comment déplacer un tas de terre d'une configuration à une autre à moindre coût? Cette question est à l'origine du problème du transport optimal. Une fois défini formellement, celui-ci fournit un certain nombre d'outils, d'intérêt théorique et applicatif, pour manipuler les mesures de probabilité sur un espace métrique. L'objet de cet exposé est de montrer comment ces outils s'étendent au cas de mesures positives de masse quelconque.Dans un premier temps, nous verrons différentes approches pour aborder ce cadre (formulations de couplage, de 'lifting' ou dynamiques) ainsi que les relations qui les lient. Nous introduirons en particulier une famille de métriques analogues aux métriques de Wasserstein. Dans un second temps, nous verrons comment étendre l'algorithme de Sinkhorn pour résoudre numériquement ce nouveau genre de problèmes. Nous conclurons avec des applications aux barycentres et flots de gradient dans l'espace des mesures positives.Cet exposé ne suppose pas de prérequis sur la théorie du transport optimal.
  • Le 9 novembre 2017 à 11:00
  • Salle 2
    Yann Traonmilin (IMB)
    Super-résolution d’impulsions de Diracs par échantillonnage de Fourier aléatoire.
    Estimer des sommes d'impulsions de Diracs à partir d'observations linéaires en utilisant des méthodesvariationnelles convexes a récemment été l'objet de différentes études : il a été montré que si les Diracssont suffisamment séparés, il est possible d'estimer leurs positions après leur convolution par un filtre passe-bas. Ce problème de super-résolution a de plus été relié à un problème de reconstruction de densitéde probabilité à partir de moments empiriques généralisés ('sketches'), qui permet d'effectuer des tâches d'apprentissage statistique à partir de bases de données compressées. Ces résultats suggèrent qu'unesomme d'impulsions de Diracs peut être estimée à partir de mesures de Fourier aléatoires au lieu demesures régulières des basses fréquences. Dans cet exposé, de nouveaux résultats sur l'estimation de somme de Diracs à partir d'observations de Fourier aléatoires sont présentés. Des expériences illustrent les implications de ces résultats en traitement du signal et en apprentissage statistique. Enfin, le cadre général utilisé pour dériver ces résultats permet d'entrevoir des pistes prometteuses tant pratiques que théoriques pour des problématiques d'estimation en traitement du signal et en apprentissage statistique.
  • Le 16 novembre 2017 à 11:00
  • Salle de Conférences
    Emmanuel Soubies (EPFL)
    Relaxations continues exactes pour le critère des moindres carrés pénalisé en norme l0
    De nombreux problèmes inverses en traitement du signal et des images peuvent se formaliser comme la minimisation d'un critère du type l2-l0. D'autre part, un nombre important de relaxations continues (non-convexe) de cette fonctionnelle ont été proposées. Dans cet exposé, de nouveaux résultats permettant de comparer de telles relaxations du point de vue de leur fidélité au problème initial seront présentés. En particulier, nous mettrons en évidence des conditions nécessaires et suffisantes pour que des pénalités séparables approchant la pseudo-norme l0 conduisent à des relaxations exactes du problème initial. Par exactes, il est entendu que les fonctionnelles relaxées préservent les minimiseurs globaux de la fonctionnelle initiale sans ajouter de nouveaux optima locaux. Les conditions ainsi obtenues définissent une classe de pénalités dont la limite inférieure (CEL0) sera plus amplement étudiée. Les propriétés spécifiques de cette pénalité CEL0 seront présentées et des résultats (empiriques) montrant qu'elle est celle permettant d'éliminer le plus de minimiseurs locaux (non globaux) du problème initial seront exposés. Finalement, des exemples d'applications pour différents problèmes inverses comme la localisation de molécules uniques en microscopie ou l'estimation des directions d'arrivées en traitement d'antennes termineront cette présentation.
  • Le 23 novembre 2017 à 11:00
  • Salle 2
    Barbara Gris (KTH Stockholm)
    Estimer et utiliser un a priori de déformation pour l'appariement d'images
    Une méthode générale pour l'appariement de deux images repose surl'estimation d'une déformation (un difféomorphisme) transportant lapremière image sur la seconde. Cette déformation est obtenue enminimisant une fonctionnelle et, dans le cas où plusieurs motifs dedéformations sont possibles, l'algorithme de minimisation convergegénéralement vers l'une des solutions sans que l'on puisse choisir apriori laquelle. Nous avons développé un nouveau cadre pour construiredes difféomorphismes de sorte qu'un a priori sur les motifs dedéformations puisse être facilement incorporé. Cet a priori peut parexample correspondre à une connaissance sur les déformations'réalistes' étant données la nature des images considées. De plus cecadre permet d'estimer automatiquement cet a priori à partir d'unesérie d'images et de l'incorporer ensuite simplement dansl'appariement de nouvelles images.Notre cadre est basé sur la notion de modules de déformation qui sontdes structures capables de générer des champs de vecteurs d'un typeparticulier et paramétrés en petite dimension. Il est possible decombiner plusieurs modules de déformations pour générer desdéformations multi-modulaires et c'est par le choix des modules dedéformations utilisés que l'on peut incorporer un a priori dedéformation dans l'appariement de deux images.
  • Le 7 décembre 2017 à 11:00
  • Salle de Conférences
    Arthur Leclaire (CMLA ENS Cachan)
    Modèles aléatoires pour la synthèse et la complétion d'images de textures
    Dans cet exposé on propose d'étudier différents modèles aléatoires pouvant être utilisés pour la synthèse de textures par l'exemple : partant d'une image originale de textures, on cherche à produire une image (de taille arbitrairement grande) ayant le même aspect textural que l'entrée tout en étant la plus innovante possible. En termes mathématiques, ceci revient à chercher un champ aléatoire stationnaire de maximum d'entropie qui respecte un certain nombre de contraintes statistiques liées à la perception de textures.Le modèle gaussien donne la solution optimale lorsque les statistiques choisies sont les moments d'ordre un et deux. Ce modèle a permis, grâce à ses propriétés théoriques (description spectrale, calcul des distances de transport optimal), de synthétiser efficacement et mélanger des textures peu structurées, appelées microtextures. Dans cet esprit, on montrera que l'approximation par des modèles spot noise permet de synthétiser des microtextures de façon très rapide et parallèle (atteignant la résolution full HD en temps réel). Aussi on verra que la synthèse conditionnelle gaussienne permet de résoudre le problème de la complétion (inpainting) de microtextures.Ensuite, on expliquera comment modifier le modèle gaussien à l'aide de transformations locales de façon à réimposer la distribution empirique locale de l'image d'entrée. Ces transformations locales sont conçues pour résoudre un problème de transport optimal semi-discret dans l'espace des patches (imagettes carrées de taille petite fixée). Cet espace étant de grande dimension, ce problème de transport est résolu par optimisation stochastique. Une fois cette transformation locale calculée, on verra que le modèle resultant permet de synthétiser rapidement des textures plus structurées tout en conservant un contrôle statistique et une garantie d'innovation.
  • Le 14 décembre 2017 à 11:00
  • Salle de Conférences
    Irène Kaltenmark (Université Aix-Marseille)
    Modèles géométriques de croissance en anatomie computationnelle
    L’utilisation de groupes de difféomorphismes agissant sur des ensembles de formes, équipant ces derniers d’une structure riemannienne, s’est avérée extrêmement efficace pour modéliser et analyser la variabilité de populations de formes issues de données d’imagerie médicale. Néanmoins, à l'intégration de l'analyse longitudinale des données, ont émergé des phénomènes biologiques de croissance ou de dégénérescence se manifestant par des déformations de nature non difféomorphique. La croissance d'un organisme par adjonction progressive et localisée de nouvelles molécules, à l’instar d’un processus de cristallisation, ne s'apparente pas à un simple étirement du tissu initial. Face à cette observation, nous proposons de garder l'esprit géométrique qui fait la puissance des approches difféomorphiques dans les espaces de formes mais en introduisant un concept assez général de déploiement où l'on modélise les phénomènes de croissance comme le déploiement optimal progressif d’une forme préalablement repliée dans une région de l'espace. À la question délicate de la caractérisation des appariements partiels modélisant le déploiement de la forme, nous répondons par un système de coordonnées biologiques évolutif et nous aboutissons finalement à un nouveau problème de contrôle optimal pour l'assimilation de données de surfaces évoluant dans le temps.
  • Le 18 janvier 2018 à 11:00
  • Salle de Conférences
    Frederic Barraquand (IMB)
    Population dynamics in random environments: theoretical and statistical problems from ecology
    In this talk, I will present two subfields of quantitative ecology that require modelling the population dynamics of one or several species in random environments:- Theory: what is the effect of increased variability in a forcing on population dynamics (e.g., can increased climate variability imperil bird populations?)- Statistics: how to estimate interactions between species using multivariate autoregressive models and time series of counts. This endeavour connects to the definition of statistical causality (e.g., Granger causality), debated in neuroscience & econometrics as well. For both themes, I will highlight both ongoing work in ecology and related fields, as well as opportunities for further research at the applied probability/statistics - ecology interface.
  • Le 25 janvier 2018 à 11:00
  • Salle de Conférences
    Yvain Queau (TU Munich)
    Méthodes variationnelles pour la vision 3D photométrique
    La reconstruction 3D, qui consiste à acquérir une représentation en trois dimensions du monde à partir d'images, constitue l'un des problèmes majeurs de la vision par ordinateur. Dans cet exposé, nous nous intéresserons plus particulièrement aux approches dites 'photométriques', c'est-à-dire fondées sur l'analyse des valeurs mesurées par un appareil photographique. Nous verrons comment obtenir des reconstructions denses et de haute précision en inversant le processus de formation de l'image, qui fait intervenir le relief de la scène, sa réflectance et le flux lumineux qui l'éclaire. Des applications à la métrologie, au rééclairage, à l'inspection visuelle de surfaces et à la super-résolution de cartes de profondeur pour les capteurs RGB-D seront présentées. Un soin particulier sera accordé à la modélisation mathématique rigoureuse de ce problème inverse, en vue d'élaborer des solutions numériques naturelles et élégantes. Nous discuterons notamment certains travaux récents fondés sur l'approche variationnelle. Ce cadre numérique à l'interface entre équations aux dérivées partielles, calcul des variations, inférence bayésienne et optimisation, se prête en effet particulièrement bien à l'élaboration de méthodes robustes et efficaces.
  • Le 1er février 2018 à 11:00
  • Salle 2

  • Le 8 février 2018 à 11:00
  • Salle 2
    Guillaume Garrigos (ENS)
    Iterative regularization for general inverse problems
    In the context of linear inverse problems, we propose and study a general iterative regularization method allowing to consider large classes of regularizers and data-fit terms. We focus particularly on non-smooth data-fit terms, such like a Kullback-Liebler divergence, or an L1 distance. We treat these problems by designing an algorithm, based on a primal-dual diagonal descent method, designed to solve bilevel optimization problems. The key point of our approach is that, in presence of noise, the number of iterations of our algorithm acts as a regularization parameter. In practice this means that the algorithm must be stopped after a certain number of iterations. This is what is called regularization by early stopping, an approach which gained in popularity in statistical learning. Our main results establishes convergence and stability of our algorithm, and are illustrated by experiments on image denoising, comparing our approach with a more classical Tikhonov regularization method.
  • Le 1er mars 2018 à 11:00
  • Salle de Conférences
    Pauline Tan (CMAP)
    ASAP : un algorithme de descentes proximales alternées par blocs pour l'optimisation non convexe
    Il existe un intérêt croissant pour l'optimisation non convexe par blocs, notamment depuis les schémas proposés par Xu et Yin et l'équipe de Bolte (et leur algorithme PALM) en 2013, et qui ont été suivis par de nombreux travaux. Ces schémas reposent sur des descentes de gradient proximal dans lesquelles l'opérateur proximal est défini par rapport aux termes de régularisation.Les travaux présentés ici traitent d'une classe très large de problèmes d'optimisation non convexes par blocs dans lesquels les régularisateurs (non convexes) sont différentiables sur le domaine de la fonction à optimiser. Nous proposons un algorithme simple qui alterne des descentes de gradient proximal dans lesquelles l'opérateur proximal est défini par rapport au terme de couplage (en pratique toujours 'proximable'), ce qui en fait un algorithme 'miroir' par rapport à PALM. Ce choix contribue en grande partie à la simplicité de l'algorithme qui permet l'utilisation de régularisateurs plus riches, adaptés aux applications considérées. Des variantes de notre algorithme (utilisation d'opérateurs proximaux généralisés ou accélération inertielle) seront également présentées.Deux applications de l'algorithme pour le traitement de données de grande taille issues de l'imagerie hyperspectrale infrarouge ont d'ores-et-déjà été développées et validées pour l'Onera, notre partenaire industriel, et une autre, en colorisation d'images, est en cours de développement.Il s'agit de travaux en collaboration avec Mila Nikolova (CNRS, CMLA, ENS Paris-Saclay)
  • Le 8 mars 2018 à 11:00
  • Salle 385
    Luca Calatroni (CMAP)
    Modèles d’osmose anisotrope pour l’imagerie et applications
    Nous considérons une EDP de type diffusion-transport modélisant le phénomène physique non-symétrique de l'osmose et l'appliquons pour résoudre plusieurs tâches d’imagerie comme le clonage et la suppression des ombres. Pour ce dernier problème, afin de surmonter les artefacts sur la frontière d'ombre due à la seule action de l'opérateur de Laplace, nous étendons le modèle linéaire au moyen de poids de diffusion directionnels permettant une procédure combinée d’osmose-inpainting non-linéaire. En particulier, nous montrons des analogies avec les équations classiques d'inpainting du second ordre (Harmonique, AMLE, Variation Totale) et avec les opérateurs géométriques de Grushin. Nous présentons les détails numériques sur la mise en œuvre efficace du modèle au moyen de stencils appropriés imitants l'anisotropie à un niveau discret et appliquons le modèle à certaines tâches pour l'imagerie du patrimoine culturel.
  • Le 15 mars 2018 à 11:00
  • Salle de Conférences
    Antoine Godichon (Université de Rouen)
    Algorithmes stochastiques pour la statistique robuste en grande dimension
    La médiane géométrique est souvent utilisée en statistique du fait de sa robustesse. On s'intéresse donc à des estimateurs rapides de la médiane, qui consistent en des algorithmes de gradient stochastiques moyennés. On définit aussi un nouvel indicateur de dispersion robuste, appelé Matrice de Covariance Médiane, avant d'en donner des estimateurs récursifs. Cette matrice, sous certaines hypothèses, a les mêmes sous-espaces propres que la matrice de covariance, mais est moins sensible aux données atypiques, et est donc très intéressante pour l'Analyse en Composantes Principales Robuste. Travail joint avec Hervé Cardot et Peggy Cénac (Université de Bourgogne).
  • Le 22 mars 2018 à 11:00
  • Salle de Conférences
    Clement Pellegrini (UPS Toulouse)
    Produits aléatoires de matrices: mesure invariante de trajectoires quantiques
    Les trajectoires quantiques sont des processus de Markov décrivant l'évolution de systèmes quantiques soumis à des mesures indirectes. Ces processus de Markov sortent du cadre habituel des techniques utilisées pour étudier leur comportement en temps long. Dans mon exposé je reviendrai sur les principes de base qui décrivent les modèles probabilistes de la mécanique quantique et je décrirai les modèles de trajectoires quantiques puis je parlerai du problème de la mesure invariante.
  • Le 29 mars 2018 à 11:00
  • Salle de Conférences
    Jérémie Bigot (IMB)
    Introduction au Deep learning : aspects mathématiques et au delà...

  • Le 5 avril 2018 à 11:00
  • Salle de Conférences
    Jérémie Bigot
    Introduction au Deep learning : aspects mathématiques et au delà... (Partie 2)

  • Le 26 avril 2018 à 11:00
  • Salle de Conférences

  • Le 17 mai 2018 à 11:00
  • Salle de Conférences
    Dacam Pham Thi (Univ. Tours)
    The survival probability of a critical multi-type branching process in i.i.d. random environment
    Conditioned on the generating functions of offspring distribution, we study the asymptotic behaviour of the probability of non-extinction of a critical multi-type Galton-Watson process in i.i.d. random environments by using limits theorems for products of positive random matrices. Under some certain assumptions, the survival probability is proportional to $1/\sqrt{n}$.
  • Le 24 mai 2018 à 11:00
  • Salle de Conférences
    Jean-Marc Azais (IMT Toulouse)
    Simple and multiple spacing test for the Lasso.
    Recent advances in Post-Selection Inference have shown that conditional testing is relevant and tractable in high-dimensions. In the Gaussian linear model, further works have derived unconditional test statistics such as the Kac-Rice Pivot for general penalized problems. In order to test the global null, a prominent offspring of this breakthrough is the spacing test that accounts the relative separation between the first two knots of the celebrated least-angle regression (LARS) algorithm. However, no results have been shown regarding the distribution of these test statistics under the alternative. For the first time, this paper addresses this important issue for the spacing test and shows that it is unconditionally unbiased. Furthermore, we provide the first extension of the spacing test to the frame of unknown noise variance. More precisely, we investigate the power of the spacing test for LARS and prove that it is unbiased: its power is always greater or equal to the significance level α. In particular, we describe the power of this test under various scenarii: we prove that its rejection region is optimal when the predictors are orthogonal; as the level α goes to zero, we show that the probability of getting a true positive is much greater than α; and we give a detailed description of its power in the case of two predictors. Moreover, we numerically investigate a comparison between the spacing test for LARS and the Pearson’s chi-squared test (goodness of fit). Joint work with Yohann de Castro and Stéphane Mourareau.
  • Le 31 mai 2018 à 11:00
  • Salle de Conférences
    Salem Said (IMS)
    Présentation de l'article 'Practical Riemannian Neural Networks' par G. Marceau-Caron & Y. Ollivier
    L'article présenté est disponible ici : https://arxiv.org/pdf/1602.08007.pdf
  • Le 7 juin 2018 à 11:00
  • Salle de Conférences
    Julien Worms (Université de Versailles)
    Statistique des valeurs extrêmes pour données censurées
    Cet exposé abordera le problème de l'estimation statistique de la queue d'une distribution univariée, dont seul un échantillon aléatoirement censuré (à droite) est disponible. Après des rappels sur la statistique des valeurs extrêmes et sur les données censurées, des estimateurs de l'indice des valeurs extrêmes seront présentés dans le cadre de lois à queues lourdes. Ces estimateurs ont la forme de sommes pondérées impliquant l'estimateur de Kaplan-Meier évalué dans toute la queue de l'échantillon, l'un d'entre eux s'écrivant comme une intégrale de Kaplan-Meier avec fonctionnelle non-bornée à support glissant. On évoquera leurs performances par rapport à leurs concurrents, en particulier dans des cadres de censure forte (le seuil de 50% de censure dans la queue jouant ici un rôle clé), et on montrera comment et dans quel cadre la normalité asymptotique peut être obtenue. Si le temps le permet, les extensions à d'autres cadres (queues plus légères, censure en présence de risques concurrents, quantiles extrêmes) seront abordées.Travail en collaboration avec Rym Worms (Univ. Paris-Est-Créteil) et aussi Jan Beirlant (KU Leuven).
  • Le 14 juin 2018 à 11:00
  • Salle de Conférences
    Pascal Vallet (IMS)
    Présentation de l'article 'A Random Matrix Approach to Neural Networks' par Louart, Liao & Couillet
    présentation du papier :Louart, Liao & Couillet 'A Random Matrix Approach to Neural Networks'disponible ici --> https://arxiv.org/pdf/1702.05419.pdf
  • Le 21 juin 2018 à 11:00
  • Salle de Conférences
    Salem Said (IMS)
    Suite de la présentation de l'article 'Practical Riemannian Neural Networks' par G. Marceau-Caron & Y. Ollivier

  • Le 13 septembre 2018 à 11:00
  • Salle de Conférences
    Yann Traonmilin (IMB)
    Is the 1-norm the best convex sparse regularization?
    The 1-norm is a good convex regularization for the recovery of sparse vectors from under-determined linear measurements. No other convex regularization seems to surpass its sparse recovery performance. How can this be explained? To answer this question, we define several notions of “best” (convex) regularization in the context of general low-dimensional recovery and show that indeed the 1-norm is an optimal convex sparse regularization within this framework.
  • Le 27 septembre 2018 à 11:00
  • Salle de Conférences
    Arthur Leclaire (IMB)
    Modèles de Maximum d'Entropie pour la Synthèse et la Reconstruction d'Images

  • Le 18 octobre 2018 à 11:00
  • Salle de Conférences
    Camille Male (IMB)
    Liberté asymptotique sur la diagonale des grandes matrices aléatoires
    La théorie des probabilités libres a été introduite par Voiculescu dans les années 1980 pour l'étude des algèbres de von Neumann des groupes libres. Les variables aléatoires non commutatives sont des objets abstraits, modélisés par des éléments d'une algèbre commutative équipée d'une forme linéaire. La notion de liberté remplace celle d'indépendance statistique.Les grandes matrices aléatoires jouent un rôle important en probabilités libres, puisque les limites en grande dimension de modèles élémentaires sont libres. Cependant, certains modèles élémentaires nécessitent un cadre étendue pour une analyse non commutative.La théorie des 'trafics' est un cadre mathématique qui complète celui de Voiculescu pour l'étude de ces objets. Elle vient avec une notion d'indépendance qui unifie les différentes notions d'indépendances et libertés non commutatives. Dans cet exposé, je présenterai les premiers éléments analytiques de la théorie avec la notion de liberté sur la diagonale. Ce résultat est le travail d'une collaboration avec B. Au, G. Cébron, A. Dahlqvist et F. Gabriel.
  • Le 8 novembre 2018 à 11:00
  • Salle de Conférences
    Jérémie Bigot (IMB)
    Transport optimal pour l'analyse de données de cytométrie en flux (Séminaire de Statistique Bordelais)
    We present a framework to simultaneously align and smooth data in the form of multiple point clouds sampled from unknown densities with support in an Euclidean space. This work is motivated by applications in bioinformatics where researchers aim to automatically homogenize large datasets to compare and analyze characteristics within a same cell population. Inconveniently, the information acquired is most certainly noisy due to mis-alignment caused by technical variations of the environment. To overcome this problem, we propose to register multiple point clouds by using the notion of regularized Wassearstein barycenters of a set of probability measures. We propose data-driven choices for the regularization parameters involved in our approach using the Goldenshluger-Lepski's principle, and an application to the analysis of flow cytometry data is finally proposed.
  • Le 15 novembre 2018 à 11:00
  • Salle 1
    Laurent Ménard (U. Paris Nanterre)
    Triangulations aléatoires couplées à un modèle d'Ising
    En 2003 Angel et Schramm ont prouvé que la mesure uniforme sur les triangulations de taille donnée converge faiblement pour la topologie locale lorsque la taille tend vers l'infini, ouvrant la voie à de nombreux travaux probabilistes sur les limites de cartes aléatoires. Dans cet exposé, nous étudierons des triangulations couplées à un modèle d'Ising tirées non pas selon la loi uniforme, mais en fonction de l'énergie de la configuration d'Ising. Après avoir présenté la combinatoire de ces objets, nous expliquerons comment l'approche d'Angel et Schramm s'adapte à ce modèle. L'objet limite a des propriétés qui s'avèrent intéressantes et est conjecturé appartenir à une autre classe d'universalité que les modèles classiques de cartes.Travail en commun avec Marie Albenque et Gilles Schaeffer.
  • Le 22 novembre 2018 à 11:00
  • Salle de Conférences
    Antoine Houdard
    Comment utiliser un modèle de mélange de gaussiennes sur les patchs pour le débruitage d'image ?
    Dans la littérature du débruitage d'image par patchs, de nombreuses méthodes utilisent une modélisation statistique des patch. Les modèles a priori généralement utilisés sont des modèles gaussiens ou de mélange de gaussiennes.Dans cet exposé, après avoir brièvement introduit le cadre statistique, je proposerai quelques indices pour répondre aux questions suivantes : Pourquoi ces a priori gaussiens sont-ils largement utilisés ? Quelles informations encodent-ils ?La seconde partie propose un modèle probabiliste de mélange pour les patchs bruités adapté à la grande dimension. Il en résulte un algorithme de débruitage reposant uniquement sur des estimations statistiques, qui atteint les performances de l’état-de-l’art. Enfin, je discuterai des limitations et des développements possibles de la méthode proposée.
  • Le 29 novembre 2018 à 11:00
  • Salle de Conférences
    Jérémie Bigot (IMB)
    Deep learning pour modèles génératifs à variables latentes (Séminaire Aspects Mathématiques du Deep Learning)
    Dans cet exposé, il est proposé de donner un aperçu des travaux existants sur les aspects mathématiques (du point de vue des probabilités et de la statistique) des modèles génératifs à variables latentes basés sur l’utilisation des réseaux de neurons profonds qui ont connu récemment de nombreux développements notamment pour le traitement d’images. On discutera en particulier des modèles Variational Auto-Encoder (VAE) et Generative Adversarial Network (GAN) et de leurs liens avec la théorie du transport optimal et des distances de Wasserstein entre mesures de probabilités.
  • Le 6 décembre 2018 à 11:00
  • Salle de Conférences
    Maxime Sangnier (Sorbonne University)
    What can a statistician expect from GANs?
    Generative Adversarial Networks (GANs) are a class of generative algorithms that have been shown to produce state-of-the art samples, especially in the domain of image creation. The fundamental principle of GANs is to approximate the unknown distribution of a given data set by optimizing an objective function through an adversarial game between a family of generators and a family of discriminators. In this talk, we illustrate some statistical properties of GANs, focusing on the deep connection between the adversarial principle underlying GANs and the Jensen-Shannon divergence, together with some optimality characteristics of the problem. We also analyze the role of the discriminator family and study the large sample properties of the estimated distribution.
  • Le 13 décembre 2018 à 11:00
  • Salle de Conférences
    Nicolas Keriven (ENS Paris)
    Scalable model-free online change-point detection with NEWMA
    We consider the problem of detecting abrupt changes in the distribution of a multi-dimensional time series, with limited computing power and memory. In this paper, we propose a new method for model-free online change-point detection that relies only on fast and light recursive statistics, inspired by the classical Exponential Weighted Moving Average algorithm (EWMA). The proposed idea is to compute two EWMA statistics on the stream of data with different forgetting factors, and to compare them. By doing so, we show that we implicitly compare recent samples with older ones, without the need to explicitly store them. Additionally, we leverage Random Features to efficiently use the Maximum Mean Discrepancy as a distance between distributions, and exploit a recently proposed optical device to compute these features with almost no computational cost, in any dimension. We show that our method is orders of magnitude faster than usual non-parametric methods for a given accuracy.
  • Le 20 décembre 2018 à 11:00
  • Salle 2
    Jean-François Aujol (IMB)
    L’accélération de Nesterov est-elle une accélération ?
    Depuis le travail de Y. Nesterov (1984), et surtout l’algorithme FISTA de Beck et Teboulle (2008), il est reconnu qu’utiliser un algorithme de gradient inertiel est beaucoup plus efficace pour minimiser une fonctionnelle convexe qu’un simple algorithme de descente de gradient. Nous verrons qu’en fait l’utilité de l’inertie dépend très fortement de la géométrie au voisinage du minimiseur de la fonctionnelle, et qu’il n’est pas toujours préférable d’utiliser un terme inertiel. Ces résultats ont des conséquences directes en traitement d’images et en deep learning.Il s’agit de travaux en collaboration avec Vassilis Apidopoulos, Charles Dossal, et Aude Rondepierre.
  • Le 17 janvier 2019 à 11:00
  • Salle de Conférences
    Emmanuel Gobet (Ecole Polytechnique)
    Uncertainty Quantification of Stochastic Approximation Limits
    We analyze the uncertainty quantification for the limit of a Stochastic Approximation (SA) algorithm. In our setup, this limit Phi* is defined as the zero of an intractable function and is modeled as uncertain through a parameter Theta: we aim at deriving the probabilistic distribution of Phi*(Theta), given a probability distribution for Theta. We introduce the so-called Uncertainty Quantification for SA (UQSA) algorithm, an SA algorithm in increasing dimension for computing the basis coefficients of a chaos expansion of Phi*(·) on an orthogonal basis of a suitable Hilbert space. UQSA returns a finite set of coefficients, it provides an approximation of the expectation, of the variance-covariance matrix and of higher order moments of Phi*(Theta). The almost-sure and Lp-convergences of UQSA, in the Hilbert space, are established under mild, tractable conditions and constitute original results, not covered by the existing literature for convergence analysis of infinite dimensional SA algorithms. Finally, UQSA is illustrated and the role of its design parameters is discussed through a numerical analysis.
  • Le 24 janvier 2019 à 11:00
  • Salle de Conférences
    Pascal Maillard (CRM & Paris Sud)
    The algorithmic hardness threshold for continuous random energy models
    I will report on recent work with Louigi Addario-Berry on algorithmic hardness for finding low-energy states in the continuous random energy model of Bovier and Kurkova. This model can be regarded as a toy model for strongly correlated random energy landscapes such as the Sherrington--Kirkpatrick model. We exhibit a precise and explicit hardness threshold: finding states of energy above the threshold can be done in linear time, while below the threshold this takes exponential time for any algorithm with high probability. I further discuss what insights this yields for understanding algorithmic hardness thresholds for random instances of combinatorial optimization problems.
  • Le 31 janvier 2019 à 11:00
  • Salle de Conférences
    Sandrine Dallaporta (CMLA, ENS Paris-Saclay)
    Statistiques linéaires des valeurs propres pour le modèle de Wigner déformé
    Dans cet exposé, on considère une matrice de Wigner déformée par une perturbation diagonale déterministe, notée Xn. Le comportement de la mesure spectrale empirique est connu et on s'intéresse aux fluctuations des statistiques linéaires des valeurs propres, c’est-à-dire aux quantités de la forme Tr f(Xn), où f est une fonction test. On présentera des résultats récents de Ji et Lee, établissant les fluctuations lorsque la fonction f est analytique, ainsi qu’un travail en collaboration avec Maxime Février (Université Paris-Sud).
  • Le 14 février 2019 à 11:00
  • Salle 2
    Anna Ben-Hamou (LPSM, Paris 6)
    Temps de mélange de marches aléatoires sur des graphes aléatoires à communautés
    Le temps de mélange d’une marche aléatoire sur un graphe connexe fini est intimement lié à l’existence de goulots d’étranglement dans le graphe: intuitivement, plus il est difficile pour la marche de passer d’une région du graphe à une autre, plus le mélange est lent. De plus, la présence de goulots d’étranglement étroits empêche souvent le phénomène de cutoff, qui décrit une convergence abrupte à l’équilibre. Dans cet exposé, nous nous intéresserons au comportement de mélange de la marche aléatoire sans rebroussement (« non-backtracking ») sur des graphes aléatoires à degrés prescrits et avec une structure en deux communautés. De tels graphes possèdent un goulot d’étranglement dont l’étroitesse peut être mesurée par la fraction des arêtes qui vont d’une communauté à l’autre. Sous certaines conditions de degrés, nous montrerons que si cette fraction décroit moins vite que 1/log(N) (où N est la taille du graphe), alors la marche présente le cutoff, et la distance à l’équilibre peut être décrite très précisément. Inversement, si cette fraction décroit plus vite que 1/log(N), alors il n’y a pas cutoff.
  • Le 7 mars 2019 à 14:00
  • Salle de Conférences
    Pierre Perruchaud (IRMAR, Rennes 1)
    Perturbation géométrique des équations de la mécanique des fluides
    Les équations d'Euler, pour un fluide parfait incompressible, peuvent être décrites informellement de la façon suivante. Étant données une collection de particules de fluide ainsi que leurs vitesses, chaque particule tente de se déplacer en ligne droite ; cependant, elle est gênée par ses congénères qui occupent un volume incompressible, et doit donc se soumettre à la pression du groupe et infléchir sa course.L'intuition d'Arnol'd, dans les années 60, a été de reconnaître dans ce comportement une équation des géodésiques dans un espace de difféomorphismes. C'est cette reformulation que je tenterai de décrire dans mon exposé, avant d'expliquer comment la perturber et étudier sa limite.
  • Le 14 mars 2019 à 11:00
  • Salle de Conférences
    Erwann Hillion (I2M, Marseille)
    Un critère de Nyman-Beurling probabiliste
    Parmi toutes les reformulations équivalentes à l'hypothèse de Riemann (HR), celle proposée par Nyman et Beurling dans les années 1950 est très simple à énoncer, elle exprime tout simplement la densité d'un sous-espace dans L^2(0,1).
    Dans cet exposé, je présenterai d'autres critères équivalents à HR, inspirés de celui de Nyman-Beurling, mais avec un aspect probabiliste supplémentaire : il s'agira d'étudier la densité de certains sous-espaces dans un Hilbert de la forme L^2((0,\infty) \times \Omega) .
    Cet exposé pourra intéresser les gens venant des probabilités ou de la théorie des nombres, et ne réclame pas de prérequis particulier.
    Travail joint avec Sébastien Darses (Aix-Marseille).
  • Le 28 mars 2019 à 11:00
  • Salle de Conférences
    Valentin de Bortoli (CMLA, ENS Paris-Saclay)
    Stochastic Optimization and texture synthesis
    In this talk, I will present theoretical tools to assert the convergence of a gradient-based scheme, the SOUK algorithm (Stochastic Optimization with Unajdusted Kernel). We assume that the gradient of the function to optimize at point x can be written as the expectation of some function with respect to a probability distribution which might depend on x. Such functionals naturally appear in the Empirical Bayes framework, which aims at computing the hyperparameters of a statistical model using only the observations. I will present the key elements of our proof of convergence, which borrows from the litterature on stochastic optimization and Markov chain theory on general state spaces. Using recent work on unadjusted Langevin based dynamics we are able to provide convergence results in the context of parametric examplar-based texture synthesis. I will present visual results and discuss how SOUK compares to the state-of-the art algorithms for texture synthesis.
  • Le 4 avril 2019 à 11:00
  • Salle de Conférences
    Thi Kim Tien Truong (IDP, Orléans)
    Sharp large deviations for the empirical correlation coefficient

  • Le 11 avril 2019 à 11:00
  • Salle de Conférences
    Claire Launay (CMLA, ENS Paris-Saclay)

  • Le 2 mai 2019 à 11:00
  • Salle de Conférences
    Juliette Chevallier (CMAP, École Polytechnique)

  • Le 9 mai 2019 à 11:00
  • Salle de Conférences
    Alasdair Newson (Télécom Paristech)

  • Le 16 mai 2019 à 11:00
  • Salle de Conférences
    Tristan Benoist (IMT)

  • Le 23 mai 2019 à 11:00
  • Salle de Conférences
    François Bachoc (IMT)

  • Le 6 juin 2019 à 11:00
  • Salle de Conférences
    Antonio Silveti-Falls (GREYC, EnsiCaen)

  • Le 13 juin 2019 à 11:00
  • Salle de Conférences
    Hatem Hajri (SystemX)

    Les séminaires à partir de 2016