IMB > Recherche > Séminaires

Séminaire Images Optimisation et Probabilités

Responsable : Luis Fredes et Camille Male

  • Le 14 janvier 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Tom Rohmer ISPED
    Tests non-paramétriques de détection de rupture dans la copule d'observations multivariées avec et sans changement dans les lois marginales -illustration des méthodes et simulations de Monte Carlo-.
    De nombreux tests non paramétriques pour la détection de rupture dans la loi d'observations multivariées sont présents dans la littérature, cependant ces derniers sont très souvent peu puissants face à des alternatives de rupture dans la dépendance entre les composantes des observations lorsque les lois marginales sont inchangées. Dans le cas où les marges des vecteurs aléatoires sont continues, le théorème de Sklar garantit l?existence et l'unicité d'une fonction appelée copule, caractérisant la dépendance entre les composantes du vecteur aléatoire. De plus la donnée de la copule et des lois marginales va caractériser la loi du vecteur aléatoire. Dans cette présentation, j'exposerai un test CUSUM non paramétrique pour la détection de rupture dans la distribution d?observations multivariée, particulièrement sensible à un changement dans la copule des observations. J'exposerai également comment adapter ce test pour permettre en plus un ou plusieurs changement dans les lois marginales. Enfin j'illustrerai ces deux tests au travers d?une application sur des données et de simulations de Monte Carlo à tailles d'échantillon modérées.
  • Le 28 janvier 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Koléhè Coulibaly Université de Nancy
    Une diffusion dans l'espace des lacets $C^1$
    Soit M une variété orientable, et un lacet $ \gamma : s \in [0,1] \mapsto M$, nous nous intéressons à l'existence d'une diffusion dans l'espace des lacets $C^1$, telle que pour tout $s\in [0,1]$, $ t \mapsto \gamma_s(t)$ soit un mouvement brownien. Nous en donnerons quelques propriétés. (Travail en cours avec Marc Arnaudon).
  • Le 4 février 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Camille MALE Paris 7
    Spectre de matrices et de graphes aléatoires, probabilités libres
    Dans les années '80, Voiculescu a créé les probabilités libres afin d'étudier les algèbres de von Neumann des groupes libres. Il invente le concept de "liberté", qui joue le role de l'indépendance statistique dans sa théorie non commutative. Vers le début des années '90, il réalisa que la liberté permet de calculer la distribution de valeurs propres de polynômes en certaines matrices aléatoires, lorsque la taille des matrices tend vers l'infini. Cependant, la théorie de Voiculescu ne s'applique pas lorsque les vecteurs propres des matrices aléatoires ne sont pas asymptotiquement uniformément distribués. Afin d'étudier ces matrices aléatoires, qui comprennent les matrices d'adjacence de graphes aléatoires, j'introduis un cadre étendu des probabilités non commutatives. Celui ci permet d'étendre l'étude de la distribution de valeurs propres de polynômes en des matrices aléatoires invariantes par conjugaison par des matrices de permutation.
  • Le 11 février 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Jérémie Bigot IMB
    Generalized SURE for optimal shrinkage of singular values in low-rank matrix denoising
    We consider the problem of estimating a low-rank signal matrix from noisy measurements under the assumption that the distribution of the data matrix belongs to an exponential family. In this setting, we derive generalized SURE formulas that hold for any smooth spectral estimators which shrink or threshold the singular values of the data matrix. This allows to obtain new data-driven shrinkage rules, whose optimality is discussed using tools from random matrix theory and through numerical experiments.
  • Le 3 mars 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Yousri Slaoui Poitiers
    Parameter Estimation in a linear mixed Model with Censored Response: An Approach using a SEM Algorithm and Gibbs Sampling.
    In this talk, we propose an approach, based on the stochastic expectation maximization (SEM) algorithm and Gibbs sampling, to deal with the problem caused by censoring in the response of a linear mixed models. We compared our approach with the existing methods via real data sets as well as simulations. Results showed that our approach outperformed other approaches in terms of estimation accuracy and computing efficiency.
  • Le 10 mars 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jean-François Marckert LaBRI
    à propos du problème de Sylvester
    Mettons n points aléatoires uniformes dans un domaine compact convexe $K$ du plan. Notons $P_K^n$ la probabilité que ces points soient en position convexe, c'est-à-dire, soient les sommets d'un polygone convexe. Blaschke en 1917 a montré que $P_T^4 \leq P_K^4 \leq P_0^4$ où $T$ désigne un triangle, et $O$ le disque. Dans cet exposé nous montrerons que cette propriété est vraie pour 5 points également. Nous illustrerons par des exemples, que ce domaine de recherche allie des techniques géométriques, probabilistes, et combinatoires.
  • Le 24 mars 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Sofiane Saadane Toulouse
    Étude du regret associé aux algorithmes de bandit de type Narendra-Shapiro (N-S)
    Les algorithmes de bandit de types N-S ont été introduits dans les années 60 en vue d'applications aux tests cliniques notamment. Le principe d'un algorithme de bandit peut être défini de la manière suivante : on dispose de 2 sources A et B (ayant respectivement une probabilité pA et pB d'être satisfaisante lorsque qu'elle est utilisée) et on souhaite déterminer laquelle des deux est la plus performante. Récemment Lamberton et Pagès ont introduit une version dite “pénalisée” de cet algorithme pour laquelle divers résultats de convergence ont été démontrés. Nous nous intéressons dans ce travail à la question suivante : ces algorithmes sont-ils performants d'un point de vue de regret ? Le regret étant la différence entre la meilleure performance possible (i.e celle obtenue en choisissant toujours la meilleur source) et celle obtenue par l'algorithme. Dans cette présentation, nous verrons qu'une légère modification de cette algorithme conduit à des bornes de regret de l'ordre de \sqrt{n} uniformément en pA et pB. Nous étendrons aussi les résultats de Lamberton et Pagès à une version multidimensionnelle de l'algorithme. Nous établirons une convergence en loi vers la mesure invariante d'un PDMP pour lequel nous étudierons sa convergence à l'équilibre. Travail effectué en collaboration avec Sébastien Gadat et Fabien Panloup.
  • Le 31 mars 2016 à 14:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Djalil Chafaï Université Paris-Dauphine
    Au bord de systèmes de particules en interaction (séminaire en commun avec l'équipe Analyse)
    Cet exposé présente des résultats et des questions ouvertes concernant le bord de systèmes de particules en interaction, liés à ou inspirés par des modèles de matrices aléatoires.
  • Le 7 avril 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Paul Doukhan Université Cergy-Pontoise
    dépendance faible, valeurs extrêmes et rééchantillonnage
    les propriétés de dépendance faible introduites avec Louhichi en 1999 sont rappelées avec leurs propriétés et des modèles adaptés. Leurs propriétés sont adaptées aux techniques de rééchantillonnage. L'objectif de l'exposé est de le démontrer en s'appuyant sur des questions issues de la théorie des valeurs extrêmes.
  • Le 14 avril 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Joseph Salmon Telecom Paris
    GAP safe screening rule for sparsity enforcing penalties
    High dimensional regression benefits from sparsity promoting regularizations. In such a context, screening rules leverage the known sparsity of the solution by ignoring some variables during (or even before) the optimization process, hence speeding up solvers. Such rules are said to be "safe" when they cannot wrongly discard features. In this talk, new safe rules for generalized linear models with sparsity enforcing regularization will be proposed. Our proposed GAP Safe (screening) rules can cope with any iterative solver and we illustrate their performance on coordinate descent, demonstrating interesting speed ups for learning problems. This is a joint work with E. Ndiaye, O. Fercoq and A. Gramfort
  • Le 28 avril 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Jamal Najim université de Marne La Vallée
    Limiting spectral distribution for non-hermitian random matrices with a variance profile
    Consider a large $n \times n$ random matrix $Y_n$ with entries given by $$Y_{ij} = \frac{\sigma_{ij}}{\sqrt{n}} X_{ij}$$ where the $X_{ij}$'s are independent and identically distributed random variables with four moments, and the $\sigma_{ij}$'s are deterministic, non-negative quantities and account for a variance profile. Notice that some of the $\sigma_{ij}$'s may be equal to zero. In this talk, we will describe the limiting spectral distribution of matrix $X_n$ as $n \rightarrow \infty$, that is the limit of the empirical distribution of $X_n$'s eigenvalues. We will carefully specify the assumptions on the variance profile $(\sigma_{ij} )$ under which we can describe the limiting spectral distribution. This is a joint work with Nicholas Cook, Walid Hachem and David Renfrew.
  • Le 12 mai 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Clarice M H S Poon Paris Dauphine
    Geometric properties of solutions to the total variation denoising problem
    Total variation (TV) denoising has been extensively studied in imaging sciences since its introduction by Rudin, Osher and Fatemi in 1992. However, the majority of theoretical works TV regularization are actually concerned with solutions to total variation denoising in the absence of noise. For instance, it is known that the jump set of the regularized solutions are contained in the jump set of the original data, but this knowledge is fairly meaningless in the presence of noise since the noisy function can introduce arbitrarily many new discontinuities. Furthermore, works that consider the impact of noise on TV regularized solutions typically derive integral estimates such as L^2 error bounds or bounds on the total variation of the solution. However, such estimates do not inform on the proximity of the gradient support of the regularized solution to that of the clean function. This talk is concerned with the impact of noise on the regularized solutions. In particular, we consider stability in the gradient support of solutions and address the following question: Given a small neighbourhood around the support of Df, when will the gradient support of the regularized solution be contained inside this neighbourhood if the noise function has sufficiently small L^2 norm?
  • Le 26 mai 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 385
    Nicolas Fournier
    Estimation statistique de l'entropie
    On observe un échantillon i.i.d. d'une loi de densité $f$ sur $R^d$ et on cherche à estimer $H(f)=-\int_{R^d} f(x) log f(x) dx$. C'est un vieux problème manifestement très répandu en sciences appliquées, mais aucune vitesse de convergence n'est démontrée en dimension $d\geq 2$ dans un cadre général (i.e. sans hypothèse structurelle sur $f$). Nous obtenons, pour l'estimateur proposé par Kozachenko-Leonenko en 1987, un TCL qui permet qui permet de fournir des intervalles de confiances (asymptotiques) exacts. La vitesse est en $1/\sqrt N$. (Travail en commun avec S. Delattre)
  • Le 2 juin 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Clément Chesseboeuf Université de Poitiers
    VARIANCE CHANGE-POINT DETECTION FOR STATIONARY GAUSSIAN PROCESSES
    We consider the problem of detecting and estimating abrupt changes in the variance of a piecewise stationary Gaussian sequence. Following the usual approach of the change-point analysis we define a contrast function and estimate the change-point as the point of maximum contrast. The consistency of such an estimator can be proven using a functional convergence theorem. A natural application of this method is the detection of change in the Hurst index of a piecewise fractional Brownian motion (fBm). Using the stationarity of increments, we can apply it to this problem. In this talk I will present the construction of the estimator and prove its consistency. A relative statistical test will be also discussed. Finally, I will give numerical results for the case of fractional Brownian motion.
  • Le 23 juin 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Franck Iutzeler Université de Grenoble
    Practical acceleration for some optimization methods using relaxation and inertia
    Optimization algorithms can often be seen as fixed-points iterations of some operators. To accelerate such iterations, two simple methods that can be used are i) relaxation (simple combination of current and previous iterate) and ii) inertia (slightly more involved modification made popular by Nesterov's acceleration). These methods have been celebrated for accelerating linearly and sub-linearly converging algorithms such as gradient methods, proximal gradient (FISTA), or ADMM (Fast ADMM). In this presentation, we build upon generic contraction properties and affine approximations to propose generic auto-tuned acceleration methods and illustrate their compared interests on various optimization algorithms.
  • Le 8 septembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Thomas Hotz université de Ilmenau
    On the Topology of Projective Shape Spaces
    The projective shape of a configuration consists of the information that is invariant under projective transformations. It encodes the information about an object reconstructable from uncalibrated camera views. The space of projective shapes of k points in RP(d) is by definition the quotient space of k copies of RP(d) modulo the action of the projective linear group PGL(d). A detailed examination of the topology of projective shape space is given, and it is shown how to derive subsets that are differentiable Hausdorff manifolds and can be provided with a Riemannian metric. A special case are Tyler regular shapes for which a Riemannian metric is given. This is joint work with Florian Kelma (TU Ilmenau) and John T. Kent (University of Leeds).
  • Le 15 septembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Camille Male IMB
    Matrices, graphes aléatoires et probabilités libres
    "Dans cet exposé je commencerai par décrire ce que nous connaissons sur les mesures empiriques des valeurs propres de certains grands graphes aléatoires. J'expliquerai ensuite comment la convergence locale faible, au sens de Benjamini et Schramm, est utile pour connaitre le spectre de polynômes en plusieurs matrices de graphes indépendantes." Certains résultat qui seront énoncé ont été établis en collaboration avec S. Péché.
  • Le 22 septembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Alice Le Brigant IMB
    Comparer et moyenner des courbes dans une variété pour des applications en traitement du signal
    De nombreuses applications nécessitent l'étude de courbes dans un certain espace (en toute généralité, une variété) et de leurs formes. Un exemple simple en courbure positive est l'étude de trajectoires sur la sphère terrestre. Dans le cadre du traitement du signal, nous nous intéressons à des courbes dans un espace à courbure négative, l'espace hyperbolique, qui coïncide avec la variété statistique des distributions gaussiennes. Dans notre application, ces courbes représentent les évolutions de processus gaussiens localement stationnaires. Afin de les manipuler et les comparer, nous munissons l'espace de ces courbes d'une métrique Riemannienne et nous étudions la géométrie induite, en particulier les géodésiques pour cette métrique. Cela nous permet de construire la déformation optimale d'une courbe à une autre et de calculer la moyenne de plusieurs courbes.
  • Le 29 septembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    -
    Sans titre

  • Le 6 octobre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    -
    Sans titre

  • Le 13 octobre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Gabriele Facciolo ENPC
    MGM: A Significantly More Global Matching for Stereovision
    Semi-global matching (SGM) is among the top-ranked stereovision algorithms. SGM is an efficient strategy for approximately minimizing a global energy that comprises a pixel-wise matching cost and pair-wise smoothness terms. In SGM the two-dimensional smoothness constraint is approximated as the average of one-dimensional line optimization problems. The accuracy and speed of SGM are the main reasons for its widespread adoption, even when applied to generic problems beyond stereovision. This approximate minimization, however, also produces characteristic low amplitude streaks in the final disparity image, and is clearly suboptimal with respect to more comprehensive minimization strategies. Based on a recently proposed interpretation of SGM as a min-sum Belief Propagation algorithm, we propose a new algorithm that allows to reduce by a factor five the energy gap of SGM with respect to reference algorithms for MRFs with truncated smoothness terms. The proposed method comes with no compromises with respect to the baseline SGM, no parameters and virtually no computational overhead. At the same time it attains higher quality results by removing the characteristic streaking artifacts of SGM.
  • Le 3 novembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Raphaël BUTEZ Paris Dauphine
    Universalité des grandes déviations pour les racines de polynômes aléatoires
    Dans cet exposé nous étudierons les racines de polynômes dont les coefficients sont des variables réelles ou complexes à densité par rapport à la mesure de Lebesgue. Nous verrons que nous pouvons calculer explicitement la distribution des racines de ces polynômes et qu'elles forment un gaz de Coulomb qui présente de nombreuses similitudes avec les valeurs propres de certaines matrices aléatoires. Nous verrons comment obtenir un principe de grandes déviations pour la mesure empirique des zéros. Nous expliquerons pourquoi les grandes déviations sont universelles (le principe de grandes déviations que nous présenterons est vrai pour une large classe de coefficients, avec toujours la même fonction de taux et la même vitesse). La majorité de l'exposé reposera sur l'article http://arxiv.org/abs/1607.02392
  • Le 10 novembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Iona Gavra TSE Toulouse
    Comment calculer le barycentre d'un (très grand) graphe ?
    L'objectif de cet exposé est de décrire un algorithme de calcul de barycentre pour des structures discrètes telles que les graphes pondérés. De telles structures sont couramment utilisées pour décrire des bases de données, modéliser des communications, internet, des flux de transport routier ou aérien, etc. Le calcul du barycentre de telles structures, pour un graphe possiblement très gros, induit des difficultés liées à l'optimisation de fonctionnelles non convexes. Nous décrivons dans cet exposé une première manière de calculer le barycentre de graphes pondérés (arêtes et nœuds), au travers d'un algorithme de recuit simulé homogénéisé et démontrons la convergence d'une telle procédure. Enfin, nous appliquons sur données réelles la méthode et illustrerons ses forces, et ses faiblesses... Ce travail est en collaboration avec S. Gadat (Pr UT1), L. Miclo (DR CNRS) et L. Risser (IR CNRS).
  • Le 22 novembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Charles Soussen U. de Lorraine
    Algorithmes de type homotopiques pour la minimisation des moindres carrés régularisés par la pseudo-norme L0
    Cette présentation concerne le développement d'algorithmes d'approximation parcimonieuse pour les problèmes inverses mal conditionnés. Les algorithmes heuristiques proposés sont conçus pour minimiser des critères mixtes L2-L0 du type $$min_x J(x;\lambda) = || y - Ax ||_2^2 + \lambda || x ||_0.$$ Ce sont des algorithmes gloutons "bidirectionnels" définis en tant qu'extensions d'Orthogonal Least Squares (OLS). Leur développement est motivé par le très bon comportement empirique d'OLS et de ses versions dérivées lorsque la matrice A est mal conditionnée. Je présenterai dans un premier temps l'algorithme "Single Best Replacement" (SBR) pour minimiser J(x;lambda) à lambda fixé [1], en mettant en avant ses propriétés structurelles. Dans la deuxième partie de la présentation, je présenterai deux algorithmes permettant de minimiser J pour un continuum de valeurs de lambda, ce qui conduit à estimer le chemin de régularisation L0 [2]. Ces algorithmes sont inspirés de l'algorithme d'homotopie pour la régularisaton L1 et exploitent le caractère constant par morceaux du chemin de régularisation L0. Les simulations numériques montrent l'efficacité des deux algorithmes pour des problèmes inverses difficiles comme la déconvolution impulsionnelle par un filtre passe-bas. Je montrerai finalement que les algorithmes proposés peuvent être avantageusement couplés avec des méthodes de sélection d'ordre comme le MDL (Minimum Description Length) afin de sélectionner automatiquement l'une seule solutions parcimonieuses obtenues. [1] C. Soussen, J. Idier, D. Brie et J. Duan, From Bernoulli-Gaussian deconvolution to sparse signal restoration, IEEE Transactions on Signal Processing, vol. 59, no. 10, pp. 4572-4584, oct. 2011. [2] C. Soussen, J. Idier, J. Duan et D. Brie, Homotopy based algorithms for l0-regularized least-squares, IEEE Transactions on Signal Processing, vol. 63, no.13, 3301-3316, juil. 2015
  • Le 24 novembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Pierre-Yves Louis U. Poitiers
    Systèmes de processus de renforcement en interaction champ moyen
    Nous nous intéressons à des systèmes de processus où l'interaction est de type champ moyen à travers un mécanisme de renforcement. Différents régimes de renforcement sont considérés. Un phénomène de synchronisation vers une limite commune en temps, aléatoire ou déterministe, est démontré. Nous étudions également les fluctuations et établissons des théorèmes centraux limite fonctionnels. Cet exposé se fonde principalement sur des travaux en collaboration avec I. Crimaldi, P. Dai Pra et I. Minelli (arXiv 1602.06217v2).
  • Le 8 décembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Bruno Galerne Paris 5
    Champs aléatoires à variation bornée et calcul de leur variation moyenne
    En traitement d'images il est d'usage de considérer que la variation totale des images de textures est élevée voir infinie. Cependant, très peu de choses sont connues concernant la variation totale des modèles classiques de textures comme les champs gaussiens, les shot noises, etc. Le but de cet exposé est de définir et de caractériser les champs aléatoires à variation bornée, c'est-à-dire les champs aléatoires dont les réalisations sont des fonctions à variation bornée, et d'étudier leur variation totale moyenne. On s'intéressera plus particulièrement à la variation moyenne des champs aléatoires à incréments stationnaires. On montrera que leur variation moyenne est proportionnelle à la mesure de Lesbesgue, et une expression de la constante de proportionnalité, appelée intensité de variation, sera établie. En se restreignant au cas des ensembles aléatoires, les résultats obtenus fournissent des généralisations de formules standards de géométrie stochastique et de morphologie mathématique. L'intérêt de ces résultats généraux sera illustré en calculant l'intensité de variation de plusieurs modèles classiques de champs aléatoires, à savoir les champs gaussiens et leurs excursions, les shot noise poissonniens, les modèles booléens, et les modèles feuilles mortes. Référence : B. Galerne, Random Fields of Bounded Variation and Computation of their Variation Intensity, Accepted for publication in Advances in Applied Probability, https://hal.archives-ouvertes.fr/hal-01044582/en
  • Le 15 décembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Martin Ehler Vienne
    Covering radius and numerical approximation: beating randomness on Grassmannians
    I will first briefly mention some of my research related to biomedical image analysis, somewhat hinting at my general interest in Grassmannians (the manifold of lower dimensional subspaces in Euclidean space). The actual talk is about the problem of selecting good collections of lower dimensional subspaces, where “good" is supposed to mean “better distributed than random points". Indeed, we verify that cubature points on Grassmannians cover better than random points. We also numerically construct such deterministic cubature points. To further support our theoretical findings, we present numerical experiments on the approximation of Sobolev functions on Grassmannians from finitely many sampling points. The numerical results are in accordance with the theoretical findings.

    Les anciens séminaires