IMB > Recherche > Séminaires

Séminaire Images Optimisation et Probabilités

Responsable : Adrien Richou.

  • Le 22 novembre 2018 à 11:00
  • Salle de Conférences
    Antoine Houdard
    Comment utiliser un modèle de mélange de gaussiennes sur les patchs pour le débruitage d'image ?
    Dans la littérature du débruitage d'image par patchs, de nombreuses méthodes utilisent une modélisation statistique des patch. Les modèles a priori généralement utilisés sont des modèles gaussiens ou de mélange de gaussiennes.Dans cet exposé, après avoir brièvement introduit le cadre statistique, je proposerai quelques indices pour répondre aux questions suivantes : Pourquoi ces a priori gaussiens sont-ils largement utilisés ? Quelles informations encodent-ils ?La seconde partie propose un modèle probabiliste de mélange pour les patchs bruités adapté à la grande dimension. Il en résulte un algorithme de débruitage reposant uniquement sur des estimations statistiques, qui atteint les performances de l’état-de-l’art. Enfin, je discuterai des limitations et des développements possibles de la méthode proposée.
  • Le 29 novembre 2018 à 11:00
  • Salle de Conférences
    Jérémie Bigot (IMB)
    Deep learning pour modèles génératifs à variables latentes (Séminaire Aspects Mathématiques du Deep Learning)
    Dans cet exposé, il est proposé de donner un aperçu des travaux existants sur les aspects mathématiques (du point de vue des probabilités et de la statistique) des modèles génératifs à variables latentes basés sur l’utilisation des réseaux de neurons profonds qui ont connu récemment de nombreux développements notamment pour le traitement d’images. On discutera en particulier des modèles Variational Auto-Encoder (VAE) et Generative Adversarial Network (GAN) et de leurs liens avec la théorie du transport optimal et des distances de Wasserstein entre mesures de probabilités.
  • Le 6 décembre 2018 à 11:00
  • Salle de Conférences
    Maxime Sangnier (Sorbonne University)
    What can a statistician expect from GANs?
    Generative Adversarial Networks (GANs) are a class of generative algorithms that have been shown to produce state-of-the art samples, especially in the domain of image creation. The fundamental principle of GANs is to approximate the unknown distribution of a given data set by optimizing an objective function through an adversarial game between a family of generators and a family of discriminators. In this talk, we illustrate some statistical properties of GANs, focusing on the deep connection between the adversarial principle underlying GANs and the Jensen-Shannon divergence, together with some optimality characteristics of the problem. We also analyze the role of the discriminator family and study the large sample properties of the estimated distribution.
  • Le 13 décembre 2018 à 11:00
  • Salle de Conférences
    Nicolas Keriven (ENS Paris)

  • Le 20 décembre 2018 à 11:00
  • Salle de Conférences
    Jean-François Aujol (IMB)

  • Le 10 janvier 2019 à 11:00
  • Salle de Conférences

  • Le 17 janvier 2019 à 11:00
  • Salle de Conférences
    Emmanuel Gobet (Ecole Polytechnique)

  • Le 24 janvier 2019 à 11:00
  • Salle de Conférences
    Pascal Maillard (CRM & Paris Sud)

  • Le 31 janvier 2019 à 11:00
  • Salle de Conférences

  • Le 7 février 2019 à 11:00
  • Salle de Conférences

  • Le 14 février 2019 à 11:00
  • Salle de Conférences

  • Le 7 mars 2019 à 11:00
  • Salle de Conférences

  • Le 14 mars 2019 à 11:00
  • Salle de Conférences

  • Le 21 mars 2019 à 11:00
  • Salle de Conférences

  • Le 28 mars 2019 à 11:00
  • Salle de Conférences

  • Le 4 avril 2019 à 11:00
  • Salle de Conférences

  • Le 11 avril 2019 à 11:00
  • Salle de Conférences

  • Le 2 mai 2019 à 11:00
  • Salle de Conférences

  • Le 9 mai 2019 à 11:00
  • Salle de Conférences

  • Le 16 mai 2019 à 11:00
  • Salle de Conférences

  • Le 23 mai 2019 à 11:00
  • Salle de Conférences

  • Le 6 juin 2019 à 11:00
  • Salle de Conférences

  • Le 13 juin 2019 à 11:00
  • Salle de Conférences