IMB > Recherche > Séminaires

Séminaire Images Optimisation et Probabilités

Responsable : Adrien Richou.

  • Le 15 novembre 2018 à 11:00
  • Salle 1
    Laurent Ménard (U. Paris Nanterre)
    Triangulations aléatoires couplées à un modèle d'Ising
    En 2003 Angel et Schramm ont prouvé que la mesure uniforme sur les triangulations de taille donnée converge faiblement pour la topologie locale lorsque la taille tend vers l'infini, ouvrant la voie à de nombreux travaux probabilistes sur les limites de cartes aléatoires. Dans cet exposé, nous étudierons des triangulations couplées à un modèle d'Ising tirées non pas selon la loi uniforme, mais en fonction de l'énergie de la configuration d'Ising. Après avoir présenté la combinatoire de ces objets, nous expliquerons comment l'approche d'Angel et Schramm s'adapte à ce modèle. L'objet limite a des propriétés qui s'avèrent intéressantes et est conjecturé appartenir à une autre classe d'universalité que les modèles classiques de cartes.Travail en commun avec Marie Albenque et Gilles Schaeffer.
  • Le 22 novembre 2018 à 11:00
  • Salle de Conférences
    Antoine Houdard

  • Le 29 novembre 2018 à 11:00
  • Salle de Conférences
    Jérémie Bigot (IMB)
    Deep learning pour modèles génératifs à variables latentes (Séminaire Aspects Mathématiques du Deep Learning)
    Dans cet exposé, il est proposé de donner un aperçu des travaux existants sur les aspects mathématiques (du point de vue des probabilités et de la statistique) des modèles génératifs à variables latentes basés sur l’utilisation des réseaux de neurons profonds qui ont connu récemment de nombreux développements notamment pour le traitement d’images. On discutera en particulier des modèles Variational Auto-Encoder (VAE) et Generative Adversarial Network (GAN) et de leurs liens avec la théorie du transport optimal et des distances de Wasserstein entre mesures de probabilités.
  • Le 6 décembre 2018 à 11:00
  • Salle de Conférences
    Maxime Sangnier (Sorbonne University)
    What can a statistician expect from GANs?
    Generative Adversarial Networks (GANs) are a class of generative algorithms that have been shown to produce state-of-the art samples, especially in the domain of image creation. The fundamental principle of GANs is to approximate the unknown distribution of a given data set by optimizing an objective function through an adversarial game between a family of generators and a family of discriminators. In this talk, we illustrate some statistical properties of GANs, focusing on the deep connection between the adversarial principle underlying GANs and the Jensen-Shannon divergence, together with some optimality characteristics of the problem. We also analyze the role of the discriminator family and study the large sample properties of the estimated distribution.
  • Le 13 décembre 2018 à 11:00
  • Salle de Conférences
    Nicolas Keriven (ENS Paris)

  • Le 20 décembre 2018 à 11:00
  • Salle de Conférences
    Jean-François Aujol (IMB)

  • Le 10 janvier 2019 à 11:00
  • Salle de Conférences

  • Le 17 janvier 2019 à 11:00
  • Salle de Conférences
    Emmanuel Gobet (Ecole Polytechnique)

  • Le 24 janvier 2019 à 11:00
  • Salle de Conférences
    Pascal Maillard (CRM & Paris Sud)

  • Le 31 janvier 2019 à 11:00
  • Salle de Conférences

  • Le 7 février 2019 à 11:00
  • Salle de Conférences

  • Le 14 février 2019 à 11:00
  • Salle de Conférences

  • Le 7 mars 2019 à 11:00
  • Salle de Conférences

  • Le 14 mars 2019 à 11:00
  • Salle de Conférences

  • Le 21 mars 2019 à 11:00
  • Salle de Conférences

  • Le 28 mars 2019 à 11:00
  • Salle de Conférences

  • Le 4 avril 2019 à 11:00
  • Salle de Conférences

  • Le 11 avril 2019 à 11:00
  • Salle de Conférences

  • Le 2 mai 2019 à 11:00
  • Salle de Conférences

  • Le 9 mai 2019 à 11:00
  • Salle de Conférences

  • Le 16 mai 2019 à 11:00
  • Salle de Conférences

  • Le 23 mai 2019 à 11:00
  • Salle de Conférences

  • Le 6 juin 2019 à 11:00
  • Salle de Conférences

  • Le 13 juin 2019 à 11:00
  • Salle de Conférences