IMB > Recherche > Séminaires

Séminaire Images Optimisation et Probabilités

Responsable : Camille Male

  • Le 9 janvier 2020 à 11:00
  • Salle de Conférences
    Cyrus Mostajeran (Cambridge University)
    Geometric Thinking in Engineering and Applied Sciences
    Geometry occupies a uniquely illustrious place in the history of science. Many critical and celebrated advances in physics and various fields of mathematics have been achieved by viewing problems through a geometric lens. Recent years have witnessed a growing interest in the application of differential geometry to problems arising in engineering. In particular, the exploitation of symmetries and geometric invariance has led to great advances in fields such as optimisation, signal processing, statistical learning, medical imaging, material science, and inertial navigation and estimation in nonlinear automatic control. In this talk, I will review several topics in the engineering and applied sciences from my own research that are shaped by geometric thinking. Examples include consensus theory and monotone dynamical systems, statistics and optimisation in nonlinear spaces, as well as topographic mechanics and material design.
  • Le 16 janvier 2020 à 09:30
  • Salle de Conférences
    Jeunes Chercheurs IOP
    Session spéciale

  • Le 23 janvier 2020 à 11:00
  • Salle de Conférences
    Antoine Deleforge (INRIA Nancy, Loria)
    Processing Sounds with a Little Help from Echoes
    When a sound wave propagates from a source through a medium and is reflected on surfaces before reaching microphones, the measured signals consist of a mixture of the direct path signal with delayed and attenuated copies of itself. This phenomenon is commonly referred to as 'echoes', or 'reverberation', and is generally considered as a nuisance in audio signal processing. After a gentle introduction to relevant concepts in acoustics and signal processing, this seminar will present recent works showing how acoustic echoes can be blindly estimated from audio recordings, using either non-linear inverse techniques or machine learning. We will then show how the knowledge of such echoes can in fact help some audio signal processing tasks such as the separation, enhancement or localisation of sound sources.
  • Le 30 janvier 2020 à 11:00
  • Salle de Conférences
    Louis Thiry (DI, ENS Ulm)
    Deep Network Classification by Scattering and Homotopy Dictionary Learning
    We introduce a structured convolutional neural network which provides a simple model to analyze properties of deep representation learning and yields a higher classification accuracy than AlexNet over the ImageNet ILSVRC2012 dataset. This network is composed of a scattering transform which linearizes variabilities due to geometric transformations followed by a sparse l1 dictionary coding and a 2 hidden layer classifier. The whole pipeline is implemented in a deep convolutional network with a homotopy algorithm having an exponential convergence for the sparse l1 dictionary coding.
  • Le 13 février 2020 à 11:00
  • Salle de Conférences
    Vincent Duval (Inria Paris, Mokaplan)
    Representing the solutions of total variation regularized problems
    The total (gradient) variation is a regularizer which has been widely used in inverse problems arising in image processing, following the pioneering work of Rudin, Osher and Fatemi. In this talk, I will describe the structure the solutions to the total variation regularized variational problems when one has a finite number of measurements.First, I will present a general representation principle for the solutions of convex problems, then I will apply it to the total variation by describing the faces of its unit ball.It is a joint work with Claire Boyer, Antonin Chambolle, Yohann De Castro, Frédéric de Gournay and Pierre Weiss.
  • Le 20 février 2020 à 11:00
  • Salle 2
    Christèle Etchegaray (Inria, IMB)
    Stochastic modeling of single-cell migration
    Cell migration is commonly involved in physiological and pathological phenomena. It is also a very complex process, since cell trajectories result from an intracellular self-organized activity spanning different space and time scales.In this talk, I will introduce a stochastic model for single cell trajectories based on a nonlinear measure-valued Markovian jump process for the membrane’s deformation dynamics. Performing some scaling limit allows to obtain a nonlinear Stochastic Differential Equation for the cell velocity. Further analysis puts to light the ability of the model to capture several migratory behaviors and to derive key quantities of the dynamics. Finally, I will explain how this model can be enriched to take into account the cell’s interaction with its environment.
  • Le 12 mars 2020 à 11:00
  • Salle de Conférences
    Barbara Pascal (ENS Lyon)
    How fractal texture segmentation turns to be a strongly convex optimization problem ?
    Texture segmentation still constitutes an ongoing challenge, especially when processing large-size images. The aim of this work is twofold.
    First, we provide a variational model for simultaneously extracting and regularizing local texture features, such as local regularity and local variance. For this purpose, a scale-free wavelet-based model, penalised by a Total Variation regularizer, is embedded into a convex optimisation framework. Second, we investigate convergence acceleration strategies, relying on strong-convexity of the objective function, in order to deal with computational cost induced by the minimization. Finally, we illustrate the developed procedures on real-world images of multiphasic flows.
  • Le 1er octobre 2020 à 11:00
  • Salle de Conférences
    Julie Delon (MAP5, Univ. Paris Descartes)
    Une distance de Wasserstein entre mélanges de gaussiennes et quelques applications en traitement d'image
    Les modèles de mélanges de gaussiennes (GMM) s'avèrent particulièrement utiles pour représenter des distributions de probabilité complexes de données réelles. Par exemple, en traitement d’images, de nombreux travaux utilisent des GMM pour représenter des distributions de patchs dans les images, et ces modèles sont utilisés comme a priori pour la restauration d’image ou la synthèse de texture. Le transport optimal et les distances de Wasserstein sont aujourd’hui massivement utilisés pour analyser des statistiques extraites des images ou comme métriques en apprentissage profond. Si le transport optimal peut être utilisé pour définir des géodésiques entre GMM, les interpolées ainsi définies ne conservent pas la propriété d’être des mélanges de gaussiennes. Afin de conserver cette propriété, nous définissons une nouvelle distance entre mélanges en restreignant l’ensemble des mesures de couplage à des GMM dans la formulation originale du transport optimal. De manière surprenante, on montre que cette distance entre mélanges peut se réécrire sous la forme d’un problème de transport discret, ce qui la rend simple à calculer même en grande dimension. On étudie ses propriétés, le problème multi-marginal associé et les barycentres pour cette formulation. Finalement, on illustre son utilisation en traitement d’images.
  • Le 15 octobre 2020 à 11:00
  • Salle de Conférences
    Anas Barakat (Télécom ParisTech)
    Convergence and Dynamical Behavior of the ADAM Algorithm for Non-Convex Stochastic Optimization
    Adam is a popular variant of stochastic gradient descent for finding a local minimizer of a function. In the constant stepsize regime, assuming that the objective function is differentiable and non-convex, we establish the convergence in the long run of the iterates to a stationary point under a stability condition. The key ingredient is the introduction of a continuous-time version of Adam, under the form of a non-autonomous ordinary differential equation. This continuous-time system is a relevant approximation of the Adam iterates, in the sense that the interpolated Adam process converges weakly towards the solution to the ODE. The existence and the uniqueness of the solution are established. We further show the convergence of the solution towards the critical points of the objective function and quantify its convergence rate under a Lojasiewicz assumption. Then, we introduce a novel decreasing stepsize version of Adam. Under mild assumptions, it is shown that the iterates are almost surely bounded and converge almost surely to critical points of the objective function. Finally, we analyze the fluctuations of the algorithm by means of a conditional central limit theorem.
  • Le 12 novembre 2020 à 11:00
  • Salle de Conférences
    Arthur Mensch (DMA, École Normale Supérieure)
    Online Sinkhorn: Optimal Transport distances from sample streams
    Optimal Transport (OT) distances are now routinely used as loss functions in ML tasks. Yet, computing OT distances between arbitrary (i.e. not necessarily discrete) probability distributions remains an open problem. This paper introduces a new online estimator of entropy-regularized OT distances between two such arbitrary distributions. It uses streams of samples from both distributions to iteratively enrich a non-parametric representation of the transportation plan. Compared to the classic Sinkhorn algorithm, our method leverages new samples at each iteration, which enables a consistent estimation of the true regularized OT distance. We provide a theoretical analysis of the convergence of the online Sinkhorn algorithm, showing a nearly-O(1/n) asymptotic sample complexity for the iterate sequence. We validate our method on synthetic 1D to 10D data and on real 3D shape data.
  • Le 19 novembre 2020 à 11:00
  • Salle 1
    Quentin Mérigot (Laboratoire de Mathématiques d'Orsay)
    Stabilité quantitative en transport optimal
    Un théorème de Brenier affirme qu'étant donnée une densité de probabilité rho et une mesure de probabilité mu sur R^d, tous deux à support compact, il existe ununique plan de transport optimal T_\mu pour le coût quadratique, transportant rho vers mu. Nous nous intéressons à l'utilisation de T_\mu pour représenter une mesure mu:comme T_\mu appartient à l'espace de Hilbert L^2(\rho,R^d), ce plongement mu -> T_\mu permet en principe d'appliquer toute méthode statistique hilbertienne (analyse encomposante principale, k-moyennes, apprentissage de dictionnaire) à des données à valeur mesures, e.g. des familles de nuages de points. Pour justifier cette approche, ilest nécessaire de comprendre les propriétés de l'application mu -> T_\mu.Il est connu que l'application mu -> T_\mu est continue pour la topologie faible sur les mesures et la norme L^2(\rho) entre les plans de transport, mais la démonstrationne donne aucune information sur le module de continuité. Dans cet exposé, nous montrerons en utilisant des outils d'analyse fonctionnelle que T_\mu dépend de manière Hölderiennede mu pour un exposant de Hölder indépendant de la dimension.Travail en collaboration avec A. Delalande et F. Chazal.
  • Le 3 décembre 2020 à 11:00
  • Salle de Conférences
    Raphaël Ducatez (Université de Genève)
    Spectre des graphes critiques d'Erdos Renyi
    Nous analysons le spectre de la matrice d'adjacence A du graphe aléatoire d'Erdős-Rényi G(N, d/N) dans le régime critique d = b log N. On établit une correspondance un à un entre les sommets de degré au moins 2d et les valeurs propres en dehors du bulk [-2, 2]. Cette correspondance implique une transition à un b* explicite. Pour d>b* log N, le spectre est contenu dans [-2, 2] et les vecteurs propres sont complètement délocalisés. Pour d< b* log N, une autre phase apparaît. Le spectre à l'extérieur de [-2, 2] est non vide et les vecteurs propres correspondants se concentrent autour des sommets de grand degré. En collaboration avec Antti Knowles et Johannes Alt
  • Le 17 décembre 2020 à 09:00
  • Salle de Conférences
    Baptiste Huguet (IMB)
    Soutenance de thèse

  • Le 7 janvier 2021 à 11:00
  • Salle de Conférences
    Guillaume Carlier (Cérémade, Université Paris-Dauphine)
    Systèmes d'EDPs liés aux barycentres dans l’espace de Wasserstein
    Les barycentres dans l’espace de Wasserstein qui généralisent l’interpolation de McCann à plus de deux mesures sont fréquemment utilisés dans des champs appliqués comme le traitement d’images ou les statistiques et il y a des algorithmes efficaces pour les calculer. Néanmoins, comme observé par Bigot, Cazelles et Papadakis ces barycentres présentent typiquement beaucoup d’oscillations quand on discretise les marges, c’est pourquoi ces auteurs ont proposé de régulariser le problème, typiquement avec une entropie. Dans cet exposé, je voudrais insister sur la caractérisation de ces barycentres Wasserstein « entropiques » en termes de systèmes d’équations de Monge-Ampère, je donnerai quelques résultats de régularité, un principe du maximum ainsi que des estimations sur les moments et l’information de Fisher et en déduirai un TCL pour les barycentres de mesures aléatoires i.i.d. L’exposé sera basé sur des travaux avec Martial Agueh et Katharina Eichinger et Alexey Kroshnin.
  • Le 20 janvier 2021 à 11:00
  • Salle de Conférences
    Joshep de Vilmarest
    TBA
    TBA
  • Le 21 janvier 2021 à 11:00
  • Salle de Conférences
    Julián Tachella (University of Edinburgh)
    Large system limit of convolutional neural networks for image denoising
    Convolutional Neural Networks (CNNs) are now a well-established tool for solving computer vision and imaging problems, and modern CNNs often obtain state-of-the-art performance. Perhaps surprisingly, it has been recently shown that, despite being highly overparameterized, such networks can be trained with a single corrupted image and still perform as well as fully trained networks - a phenomenon encapsulated in the deep image prior (DIP). Here we attempt to explain what might be going on in terms of recent advances of Neural Tangent Kernel (NTK) theory, which characterizes the large system limit of neural networks. We identify strong links between CNN architectures and well-known signal processing techniques such as non-local means, showing that the function associated with a CNN to a given image can be obtained in closed form without need to train the network. Although our analysis shows that the NTK still does not fully explain the DIP phenomenon, we argue it suggests that CNN’s inductive bias is better characterized by images with non-local self-similar structure.
  • Le 28 janvier 2021 à 11:00
  • Salle de Conférences
    Nicolas Marie (Modal'X, Université Paris Nanterre)
    Sur quelques extensions de la méthode PCO
    L’exposé portera sur deux extensions de la méthode PCO (Penalized Comparison to Overfitting) introduite dans Lacour, Massart et Rivoirard (2018). Initialement conçue pour sélectionner la fenêtre de l’estimateur de Parzen-Rosenblatt de la densité parente d’un $n$-échantillon à partir des données, cette méthode a l’avantage d’être numériquement performante, comme la cross-validation, mais également celui d’être pertinente du point de vue théorique comme la méthode de Goldenshluger-Lepski. En effet, une borne de risque pour l’estimateur adaptatif associé, dont la preuve repose notamment sur l’inégalité de concentration pour les U-statistics démontrée dans Houdré et Reynaud-Bourret (2003), a été démontrée. Nous proposerons une extension de la méthode PCO à la sélection des fenêtres d’un estimateur type Nadaraya-Watson en régression, ainsi qu’une extension de la méthode PCO à la sélection de la suite des fenêtres de l’estimateur récursif de Wolverton-Wagner de la densité. En réalité, la méthode PCO est également compatible avec le contexte de l’estimation par projection et cette question sera traitée durant l’exposé. Ce dernier porte sur plusieurs travaux en collaboration avec Fabienne Comte (Université Paris Descartes) et Hélène Halconruy (Université du Luxembourg).
  • Le 11 février 2021 à 11:00
  • Salle de Conférences
    Kévin Polisano (LJK, Université Grenoble Alpes)
    Riesz-based orientation of localizable Gaussian fields
    Texture modeling and analysis are challenging issues of image processing. In many cases, the model has to incorporate some important characteristics of the data as roughness or anisotropy properties, that can be handled using a stochastic approach, involving fractional anisotropic random fields. We give a sense to the notion of orientation for self-similar Gaussian fields with stationary increments, based on a Riesz analysis of these fields, with isotropic zero-mean analysis functions. We propose a structure tensor formulation and provide an intrinsic definition of the orientation vector as eigenvector of this tensor. That is, we show that the orientation vector does not depend on the analysis function, but only on the anisotropy encoded in the spectral density of the field. Then, we generalize this definition to a larger class of random fields called localizable Gaussian fields, whose orientation is derived from the orientation of their tangent fields. Finally two classes of Gaussian models with prescribed orientation are studied in the light of these new analysis tools.
  • Le 25 février 2021 à 11:00
  • Salle de Conférences
    Samuel Vaiter (Institut de Mathématiques de Bourgogne)
    Hyper-Parameter Selection by Algorithmic Differentiation
    Setting regularization parameters for variational estimators in imaging or machine learning is notoriously difficult. Grid-search requires to choose a predefined grid of parameters and scales exponentially in the number of parameters which can be quickly inconvenient or even impossible in imaging. Another class of approaches casts hyperparameter optimization as a bi-level optimization problem, typically solved by gradient descent. The key challenge for these approaches is the estimation of the gradient w.r.t. the hyperparameters. In this presentation, I will show algorithmic/automatic differentiation can help to overcome this challenge, both for inverse problems with a differentiable Stein Unbiased Risk Estimator and in regression using held-out loss.
  • Le 4 mars 2021 à 11:00
  • Salle de Conférences
    François-Pierre Paty (CREST, ENSAE Paris)
    Regularizing Optimal Transport through Regularity Constraints
    Optimal transport (OT) suffers from the curse of dimensionality. Therefore, OT can only be used in machine learning if it is substantially regularized. In this talk, I will present a new regularization of OT which leverages the regularity of the Brenier map. Instead of considering regularity as a property that can be proved under suitable assumptions, we consider regularity as a condition that must be enforced when estimating OT. From a statistical point of view, this defines new estimators of the OT map and 2-Wasserstein distance between arbitrary measures. From an algorithmic point of view, this leads to an infinite-dimensional optimization problem, which, when dealing with discrete measures, can be rewritten as a finite-dimensional separately-convex problem. I will finish by sharing some recent ideas on how to speed up the algorithms. The talk is based on some joint work with Marco Cuturi and Alexandre d'Aspremont.
  • Le 18 mars 2021 à 11:00
  • Salle de Conférences
    Adrien Richou (IMB)
    Comment définir une notion d'espérance conditionnelle contrainte à prendre ses valeurs dans un ensemble non-convexe
    Dans un travail récent avec Jean-François Chassagneux (Université de Paris) et Sergey Nadtochiy (Illinois Institute of Technology)nous obtenons des résultats d'existence et d'unicité pour des équations différentielles stochastiques rétrogrades réfléchies dans un domaine nonconvexe. J'expliquerai dans cet exposé notre stratégie de preuve et quelques liens avec la géométrie stochastique.
  • Le 25 mars 2021 à 11:00
  • Salle de Conférences
    Emma Horton (Inria, Bordeaux)
    Analyse stochastique de l'équation de transport des neutrons
    L'équation de transport des neutrons (NTE) est une équation d'équilibre qui décrit le mouvement net des neutrons à travers un milieu fissile inhomogène, tel qu'un réacteur nucléaire. Une façon de dériver la NTE est l'analyse stochastique d'un processus de branchement spatial. Cette approche est connue depuis les années 1960/70, cependant, depuis lors, très peu d'innovations dans la littérature ont vu le jour grâce à l'analyse probabiliste. Ces dernières années, cependant, les industries de l'énergie nucléaire et de la réglementation nucléaire ont davantage besoin d'une compréhension approfondie des propriétés spectrales de la NTE.
    Dans cet exposé, je décrirai formellement la dynamique du processus de branchement des neutrons, ainsi qu'une représentation de Feynman Kac associée. Je discuterai ensuite de la façon dont cette dernière peut être utilisée pour analyser le comportement à long terme des processus de fission nucléaire et comment nous pouvons l'utiliser pour développer des algorithmes pour simuler de tels processus.
  • Le 15 avril 2021 à 11:00
  • Salle de Conférences
    Arthur Leclaire (IMB)
    On the differential properties of WGAN-like problems
    The problem of WGAN (Wasserstein Generative Adversarial Network) learning is an instance of optimization problems where one wishes to find, among a parametric class of distributions, the one which is closest to a target distribution in terms of optimal transport (OT) distance. Applying a gradient-based algorithm for this problem requires to express the gradient of the OT distance with respect to one of its argument, which is related to the solutions of the dual problem (Kantorovich potentials). The first part of this talk aims at finding conditions that ensure the existence of such gradient. After discussing regularity issues that may appear with discrete target measures, we will show that regularity problems are avoided when using entropy-regularized OT. In the second part, we will see how these gradients can be exploited in a stable way to address some imaging problems where the target discrete measure is reasonably large. In particular, using OT distances between multi-scale patch distributions, this allows to estimate a generative convolutional network that can synthesize an exemplar texture in a faithful and very efficient way.This is a joint work with Antoine Houdard, Nicolas Papadakis and Julien Rabin.
  • Le 29 avril 2021 à 11:00
  • Salle de Conférences
    Derek Driggs (CIA, University of Cambridge)
    Barriers to deploying deep learning models in healthcare
    A promising application for deep learning models is in assisting clinicians with interpreting X-ray and CT scans, especially when treating respiratory diseases. At the onset of the COVID-19 pandemic, radiologists had to quickly learn how to identify a new disease on chest X-rays and CT scans, and use this information to decide how to allocate scarce resources like ventilators. Researchers around the world developed deep learning models to help clinicians with these decisions, and some models were deployed after only three weeks of testing.
    Our group reviewed over 1,000 studies that introduce deep learning models for interpreting chest X-rays or CT scans of COVID-19 patients to determine which models, if any, have the potential to help clinicians during the pandemic. In this talk, I will present our findings and discuss how this pandemic could inform researchers creating deployable deep learning models in healthcare.
    This talk is based on the paper [1].
    [1] Roberts, M., Driggs, D., and the AIX-COVNET Collaboration. 'Common pitfalls and recommendations for using machine learning to detect and prognosticate for COVID-19 using chest radiographs and CT scans”. Nat. Mach. Intel. 3, 199–217 (2021).
  • Le 6 mai 2021 à 11:00
  • Salle de Conférences
    Jonathan Vacher (LSP, ENS Ulm)
    Texture Interpolation for Probing Visual Perception
    Texture synthesis models are important tools for understanding visual processing. In particular, statistical approaches based on neurally relevant features have been instrumental in understanding aspects of visual perception and of neural coding. New deep learning-based approaches further improve the quality of synthetic textures. Yet, it is still unclear why deep texture synthesis performs so well, and applications of this new framework to probe visual perception are scarce. Here, we show that distributions of deep convolutional neural network (CNN) activations of a texture are well described by elliptical distributions and therefore, following optimal transport theory, constraining their mean and covariance is sufficient to generate new texture samples. Then, we propose the natural geodesics (ie the shortest path between two points) arising with the optimal transport metric to interpolate between arbitrary textures. Compared to other CNN-based approaches, our interpolation method appears to match more closely the geometry of texture perception, and our mathematical framework is better suited to study its statistical nature. We apply our method by measuring the perceptual scale associated to the interpolation parameter in human observers, and the neural sensitivity of different areas of visual cortex in macaque monkeys.
  • Le 10 juin 2021 à 11:00
  • Salle de Conférences
    Nicoletta Prencipe (IMB)
    Relativité et perception des couleurs : une première application au traitement d'image
    La perception de la couleur est un processus basé sur la dualité entre contexte de mesure et appareil d'observation. C'est donc aussi un phénomène relatif aux conditions de mesure.Cette idée est à la base de l'utilisation des outils mathématiques de la mécanique quantique et de la relativité restreinte dans la modélisation de l'espace des couleurs perçues.Je vais introduire le cadre axiomatique du modèle quantique de la perception de la couleur à partir duquel on obtient de façon naturelle une théorie relativiste de la perception chromatique, justifiée de façon heuristique par Yilmaz en 1962. Le rôle de l'information identifiée comme achromatique est décisif, il est lié à la définition du concept d'observateur adapté et à la maximisation de l'entropie de von Neumann. En particulier une conséquence du caractère relativiste du modèle est qu'il est possible de modéliser les changements d'observateurs adaptés à différents illuminants par des transformations caractéristiques de la relativité restreinte : les boosts de Lorentz. J'expliquerai comment utiliser ces résultats pour la correction des couleurs dans un algorithme de balance des blancs.
  • Le 16 septembre 2021 à 11:00
  • Salle de Conférences
    Elsa Cazelles (CNRS, IRIT)
    A novel notion of barycenter for probability distributions based on optimal weak mass transport.
    We introduce weak barycenters of a family of probability distributions, based on the recently developed notion of optimal weak transport of mass. We provide a theoretical analysis of this object and discuss its interpretation in the light of convex ordering between probability measures. In particular, we show that, rather than averaging in a geometric way the input distributions, as the Wasserstein barycenter based on classic optimal transport does, weak barycenters extract common geometric information shared by all the input distributions, encoded as a latent random variable that underlies all of them. We also provide an iterative algorithm to compute a weak barycenter for a finite family of input distributions, and a stochastic algorithm that computes them for arbitrary populations of laws. The latter approach is particularly well suited for the streaming setting, i.e., when distributions are observed sequentially.
  • Le 23 septembre 2021 à 11:00
  • Salle de Conférences
    Lucile Laulin (IMB)
    La marche aléatoire de l’éléphant et sa version renforcée
    La marche aléatoire de l’éléphant est un processus introduit au début des années 2000 en physique statistique. Il s'agit d'une marche aléatoire avec un paramètre de mémoire, a priori non-markovienne, et telle que la loi de chaque nouveau pas dépend de tous les pas précédents. On explicitera une approche martingale qui permet d’obtenir de nombreux résultats en dimension 1 ainsi qu'en dimension supérieure. On présentera ensuite une généralisation de la marche de l’éléphant avec un renforcement de la mémoire qu’on étudiera toujours à l’aide de martingales. Enfin on expliquera le lien entre un modèle généralisé d'urnes de Pólya et la marche de l’éléphant qui permet de retrouver certains des résultats présentés.
  • Le 7 octobre 2021 à 11:00
  • Salle 2
    Laurent Jacques (UCLouvain)
    Interferometric Lensless Endoscopy: Rank-one Projections of Image Frequencies with Speckle Illuminations
    Lensless endoscopy (LE) with multicore fibers (MCF) enables fluorescent imaging of biological samples at cellular scale. In this talk, we will see that under a common far-field approximation, the corresponding imaging process is tantamount to collecting multiple rank-one projections (ROP) of an Hermitian 'interferometric' matrix--a matrix encoding a subsampling of the Fourier transform of the sample image. Specifically, each ROP of this matrix is achieved with the complex vector shaping the incident wavefront (using a spatial light modulator), and, for specific MCF core arrangements, the interferometric matrix collects as many image frequencies as the square of the core number. When the SLM is configured randomly, this combined sensing viewpoint allows us to characterize the sample complexity of the system. In particular, by inspecting the separate dimensional conditions ensuring the specific restricted isometry properties of the two composing sensing models in the observation of sparse images, we show that a basis pursuit denoising (BPDN) program associated with an $\ell_1$-fidelity cost provably provides a stable and robust image estimate. Finally, preliminary numerical experiments demonstrate the effectiveness of this imaging procedure.
    This is an ongoing research made in collaboration with Olivier Leblanc (UCLouvain, Belgium), Siddharth Sivankutty (Cailabs, Rennes, Brittany, France), and Hervé Rigneault (Institut Fresnel, Marseille, France).
  • Le 21 octobre 2021 à 09:00
  • Salle 1
    Demie-journée de Rentrée de l'équipe IOP

  • Le 18 novembre 2021 à 11:00
  • Salle de Conférences
    Émilie Chouzenoux (Inria Saclay, en distanciel)
    Unfolding proximal algorithms
    We show in this talk how proximal algorithms, which constitute a powerful class of optimization methods, can be unfolded under the form of deep neural networks. This yields to improved performance and faster implementations while allowing to build more explainable, more robust, and more insightful neural network architectures. Application examples in the domain of image restoration will be provided.
  • Le 25 novembre 2021 à 14:00
  • Salle de Conférences
    Christian Léonard (Université Paris Nanterre)
    Transport optimal entropique, retournement de temps et transport optimal (usuel). Séminaire commun Analyse - IOP
    Felix Otto a découvert il y a une vingtaine d'années que le transport optimal quadratique sur une variété riemannienne M permet de définir la géométrie de Wasserstein sur l'espace des probabilités P(M) sur M. Les ingrédients de base de cette géométrie sont les interpolations par déplacement de McCann qui sont construites en remontant les géodésiques de M sur P(M) et jouent le rôle de géodésiques sur P(M). Si l'on remplace dans cette construction les géodésiques de M par des ponts browniens, on obtient naturellement une nouvelle notion d'interpolations sur P(M) : les interpolations entropiques. On sait qu'en faisant décroître la température des ponts brownien vers zéro on retrouve à la limite les interpolations par déplacement. Sans surprise, le retournement du temps de certains processus stochastiques associés aux interpolations entropiques (les ponts de Schrödinger) permet de quantifier l'écart énergétique entre les interpolations entropiques et leurs limites de McCann. Quelques conséquences bien établies et heuristiques du retournement du temps des ponts de Schrödinger seront présentées.
  • Le 2 décembre 2021 à 11:00
  • Salle de Conférences
    Titouan Vayer (ENS Lyon)
    Less is more ? How Optimal Transport can help for compressive learning
    Nowadays large-scale machine learning faces a number of fundamental computational challenges, triggered by the high dimensionality of modern data and the increasing availability of very large training collections. These data can also be of a very complex nature, such as those described by the graphs that are integral to many application areas. In this talk I will present some solutions to these problems. I will introduce the Compressive Statistical Learning (CSL) theory, a general framework for resource-efficient large scale learning in which the training data is summarized in a small single vector (called sketch) that captures the information relevant to the learning task. We will show how Optimal Transport (OT) can help us establish statistical guarantees for this type of learning problem. I will also show how OT can allow us to obtain efficient representations of structured data, thanks to the Gromov-Wasserstein distance. I will address concrete learning tasks on graphs such as online graph subspace estimation and tracking, graphs partitioning, clustering and completion.
  • Le 16 décembre 2021 à 11:00
  • Salle de Conférences
    Jérôme Stenger (Université Toulouse 3)
    Optimal Uncertainty Quantification of a Risk Measurement
    Uncertainty quantification in a safety analysis study can be conducted by considering the uncertain inputs of a physical system as a vector of random variables. The most widespread approach consists in running a computer model reproducing the physical phenomenon with different combinations of inputs in accordance with their probability distribution. Then, one can study the related uncertainty on the output or estimate a specific quantity of interest (QoI). Because the computer model is assumed to be a deterministic black-box function, the QoI only depends on the choice of the input probability measure. It is formally represented as a scalar function defined on a measure space. We propose to gain robustness on the quantification of this QoI. Indeed, the probability distributions characterizing the uncertain input may themselves be uncertain. For instance, contradictory expert opinion may make it difficult to select a single probability distribution, and the lack of information in the input variables inevitably affects the choice of the distribution. As the uncertainty on the input distributions propagates to the QoI, an important consequence is that different choices of input distributions will lead to different values of the QoI. The purpose of this work is to account for this second level uncertainty. We propose to evaluate the maximum of the QoI over a space of probability measures, in an approach known as optimal uncertainty quantification (OUQ). Therefore, we do not specify a single precise input distribution, but rather a set of admissible probability measures defined through moment constraints. In the case where the QoI is a quasi-convex function, it is then optimized over this measure space. After exposing theoretical results showing that the optimization domain of the QoI can be reduced to the extreme points of the measure space, we present several interesting quantities of interest satisfying the assumption of the problem.
  • Le 6 janvier 2022 à 11:00
  • Salle 285
    Stéphane Dartois
    Entanglement criteria for the bosonic and fermionic induced ensembles
    We introduce the bosonic and fermionic ensembles of density matrices and study their entanglement. In the fermionic case, we show that random bipartite fermionic density matrices have non-positive partial transposition, hence they are typically entangled. The similar analysis in the bosonic case is more delicate, due to a large positive outlier eigenvalue. We compute the asymptotic ratio between the size of the environment and the size of the system Hilbert space for which random bipartite bosonic density matrices fail the PPT criterion, being thus entangled. We also relate moment computations for tensor-symmetric random matrices to evaluations of the circuit-counting and interlace graph polynomials for directed graphs.
  • Le 13 janvier 2022 à 11:00
  • Salle de Conférences
    Kilian Raschel
    Probabilités de persistance et polynômes de Mallows-Riordan
    Etant donnée une suite de variables aléatoires réelles X(1), X(2), etc., sa probabilité de persistance est la probabilité que les n premières variables soient toutes positives. Intéressantes du seul point de vue mathématique, ces quantités ont aussi beaucoup d'applications en physique. Dans cet exposé nous étudierons le cas où la suite de variables est auto-regressive d'ordre 1, c'est-à-dire lorsque X(n+1)=a*X(n)+U(n+1). Dans ce contexte, a est un paramètre et les variables U(1), U(2), etc., sont appelées innovations et forment une suite de variables indépendantes et identiquement distribuées. Le plus souvent, seules des estimées asymptotiques sont obtenues sur la persistance. Dans ce travail en commun avec Gerold Alsmeyer (Münster), Alin Bostan (Inria Saclay) et Thomas Simon (Lille), nous considérons le cas particulier où les U(1), U(2), etc., suivent des lois uniformes sur un intervalle. Nous montrons un lien surprenant entre les probabilités de persistance associées et une famille de polynômes bien connue en combinatoire : les polynômes de Mallows-Riordan. De cette connexion nous déduisons un dictionnaire entre identités combinatoires sur les polynômes de Mallows-Riordan et propriétés probabilistes du modèle de persistance.
  • Le 13 janvier 2022 à 11:00
  • Salle de Conférences
    Slim Kammoun
    Mots de permutations invariantes
    Soient $w$ un mot du groupe libre $F_k=$ et $w(\sigma_1,\dots,\sigma_k)$ la permutation obtenue en remplaçant $x_i$ par $\sigma_i$ dans $w$. Il est connu que si $\sigma_1, \dots,\sigma_k$ sont des i.i.d uniformes, alors la trace non normalisée de $w(\sigma_1,\dots,\sigma_k)$ converge vers une limite qui ne dépend que du maximum des $d$ tels que il existe $\Omega\in F_k$ tel que $w=\Omega^d$. On s'intéresse au cas où les permutations sont non-uniformes (mais invariantes par conjugaison), les mêmes limites apparaissent sous des conditions sur les petits cycles. L'étude du cas non-uniforme est naturel et est motivée par une conjecture de Bukh et Zhou sur l'espérance de la longueur de la plus longue sous suite commune de deux permutations i.i.d.
  • Le 13 janvier 2022 à 14:00
  • Salle 1
    Jean François Marckert
    Un candidat pour la carte Brownienne en dimension supérieure : les feuilletages aléatoires
    La recherche d'un analogue de la carte Brownienne en dimension supérieure (pour des motivations physiques, notamment) passe souvent par la recherche d'un modèle analogue aux cartes combinatoires faisant intervenir des briquesde bases ayant elles mêmes une dimension >2: par exemple, modèle de 'collages de polyhèdres', modèles de tenseurs, etc. Pour l'instant ces méthodes marchent mal, dans le sens où les limites d'échelle de ces modèles discrets n'ont pas les propriétés espérées.On introduit une façon de procéder totalement différente: le feuilletage. Il s'agit, de produire une suite d'objets ( A_k, k geq 0) (cette construction étant similaire en discret et en continu), où A_{k+1} est obtenu depuis A_k en identifiant des points aléatoires de A_k. La construction, dans le cadre continu, est paramétrée de sorte qu'A_0, A_1, A_2 sont 3 objets importants: le cercle déterministe, l'arbre continu d'Aldous, la carte Brownienne. On discutera de la construction et des A_i suivant.Il s'agit d'un exposé consistant à davantage présenter des principes que des détails, et il devrait être accessible au plus grand nombre. Travail commun avec Luca Lionni
  • Le 13 janvier 2022 à 15:00
  • Salle 1
    Bernard Bercu
    Promenade sur des permutations aléatoires
    L'objectif de cet exposé est de montrer comment la théorie des martingales permet de retrouver de manière simple ou de prouver de nouveaux résultats sur les permutations aléatoires. On fera une étude approfondie du nombre de descentes. On parlera également de pics et d'oscillations.
  • Le 20 janvier 2022 à 11:00
  • Salle de Conférences
    Joseph de Vilmarest
    Stochastic Online Optimization using Kalman Recursion
    We present an analysis of the Extended Kalman Filter (EKF) in a degenerate setting called static. It has been remarked that in this setting the EKF can be seen as a gradient algorithm. Therefore, we study the static EKF as an online optimization algorithm to enrich the link between bayesian statistics and optimization.We propose a two-phase analysis. First, for Generalized Linear Models, we obtain high probability bounds on the cumulative excess risk, under the assumption that after some time the algorithm is trapped in a small region around the optimum. Second, we prove that « local » assumption for linear and logistic regressions, slightly modifying the algorithm in the logistic setting.This is a joint work with Olivier Wintenberger.
  • Le 3 février 2022 à 11:00
  • Salle de Conférences
    Fabrice Grela
    Minimax detection and localisation of an abrupt change in a Poisson process
    Considering a Poisson process observed on a bounded, fixed interval, we are interested in the problem of detecting an abrupt change in its distribution, characterized by a jump in its intensity. Formulated as an off-line change-point problem, we address two questions : the one of detecting a change-point and the one of estimating the jump location of such change-point. This study aims at proposing a non-asymptotic minimax testing set-up, first to construct a minimax and adaptive detection procedure and then to give a minimax study of a multiple testing procedure designed for simultaneously detect and localise a change-point.
  • Le 10 février 2022 à 11:00
  • Salle de Conférences
    Claire Delplancke
    Un algorithme primal-dual stochastique et ses applications à la reconstruction d’images pour la tomographie à émission de positrons
    L’algorithme SPDHG (Stochastic Primal-Dual Hybrid Gradient) est une version stochastique de l’algorithme PDHG (Primal-Dual Hybrid Gradient) développé par Chambolle et Pock, utilisé dans le cadre de problèmes inverses où le terme d’attache aux données et le régulariseur sont convexes mais pas nécessairement lisses. Grâce à sa composante randomisée, SPDHG permet de ne réaliser que des évaluations partielles de l’opérateur direct et de son adjoint. Cela en fait un algorithme particulièrement adapté à la tomographie à émission de positrons (PET), où le principal frein à l’adoption pratique de méthodes itératives sophistiquées est le coût computationnel des projections. Je présenterai un résultat de convergence pour SPDHG ainsi que des applications, en particulier liées à la question du choix du pas, sur des jeux de données PET réels et simulés.
  • Le 10 mars 2022 à 11:00
  • Salle de Conférences
    Reda Chhaibi
    Free Probability, Newton lilypads and hyperbolicity of Jacobians as a solution to the problem of tuning the architecture of neural networks
    Gradient descent during the learning process of a neural network can be subject to many instabilities. The spectral density of the Jacobian is a key component for analyzing robustness. Following the works of Pennington et al., such Jacobians are modeled using free multiplicative convolutions from Free Probability Theory (FPT). We present a reliable and very fast method for computing the associated spectral densities. This method has a controlled and proven convergence. Our technique is based on an homotopy method: it is an adaptative Newton-Raphson scheme which chains basins of attraction. We find contiguous lilypad-like basins and step from one to the next, heading towards the objective. In order to demonstrate the applicability of our method we show that the relevant FPT metrics computed before training are highly correlated to final test losses – up to 85%. We also give evidence that a very desirable feature for neural networks is the hyperbolicity of their Jacobian at initialization.
  • Le 23 mars 2022 à 11:00
  • Salle de Conférences
    Pas de séminaire
    NA
    NA
  • Le 24 mars 2022 à 11:00
  • Salle de Conférences
    Antoine Mouzard
    Chemins rugueux, calcul paracontrôlé et ED(P)S
    Dans cet exposé, on présentera les théories des chemins rugueux de Lyons et des chemins contrôlés de Gubinelli, introduites pour la résolution des Équations Différentielles Stochastiques (EDS). On expliquera ensuite comment ces idées ont été étendues à la résolution des Équations aux Dérivées Partielles Stochastiques (EDPS) singulières à l'aide du calcul paracontrôlé. Enfin, on donnera quelques exemples de modèles aléatoires décrits par de telles équations.
  • Le 27 avril 2022 à 11:00
  • Salle de Conférences
    Pas de séminaire (Journées proba-stat fédération Margaux)
    NA
    NA
  • Le 5 mai 2022 à 11:00
  • Salle de Conférences
    Jérémie Bigot
    Modèles mathématiques sur l’influence de la taille de la couche cachée dans des réseaux de neurones à 2 couches - Approches par matrices aléatoires ou par flots de gradient et transport optimal.
    Comprendre l’influence de la taille des couches cachées dans la capacité de généralisation des modèles de réseaux de neurones est une question qui a suscité de très nombreux travaux. Dans cette série d’exposés, nous proposons de présenter quelques modèles mathématiques pour répondre à cette problématique qui se basent soit sur la théorie des matrices aléatoires et des probabilités libres, soit sur la théorie des flots de gradient dans l’espace de Wasserstein et les outils du transport optimal de mesures. Nous espérons ainsi débuter un groupe de travail autour de ces modèles dont de nombreux aspects peuvent intéresser la communauté de recherche en mathématiques appliquées à Bordeaux.
  • Le 12 mai 2022 à 11:00
  • Salle de Conférences
    Paul Freulon
    Some statistical insights into entropy regularized Wasserstein estimators, through weights estimation in a mixture model
    In 2013, Marco Cuturi introduced an entropic regularized version of the Wasserstein distance. Due to its computational advantages, this regular- ized version of the Wasserstein distance is now a popular tool in statistics to compare probability distributions, or point clouds. In 2017, Arjovsky et al. proposed with Wasserstein-GANs, to minimize the Wasserstein dis- tance among a class of parameterized distributions, and an empirical prob- ability distribution; this is an example of Wasserstein estimation method. In this talk, I will discuss the use of the regularized Wasserstein distance to perform Wasserstein estimation. Motivated by a bio-statistical appli- cation, we propose to find among mixture distributions parameterized by their weights, the closest to an empirical probability distribution with re- spect to the regularized Wasserstein distance. Through this example of Wasserstein estimator, I will discuss the influence of the regularization parameter on the statistical properties of Wasserstein estimators. It is a joint work with Jérémie Bigot, Boris Hejblum and Arthur Leclaire.
  • Le 19 mai 2022 à 11:00
  • Salle de Conférences
    Jérémie Bigot
    Modèles mathématiques pour les réseaux de neurones 2
    Suite du groupe de travail
  • Le 9 juin 2022 à 11:00
  • Salle de Conférences
    Ugo Tanielian (Criteo)
    Generative Adversarial Networks: understanding optimality properties of Wasserstein GANs
    Generative Adversarial Networks (GANs) were proposed in 2014 as a new method efficiently producing realistic images. Since their original formulation, GANs have been successfully applied to different domains of machine learning: video, sound generation, and image editing. However, our theoretical understanding of GANs remains limited.
    In this presentation, we will first define the overall framework of GANs and illustrate their main applications. Then, we will focus on a cousin approach called Wasserstein GANs (WGANs). This formulation based on the well-known Wasserstein distance has been validated by many empirical studies and brings stabilization in the training process. Finally, motivated by the important question of characterizing the geometrical properties of WGANs, we will show that for a fixed sample size, optimality for WGANs is closely linked with connected paths minimizing the sum of the squared Euclidean distances between the sample points.
  • Le 29 septembre 2022 à 11:00
  • Salle 2
    Joseph Lehec
    A préciser
    A préciser
  • Le 6 octobre 2022 à 11:00
  • Salle 2
    Yiye Jiang
    Wasserstein Multivariate Autoregressive Models for distributional time series
    In this work, we propose a new autoregressive model for multivariate distributional time series. We consider a collection of N series of probability measures supported over a bounded interval in R, which are indexed by distinct time instants. Especially, we wish to develop such a model which can identify the dependency structure in the temporal evolution of the measures. To this end, we adopt the Wasserstein metric. We establish the regression model in the Tangent space of the Lebesgue measure by first 'centering' all the raw measures so that their Fréchet means turn Lebesgue. The uniqueness and stationarity results are provided. We also propose a consistent estimator for the model coefficient. In addition to the simulated data, the proposed model is illustrated on two real data sets: age distribution of countries and the bike sharing network in Paris.
  • Le 13 octobre 2022 à 11:00
  • Salle de Conférences
    Guillaume Dubach
    Une dynamique de chaises musicales sur des valeurs propres
    Je présenterai un modèle de matrices aléatoires faiblement non-Hermitiennes dont les valeurs propres décrivent une dynamique de 'chaises musicales': après être passées de la droite réelle au demi-plan supérieur, l'une d'entre elles s'échappe irrémédiablement, tandis que les autres s'alignent à nouveau sur la droite réelle. Nous verrons notamment après combien de temps il est possible de distinguer avec quasi-certitude la valeur propre 'perdante'. Travail en collaboration avec László Erdös.
  • Le 20 octobre 2022 à 11:00
  • Salle de Conférences
    Thomas Simon
    Temps de passage de certaines chaînes auto-régressives
    On considère une suite auto-régressive d'ordre 1 avec des innovations continues et symétriques, et son premier temps de passage au-dessus de zéro. On montre deux factorisations remarquables des fonctions génératrices de ce temps de passage en fonction du signe du paramètre de dérive. La première factorisation étend un résultat classique de Sparre Andersen sur les marches aléatoires symétriques et continues. Dans le cas des innovations uniformes, on établit un lien étonnant entre la loi du temps de passage et les polynômes énumérateurs de Mallows-Riordan. Travail avec Gerold Alsmeyer, Alin Bostan et Kilian Raschel.
  • Le 27 octobre 2022 à 11:00
  • Salle 2
    Luis Frédès
    Chaînes de Markov presque triangulaires sur ℕ
    Une matrice de transition U sur ℕ est dite presque triangulaire supérieure si U(i,j)≥0⇒j≥i-1, de sorte que les incréments des chaînes de Markov correspondantes sont au moins -1 ; une matrice de transition L sur ℕ est dite presque triangulaire inférieure si L(i,j)≥0⇒j≤i+1, et alors, les incréments des chaînes de Markov correspondantes sont au plus +1. Dans cet exposé, je caractériserai la récurrence, la récurrence positive et la distribution invariante pour la classe des matrices de transition presque triangulaires. Ces résultats englobent le cas des processus de naissance et de mort (BDP), qui sont des chaînes de Markov célèbres étant simultanément presque triangulaires supérieures et presque triangulaires inférieures. Leurs propriétés ont été étudiées dans les années 50 par Karlin & McGregor dont l'approche repose sur des connexions profondes entre la théorie des BDP, les propriétés spectrales de leurs matrices de transition, le problème des moments, et la théorie des polynômes orthogonaux. Notre approche est principalement combinatoire et utilise des méthodes algébriques élémentaires. Travail en commun avec J.F. Marckert.
  • Le 10 novembre 2022 à 11:00
  • Salle de Conférences
    Camille Male (IMB)
    Une Introduction aux Probabilités libres

  • Le 17 novembre 2022 à 11:00
  • Salle de Conférences
    Frédéric Barraquand
    Séance reportée

  • Le 24 novembre 2022 à 11:00
  • Salle 1
    Guillaume Blanc
    Propriétés fractales de la métrique aléatoire d'Aldous-Kendall
    On considère la métrique aléatoire construite par Kendall sur $\mathbb{R}^d$ à partir d'un Processus de Poisson de routes auto-similaire, où une route est une droite avec une limitation de vitesse. Intuitivement, le processus fournit un réseau de routes dans $\mathbb{R}^d$, sur lequel on peut se déplacer en respectant les limitations de vitesse ; et cela induit une métrique aléatoire $T$ sur $\mathbb{R}^d$, pour laquelle la distance entre les points est donnée par le temps de trajet optimal.Dans cet exposé, je présenterai les propriétés fractales de l'espace métrique aléatoire $\left(\mathbb{R}^d,T\right)$. En particulier, bien que presque sûrement il soit homéomorphe à l'espace euclidien $\mathbb{R}^d$, sa dimension de Hausdorff est donnée par la constante $(\gamma-1)d/(\gamma-d)$, où $\gamma>d$ est un paramètre du modèle.Cette propriété fractale, que l'on retrouve dans d'autres modèles en géométrie aléatoire comme celui de la sphère brownienne, confirme une conjecture de Kahn.Si le temps le permet, je parlerai du caractère multifractal de l'espace métrique $\left(\mathbb{R}^d,T\right)$ muni de la mesure de Lebesgue, qui en particulier le distingue de la sphère brownienne munie de sa mesure volume.
  • Le 1er décembre 2022 à 11:00
  • Salle de Conférences
    Camille Male
    Introduction aux Probabilités Libres 2
    Dans la séance précédente, j'ai défini les variables aléatoires non commutatives ainsi que trois notions d'indépendance non commutatives. Dans la prochaine séance, je vais introduire la notion de 'cumulants' qui permet d'avoir des expressions très similaires pour caractériser ces libertés. J'énoncerai également les théorèmes centraux limites relatifs aux différentes notions d'indépendance.
  • Le 8 décembre 2022 à 11:00
  • Salle de Conférences
    Céline Bonnet
    Impact d'une dynamique de 'rescue'(sauvetage) sur la répartition de mutations neutres dans une population cellulaire branchante.
    On s'intéresse à un processus de branchement bitype. Le premiertype représente une population de cellule sensible à un traitement(processus souscritique initialement en grande population, d'ordreN>>1). Chaque cellule sensible a une probabilité, d'ordre 1/N, dedevenir résistante à chaque division.De plus à chaque division les cellules sensibles et résistantes héritentdes mutations neutres de leur mère et d'un nombre aléatoire de mutationsneutres supplémentaires.Dans cette dynamique dite de rescue (initialement on suppose qu'il n'y aque des cellules sensibles), on décrit l'espérance du site frequencyspectrum de la population de résistantes à un temps d'ordre log(N).(Ps : Le site frequency spectrum décrit le nombre de mutations portéespar i cellules à un certain temps. Mutations neutres désignent desmutations qui n'influencent pas la dynamique de la population.)
  • Le 15 décembre 2022 à 09:45
  • Salle de Conférences
    Ulugbek Kamilov (Washington University in St Louis)
    Plug-and-Play Models for Large-Scale Computational Imaging
    TBA
  • Le 15 décembre 2022 à 11:00
  • Salle de Conférences
    Magalie Bénéfice
    Couplages de mouvements browniens en géométries sous-riemanniennes
    La construction de couplages sur différents types de variétés est un outil permettant d'obtenir de nombreux résultats en analyse, probabilité et géométrie. Les couplages de mouvements browniens permettent par exemple des estimations de gradients pour le semi-groupe de la chaleur et des inégalités de type Poincarré et Sobolev. On peut notamment recenser deux types de couplages pouvant amener à de telles inégalités: - Les couplages (X_t,Y_t) de diffusions partant de x et y respectivement vérifiant des inégalités du type $E[d(X_t,Y_t)]<= C(t) d(x,y)$;- Les couplages dits 'avec succès' qui se rencontrent en un temps presque surement fini. Dans cet exposé je me concentrerai sur les couplages avec succès. Après une présentation des couplages de bases sur $R^n$, je présenterai la structure sous-riemanienne du groupe d'Heisenberg, ainsi que de $SU(2,\mathbb{C})$ et $SL(2,\mathbb{R}$. Je présenterai ensuite une méthode de couplages avec succès proposée ces dernières années sur le groupe d'Heisenberg. Enfin, j'expliquerai comment ce modèle peut s'étendre (ou pas) à d'autres variétés sous-riemanniennes.
  • Le 12 janvier 2023 à 11:00
  • Salle de Conférences
    Hippolyte Labarriere
    Automatic FISTA restart
    We propose a restart scheme for FISTA (Fast Iterative Shrinking-Threshold Algorithm). This method which is a generalization of Nesterov's accelerated gradient algorithm is widely used in the field of large convex optimization problems and it provides fast convergence results under a strong convexity assumption. These convergence rates can be extended for weaker hypotheses such as the Lojasiewicz property but it requires prior knowledge on the function of interest. In particular, most of the schemes providing a fast convergence for non-strongly convex functions satisfying a quadratic growth condition involve the growth parameter which is generally not known. Recent works show that restarting FISTA could ensure a fast convergence for this class of functions without requiring any knowledge on the growth parameter. We improve these restart schemes by providing a better asymptotical convergence rate and by requiring a lower computation cost. We present numerical results emphasizing the efficiency of this method. D'accord je m'occupe vite d'organiser mon séjour!
  • Le 26 janvier 2023 à 11:00
  • Salle de Conférences
    Vanessa Piccolo
    A préciser
    A préciser
  • Le 16 mars 2023 à 11:00
  • Salle de Conférences
    Guy Gilboa (Technion)
    Séminaire IOP
    TBA

    Les séminaires à partir de 2016