Intervention de Rémi Bardenet, chercheur en IA, ce 19 mai lors du Colloquium Polaris

La communauté scientifique des chercheurs en informatique et automatique de Lille, en forte croissance ces dernières années, s’est fédérée autour de la constitution du « Colloquium Polaris ». Huit à dix fois par an, des chercheurs viennent y présenter leurs travaux. Ce 19 mai, Rémi Bardenet, chercheur CNRS à l’Université de Lille, interviendra lors du Colloquium Polaris qui aura lieu à l’amphithéâtre de l’Ircica, à Villeneuve d’Ascq. Son exposé portera sur l’amélioration de l’échantillonnage aléatoire en imposant la diversité.

Le Colloquium Polaris compte deux entités : le centre de recherche Inria Lille – Nord Europe et le laboratoire universitaire CRIStAL : Centre de Recherche en Informatique, Signal et Automatique de Lille.

Leurs chercheurs entendent enrichir la vie scientifique de leur communauté en proposant ce colloquium de dimension internationale où sont partagés des travaux de qualité dans le domaine des sciences du numérique, de l’informatique et de l’automatique, qui dépassent les frontières de leurs établissements respectifs.

Rémi Bardenet, chercheur en intelligence artificielle

Après une formation de mathématiques à l’Université de Strasbourg et un master en Machine Learning à l’ENS Cachan, Rémi Bardenet obtient un doctorat d’informatique de l’Université Paris-Sud en 2012. Sa thèse porte sur le développement de méthodes statistiques pour l’analyse des données d’une des grandes expériences actuelles de physique des particules, l’expérience Pierre Auger en Argentine.

Il déclare:

« En quelques mots, j’ai obtenu mon doctorat en novembre 2012 à l’Université Paris-Sud, en France, en travaillant avec Balázs Kégl sur les méthodes de Monte Carlo et l’optimisation bayésienne, appliquées à la physique des particules et à l’apprentissage automatique. J’ai notamment été membre de la collaboration Pierre Auger. »

Pendant son séjour postdoctoral à l’Université d’Oxford, au Royaume-Uni, Rémi Bardenet étudie les limites computationnelles des statistiques bayésiennes lorsque les données sont trop nombreuses pour être stockées en mémoire.

Il ajoute :

« J’ai ensuite rejoint le groupe de Chris Holmes à l’Université d’Oxford, au Royaume-Uni, pour travailler en tant que postdoc sur la méthode de Monte Carlo par chaîne de Markov pour les données de grande taille. Depuis, je travaille également sur les applications à la biologie computationnelle au sein du réseau scientifique 2020, dont je suis maintenant un membre émérite. »

Il rejoint ensuite le laboratoire CRIStAL de l’Université de Lille début 2015, dans l’équipe SigMA («Signaux, modèles et applications») où il travaille à un programme de recherche sur l’utilisation statistique des processus ponctuels répulsifs avec Adrien Hardy, du Laboratoire de Mathématiques Paul Painlevé de l’Université de Lille.

Avec ses collègues de l’équipe SIGMA, Rémi Bardenet a reconnu dans les outils traditionnels du traitement de signal des processus répulsifs issus de l’optique quantique, dont les propriétés statistiques permettent d’élaborer de nouveaux algorithmes de débruitage. Il continue d’explorer les connections avec le traitement du signal d’une part, et avec l’optique quantique d’autre part.

Ces travaux de recherche lui ont valu l’obtention des financements de l’ERC Starting Grant « Blackjack » de 2020 à 2025, ainsi que d’une chaire nationale d’intelligence artificielle nommée « Baccarat » de 2020 à 2024. Il a également reçu la médaille de bronze du CNRS l’an passé.

Améliorer l’échantillonnage aléatoire en imposant la diversité, thème de l’exposé

L’échantillonnage consiste à sélectionner un petit nombre d’éléments pour représenter un grand ensemble d’éléments, éventuellement infini.

Ainsi, lorsque les statisticiens se trouvent face à un ensemble de données où chaque individu est décrit par un nombre intraitable de caractéristiques, ils peuvent ne conserver parfois que les caractéristiques les plus informatives dans leur ensemble de données. Les éléments sont alors des colonnes dans une matrice de graisse et l’échantillon, un petit ensemble d’indices de colonnes.

Pour une intégration numérique, on résume une fonction par un nombre fini d’évaluations de cette fonction, qui  vont ensuite être combinées pour estimer son intégrale. Dans ce cas, l’ensemble de base est la fonction, une collection infinie de paires d’entrées-sorties, et l’échantillon est le petit ensemble d’évaluations de la fonction.

Rémi Bardenet s’intéresse à l’échantillonnage aléatoire, autrement dit aux algorithmes d’échantillonnage qui sont décrits par le tirage d’une distribution de probabilité sur des sous-ensembles d’éléments. Par exemple, l’intégration de Monte Carlo est une technique d’intégration numérique utilisant des nombres aléatoires. Alors que de nombreux algorithmes fondamentaux d’échantillonnage aléatoire tirent des éléments indépendamment les uns des autres, Rémi Bardenet se penche sur les distributions d’échantillonnage où les éléments individuels sont échantillonnés conjointement, avec la contrainte que l’échantillon résultant soit aussi diversifié que possible.

Lors du colloquium, il exposera quelques problèmes d’échantillonnage pour lesquels il a pu transformer une notion naturelle de diversité en un algorithme d’échantillonnage qui soit à la fois calculable et doté de garanties de performance statistique de pointe.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.