Algorithmes, Intelligence artificielle, compression Jpeg, et l’apprentissage par réseaux de neurones profonds… Autant de domaines dans lesquels Stéphane Mallat s’illustre. Mathématicien, titulaire de la chaire de Sciences de données et professeur au Collège de France, invité sur le plateau du “64 minutes le monde en français” sur TV5MONDE , il explique l’explosion de l’IA ces dernières années mais également l’utilisation des algorithmes d’apprentissage.
Stéphane Mallat n’est autre que l’inventeur du standard de compression “Jpeg 2000”, format basé sur un algorithme qu’il a créé en 1987 en s’appuyant sur la théorie mathématique des ondelettes. L’algorithme est aujourd’hui utilisé dans le monde entier pour le stockage d’images.
C’est en 2008 que Stéphane Mallat s’est penché sur l’intelligence artificielle, pour percer le secret de ses algorithmes. Son objectif était alors de comprendre mathématiquement comment ces derniers fonctionnent pour traiter les données en grande dimension. Sujet qu’il enseigne au Collège de France depuis 2017 dans le cadre de la chaire “sciences des données”.
Il y aborde des questions telles que :
“Quelle est la possibilité de développer des algorithmes automatiques ? Comment comprendre les principes mathématiques et la nature des régularités qui gouvernent les algorithmes d’apprentissage ? Comment être sûr que ces algorithmes en apprentissage ne se tromperont pas face à un cas qu’ils n’ont jamais analysé et comment comprendre dès lors la nature des régularités sous-jacentes ?
Pourquoi parler des sciences des données et quels en sont les enjeux ? Comment intervient le “mystère de la généralisation” dans ce type d’approche ? Que sont les ondelettes ? Qu’est-ce qu’un neurone en informatique ? Et comment fixe-t-on les paramètres d’un réseaux de neurones ?”
Stéphane Mallat cherche le “graal” mathématique en matière d’apprentissage profond: les groupes de symétrie.
“En mathématiques, les groupes de symétries jouent un rôle central pour décrire la structure d’un problème concernant la géométrie, les équations différentielles partielles, l’algèbre ou la théorie des nombres.
Ils sont aussi au coeur de la physique, pour caractériser la nature des interactions entre particules. Ils contiennent donc une grande richesse. Lorsque l’on réalise que des réseaux de neurones profonds ne sont pas simplement capables de reconnaître des chiens ou des chats, mais aussi de calculer l’énergie quantique de molécules, de traduire des textes, de reconnaître de la musique ou de prédire des comportements humains, on voit que la compréhension de ces groupes de symétries est un enjeu qui va bien au-delà des applications de l’apprentissage.
Si l’on parvient un jour à les spécifier, on comprendra mieux la géométrie des données en grande dimension. Or cette géométrie est sous-jacente à de très nombreux problèmes scientifiques. La comprendre est, à mon sens, le graal des sciences des données.”