ANITI vient de publier un position paper sur les systèmes d’IA générative, auquel ont contribué la direction ainsi que l’ensemble des porteurs de chaire et experts IA membres de l’institut. Ce document lui permet notamment de préciser son programme de recherche sur cette technologie dans le cadre de sa stratégie sur les systèmes critiques, en particulier dans les transports et l’industrie, ainsi que sur l’IA de confiance socialement acceptable et responsable.
ANITI, Artificial and Natural Intelligence Toulouse Institute, fait partie, avec Grenoble, Nice et Paris, des quatre instituts interdisciplinaires d’intelligence artificielle (3IA) qui ont été mis en place pour une durée de 4 ans renouvelable dans le cadre du Programme Investissements d’Avenir du plan Villani.
Il compte plus de 200 chercheurs, plus de 50 partenaires et 24 chaires scientifiques.
Sa spécificité est de développer une nouvelle génération d’IA hybride, associant de façon intégrée des techniques d’apprentissage automatique à partir de données et des modèles permettant d’exprimer des contraintes et d’effectuer des raisonnements logiques.
Ses activités s’adressent principalement à la mobilité, les transports et la robotique/cobotique pour l’industrie du futur, elles reposent sur 3 grands piliers : recherche scientifique, formation et contribution au développement économique.
Face à l’engouement sans précédent pour les IA génératives, suscité en bonne partie par l’arrivée de ChatGPT, ANITI a créé un groupe de travail consacré à cette thématique. Le document propose une présentation générale de l’IA générative, une analyse des domaines d’application et des impacts potentiels, et différentes pistes de recherche et d’action pour une IA générative de confiance.
Une appropriation scientifique nécessaire
Pour les auteurs, “les systèmes d’IA générative démontrent des aptitudes non anticipées et encore non expliquées, mais aussi bien trop fragiles pour leur confier des tâches essentielles. Ils renvoient à des questions scientifiques ouvertes pour expliquer leurs performances et cerner leurs limitations, ainsi qu’à des questions philosophiques profondes autour de la manière dont nous définissons l’intelligence”.
Ils se disent préoccupés par le fait que le développement des LLM soit dominé par les GAFAM et leurs filiales. Pour eux, cela soulève des questions d’indépendance nationale et de souveraineté mais surtout sur la nature des développements et l’évolution globale du domaine : “la logique industrielle privilégie naturellement le savoir-faire opérationnel au détriment de la compréhension scientifique de ce qui est mis en œuvre”.
La transparence, le contrôle et la régulation de ces systèmes sont quant à eux limités.
Anticiper et accompagner les conséquences des transformations, qu’elles soient positives ou négatives
Le document expose les risques éthiques et sociaux des LLM (dépendance accrue aux machines, désinformation, exacerbation des discriminations…) et les opportunités des transformations induites qui vont affecter tous les aspects de la vie humaine. Il appelle à anticiper, accompagner et réguler ces transformations, en s’appuyant sur les sciences sociales et comportementales et en mobilisant les 3IA qui favorisent la collaboration entre sciences humaines et sciences du numérique.
Appréhender les aspects scientifiques et mathématiques derrière l’IA générative
Les auteurs soulignent l’importance de comprendre les aspects scientifiques et mathématiques de l’IA générative, qui repose sur des systèmes d’apprentissage automatique de grande dimension et de grande complexité.
Ils rappellent les limites et les risques de ces systèmes qui ne sont ni factuels, ni rationnels, ne peuvent citer leurs sources, hallucinent parfois. Ils rappellent que ces modèles ont pu être entraînés à partir de données protégées par le droit des données personnelles, la propriété intellectuelle ou encore des règles de confidentialité, tels les secrets d’affaires.
Ils insistent donc sur la nécessité d’étudier ces problèmes avant de déployer ces systèmes dans des applications critiques, et de garantir le respect de la règle de droit et des valeurs de la société pour développer une IA acceptable et de confiance.
L’apprentissage hybride, une piste de recherche à intensifier
Le document aborde les enjeux de l’explicabilité, notamment pour les systèmes critiques, de l’énergie, de l’hybridation et de la confiance dans l’IA générative. Il plaide pour une recherche qui vise à expliquer, analyser, optimiser et combiner les systèmes d’IA générative, en s’inspirant notamment des neurosciences et de la logique. Pour les auteurs, l’apprentissage hybride, qui est au cœur d’ANITI, offre une voie de recherche qu’ils doivent poursuivre et intensifier.
Toutes ces réflexions sur l’IA générative seront approfondies et alimenteront le programme de recherche et de formation, en cours d’élaboration, de la seconde phase d’ANITI afin de contribuer à une IA de confiance, socialement utile et responsable, pour garantir son acceptabilité.
Retrouver le position paper
Auteurs :
Voici la liste des contributeurs et cosignataires, actifs dans le groupe de travail
autour des IA génératives et qui ont œuvré à la rédaction de cette note de synthèse.
Direction ANITI
Malik Ghallab : président Steering Commitee
Serge Gratton : directeur scientifique
Nicolas Viallet : directeur opérationnel
Corinne Joffre : secrétaire générale
Porteurs de chaire ANITI
Rachid Alami
Leïla Amgoud
Nicholas Asher
Jérôme Bolte
Jean-François Bonnefon
Céline Castets-Renard
Frédéric Dehais
Daniel Delahaye
Nicolas Dobigeon
Hélène Fargier
Fabrice Gamboa
Cesar Hidalgo
Jean-Bernard Lasserre
Bruno Jullien
Jean-Michel Loubès
Nicolas Mansard
Claire Pagetti
Jérôme Renault
Thomas Schiex
Thomas Serre
Joao Marques Silva
Sylvie Thiébaux
Louise Travé-Massuyès
Rufin VanRullen