Quatre des principaux acteurs de l’IA générative, Microsoft, Anthropic, Google et OpenAI, unissent leurs forces pour lancer le Frontier Model Forum, un organisme industriel dédié au développement sûr et responsable des modèles d’IA de pointe. Ce forum vise à promouvoir la recherche sur la sécurité de l’IA, identifier les meilleures pratiques pour le développement responsable des modèles avancés, partager les connaissances avec les décideurs et la société civile, et soutenir les efforts pour relever les défis sociétaux les plus urgents grâce à l’IA.
Anthropic, Google, Microsoft et OpenAI font partie des sept grandes entreprises qui se sont officiellement engagées devant le gouvernement Biden à mettre en place de nouvelles normes de sûreté, de sécurité et de confiance lors d’une réunion à la Maison Blanche vendredi dernier.
Hier, elles ont annoncé la création du Frontier Model Forum qui s’appuiera sur leur expertise technique et opérationnelle au profit de l’ensemble de l’écosystème de l’IA, notamment en faisant progresser les évaluations techniques et les points de référence, et en développant une bibliothèque publique de solutions pour soutenir les meilleures pratiques et normes de l’industrie.
Ce nouvel organisme s’appuiera sur les contributions précédentes des gouvernements et organisations internationales sur la sécurité et l’impact social de l’IA.
Ses principaux objectifs seront de :
- Faire progresser la recherche sur la sécurité de l’IA afin de promouvoir le développement responsable de modèles exploratoires, de minimiser les risques et de permettre des évaluations indépendantes et normalisées des capacités et de la sécurité ;
- Identifier les meilleures pratiques pour le développement et le déploiement responsables de modèles de pointe, aidant le public à comprendre la nature, les capacités, les limites et l’impact de la technologie;
- Collaborer avec les décideurs, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques de confiance et de sécurité ;
- Soutenir les efforts visant à développer des applications qui peuvent aider à relever les plus grands défis de la société, tels que l’atténuation des changements climatiques et l’adaptation à ceux-ci, la détection précoce du cancer et la prévention et la lutte contre les cybermenaces.
Un club très fermé ?
Le Forum vise à se positionner comme un porte-parole éclairé et un intermédiaire essentiel entre les acteurs de l’industrie, les gouvernements et la société civile, pour promouvoir activement la sécurité et la responsabilité de l’IA.
Si les quatre membres fondateurs encouragent d’autres organisations à rejoindre l’initiative, une condition sine qua non va restreindre drastiquement leur nombre : ils devront développer “des modèles d’apprentissage automatique à grande échelle qui dépassent les capacités actuellement présentes dans les modèles existants les plus avancés et peuvent effectuer une grande variété de tâches”.
Anna Makanju, vice-présidente des affaires mondiales d’OpenAI, a ainsi déclaré :
« Les technologies avancées d’IA ont le potentiel de bénéficier profondément à la société, et la capacité à réaliser ce potentiel nécessite une surveillance et une gouvernance. Il est essentiel que les entreprises d’IA – en particulier celles qui travaillent sur les modèles les plus puissants – s’alignent sur un terrain d’entente et fassent progresser des pratiques de sécurité réfléchies et adaptables pour s’assurer que les puissants outils d’IA ont les avantages les plus larges possibles. Il s’agit d’un travail urgent et ce forum est bien placé pour agir rapidement afin de faire progresser l’état de la sécurité de l’IA ».