Le premier rapport international sur la sécurité de l'intelligence artificielle, dirigé par Yoshua Bengio et fruit de la collaboration de 96 experts internationaux, vient poser les bases d'une compréhension partagée des risques des systèmes d'IA avancés et de la manière dont ils peuvent être atténués. Inspiré par les travaux du Groupe d'experts intergouvernemental sur l'évolution du climat des Nations Unies, ce document, publié le 29 janvier dernier, contribuera à éclairer les discussions du Sommet pour l'action sur l'IA.Lors du 1er sommet sur la sécurité de l’IA, 30 pays ont convenu d’établir une compréhension scientifique et factuelle commune des risques de l’IA de pointe grâce à l’élaboration d’un rapport international, indépendant et inclusif sur les risques et les capacités de l’IA de pointe.Hôte de l'événement, le Royaume-Uni a chargé Yoshua Bengio de le superviser. Cet éminent expert en IA, lauréat du prestigieux prix Turing en 2018, professeur titulaire à l’Université de Montréal, est le fondateur et directeur scientifique de Mila, l'Institut québécois d’IA. Il a été l’un des signataires de la lettre demandant une pause dans le développement des grands modèles de fondation et a fait partie des militants pour un encadrement strict de l’IA en Europe, en amont de l’AI Act.Le second sommet, qui s'est déroulé à Séoul, s'est appuyé sur une première version provisoire de ce rapport qui fournit désormais une synthèse complète de la littérature existante sur les risques et les capacités des modèles d’IA de pointe.Il résume les preuves scientifiques sur 3 questions fondamentales :
  • Que peut faire l’IA à usage général ?
  • Quels sont les risques associés à l’IA à usage général ?
  • Quelles sont les techniques d’atténuation contre ces risques ?

Une nécessaire prise de conscience

Les systèmes d'IA à usage général, capables d’effectuer une grande variété de tâches, progressent à une vitesse inédite. Non seulement ils peuvent écrire des programmes complexes et détecter des cybervulnérabilités, mais ils atteignent également des performances comparables à celles d'experts humains en sciences fondamentales. Ces avancées s'accompagnent cependant de nouveaux risques.Rédigé par des experts provenant de 30 pays, de l’ONU, de l’UE et de l’OCDE, le rapport identifie trois catégories principales de menaces :
  • Les risques d'utilisation malveillante, incluant les cyberattaques, la propagation de désinformation ou la conception d'armes biologiques facilitée par l'IA ;
  • Les dysfonctionnements systémiques, tels que les biais algorithmiques, les erreurs de fiabilité ou la perte de contrôle sur des systèmes autonomes ;
  • Les risques systémiques, relatifs à l'impact économique et social de l'IA, notamment sur l'emploi, la protection des données personnelles et l'environnement.

Transparence et gouvernance : les enjeux clés

L'une des recommandations phares du rapport porte sur l'importance de la transparence. Mieux comprendre comment les modèles d'IA prennent leurs décisions devient un enjeu fondamental pour prévenir les abus et renforcer la confiance du public.L'avenir de la sécurité de l'IA dépend des choix politiques qui seront faits. Les chercheurs mettent en garde contre une approche attentiste et encouragent les gouvernements à adopter des mesures proactives.Yoshua Bengio souligne :"Les capacités de l’IA à usage général ont augmenté rapidement au cours des dernières années et des derniers mois. Bien que cela présente un grand potentiel pour la société, l’IA présente également des risques importants qui doivent être soigneusement gérés par les gouvernements du monde entier."Les auteurs du rapport appellent à une coopération internationale renforcée afin d'élaborer des standards de sécurité et des mécanismes de surveillance efficaces :"Étant donné que l'impact de l'IA à usage général sur de nombreux aspects de nos vies est susceptible d'être profond, et que les progrès pourraient continuer à être rapides, il est urgent de travailler vers un accord international et de mettre en place des mesures appropriées." Cependant, parvenir à un consensus mondial reste un défi. Les auteurs, qui reconnaissent leurs divergences d'opinions sur certains aspects de l'IA à usage général, concluent :"Nous continuons à être en désaccord sur plusieurs questions, mineures et majeures, concernant l'IA à usage général et ses capacités, risques et atténuations des risques. Cependant, nous considérons ce rapport comme essentiel pour améliorer notre compréhension collective de l'IA à usage général et de ses risques potentiels, et pour nous rapprocher d'un consensus et d'une atténuation efficace des risques, afin de garantir que l'humanité puisse profiter en toute sécurité des avantages de l'IA à usage général. Les enjeux sont élevés. Nous nous réjouissons de poursuivre cet effort."Le gouvernement britannique continuera d’héberger le secrétariat du rapport et Yoshua Bengio d’en assurer la présidence en 2025.Le rapport peut être consulté ici.