Sept grandes entreprises d’IA américaines : Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft et OpenAI se sont officiellement engagées devant le gouvernement Biden à mettre en place de nouvelles normes de sûreté, de sécurité et de confiance lors d’une réunion à la Maison Blanche vendredi dernier.
Au mois de mai, les dirigeants de certaines de ces entreprises avaient déjà été reçus à la Maison-Blanche, en compagnie de Sundar Pichai, PDG d’Alphabet : Sam Altman, PDG d’OpenAI, Satya Nadella, PDG de Microsoft, Dario Amodei, PDG de la start-up Anthropic. Le gouvernement leur demandait alors “d’atténuer les risques actuels et potentiels que l’IA pose aux individus, à la société et à la sécurité nationale”.
Les dirigeants de ces sept entreprises se sont engagés à respecter immédiatement trois principes fondamentaux pour l’avenir de l’IA : la sécurité, la sûreté et la confiance.
Sécurité : les entreprises se sont engagées à tester la sécurité et les capacités de leurs systèmes d’IA, à les soumettre à des tests internes et des audits externes. Ils seront ainsi évalués en fonction de leurs risques potentiels en termes de discrimination, santé, cybersécurité et de société. Elles partageront les résultats de ces évaluations avec le gouvernement et les chercheurs.
Sûreté : elles s’engagent également à renforcer la sécurité de leurs systèmes en investissant dans la cybersécurité et en protégeant les données des modèles non publiés contre les menaces internes et externes. Elles faciliteront également la découverte et le signalement de vulnérabilités par des tiers.
Confiance : les entreprises s’engagent à développer des mécanismes techniques solides pour informer les utilisateurs lorsque le contenu est altéré ou généré par l’IA, par exemple avec un système de marquage en filigrane. Elles veilleront à ce que leurs systèmes ne favorisent pas les biais et les discriminations, mais renforcent les protections de la vie privée et protègent les enfants contre les préjudices. Elles utiliseront l’IA pour relever les plus grands défis de la société, de la lutte contre le cancer au changement climatique.
Ces engagements volontaires, plutôt vagues, ne constituent qu’une première étape avant le développement et la mise en place d’obligations contraignantes nécessaires pour garantir le développement d’une IA de confiance.
L’administration Biden-Harris s’est engagée de son côté à développer un cadre réglementaire approprié et à collaborer avec des partenaires internationaux pour assurer une utilisation responsable et éthique de l’IA.