Le 30 octobre dernier, à la veille de l‘AI Safety Summit, Joe Biden a émis un décret présidentiel historique visant à garantir que “les Etats-Unis soient à l’avant-garde pour saisir les opportunités et gérer les risques de l’intelligence artificielle”. En assurant la sûreté, la sécurité et la transparence des systèmes d’IA, tout en promouvant un écosystème d’IA innovant et compétitif, le gouvernement américain entend protéger la vie privée des citoyens, favoriser l’équité et les droits civils et soutenir les consommateurs et les travailleurs.
Joe Biden, pour qui l’encadrement de l’IA est une nécessité, déclarait le même jour sur son compte X :
“Aujourd’hui, j’ai signé un décret présidentiel qui représente la mesure la plus significative que tout gouvernement ait jamais prise en matière de sécurité, de sûreté et de confiance envers l’intelligence artificielle.
Je suis déterminé à mettre en œuvre tout ce qui est en mon pouvoir pour promouvoir et exiger une innovation responsable”.
Ce décret s’appuie sur les actions précédentes prises par le Président et sur les engagements volontaires de grandes entreprises d’IA générative à mettre en place de nouvelles normes de sûreté, de sécurité et de confiance afin de soutenir le développement d’une IA responsable.
Nouvelles normes pour la sécurité et la sûreté de l’IA
Pour ce décret, Joe Biden a invoqué la loi sur la production de défense de 1950, comme il l’avait déjà fait à plusieurs reprises notamment lors de la pandémie ou pour augmenter la production de minéraux critiques. Elle lui permet d’exiger que les entreprises développant des systèmes de fondation, qui présentent un risque sérieux pour la sécurité nationale, la sécurité économique nationale, ou la santé publique nationale, partagent leurs résultats de tests de sécurité et d’autres informations critiques avec le gouvernement américain.
L’Institut national des normes et de la technologie, le NIST, est chargé de fixer les normes pour ces tests. Le département de la sécurité intérieure les appliquera aux secteurs des infrastructures critiques via une nouvelle agence fédérale, le “Comité de sécurité et de sûreté de l’IA”. Les départements de l’énergie et de la sécurité intérieure, de leur côté, traiteront des menaces que les systèmes d’IA font peser sur les infrastructures critiques, ainsi que des risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité.
Protection de la vie privée
L’IA peut accroître les risques pour la vie privée des Américains, car elle facilite l’extraction et l’exploitation de données personnelles. Le décret appelle le Congrès à adopter une législation bipartite sur la protection des données, en particulier pour les enfants. Il encourage également le développement de techniques préservant la vie privée, de technologies cryptographiques et de directives pour évaluer l’efficacité des techniques préservant la vie privée.
Garantir le respect des droits de l’homme et des valeurs démocratiques
Le 16 février dernier, le président Biden avait signé un ordre exécutif visant à renforcer l’équité raciale et soutenir les communautés.
Ce nouveau décret fournit des orientations pour lutter contre l’utilisation irresponsable de l’IA qui peut entraîner discrimination, biais et abus dans des domaines tels que la justice, les soins de santé et le logement.
Il encourage l’utilisation responsable de l’IA pour promouvoir l’équité dans le système de justice pénale, soutient les éducateurs dans le déploiement d’outils éducatifs basés sur l’IA, et appelle à développer des principes et de meilleures pratiques pour protéger les travailleurs ainsi qu’à étudier les impacts de l’IA sur le marché du travail.
Tout comme les engagements volontaires, ces nouvelles normes restent encore vagues. L’administration Biden-Harris qui s’est engagée à développer un cadre réglementaire approprié et à collaborer avec des partenaires internationaux pour assurer une utilisation responsable et éthique de l’IA, devra pour cela recevoir l’aval du Congrès, divisé entre démocrates et républicains.