Sécurité nationale : l’administration Biden publie un mémorandum historique pour encadrer l’IA

Le 30 octobre 2023, Joe Biden a émis un décret présidentiel historique visant à garantir que les Etats-Unis soient à l’avant-garde pour saisir les opportunités et gérer les risques de l’IA. Un an plus tard, il publie le tout premier Mémorandum de Sécurité Nationale (NSM) sur l’IA, soulignant son importance pour la sécurité nationale et la politique étrangère.

Ce NSM s’appuie sur les mesures clés déjà prises par le gouvernement fédéral, y compris ce décret exécutif historique. Il part du principe que les avancées de pointe en IA auront des répercussions significatives sur la sécurité nationale américaine et sa politique étrangère dans un avenir proche.

Le NSM définit plusieurs priorités stratégiques afin que les États-Unis conservent leur position de leaders mondiaux dans le développement de l’IA. Il vise également à exploiter cette dernière pour renforcer les capacités de sécurité nationale et à favoriser un consensus international autour de normes communes pour l’utilisation de cette technologie.

Des actions concrètes pour sécuriser la chaîne d’approvisionnement et prévenir les ingérences étrangères

L’un des volets essentiels du NSM concerne le renforcement de la chaîne d’approvisionnement en semi-conducteurs, technologie indispensable au développement de systèmes avancés d’IA. S’appuyant sur la loi CHIPS, signée par Joe Biden en 2023, le NSM appelle à sécuriser et diversifier l’accès aux puces, rendant les États-Unis moins dépendants de pays étrangers et mieux armés contre les cyber-menaces.

En parallèle, le mémorandum met un accent particulier sur la protection des technologies américaines contre les tentatives de vol et d’espionnage. Des directives strictes exigent une vigilance accrue des agences de renseignement et des entités gouvernementales pour renforcer la sécurité des innovations en IA, en fournissant notamment des informations de contre-espionnage aux développeurs et aux chercheurs. Cette stratégie vise à préserver la compétitivité technologique des États-Unis face aux tentatives d’ingérence économique et technologique de pays concurrents.

L’Institut de sécurité en IA et la mobilisation de la recherche scientifique

Le NSM désigne l’Institut de Sécurité en IA comme point de contact central entre l’industrie et le gouvernement. Composé d’experts techniques, il sera chargé de faciliter les échanges et de promouvoir des pratiques rigoureuses de cybersécurité et de contre-espionnage. Le National AI Research Resource, lancé en tant que pilote, est quant à lui renforcé pour permettre à un éventail plus large d’institutions (universités, petites entreprises…), de contribuer aux avancées en IA et d’améliorer les capacités de recherche américaines.

Un cadre de gouvernance pour une IA au service de la sécurité nationale et des valeurs démocratiques

Reconnaissant le potentiel de l’IA à transformer les missions de sécurité nationale, le NSM introduit le tout premier cadre de gouvernance et de gestion des risques pour l’utilisation de l’IA dans les missions sensibles. Intitulé Framework to Advance AI Governance and Risk Management in National Security”, il introduit des directives aux agences fédérales visant à limiter les applications de l’IA qui pourraient compromettre la sécurité nationale, les droits civils ainsi que les libertés individuelles.

Les principaux cas interdits sont les suivants :

  • Discrimination et biais : Les systèmes d’IA ne doivent pas être utilisés pour des décisions automatisées qui introduisent des biais ou discriminent injustement en fonction de caractéristiques protégées (telles que l’origine ethnique, la religion, ou le genre), en particulier dans les contextes de sécurité nationale ;
  • Surveillance de masse non autorisée : L’utilisation de l’IA pour la surveillance de masse sans supervision légale appropriée est proscrite. Cela comprend des pratiques de surveillance intrusives qui pourraient violer la vie privée des individus ou la confidentialité des données personnelles ;
  • Violations des droits humains : Toute utilisation de l’IA qui pourrait être employée pour la surveillance ou le contrôle répressif des populations (par exemple, dans les zones de conflit) est interdite si elle enfreint les droits de l’Homme ;
  • Usage létal sans supervision humaine : Les applications de l’IA pour les systèmes d’armement autonome ne doivent pas permettre des actions létales sans supervision humaine appropriée, afin de garantir que des décisions de vie ou de mort ne soient pas déléguées uniquement à des machines ;
  • Manipulation et influence : L’IA ne doit pas être utilisée pour manipuler ou influencer l’opinion publique ou des comportements à des fins politiques ou stratégiques sans transparence ou sans consentement, pour éviter les risques de propagande ou de désinformation ;
  • Intrusions dans la vie privée : L’IA ne peut être utilisée pour collecter, stocker, ou traiter des données personnelles de manière abusive, notamment sans un cadre légal et des mesures de sécurité adéquates pour protéger les droits à la vie privée.

Un leadership international pour une IA responsable

Enfin, le NSM affirme la volonté des États-Unis de jouer un rôle central dans la définition des règles internationales de l’IA. En coopération avec ses alliés, Washington poursuit l’objectif d’établir des normes globales pour l’utilisation de l’IA, respectueuses des droits humains et compatibles avec le droit international. Après la création d’un Code de Conduite International sur l’IA avec les membres du G7 en 2023, les États-Unis s’engagent avec leurs partenaires à promouvoir un cadre de gouvernance pour une IA pacifique et responsable, encadrant notamment son usage militaire.

Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.