Après Sam Altman, le PDG d’Open AI, c’est au tour de Brad Smith d’exhorter le gouvernement américain à mettre rapidement en place une agence qui délivrerait ou retirerait des licences aux entreprises développant des systèmes d’IA avancés. Microsoft a d’ailleurs publié le rapport « Governing AI: A Blueprint for the Future » où il détaille cinq approches que les gouvernements devraient considérer pour élaborer des politiques, des lois et des réglementations en matière d’IA, ainsi que l’engagement de Microsoft en faveur d’une IA éthique et responsable.
L’appel à la règlementation de l’IA s’est renforcé depuis le lancement de ChatGPT par Open AI, dont Microsoft est le principal actionnaire.
Brad Smith y souscrit également et a déclaré à CBS :
« Le gouvernement doit travailler plus rapidement pour réglementer l’IA, qui a plus de potentiel pour le bien de l’humanité que toute autre invention qui l’a précédée ».
Dans l’avant-propos du rapport, il souligne :
« Nous avons vu l’IA aider à sauver la vue des individus, à faire des progrès sur de nouveaux remèdes contre le cancer, à générer de nouvelles connaissances sur les protéines et à fournir des prévisions pour protéger les gens contre les conditions météorologiques dangereuses. D’autres innovations repoussent les cyberattaques et aident à protéger les droits humains fondamentaux, même dans les pays touchés par une invasion étrangère ou une guerre civile ».
Pour lui, alors que les élections présidentielles américaines approchent, il est indispensable que les acteurs de l’IA s’unissent aux gouvernements dans le cadre d’une initiative internationale et explique à CBS :
« Je pense qu’il est possible de prendre de vraies mesures en 2023, afin que nous ayons des garde-fous en place pour 2024. Donc, nous identifions à mon avis, surtout lorsque nous voyons des opérations de cyber-influence étrangères d’une Russie, d’une Chine ou d’un Iran, qui pompent des informations qu’ils savent fausses et conçues pour tromper, y compris en utilisant l’intelligence artificielle. Et cela nécessitera que le secteur de la technologie se concerte avec le gouvernement et il faudra vraiment plus d’un gouvernement ».
Les 5 propositions de Microsoft pour la gouvernance publique de l’IA
Microsoft entend contribuer de manière constructive aux travaux à venir. tout en reconnaissant que ses propositions méritent d’être approfondies.
Mettre en œuvre et s’appuyer sur de nouveaux cadres de sécurité de l’IA dirigés par le gouvernement
Pour y parvenir plus rapidement, Microsoft suggère de tirer parti des travaux réalisés il y a à peine quatre mois par le National Institute of Standards and Technology (NIST) qui ont donné jour à un nouveau cadre de gestion des risques liés à l’IA.
Un décret présidentiel pourrait permettre sa mise en oeuvre globale. Microsoft propose quatre suggestions concrètes dans ce sens, notamment exiger des entreprises une auto-attestation de leur alignement sur les normes de ce cadre, des directives de l’OMB (Office of Management and Budget) exigeant que les agences fédérales achetant des services d’IA pour une utilisation dans des systèmes de décision critiques ne le fassent qu’auprès de fournisseurs ayant fourni cette auto-attestation, la création d’un bureau de programme afin de fournir des conseils continus pour le cadre et promouvoir son adoption dans les agences.
Exiger des freins de sécurité efficaces pour les systèmes d’IA qui contrôlent les infrastructures critiques
Ces systèmes à sécurité intégrée feraient partie d’une approche globale de la sécurité des systèmes qui garderait à l’esprit une surveillance humaine efficace, la résilience et la robustesse.
De nouvelles lois obligeraient les opérateurs à intégrer des freins de sécurité dans les systèmes d’IA à haut risque dès leur conception et ensuite à les contrôler pour s’assurer que les mesures de sécurité du système sont efficaces. Ceux-ci ne seraient d’ailleurs déployés que dans des centres de données d’IA sous licence.
Elaborer un vaste cadre juridique et réglementaire fondé sur l’architecture technologique de l’IA
La loi devra placer diverses responsabilités réglementaires sur différents acteurs en fonction de leur rôle dans la gestion de différents aspects de la technologie de l’IA.
Microsoft identifie trois couches de la pile technologiques : la couche applications, la couche modèle et la couche infrastructure.
Les protections juridiques existantes au niveau de la couche applications d’IA, la plus susceptible de toucher la sécurité et les droits des personnes devront être appliquées et respectées, les agences et les tribunaux devront être aidés à développer l’expertise nécessaire pour s’adapter aux nouveaux scénarios d’IA.
La couche modèle nécessitera de nouvelles réglementations et licences pour ces modèles eux-mêmes et la couche infrastructure impliquera des obligations pour les opérateurs d’infrastructure d’IA sur lesquels ces modèles sont développés et déployés.
Promouvoir la transparence et assurer l’accès des universitaires et des organisations à but non lucratif à l’IA.
Pour Brad Smith, à moins que les chercheurs universitaires ne puissent avoir accès à beaucoup plus de ressources informatiques, il existe un risque réel que la recherche scientifique et technologique en souffre, y compris en ce qui concerne l’IA elle-même, il est donc essentiel d’élargir l’accès aux ressources d’IA à la recherche universitaire et la communauté à but non lucratif. Même si la transparence semble incompatible avec le besoin de sécurité, il existe de nombreuses possibilités de rendre les systèmes d’IA plus transparents de manière responsable.
De son côté, Microsoft s’engage à publier un rapport annuel sur la transparence de l’IA et à prendre d’autres mesures pour accroître la transparence de ses services d’IA.
Poursuivre de nouveaux partenariats public-privé pour utiliser l’IA comme un outil efficace pour relever les défis sociétaux inévitables qui accompagnent les nouvelles technologies
Pour Brad Smith :
« L’IA est un outil extraordinaire. Comme d’autres technologies, elle peut aussi devenir une arme puissante, et il y en aura dans le monde qui chercheront à l’utiliser de cette façon. Mais nous devrions prendre courage du cyberfront et de la dernière année et demie de la guerre en Ukraine. Ce que nous avons constaté, c’est que lorsque les secteurs public et privé travaillent ensemble, lorsque des alliés partageant les mêmes idées se réunissent, et lorsque nous développons la technologie et l’utilisons comme bouclier, elle est plus puissante que n’importe quelle épée sur la planète ».
Une question se pose tout de même : l’idée d’instaurer des licences gouvernementales ne représente-t-elle pas un risque, ou le meilleur moyen, d’entraver l’arrivée de nouveaux acteurs ?