Comment créer un environnement réglementaire de l’IA favorable à l’innovation tout en protégeant les intérêts des citoyens et en respectant les principes éthiques ? C’est ce à quoi travaillent activement l’UE, les Etats-Unis et la Chine, le Royaume-Uni n’entend pas faire figure de spectateur, il a d’ailleurs annoncé en juin dernier organiser le premier sommet mondial sur l’intelligence artificielle. Alors que celui-ci aura lieu début novembre prochain, le gouvernement britannique se lance à corps perdu dans la finalisation du communiqué qui devrait en découler.
Tous les gouvernements s’entendent sur le fait qu’une réglementation des systèmes d’IA est nécessaire, ils ne veulent pourtant pas se priver de la manne financière que l’IA pourrait leur procurer. Sur le continent européen, la France et le Royaume-Uni rivalisent pour tenir le rôle de leader.
Suite au Brexit, souhaitant accentuer son détachement de l’organe politico-économique européen et relancer l’économie de la nation, le gouvernement britannique a présenté en 2021 un projet de réforme de sa réglementation sur la protection des données personnelles, tournant le dos au RGPD.
En mars 2023, le Ministère britannique de la Science, de l’Innovation et de la Technologie (DSIT) proposait un cadre réglementaire reposant sur cinq principes fondamentaux visant à favoriser le développement responsable de l’IA, tout en encourageant la transparence, la sécurité et l’équité :
- Sûreté, sécurité et robustesse ;
- Transparence et explicabilité appropriées ;
- Equité ;
- Responsabilité et gouvernance ;
- Contestabilité et réparation .
La réglementation spécifique des modèles de fondation et des LLM y était considérée comme prématurée, mais le gouvernement britannique s’engageait à surveiller attentivement leur impact. En juin dernier, Ian Hogarth, entrepreneur et spécialiste de l’IA, était nommé président du Fondation Model Taskforce, un groupe de travail sur les modèles de fondation doté de 100 millions de livres sterling, relevant directement du Premier ministre et du secrétaire à la Technologie.
Côté Etats-Unis, la Maison Blanche a tiré la sonnette d’alarme et réuni les principaux acteurs de l’IA générative (Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft et OpenAI) afin qu’ils prennent leurs responsabilités et mettent en oeuvre de nouvelles normes de sûreté, de sécurité et de confiance pour l’IA.
En juillet dernier, quatre d’entre eux, Microsoft, Anthropic, Google et OpenAI, lançaient le Frontier Model Forum, un organisme industriel dédié au développement sûr et responsable des modèles d’IA de pointe.
Alors que nombreux acteurs de l’IA alertaient en mars dernier de la dangerosité pour la société et l’humanité de ces systèmes dans une lettre ouverte, certains, comme Sam Altman qui partage pourtant cette opinion, appellent à un juste équilibre entre régulation et innovation et considèrent que l’AI Act est trop strict.
L’AI Safety Summit
Le Royaume-Uni a pour ambition de faciliter la coopération internationale sur la question de l’IA et de favoriser l’innovation tout en assurant la sécurité et la responsabilité dans son développement. Les discussions qu’il a eues avec les membres du G7 ont montré sa volonté de trouver un équilibre entre les régulations strictes de l’UE et l’approche plus souple des États-Unis.
Le sommet, qui devrait rassembler une centaine de personnes, parmi lesquelles des chefs d’entreprise, des universitaires, des représentants de la société civile et des ministres du monde entier se déroulera les 1 et 2 novembre prochain à Bletchley Park. Le 1er jour sera consacré à des discussions sur les risques associés aux modèles de pointe, sur l’atténuation de ces risques et sur les opportunités de ces modèles et donnera lieu à un communiqué, signé par les délégations des pays, sur leurs accords face aux risques et aux opportunités des modèles de frontière. Si un consensus international est atteint, le projet de l’UK de mettre en place un “AI Safety Institute”, pourrait voir le jour.
Le lendemain, une vingtaine de personnes, notamment des représentants du G7 partageant la même vision de la réglementation de l’IA que l’UK, se retrouveront pour évoquer le futur de l’IA et débattre sur la façon dont les agences de sécurité nationale peuvent examiner les versions les plus dangereuses de cette technologie.
Rivalité entre la France et l’UK
Les deux pays veulent se positionner en tant que leader de l’IA sur le continent européen et, pourquoi pas, sur la scène mondiale. Deux semaines après l’AI Safety Summit, le 17 novembre, une “conférence européenne de référence sur l’Intelligence Artificielle” dédiée aux acteurs-clés de l’industrie, sera organisée par Xavier Niel, à Station F, dont il est d’ailleurs le fondateur.
Elle a pour ambition de mettre en lumière les dernières avancées de l’IA, de décrypter l’impact des derniers modèles d’IA sur le monde de l’entreprise et d’anticiper les prochaines tendances.
Le groupe technologique Iliad, dont Xavier Niel est le propriétaire, annonçait le mois dernier près de 200 millions d’investissements stratégiques dans l’IA, dédiés notamment à l’achat d’un supercalculateur pour l’un de ses datacenters et sa filiale Scaleway, mais aussi à la création d’un laboratoire de recherche de pointe en IA, à Paris.
D’après les experts, bien que le Royaume-Uni aspire à donner à son groupe de travail sur l’IA un rôle international, il est peu probable que les gouvernements se mettent d’accord sur une nouvelle organisation internationale pour examiner l’IA de pointe.
Selon Claire Trachet, PDG du cabinet de conseil aux entreprises Trachet, l’Europe, pour avoir un impact significatif dans le paysage de l’IA, doit tirer parti de ses ressources collectives, favoriser la collaboration et investir. Elle déclare :
“Cela signifie combiner les forces du Royaume-Uni, de la France et de l’Allemagne, pour éventuellement créer une alternative convaincante dans les 10 à 15 prochaines années qui perturbe le paysage de l’IA, mais encore une fois, cela nécessiterait une vision fortement stratégique et une approche collaborative”.