L’AI Act, adopté par le Parlement européen le 14 juin dernier, est en cours de finalisation. L’Espagne, qui a pris la présidence tournante du Conseil des ministres de l’UE le 1er juillet dernier, a partagé ce 17 octobre un document préparatoire pour les prochaines négociations avec le Parlement européen et la Commission.
Dans ce document, on trouve notamment des propositions concernant la régulation des modèles de fondation, des modèles d’IA de grande taille à usage général, alors que les pays européens envisagent des concessions sur cette régulation, de nombreux acteurs de l’IA et de l’open source les réclamant.
Les récents développements de l’IA générative et de modèles de fondation, notamment celui de ChatGPT, ne pouvaient pas être prévus dans la proposition initiale de l’AI Act. Ils sont venus perturber les débats des eurodéputés mais ceux-ci étaient toutefois parvenus à un accord politique le 27 avril, ont ensuite partagé une version affinée des amendements de compromis le 5 mai suivant.
La version adoptée par le Parlement européen introduisait des obligations pour les systèmes d’IA à usage général et proposait une approche à plusieurs niveaux pour ces modèles. Celles-ci concernent la transparence, la documentation du processus de modélisation, des contrôles réguliers et des mesures d’atténuation des risques pour les modèles très performants.
Selon EURACTIV qui a eu accès au document préparatoire, la présidence espagnole propose de définir un modèle de fondation comme un “modèle d’IA capable d’effectuer avec compétence un large éventail de tâches distinctives” et d’établir des points de référence par le biais d’actes d’exécution pour évaluer ces capacités.
De nouvelles catégories pourraient selon elle être introduites, notamment celle de “modèles de fondation très performants”, qui pourraient être soumis à des obligations supplémentaires, leurs capacités allant “au-delà de l’état actuel de la technique et ne sont peut-être pas encore pleinement comprises”.
Une catégorie distincte est proposée pour les systèmes d’IA à usage général construits sur des modèles de fondation et utilisés à grande échelle, avec des obligations de vérification externe et de gestion des risques. Les fournisseurs d’IA doivent également s’assurer que leurs systèmes respectent le droit d’auteur européen.
Un bureau d’IA pour la gouvernance
L’an passé, Les eurodéputés chargés de travailler sur l’AI Act avaient soumis l’idée de créer un Bureau d’IA pour rationaliser l’application de la loi et résoudre les différends en matière de compétences dans les affaires transfrontalières.
La présidence espagnole considère que “la complexité et la capacité de ces modèles et systèmes sont telles qu’il serait important de centraliser l’expertise” et reprend cette idée d’un Bureau de l’IA qui serait explicitement chargé de superviser les nouvelles règles sur les modèles de base et les systèmes d’IA à usage général utilisés à grande échelle pour définir les procédures d’audit et effectuer des contrôles de conformité et des enquêtes.
Identification biométrique
Un point de friction entre le Conseil et le Parlement concerne l’utilisation des systèmes d’identification biométrique en temps réel par les forces de l’ordre. Les députés veulent une interdiction totale, tandis que les gouvernements de l’UE veulent conserver certaines exceptions pour des situations spécifiques.
L’interdiction de la reconnaissance des émotions, de la catégorisation biométrique de données protégées et de la police prédictive sont également l’objet de discussions.
La présidence propose d’inclure la reconnaissance des émotions et la catégorisation biométrique dans la catégorie à haut risque plutôt que de les interdire. Elle suggère d’introduire un processus d’évaluation de la conformité par une tierce partie afin d’apporter des garanties supplémentaires.
Source : Euractiv