Ce mardi 25 janvier, les commissions du marché intérieur et des libertés civiles organisaient leur premier échange de vues commun sur la proposition de législation sur l’intelligence artificielle. Le travail parlementaire sur ce sujet central va se poursuivre cette année. En décembre, à l’occasion de sa présidence du Conseil de l’Union Européenne, la Slovénie avait présenté un texte de compromis sur le projet de loi de l’UE sur l’IA, comprenant des changements majeurs dans les domaines de la notation sociale, des systèmes de reconnaissance biométrique et des applications à haut risque, tout en identifiant également les futurs points de discussion. Retour sur ces modifications.
Avant la réunion qui s’est tenue ce mardi, le co-rapporteur pour la commission du marché intérieur et de la protection des consommateurs, Brando Benifei (S&D, IT), a déclaré :
«Notre objectif est de protéger nos citoyens et consommateurs, et de stimuler en même temps l’innovation positive, avec une attention particulière portée aux PME et aux start-ups. Un cadre législatif garantissant que les systèmes d’IA pénétrant le marché intérieur de l’UE sont sûrs, centrés sur l’humain et respectent nos libertés et droits fondamentaux stimulera la confiance chez nos citoyens, ce qui est essentiel pour une adoption réussie et inclusive de l’IA sur notre continent. C’est ce à quoi nous nous efforcerons.»
De son côté, Dragoş Tudorache (Renew Europe, RO), co-rapporteur pour la commission des libertés civiles, la justice et les affaires intérieures, a ajouté :
«La législation sur l’IA est une pièce centrale de l’environnement réglementaire européen pour l’avenir numérique, et c’est la première du genre dans le monde. Nous avons la chance de montrer l’exemple et de façonner les règles du monde numérique selon nos valeurs. Au cœur de la démocratie européenne, le Parlement a un rôle essentiel à jouer: nous devons trouver le bon équilibre entre le renforcement de la protection de nos droits fondamentaux et de la compétitivité et de la capacité d’innovation de l’Europe.»
Une proposition de règlement concernant l’intelligence artificielle présentée en avril 2021
La Commission européenne est l’une des 7 institutions européennes et la seule pouvant proposer de nouveaux textes législatifs. Elle est actuellement présidée par Ursula von der Leyen, nommée par les 27 états membres et élue en 2019 par le Parlement Européen pour 5 ans.
Pour contrer l’avance des Américains et des Chinois, tout en construisant un numérique « responsable » et « digne de confiance » pour conserver sa souveraineté, la Commission européenne dévoilait le 19 février 2020 sa stratégie numérique – un secteur défini comme une priorité parmi les orientations politiques de la nouvelle présidente Ursula von der Leyen.
Le 21 avril 2021, la commission soumettait une proposition de règlement concernant l’Intelligence Artificielle avec les objectifs spécifiques suivants:
- veiller à ce que les systèmes d’IA mis sur le marché de l’Union et utilisés soient sûrs et respectent la législation en vigueur en matière de droits fondamentaux et
les valeurs de l’Union; - garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA;
- renforcer la gouvernance et l’application effective de la législation existante en
matière de droits fondamentaux et des exigences de sécurité applicables aux
systèmes d’IA; - faciliter le développement d’un marché unique pour des applications d’IA légales, sûres et dignes de confiance, et empêcher la fragmentation du marché.
Par contre, l’article 5, § 1, de la proposition de règlement interdit quatre pratiques :
- systèmes d’IA qui influencent de manière subliminale le comportement d’une personne en vue de lui causer ou de causer à un tiers un dommage ;
- systèmes d’IA qui exploitent la vulnérabilité d’un groupe de personnes en vue de fausser le comportement de l’une de ces personnes et de causer un dommage ;
- systèmes d’IA de notation sociale mis sur le marché, mis en service ou utilisés par les autorités publiques ou en leur nom ;
- systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public, sauf exception.
Modifications souhaitées de la loi sur l’IA
La présidence a tout d’abord établi une définition des systèmes d’IA afin de mieux distinguer les logiciels classiques. Selon le compromis, les systèmes d’IA ont la capacité de traiter des données ou d’autres types d’entrées «pour déduire le moyen d’atteindre un ensemble donné d’objectifs définis par l’homme par l’apprentissage, le raisonnement ou la modélisation».
Le compromis prévoit que, dans les 2 cas suivants, la réglementation ne s’appliquerait pas :
- Les pays de l’UE refusent toute ingérence en matière de sécurité nationale et insistent pour que les systèmes d’IA développés exclusivement à des fins militaires soient retirés du champ d’application du règlement
- Il a été décidé que les systèmes d’IA développés dans le seul but de la recherche et du développement scientifique soient eux aussi exclus du champ d’application.
Le fournisseur d’un système d’IA devient l’acteur central. Il est défini comme la personne physique ou morale, l’agence ou tout autre organisme qui développe un système d’IA ou qui possède un système d’IA déjà développé en vue de sa mise sur le marché ou de sa mise en service, sous son propre nom ou sa propre marque, à titre onéreux ou gratuit. A ce titre, il a la responsabilité d’assurer la conformité selon les exigences de la réglementation.
D’autre part, une nouvelle catégorie de système d’IA « à usage général » a été ajoutée, qui n’entrera pas dans le champ d’application du règlement sauf si ce système est utilisé sous une marque ou intégré dans un autre système soumis au règlement.
Le crédit social interdit
La proposition de la Commission prévoit une interdiction des demandes d’IA qui sont considérées comme présentant des risques inacceptables. L’un d’eux est le score social, une pratique particulièrement utilisée en Chine et considérée comme favorisant la surveillance de masse.
La présidence propose désormais d’étendre l’interdiction du scoring social des pouvoirs publics aux entités privées, proscrivant ainsi l’exploitation d’une « situation sociale ou économique ». Le secteur financier pourrait être impacté par ces décisions, les taux d’intérêt des prêts étant calculés sur la base de la probabilité de remboursement. L’utilisation de systèmes d’IA pour l’estimation des primes d’assurance a également été incluse en tant que système à haut risque.
Reconnaissance biométrique
Dans le projet de réglementation, l’identification biométrique à distance en temps différé n’est pas soumise à l’article ni d’ailleurs l’identification biométrique effectuée par une personne privée en son nom, quoique ces deux systèmes demeurent à haut risque. Avec ce compromis, les systèmes d’identification biométrique visés par la législation ne sont plus définis comme « à distance », mais comme tout système qui conduit à l’identification de personnes « sans leur accord ».
La possibilité d’utiliser des systèmes d’identification biométrique en temps réel a été étendue à des acteurs qui ne sont pas des services répressifs mais qui collaborent avec eux afin de protéger les infrastructures critiques.
Les systèmes biométriques ne peuvent être utilisés qu’avec l’approbation de l’autorité judiciaire. En cas d’urgence, la proposition initiale prévoyait que l’autorisation pouvait également être demandée a posteriori. Par contre, cette autorisation devra “être demandée sans retard injustifié lors de son utilisation.”
Systèmes à haut risque
La proposition de loi prévoit des obligations spécifiques à l’usage de systèmes d’IA qui présentent un risque élevé en termes de santé, de sécurité et de droits fondamentaux. Dans sa proposition, la Commission a identifié huit domaines à haut risque, qui peuvent être modifiés mais uniquement définis davantage à l’avenir.
Le changement le plus important concerne l’inclusion d’infrastructures numériques destinées à protéger l’environnement, « les systèmes d’IA destinés à être utilisés pour contrôler les émissions et la pollution ». À noter également, en ce qui concerne l’application de la loi, que la sous-catégorie de l’analyse de la criminalité a été supprimée.
Le texte de compromis prévoit une évaluation de ces systèmes à haut risque par la Commission Européenne tous les 2 ans ainsi que celle des techniques et approches d’IA couvertes par le règlement.