Dans le cadre de sa nouvelle réglementation en matière d’intelligence artificielle, l’Union Européenne envisage des règles strictes. Parmi les points abordés, on retrouve les systèmes d’IA utilisés pour des opérations de “surveillance indiscriminée” que la commission européenne souhaite interdire. Les entreprises et institutions ne respectant pas à l’avenir cette nouvelle réglementation pourraient encourir une amende à hauteur de 4% du chiffre d’affaires, plafonnée à 20 millions d’euros.
La place des systèmes d’IA dans cette règlementation
Plusieurs médias ont affirmé avoir obtenu le projet de régulation de l’IA au sein de l’Union Européenne. Cette réglementation serait l’une des premières du genre, visant à distinguer les systèmes d’IA “bénéfiques” de ceux qui pourraient poser problème dans le futur. Ceux qui rationalisent la fabrication, modélisent les changements climatiques ou rendent le réseau énergétique plus efficace seraient les bienvenus.
Par contre, les systèmes d’IA définis par l’UE à “haut risque” comme ceux utilisés pour des opérations de “surveillance indiscriminée” seraient bannis. La proposition veut également interdire les systèmes d’IA qui causent du tort aux personnes en manipulant leur comportement, leurs opinions ou leurs décisions, exploiter ou cibler les vulnérabilités des personnes, et pour la surveillance de masse. En cas d’utilisation non conforme de ce genre de système par des entreprises, une amende pouvant aller jusqu’à 4% du chiffre d’affaires (plafonné à 20 millions d’euros) sera encourue.
La question se pose néanmoins pour d’autres systèmes comme les algorithmes utilisés pour scanner les curriculums vitae, aider les juges à prendre des décisions, évaluer la solvabilité ou encore régulariser des demandes d’asile et des visas qui sont pourtant considérés comme des systèmes d’IA à “haut risque”. Ces cas feront l’objet d’un examen plus approfondi de la commission européenne, qui souhaite instaurer des tests de conformité aux normes européennes avant lancement de produits sur le marché.
Des exceptions possibles
La commission européenne aurait toutefois envisagé de mettre en place dans sa réglementation, des exceptions vis-à-vis des systèmes d’IA à “haut risque”. En effet, les autorités compétentes telles que les agents des forces de l’ordre pourraient utiliser ces technologies si celles-ci combattent des crimes graves. Par exemple, celles utilisées pour l’identification biométrique à distance -comme la reconnaissance faciale- dans les lieux publics pourraient être autorisées si leurs utilisations sont limitées dans le temps et que leur zone d’action géographique soit restreinte au lieu nécessaire à leurs applications.
L’une des priorités de la commission européenne serait que l’ensemble des données pouvant être recueillies dans le cadre de ces exceptions n’intègrent aucun biais intentionnel ou involontaire qui pourrait conduire de possibles discriminations. En ce sens, un comité européen de l’IA sera créé : il comportera un représentant par état membre de l’UE et un représentant de la commission européenne. Ce conseil supervisera l’application à la lettre de cette nouvelle réglementation et pourra émettre des recommandations en ce qui concerne la liste des systèmes d’IA bannis ou acceptés.
Une volonté européenne à contre-courant des intentions états-uniennes
Les entreprises américaines dont certaines filiales ou bases se situent en Europe seront probablement soumises à ces nouvelles règles, alors que les pratiques de surveillance des entreprises étaient déjà l’un des principaux points de friction en matière de collaboration transatlantique.
La proposition devrait être présentée le 21 avril prochain par Margrethe Vestager, vice-présidente exécutive de la commission pour le numérique. Elle fera suite aux premières analyses émises l’année dernière par la commission sur l’IA qui avait évoqué les bases d’une possible réglementation contre les systèmes d’IA à “haut risque”.
Suite à une lettre multipartie de 116 députés européens faisant apparaitre les risques potentiels pour les droits fondamentaux posés par les technologies d’IA à “haut risque”, la présidente de la commission européenne, Ursula von der Leyen avait assuré aux eurodéputés que la commission irait plus loin en ce sens. Cette nouvelle réglementation est donc la réponse à ces exigences.