Le 5 septembre dernier, à Vilnius, en Lituanie, la Commission européenne a franchi une nouvelle étape en matière de régulation de l'IA en signant la Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle, les droits de l'homme, la démocratie et l'État de droit. Cette signature, effectuée au nom de l'UE par Věra Jourová, vice-présidente de la Commission européenne chargée des valeurs et de la transparence, marque un tournant décisif dans l'effort de l'Europe pour établir un cadre légal international autour de l'IA.
Un instrument juridiquement contraignant
La Convention-cadre du Conseil de l'Europe est le premier accord international juridiquement contraignant qui régule l'utilisation de l'IA tout en veillant à protéger les droits fondamentaux, et ce, sans freiner l'innovation. Cet accord vise à garantir que les systèmes d'IA respectent les valeurs démocratiques et les principes de l'État de droit. La convention s'inscrit dans le prolongement des initiatives législatives prises par l'UE, notamment l'AI Act, première réglementation complète au monde en la matière.Les négociations concernant la Convention ont commencé en septembre 2022 sous l'égide du Comité sur l’intelligence artificielle (CAI), institué par le Conseil de l’Europe à Strasbourg. Le 17 mai dernier, elle a été adoptée par le Comité des Ministres du Conseil de l’Europe, avant de l'être par la Commission ce 5 septembre, lors de la conférence informelle des ministres de la Justice des États membres du Conseil de l’Europe.
Principes clés de la Convention
Cette convention repose sur plusieurs concepts fondamentaux qui sont au cœur des discussions actuelles sur l'IA. Elle comprend notamment un certain nombre de concepts clés de l'AI Act, auxquels les systèmes d’IA doivent se conformer, tels que :- une IA centrée sur l’humain, dans le respect des droits de l’homme, de la démocratie et de l’État de droit ;
- une approche fondée sur les risques ;
- les principes clés d’une IA digne de confiance (par exemple, transparence, robustesse, sécurité, gouvernance et protection des données) ;
- la transparence du contenu généré par l’IA et des interactions avec les systèmes d’IA ;
- le renforcement de la documentation, de la responsabilisation et des recours ;
- un soutien à l’innovation sécuritaire grâce à des bacs à sable réglementaires ;
- des obligations en matière de gestion des risques et de documentation ;
- des mécanismes de surveillance pour la supervision des activités d’IA.
Un cadre pour les acteurs publics et privés
Les principes et obligations de la Convention s’appliquent à toutes les phases du cycle de vie des systèmes d'IA, qu’ils soient déployés par des autorités publiques ou des acteurs privés. Les entreprises, tout en devant se conformer aux normes de sécurité et de transparence, pourront également adopter des approches alternatives, adaptées aux besoins spécifiques de leurs activités. Des exemptions sont prévues pour la recherche et développement ainsi que pour les questions de sécurité nationale.Afin de résister au temps, la Convention-cadre ne régule pas la technologie et est essentiellement neutre sur le plan technologique.