Dans une résolution votée ce jour au Parlement européen, les députés ont mis en avant l’importance du contrôle humain pour la supervision de systèmes d’intelligence artificielle et d’utiliser des algorithmes ouverts. Les parlementaires se sont aussi positionnés sur l’interdiction des bases de données privées de reconnaissance faciale, la police comportementale et la notation des citoyens. La reconnaissance automatique ne devrait pas être utilisée pour le contrôle aux frontières ou dans les espaces publics.
Pour garantir le droit à la vie privée, les députés demandent des garanties solides lorsque des outils d’intelligence artificielle sont utilisés par les services répressifs.
Dans une résolution adoptée par 377 voix pour, 248 contre et 62 abstentions, les députés soulignent le risque de biais algorithmique dans les applications d’intelligence artificielle (IA) et précisent que des contrôles humains et juridiques élevés sont nécessaires pour prévenir la discrimination par l’IA, en particulier dans le cadre des services répressifs ou dans un contexte transfrontalier. Les décisions finales doivent toujours être prises par un être humain et les personnes soumises à des systèmes alimentés par l’IA doivent disposer de voies de recours, estiment les députés.
Le rapporteur Petar Vitanov (S&D, BG) a déclaré :
“Nous envoyons un message clair: les droits fondamentaux sont irrévocables. Pour la toute première fois, nous appelons à un moratoire sur le déploiement des systèmes de reconnaissance faciale à des fins répressives, ces technologies ayant démontré leur inefficacité et souvent abouti à des résultats discriminants. Nous nous opposons clairement à la police prédictive fondée sur l’utilisation de l’IA ainsi que sur tout traitement des données biométriques conduisant à une surveillance de masse. C’est une énorme victoire pour tous les citoyens européens.”
Craintes relatives aux discriminations
D’après le texte, les système d’identification basés sur l’IA commettent déjà un nombre disproportionné d’erreurs d’identification des groupes ethniques minoritaires, des personnes LGBTI, des personnes âgées et des femmes, ce qui est préoccupant dans le contexte de l’application de la loi et du système judiciaire.
Pour garantir le respect des droits fondamentaux lorsque ces technologies sont utilisées, les algorithmes devraient être transparents, traçables et suffisamment documentés, demandent les députés. Lorsque cela est possible, les autorités publiques devraient utiliser des logiciels libres afin d’accroître la transparence.
Technologies controversées
Pour respecter la vie privée et la dignité humaine, les députés demandent une interdiction permanente de la reconnaissance automatisée des individus dans les espaces publics, faisant remarquer que les citoyens ne devraient être surveillés que lorsqu’ils sont soupçonnés d’un crime.
Le Parlement demande d’interdire l’utilisation de bases de données privées de reconnaissance faciale (comme le système Clearview AI, qui est déjà utilisé) et la police prédictive basée sur des données comportementales.
Par ailleurs, les députés veulent interdire les systèmes de notation sociale qui tentent d’évaluer la fiabilité des citoyens en fonction de leur comportement ou de leur personnalité.
Enfin, le Parlement s’inquiète de l’utilisation des données biométriques pour l’identification à distance. Par exemple, les portiques de contrôle frontalier basés sur la reconnaissance automatique et le projet iBorderCtrl (un “système intelligent de détection de mensonges” pour l’entrée des voyageurs dans l’UE) devraient être abandonnés, estiment les députés, qui invitent la Commission européenne à ouvrir des procédures d’infraction contre les États membres si nécessaire.