Le carnet des droits de l’homme s’étoffe d’un article sur les protections à mettre en place à l’ère de l’IA

hrc-AI-2018-870×489

Dunja Mijatović, Commissaire aux droits de l’homme du Conseil de l’Europe, vient de publier son article intitulé Protéger les droits de l’homme à l’ère de l’intelligence artificielle dans le carnet des droits de l’homme. Elle entend ainsi ajouter les problématiques inhérentes à ce domaine à son agenda. Dunja Mijatovića rappelle également l’importance du respect des valeurs européennes et de l’éthique face à une telle révolution. Retrouvez son article ci-dessous ou sur le site du Conseil de l’Europe.

“L’intelligence artificielle (IA), qui occupe une place grandissante dans notre vie quotidienne, est désormais utilisée dans de nombreux domaines. Il est devenu banal d’éviter un embouteillage grâce à un système de navigation intelligent ou de recevoir des offres commerciales ciblées. Cela est rendu possible par l’analyse de mégadonnées, qui peut être utilisée par les systèmes d’IA. Si ces applications présentent des avantages évidents, les théories et techniques qui les sous-tendent ont cependant des implications éthiques et juridiques dont le grand public a rarement conscience.

Sous une apparente neutralité, à tout le moins, l’intelligence artificielle cache parfois des opérations très intrusives, notamment du fait de ses composantes que sont l’apprentissage automatique et l’apprentissage profond. Dans bien des domaines, il peut certes être très utile de fonder des décisions sur des calculs mathématiques, mais une trop grande dépendance envers l’IA – qui implique nécessairement de déterminer des modèles au-delà de ces calculs – risque d’être préjudiciable à ses utilisateurs, de causer des injustices et de restreindre les droits des personnes.

Telle que je la perçois, l’IA a des effets sur nombre des questions qui relèvent de mon mandat dans la mesure où son utilisation peut menacer plusieurs de nos droits de l’homme. Le fait que des décisions soient prises sur la base de ces systèmes, en l’absence de toute transparence, responsabilité ou garanties quant à leur conception, leur fonctionnement et la manière dont ils peuvent évoluer au fil du temps, aggrave le problème.

Empiètements sur le droit au respect de la vie privée et sur le droit à l’égalité

La tension entre les avantages de l’IA et les risques pour nos droits de l’homme est particulièrement évidente en matière de vie privée. Le respect de la vie privée, qui compte parmi les droits de l’homme les plus importants, est indispensable pour vivre dans la dignité et la sécurité. Pourtant, dans l’environnement numérique, notamment lorsque nous utilisons des applications ou les plates-formes de réseaux sociaux, de grandes quantités de données à caractère personnel sont collectées, souvent à notre insu, et peuvent servir à établir notre profil et à prédire nos comportements. Nous fournissons des informations sur notre santé, nos opinions politiques et notre vie de famille sans savoir qui va les utiliser, à quelles fins et de quelles manières.

Les machines font ce que les êtres humains leur demandent. Si un système est alimenté par des préjugés humains (conscients ou inconscients), il donnera des résultats biaisés. Le manque de diversité et d’inclusion qui caractérise la conception des systèmes d’IA est une préoccupation majeure : au lieu de rendre nos décisions plus objectives, ces systèmes risquent de renforcer les discriminations et les préjugés en leur donnant une apparence d’objectivité. De plus en plus d’éléments tendent à montrer que les femmes, les membres de minorités ethniques, les personnes handicapées et les personnes LGBTI souffrent tout particulièrement des discriminations causées par des algorithmes biaisés.

Ainsi, des études ont mis en évidence la tendance de Google à proposer à des hommes plutôt qu’à des femmes les offres d’emplois très bien rémunérés. Une étude publiée en mai dernier par l’Agence des droits fondamentaux de l’Union européenne montre aussi comment l’IA peut amplifier les discriminations. Lorsqu’un processus décisionnel fondé sur l’analyse de données reflète les préjugés d’une société, il les reproduit, voire les renforce. Ce problème a déjà souvent été soulevé par des universitaires, ainsi que par des ONG, qui ont adopté récemment la déclaration de Toronto, dans laquelle elles appellent à instaurer des garanties pour éviter que les systèmes d’apprentissage automatique favorisent les pratiques discriminatoires.

Des décisions prises sans discernement sur la base d’algorithmes biaisés risquent d’avoir des répercussions importantes sur les droits de l’homme. Par exemple, un logiciel utilisé pour prendre des décisions relatives à des soins médicaux et des allocations d’invalidité a privé de ces prestations des personnes qui y avaient droit, ce qui a eu de graves conséquences pour elles. En matière judiciaire aussi, l’IA peut avoir une influence positive ou négative. Des pays du monde entier s’intéressent de plus en plus à la manière dont l’IA pourrait aider leur système de justice pénale à prévenir la criminalité, en lui permettant d’améliorer la surveillance policière et de prévoir les infractions et la récidive. Cependant, nombre de spécialistes émettent des doutes sur l’objectivité de tels modèles. Pour traiter cette question, la Commission européenne pour l’efficacité de la justice (CEPEJ) du Conseil de l’Europe a créé une équipe pluridisciplinaire d’experts, qui « dirigera la rédaction de lignes directrices pour une utilisation éthique des algorithmes au sein des systèmes judiciaires, notamment en matière de justice prédictive ».

Limitations de la liberté d’expression et de la liberté de réunion

Parmi les autres droits menacés figure le droit à la liberté d’expression. Dans une publication récente du Conseil de l’Europe intitulée Algorithmes et droits humains, il est indiqué que Facebook et YouTube ont adopté des mécanismes de filtrage pour détecter les contenus extrémistes violents. Cependant, aucune information n’est disponible sur le processus ou les critères retenus pour déterminer quelles vidéos ont un « contenu clairement illégal ». Bien que l’on ne puisse que se féliciter de cette initiative visant à faire cesser la diffusion de matériel de ce genre, le manque de transparence entourant le mode de contrôle des contenus est préoccupant : en effet, ce contrôle risque d’être exercé pour restreindre une liberté d’expression légitime et pour priver les gens de possibilités de s’exprimer. Des préoccupations analogues ont été exprimées s’agissant du filtrage automatique de contenus générés par les utilisateurs, au stade du téléchargement, qui pourrait porter atteinte aux droits de propriété intellectuelle ; ces préoccupations ont été suscitées par la proposition de directive sur le droit d’auteur émanant de la Commission européenne. Dans certaines circonstances, l’utilisation de technologies automatisées pour la diffusion de contenu peut également avoir un impact significatif sur le droit à la liberté d’expression et à la vie privée lorsque des robots, des trolls, des spams ciblés ou des publicités sont utilisés, en plus d’algorithmes déterminant l’affichage de contenu.

La tension entre technologie et droits de l’homme se manifeste aussi dans le domaine de la reconnaissance faciale. Cet outil puissant qui peut aider les forces de l’ordre à retrouver des personnes soupçonnées de terrorisme risque en effet d’être aussi utilisé comme une arme, à des fins de surveillance de masse ou pour identifier des manifestants. Aujourd’hui, il est beaucoup trop facile pour les gouvernements de vous surveiller en permanence et de restreindre le droit à la vie privée, la liberté de réunion, la liberté de circulation et la liberté de la presse.

Que peuvent faire les gouvernements et le secteur privé ?

L’IA peut aider les êtres humains à gagner du temps, à être plus libres et à s’épanouir. Mais elle risque aussi de nous entraîner vers une société dystopique. Il est donc urgent de trouver le juste équilibre entre les progrès technologiques et la protection des droits de l’homme. C’est un choix de société dont dépend notre avenir.

Pour atteindre cet équilibre, nous devons renforcer la coopération entre les acteurs étatiques (gouvernements, parlements, systèmes judiciaires, forces de l’ordre), les entreprises privées, les universitaires, les ONG, les organisations internationales et le grand public. La tâche est immense, mais pas insurmontable.

Plusieurs normes existent et devraient servir de point de départ. Par exemple, la jurisprudence de la Cour européenne des droits de l’homme fixe des limites précises pour le respect de la vie privée, la liberté et la sécurité. Elle souligne aussi qu’il incombe à l’État de prévoir un recours effectif permettant de contester les intrusions dans la vie privée et de protéger les individus contre la surveillance illégale. De plus, la version modernisée de la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel du Conseil de l’Europe, adoptée cette année, traite des problèmes que pose, en termes de respect de la vie privée, l’utilisation des nouvelles technologies de l’information et de la communication.

Les États devraient veiller à ce que le secteur privé, qui est responsable de la conception, de la programmation et de la mise en œuvre de l’IA, respecte les normes des droits de l’homme. La Recommandation sur les droits de l’homme et les entreprises et sur les rôles et les responsabilités des intermédiaires d’internet, adoptée par le Comité des Ministres du Conseil de l’Europe, les Principes directeurs relatifs aux entreprises et aux droits de l’homme, qui émanent de l’ONU, et le rapport sur la réglementation des contenus, élaboré par le Rapporteur spécial de l’ONU sur la promotion et la protection du droit à la liberté d’opinion et d’expression, devraient tous être pris en compte dans le cadre des efforts visant à faire en sorte que cette nouvelle technologie améliore notre quotidien. Il faudrait aussi augmenter la transparence des processus décisionnels utilisant des algorithmes, de manière à ce que le raisonnement qui les sous-tend soit plus compréhensible, à ce que la responsabilité de ces décisions puisse être imputée à quelqu’un et à ce qu’elles puissent être contestées efficacement.

Troisième chantier : familiariser la population avec l’IA. Les États devraient investir davantage dans des initiatives de sensibilisation et d’éducation destinées à aider tous les citoyens, notamment les jeunes générations, à acquérir les compétences nécessaires pour faire un bon usage des technologies liées à l’IA et pour comprendre leur influence sur la vie de chacun. Enfin, les structures nationales des droits de l’homme devraient être en mesure de traiter les nouvelles formes de discrimination causées par les applications de l’IA.

Il est encourageant de constater que le secteur privé est prêt à coopérer avec le Conseil de l’Europe sur ces questions. En tant que Commissaire aux droits de l’homme, j’ai l’intention de m’intéresser de près à ce sujet au cours de mon mandat, afin de mettre en lumière les défis de l’IA et d’aider les États membres à les relever en respectant les droits de l’homme. Récemment, lors de ma visite en Estonie, j’ai déjà eu une discussion prometteuse avec le Premier ministre sur les questions liées à l’intelligence artificielle et aux droits de l’homme.

L’intelligence artificielle peut augmenter considérablement nos chances de vivre la vie à laquelle nous aspirons. Mais elle peut aussi les anéantir. D’où la nécessité de soumettre l’IA à des règles strictes, pour éviter qu’elle ne se métamorphose en une version moderne du monstre de Frankenstein.”

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.