Quelles utilisations pour l’IA dans les systèmes judiciaires européens ? – Les recommandations de la CEPEJ

CEPEJ Charte éthique

Le Conseil de l’Europe a annoncé ce jour l’adoption de la Charte éthique européenne sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires. Prenant acte de l’importance croissante de l’IA dans nos sociétés modernes, et des bénéfices escomptables lorsqu’elle sera utilisée pleinement au service de l’efficacité et de la qualité de la justice, la CEPEJ adopte solennellement 5 principes fondamentaux appelés « Charte éthique européenne d’utilisation de l’IA dans les systèmes judiciaires et leur environnement ».

En annexe de ce document, une première en la matière, la CEPEJ passe également en revue différentes utilisations de l’IA dans les systèmes européens tout en encourageant à un degré différent leur application à la lumière des principes et des valeurs énoncés dans la Charte éthique. Retrouvez l’intégralité de la Charte sur ce lien.


L’utilisation de l’apprentissage automatisé (Machine Learning) pour constituer des moteurs de recherche valorisant le patrimoine jurisprudentiel est une opportunité à développer pour l’ensemble des professionnels du droit. D’autres applications (constitution de barèmes, appui à des mesures alternatives de règlements de litige) sont à considérer en prenant des précautions (qualité de la source des données notamment et non traitement de masse de l’ensemble du contentieux concerné). Les autres applications (« justice dite prédictive ») seraient à renvoyer au champ de la recherche et d’un développement ultérieur (en consultation avec les professionnels de la justice afin d’assurer une pleine correspondance aux besoins), avant d’en envisager une exploitation publique sérieuse.

En matière pénale, la question apparaît comme extrêmement sensible mais ne doit pas être ignorée. A la lumière des nombreux questionnements existants quant à leur compatibilité avec un certain nombre de droits fondamentaux, l’utilisation d’algorithmes de calcul de potentiels risques de récidive d’un individu traduit en justice devrait être envisagée avec les plus extrêmes réserves. Le traitement de données quantitatives globales pour la prévention de la délinquance est en revanche une piste à approfondir avec ces techniques nouvelles, en prenant en compte les biais connus (effet performatif, qualité des données). De même, l’utilisation d’algorithmes pour mieux faire le lien entre l’offre de travail d’intérêt général et la personnalité d’un individu constituerait peut-être un facteur d’efficacité de ce type de mesure.

Utilisations à encourager

  • Valorisation du patrimoine jurisprudentiel : les techniques de Machine Learning ont été de plus en plus utilisées dans le domaine du traitement du langage naturel au cours des dernières années (ce qui comprend les efforts initiaux de compréhension du langage naturel) et constituent un atout considérable pour bâtir des solutions de recherche complémentaires aux actuels mots-clés ou recherche « plein texte ». Ces outils pourraient lier plusieurs sources (Constitution et conventions, lois, jurisprudence, doctrine). Des techniques de visualisation de données pourraient illustrer le résultat des recherches.
  • Accès au droit : sans remplacer une intervention humaine, des chatbots pourraient être mis en place pour faciliter l’accès, en langage naturel, aux différentes sources d’information existantes. Des modèles d’actes (saisine d’un tribunal, contrat de bail par exemple) pourraient aussi être générés en ligne.
  • Construction de nouveaux outils de pilotage : l’utilisation des techniques de datascience et d’intelligence artificielle sur les données d’activité des juridictions peut contribuer à améliorer l’efficacité de la justice en permettant notamment de procéder à des évaluations quantitatives et qualitatives et à construire des projections (anticipation des moyens humains et budgétaires). Des indicateurs clés de performance pourraient être constitués sur cette base. L’implication des professionnels de justice, et notamment des juges, dans la mise en place de ces outils est recommandée, tant sur le plan de l’appropriation de ceux-ci que sur celui de l’analyse des résultats et leur pondération avec des éléments relatifs aux spécificités de la juridiction ou de qualité de la justice (par exemple, la nécessité de préserver l’accès à la justice).

Utilisations à envisager avec de fortes précautions méthodologiques

  • Aide à la construction de barèmes/échelles dans certains contentieux civils : l’analyse de la masse totale des décisions judiciaires n’a statistiquement pas grand sens si l’on n’identifie pas tous les facteurs causatifs (explicites et implicites dans les décisions). Savoir que la moyenne de la prestation compensatoire dans une certaine zone géographique est plus haute que dans une autre est explicable non du fait du comportement des juges, mais au vu de la caractéristique du territoire. Le Machine Learning peut donc être utile pour identifier des décisions (cf valorisation du patrimoine jurisprudentiel supra) mais le traitement automatisé ne saurait seul produire du sens. La construction d’un échantillon pertinent de décisions à traiter (cf technique de sondages par exemple) est un préalable indispensable.
  • Appui à des mesures alternatives de règlement de litiges en matière civile : dans certains pays européens, des outils de justice dite « prédictive » sont utilisés par des compagnies d’assurance pour évaluer les chances de succès d’un contentieux et détourner le justiciable vers un autre mode de règlement de son litige lorsque les chances de succès sont considérées faibles. Par ailleurs, certains systèmes à l’étranger proposent des montants d’indemnisation sans réelle transparence des règles de calcul. Toutefois, l’évaluation de ces systèmes ne peut être considérée comme impartiale et fiable (cf point sur les techniques de Machine Learning) : on fait prendre une décision au citoyen sur des bases tronquées. Dans d’autres cas encore, une mesure alternative de règlement de litige peut être conseillée au justiciable par un agent relationnel (chatbot) après un examen préliminaire des critères renseignés par le justiciable lui-même, lorsque celui-ci se rend sur le site d’une juridiction ou recherche sur le web une information juridique. Cet agent relationnel peut, le cas échéant, également recommander au justiciable de demander le conseil d’un avocat ou d’un service de médiation. Dans toutes ces hypothèses, la présence d’un tiers formé (médiateur s’appuyant non seulement sur des techniques mais peut-être des barèmes comme calculé plus haut, ou un avocat) semble être la solution la plus appropriée à ce stade.
  • Règlement des litiges en ligne : lorsqu’il se rend sur une plateforme de résolution de litige en ligne, le justiciable devrait être informé d’une manière claire et compréhensible si le traitement de son litige se fait de manière entièrement automatisée ou avec l’implication d’un médiateur ou d’un arbitre. Par ailleurs, l’information au justiciable devrait aussi être loyale, et éviter de lui donner l’impression de saisir un tribunal (à cet égard, on note que la dénomination « tribunal en ligne » est souvent utilisée pour ce type de plateformes, alors que techniquement elles visent à fournir des services de règlement alternatif des litiges). Il s’agit de deux éléments essentiels pour permettre au justiciable de faire un choix éclairé et décider éventuellement de s’y opposer et des recourir à un vrai tribunal, au sens de l’article 6 de la CEDH. Par ailleurs, eu égard aux exigences des articles 6 et 13 de la CEDH, il faudrait toujours envisager des formes de contrôle de la procédure de règlement des litiges en ligne et de son issue par les juridictions de l’Etat, surtout lorsque le justiciable a consenti au règlement des litiges en ligne en forme entièrement automatisée.
  • Utilisation des algorithmes en matière d’enquête pénale afin d’identifier des lieux de commission d’infractions : ce genre d’application pourrait non-seulement concerner la police mais également les parquets dans le cadre des instances de prévention de la délinquance auxquelles elles participent. Là encore des systèmes ont été utilisés aux Etats- Unis afin de diriger en temps réel des patrouilles de police vers des lieux possibles de commission d’infraction. Ce type d’approche quantitative est toutefois susceptible de générer un fort effet « performatif » (en un lieu, on a plus de chance de découvrir une infraction et l’on autoalimente ainsi le système). L’analyse criminelle par des approches couplées entre des systèmes d’information géographique (SIG) et des masses de données des procédures pourraient être mieux partagées avec les parquets et bénéficier certainement d’un fort apport du Machine Learning. Des unités de lutte contre le blanchiment utilisent déjà des systèmes « prédictifs » pour identifier des flux financiers suspects, mais s’agissant d’information quantitative (monétaire), les machines sont plus à même de produire des analyses fiables. La recherche devrait aussi avoir un meilleur accès à ces données pour produire des études pertinentes à destination des décideurs publics.

Utilisations à envisager au terme de travaux scientifiques complémentaires

  • Profilage des juges : la quantification de l’activité d’un juge rendra moins compte de ses possibles biais de raisonnement que de facteurs externes ayant pesé sur sa décision. L’activité juridictionnelle dans un territoire paupérisé ne produit pas les mêmes résultats que dans un autre territoire, et cela indépendamment de la personnalité du juge. Lorsque la décision est rendue de manière collégiale et sans possibilité pour un juge d’exprimer une opinion divergente, il est vain de profiler chacun des juges de la chambre. Offrir en revanche aux juges une évaluation quantitative et qualitative plus fine de leurs activités, grâce à de nouveaux outils, mais dans un but purement informatif d’aide à la décision et à leur usage exclusif pourrait en revanche être encouragé.
  • Anticipation des décisions de justice : le seul traitement statistique de groupes lexicaux révèle la fréquence de l’utilisation de certains groupes de mots mais n’identifie par les causes réelles d’une décision car il ne procède pas d’un raisonnement juridique (cf. étude conduite sur les décisions de la CEDH par l’University College of London qui obtient des résultats meilleurs sur la partie fait que sur la partie analyse du droit). Des systèmes hybrides, fondés sur la construction de modèles mathématiques censés représenter la diversité de raisonnement des juges, ne sont pas plus efficaces car ils restent limités aux biais de l’échantillon de données qu’ils ont traités et nécessitent d’être totalement réécrits en cas de modification de la loi ou de revirement de jurisprudence.

Utilisations à envisager avec les plus extrêmes réserves

  • Utilisation des algorithmes en matière pénale afin de profiler les individus : les expériences étrangères (COMPAS aux Etats-Unis et HART en Grande-Bretagne) ont été dénoncées par des ONG (cf travaux de ProPublica aux Etats-Unis ou de Big Brother Watch en Grande Bretagne). En raison des limites des méthodes employées, cette approche purement statistique a conduit à des résultats erronés : au constat que certains individus afro- américains seraient plus souvent impliqués dans des faits criminels, il en a été déduit un facteur de risque plus élevé pour toute la population afro-américaine. Donc, même pour des faits mineurs, ces systèmes ont pondéré négativement des accusés afro-américains et ont conduit à un injuste alourdissement du quantum de leurs peines. Une orientation différente, plus respectueuse des standards européens concernant la sanction pénale, et qui doit offrir des chances de réhabilitation et de réintégration à tout individu, doit remplacer cette approche aux effets discriminatoires et déterministes. Si des systèmes algorithmiques arrivent à contribuer à une meilleure collecte d’information au profit des services de probation par exemple, et à leur offrir de manière plus rapide les informations pertinentes pour un traitement respectueux des droits de l’Homme, de telles initiatives peuvent être utiles (notamment pour les procédures de jugement rapide). Toute autre utilisation est en revanche sujette à des biais qui heurteront de nombreux principes fondamentaux nationaux et supranationaux.
  • « Norme issue du nombre » : il ne s’agit pas seulement de produire des barèmes, ce qui pourrait être légitime, mais de fournir s à chaque juge le contenu des décisions produite par l’ensemble des autres juges et de prétendre enfermer son futur choix dans la masse de ces « précédents ». Or le nombre ne saurait ajouter à la loi ou s’y substituer. Pour les raisons évoquées ci-dessus, la masse ne fait pas nécessairement sens. L’étude de la CEPEJ a aussi souligné les risques existants en matière de cristallisation de la jurisprudence et de ses effets potentiellement négatifs sur l’impartialité et l’indépendance des juges.
Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.