Le Ministère de la Justice abandonne le développement de DataJust, l’algorithme devant aider au calcul de l’indemnisation des préjudices corporels

Selon Acteurs Publics, le Ministère de la Justice aurait décidé l’abandon du développement de DataJust jeudi 13 janvier. L’objectif de ce projet était la création d’un référentiel officiel d’indemnisation, basé sur l’intelligence artificielle, visant à informer les victimes d’accidents corporels mais aussi à apporter une aide à la décision aux juges chargés d’estimer le montant des indemnités.

C’est durant le confinement, le 27 mars 2020, que DataJust, traitement automatisé de données à caractère personnel, a été autorisé par décret. Vu le contexte, il est tout d’abord passé inaperçu avant de susciter de vives critiques, y compris des professionnels du droit. Sophie Ferry, présidente de la commission Prospective et Innovation du Conseil National du Barreau avait déclaré :

“Nous ne sommes pas opposés par principe à ce projet, mais nous ne pouvons pas être favorables à une situation sans garantie de protection des droits des personnes et à laquelle nous n’avons pas été associés”

Le 30 décembre dernier, le Conseil d’Etat approuvait le décret et rejetait la requête de l’association de promotion et de défense des libertés fondamentales dans l’environnement numérique “La Quadrature du Net” qui portait sur “un traitement de données personnelles qui ont été collectées pour des finalités manifestement incompatibles avec celles prévues par le traitement DataJust”. L’abandon du projet, à première vue incompréhensible, serait dû à une trop grande complexité du développement.

DataJust, une expérimentation de 2 ans

Le traitement autorisé par ce décret visait à développer un algorithme, chargé d’extraire de manière automatique et d’exploiter les données contenues dans les décisions de justice portant sur l’indemnisation des préjudices corporels. Il s’agissait plus précisément de recenser les montants demandés et offerts par les parties aux instances, les évaluations proposées dans le cadre de procédures de règlement amiable des litiges et les montants alloués aux victimes par les juridictions. L’équipe chargée du développement avait déclaré que :

“les victimes pourraient comparer en pleine connaissance de cause les offres d’indemnisation des assureurs et les montants qu’elles pourraient obtenir devant les tribunaux ; les avocats disposeraient d’informations fiables leur permettant de conseiller leurs clients ; les magistrats auraient un outil d’aide au chiffrage des préjudices grâce à un accès facilité à des jurisprudences finement ciblées”.

Cette expérimentation, mise en place pour une durée de deux ans, s’est appuyée sur des données extraites de décisions d’appel rendues entre le 1er janvier 2017 et le 31 décembre 2019 par les juridictions administratives et civiles dans le cadre de contentieux portant sur l’indemnisation de préjudices corporels. Les analyses prévues concernaient :

  • les noms et prénoms des personnes physiques mentionnées dans les décisions de justice, à l’exception de ceux des parties; la sélection d’une catégorie particulière de personnes à partir de ces seules données était interdite.
  • des éléments d’identification des personnes physiques,
  • des données et informations relatives aux préjudices subis,
  • des données relatives à la vie professionnelle et à la situation financière,
  • des avis des médecins et experts ayant examiné la victime et le montant de leurs honoraires,
  • de données relatives à des infractions et condamnations pénales et relatives à des fautes civiles,
  • le numéro des décisions de justice.

Les données ne peuvent être conservées que 2 ans

Le décret prévoyait que : “les informations et données à caractère personnel enregistrées sont conservées pour la durée nécessaire au développement de l’algorithme, cette durée ne pouvant en tout état de cause excéder deux années à compter de la publication du décret Datajust.” 

Base de données incomplète et biaisée

Il ne restait donc qu’un peu plus de deux mois pour achever le développement de DataJust, ce qui devenait de plus en plus irréalisable dans les délais prévus. Les décisions de première instance n’avaient pas été prises en compte, la base de données de l’algorithme était donc biaisée. D’autre part, l’expertise d’un préjudice corporel est très compliquée :“la mobilisation de moyens nécessaires, notamment pour étudier et prévenir les biais algorithmiques, était trop conséquente pour atteindre un niveau de performance indiscutable”, a rapporté Acteurs Publics.

Le Ministère de la Justice n’a pas confirmé l’arrêt du développement de DataJust.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.