L’Université de Cambridge et la police de Durham, au Royaume-Uni, ont conçu une intelligence artificielle pour pour mieux évaluer les risques que représentent les suspects. Rapportée par la BBC, cette nouvelle intervient après que plusieurs États américains se soient également équipés de programme de ce type.
HART, un programme d’intelligence artificielle basé sur l’apprentissage automatique
Durham est une ville du nord-est de l’Angleterre comptant près de 50.000 habitants. Les forces de l’ordre locales pourront bientôt compter sur HART (Harm Assessment Risk Tool). Il a pour objectif de les aider à savoir si tel suspect doit être placer en détention, ou non.
Afin de pouvoir s’entraîner, le programme a eu accès à cinq ans d’archives de la police de la ville (2008 – 2012). Son apprentissage s’est basé sur les décisions que les policiers avait pris et sur le taux de récidive des suspects. HART peut donc analyser certaines données d’un suspect (âge, casier judiciaire, délit, code postal, etc.) et prévoir le risque de récidive: faible, moyen ou élevé.
Un système polémique
HART a fait l’objet d’un premier test en 2013. Il a ensuite fallu deux ans pour que l’équipe puisse évaluer le taux de récidive des suspects de l’époque. Les résultats ont satisfaits la police de Durham qui a donc adopté le programme.
Comme l’indique Sheena Urwin, l’une des représentantes de HART, les prévisions de risques faibles se sont révélées exactes 98% des fois. Dans le même temps, HART a vu juste 88% des fois pour les risques élevés. Le système a été développé pour sur-représenter les cas de risque élevé dans une optique sécuritaire.
La police de Durham a indiqué que HART serait pour l’instant utilisé sur des cas choisis aléatoirement. Les agents pourront suivre ses analyses, ou non, afin de déterminer s’ils doivent procéder à la détention du suspect. L’objectif n’est donc pas de laisser HART influencer toutes les décisions policières mais plutôt de continuer à évaluer le programme tout en formant les agents à son utilisation.
Aux Etats-Unis, Compas, un programme de ce type, est également utilisé dans certains États. Il a récemment fait la Une car on le soupçonne de racisme envers les Afro-Américains. Le problème viendrait du système d’apprentissage automatique. Le programme apprend à partir de décisions humaines qui peuvent être biaisées. Le risque qu’il reproduise le même type d’analyse est donc important.