De nombreuses actualités relaient une information selon laquelle le véhicule autonome Uber aurait choisi de ne pas éviter le piéton. Une fois de plus, nous ne pouvons qu’inviter nos lecteurs à se méfier des titres dont le seul but est d’attirer les clics.
Outre le fait que des titres de ce type soulèvent de nombreuses questions sur la déontologie (ou la compétence en la matière) de certains journalistes, cela risque d’avoir de lourdes conséquences sur la société, en propageant une idée erronée de ce qu’est l’intelligence artificielle. Qui n’aurait pas peur d’une intelligence artificielle qui renverse volontairement des piétons ?
Alors, que s’est il réellement passé ?
Afin de pouvoir répondre à cette question, il suffit de rappeler que l’intelligence artificielle est une science reposant avant tout sur les probabilités mathématiques. Ainsi, lorsqu’un véhicule autonome circule, il analyse un à un la totalité des éléments qui se situent dans son environnement.
Chaque élément est évalué avec un score de probabilité, indiquant par exemple quelle est la probabilité pour qu’un élément soit un individu, un obstacle matériel, ou même un simple effet d’optique. De même, leur trajectoire est également évaluée selon un score de probabilité.
Il faut savoir que les probabilités ne fonctionnent pas de façon binaire, il est souvent impossible, même pour les humains, d’obtenir une certitude à 100%.
C’est exactement la même chose lorsque l’on conduit. C’est d’ailleurs la raison pour laquelle dans certains pays, de faux agents de la circulation en carton sont positionnés sur le bord des routes. De loin, nous pouvons tout à fait penser qu’il s’agit de réelles personnes, puis en nous en approchant nous nous rendons progressivement compte qu’il s’agit de simples leurres. Nous faisons donc évoluer un score de probabilité interne proche de 100% dans un premier temps vers un score presque nul dès que nous arrivons à la hauteur de ces mannequins.
Ce que nous apprennent les sources à l’origine de cette information, c’est que le piéton avait été détecté par la voiture, mais qu’il n’avait pas été considéré comme étant un piéton.
La voiture n’a donc en aucun cas “choisi” de renverser un piéton.
Cela n’enlève rien au fait que cet accident est dramatique et qu’il aurait dû être évité. On peut estimer que l’intelligence artificielle a “manqué de réflexe” (de réactivité), ou que son évaluation de la situation n’est pas suffisamment pertinente. Il n’est pas normal qu’elle n’ait pas détecté qu’il s’agissait d’un piéton. Mais il est totalement faux et grave de déclarer que le véhicule a choisi d’écraser un piéton. La nuance est loin d’être subtile, on pourrait presque parler de diffamation.