Robots tueurs : les Nations Unies peinent à poser un cadre juridique à l’emploi des armes létales autonomes

Robots-tueurs-Nations-Unies-armes-létales-autonomes

Dès 2013, les Systèmes d’Armes Létales Autonomes (SALA) ont fait l’objet de discussions lors de la Convention des Nations Unies portant sur les Armes Classiques (CCAC). Fin 2021, le sujet a de nouveau été abordé par les 125 Etats réunis à Genève mais, faute d’entente, le dossier, renvoyé devant les experts gouvernementaux, sera de nouveau traité cette année.

Les SALA

À la pointe des hautes technologies, utilisant des intelligences artificielles, les SALA, ne font pas à ce jour l’objet d’une définition commune, ni d’un encadrement international. Ils suscitent de vives inquiétudes, notamment d’ordre éthique et juridique, interrogent par rapport au droit international humanitaire (DIH), tandis que des discussions ont été engagées dès 2013 à Genève dans le cadre de la convention sur certaines armes classiques (CCAC) de 1980, amendée en 2001.

Pour nombre d’entre nous, les robots tueurs font partie de la science fiction et l’opinion publique mondiale ne semble pas concernée par les problèmes qu’ils soulèvent d’ores et déjà. Pourtant, des organisations comme “Stop Robot Killers” ou “Human Rights Watch” ont, dès 2013, lancé une campagne visant à l’interdiction d’armes entièrement autonomes à laquelle de nombreux pays ont adhéré et réclamant une loi en ce sens. Mary Wareham, coordinatrice de la campagne, a déclaré :

“Si ces dirigeants politiques sont vraiment déterminés à lutter contre la menace posée par les robots tueurs, ils devraient alors débuter des négociations sur un traité les interdisant et exiger le maintien d’un contrôle humain significatif sur les systèmes d’armes et le recours à la force.”

La Course aux SALA

Si certains pays se déclarent contre le développement de SALA et adhèrent à la campagne de “Stop Robot Killers”, d’autres sont plus mitigés, voire pour… Le Comité d’Ethique de l’Armée Française, quant à lui, réprouve “les robots, boostés par l’intelligence artificielle, qui utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles” mais n’est pas vraiment contre les armas robotisées pilotées par l’homme.

Toutes les grandes puissances investissent dans l’intelligence artificielle pour leurs armées. Vladimir Poutine a déclaré au sujet de l’IA en 2017:

 “Celui qui deviendra le leader dans ce domaine sera le maître du monde.”

Des systèmes d’armes semi-autonomes ont été employées lors des dernières guerres “modernes”: les drones, les missiles, les chars, les sous-marins… mais ils sont supervisés par l’homme. Selon les experts, qu’un robot tueur puisse décider seul d’attaquer grâce à des caméras, des capteurs, des logiciels de reconnaissance visuelle, des algorithmes, ne dépend que de la décision des autorités, la technologie est pratiquement opérationnelle.
Les Etats-Unis, La Chine, la Russie, la Corée du Sud, l’Australie, l’Inde, la Turquie et Israël investissent dans le développement de systèmes d’armes autonomes meurtriers  qui peuvent identifier, cibler et tuer une personne par eux-mêmes sans qu’aucune loi internationale ne régisse leur utilisation.

Une déresponsabilisation de l’homme

Donner une décision de vie et de mort à une technologie à partir de données pose évidemment un problème d’éthique. Une machine ne comprendra jamais le contexte d’une action ni ses conséquences. Sans l’intervention humaine, la proportionnalité d’une attaque, la distinction entre civils et militaires ne seront pas prises en compte par le système d’IA. Les droits de la guerre seront bafoués : un groupe d’hommes voulant se rendre, par exemple, sera reconnu comme des attaquants et abattus… Noel Sharkey, président du Comité International pour le contrôle des armes robotisées, expert en IA et en robotique à l’université britannique de Sheffield, a déclaré :

“Ne vous laissez pas tromper par l’absurdité de l’intelligence de ces armes… Vous ne pouvez tout simplement pas faire confiance à un algorithme – aussi intelligent soit-il – pour rechercher, identifier et tuer la bonne cible, surtout dans la complexité de la guerre”

Un cadre juridique nécessaire

Une course à l’armement des SALA est déjà engagée, la protection des civils n’y entre pas réellement en compte et les robots tueurs pourraient être victimes de cyberattaques pouvant entraîner des conflits mondiaux. Le danger est réel et une loi pour s’en protéger indispensable. Même si de plus en plus de gouvernements, d’institutions, d’experts en IA , de scientifiques… appellent à une réglementation des SALA, des pays s’y opposent : la Russie, les Etats-Unis, l’Inde et Israël en tête et rendent la mise en place d’une loi impossible à ce jour. Si la CCAC n’a pu aboutir sur des recommandations tangibles, un nouveau traité international pourrait cependant être adopté par le biais d’un processus indépendant.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
1 an d'abonnement au magazine de référence sur l'IA pour 27,60€ Boutique ActuIA Recherche, Business, Impact : Restez à la page en matière d'intelligence artificielle.
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.