Face aux robots tueurs, un rapport demande la négociation d’un nouveau traité pour protéger les populations

Début décembre, alors que les gouvernements se réunissaient au palais des Nations unies à Genève pour décider de l’opportunité d’ouvrir des négociations permettant de mettre en place de nouvelles normes internationales sur les systèmes d’armes létales autonomes (appelées « robots tueurs »), des membres de la campagne contre ces robots ont manifesté en arborant le slogan « Stop Killer Robots ». Ils appellent les gouvernements à s’opposer au développement de systèmes d’armes capables de sélectionner et d’attaquer des cibles sans aucune intervention humaine. Les inquiétudes et l’incertitude juridique à ce sujet révèlent un besoin de règlementation.

Des systèmes d’armes létales autonomes sans véritable contrôle

Un rapport intitulé « Crunch Time on Killer Robots: Why New Law Is Needed and How It Can Be Achieved » (« Urgence au sujet des robots tueurs : Nécessité d’une nouvelle loi et comment y parvenir ») et publié ce mois-ci enjoint les gouvernements à ouvrir des négociations afin d’aboutir à un nouveau traité pour conserver un contrôle humain de l’usage de la force. Ce rapport de 23 pages a été écrit par Human Rights Watch et l’International Human Rights Clinic de la faculté de droit de Harvard. Il constate que le droit international devrait être renforcé et clarifié pour protéger l’humanité des dangers que représentent les systèmes d’armes létales autonomes. En effet, ces armes choisissent des cibles et les visent sans véritable contrôle humain.

Bonnie Docherty, chercheuse senior auprès de la division Armes à Human Rights Watch et directrice adjointe chargée des conflits armés et de la protection civile à la Harvard Human Rights Clinic, déclare :

« Après huit ans de discussions sur les lourdes conséquences de l’abandon du contrôle humain de l’usage de la force, les pays devraient maintenant décider de répondre à ces menaces. Il faut d’urgence élaborer un traité pour remédier aux lacunes du droit international humanitaire, et l’actualiser de manière à répondre aux questions légales, éthiques et sociétales liées à l’intelligence artificielle actuelle et aux technologies émergentes. »

Protéger l’humanité des robots tueurs

La sixième conférence d’examen de la Convention sur l’emploi de certaines armes classiques (CCAC), qui s’est tenue du 13 au 17 décembre, est un tournant essentiel des discussions sur les robots tueurs. Lors de la dernière réunion en septembre, la plupart des pays ont appelé à l’adoption d’un nouvel instrument contraignant sur les systèmes d’armes létales autonomes. Le Chili, le Mexique et le Brésil ont pressé les parties à la convention de se mettre d’accord pour entamer des négociations à cette fin. Ils ont en cela été rejoints par d’autres États parmi lesquels le « groupe des 10 » (Argentine, Costa Rica, Équateur, El Salvador, Palestine, Panama, Pérou, Philippines, Sierra Leone et Uruguay) et les membres du Mouvement des non-alignés.

D’autres espaces de négociation existent, outre la CCAC, il est possible de lancer un processus indépendant – tel celui qui a permis d’aboutir aux traités interdisant les mines antipersonnel et les armes à sous-munitions –, ou recourir à l’Assemblée générale des Nations unies.

Actuellement, comme le rappellent Human Rights Watch et la Harvard Clinic, le droit humanitaire international ne permet pas de répondre aux problèmes que posent les systèmes d’armes létales autonomes. L’élaboration d’une nouvelle norme bénéficie d’un large soutien, elle permettrait en effet de répondre aux préoccupations soulevées par ces systèmes d’armes sur les plans du droit international humanitaire, de l’éthique, du droit international des droits humains, de la responsabilité et de la sécurité.

Ce nouveau traité devrait couvrir les systèmes d’armes qui choisissent et visent les cibles en fonction d’informations données par des capteurs et non des êtres humains, c’est-à-dire qui reposent sur des algorithmes d’apprentissage automatique produisant des effets imprévisibles ou inexplicables. Certains pays ont également exprimé le souhait d’interdire les systèmes d’armes qui reposent sur des profils biométriques et d’autres données recueillies par des capteurs qui identifient, sélectionnent et attaquent des personnes ou des catégories de personnes.

Ces interdictions devraient, selon le souhait de certains pays, être complétés par une règlementation visant à assurer que tous les autres systèmes d’armes autonomes ne soient utilisés que s’ils sont effectivement commandés par des êtres humains. Le terme « contrôle humain significatif » pour une technologie signifie qu’elle doit impérativement être compréhensible, prévisible et restreinte dans l’espace et dans le temps.

Des avancées vers des négociations dans le cadre de la CCAC sont peu probables puisque cet organisme prend ses décisions au consensus et que plusieurs puissances militaires y sont opposés, en particulier l’Inde, la Russie et les États-Unis, estimant que le droit international humanitaire actuel suffit pour remédier à tous les problèmes que soulèvent ces systèmes d’armes. Ces pays, et d’autres tels que l’Australie, la Chine, la Corée du Sud, Israël et la Turquie investissent lourdement dans les applications militaires de l’intelligence artificielle et des technologies associées afin de concevoir des systèmes d’armes autonomes aériens, terrestres et navals.

Bonnie Docherty a indiqué :

« Un processus indépendant de négociation d’une nouvelle norme sur les robots tueurs serait plus efficace et plus inclusif que les pourparlers diplomatiques en cours et les autres solutions envisagées. Mais accélérer ce processus ne sera possible qu’avec le soutien actif des dirigeants politiques. »

Vers une interdiction pure et simple ?

L’interdiction des robots tueurs est de plus en plus réclamée par des citoyens, des pays, des institutions ou des entreprises privées, comme l’a fait en mai 2021 le Comité international de la Croix-Rouge qui a appelé les États à négocier un traité international qui interdise les systèmes d’armes autonomes imprévisibles ou qui ciblent des personnes, et à adopter des règlementations visant à assurer un contrôle humain significatif sur les autres systèmes. Depuis 2018, le Secrétaire général des Nations unies, António Guterres, invite les États à interdire les armes qui ciblent et attaquent d’elles-mêmes des êtres humains, les qualifiant de « politiquement inacceptables et moralement révoltantes ».

Human Rights Watch est cofondateur de la campagne Stop Killer Robots qui réunit plus de 185 organisations non gouvernementales issues de 67 pays plaidant pour un traité qui impose le maintien d’un contrôle humain significatif sur l’emploi de la force et qui interdise les systèmes d’armes fonctionnant de manière autonome.

Bonnie Docherty conclut :

« Une grande part de cette opposition repose sur la répulsion morale à l’idée que des machines puissent décider de la vie et de la mort de personnes. Un nouveau traité permettrait de combler le vide juridique international par un nouveau traité et de protéger les principes d’humanité que nous dicte notre conscience face aux technologies militaires émergentes. »

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.