Plus de 3100 employés de Google ont envoyé une lettre à Sundar Pichai, dévoilée par le New York Times, pour protester contre la participation du groupe américain à un programme du Pentagone. Des critiques contre “le business de la guerre” qui mettent de nouveau en avant les problèmes éthiques que pose le développement de l’intelligence artificielle mais aussi “le conflit culturel opposant Silicon Valley au gouvernement fédéral”.
Google avait reconnu en mars dans le magazine Gizmodo la mise à disposition d’un programme d’intelligence artificielle à l’armée américaine dans le cadre du projet Maven, lancé en avril 2017. Ces technologies étaient destinées selon le Pentagone à “rendre rapidement intelligible l’énorme volume de données accessibles au ministère de la défense”.
Ce projet découle de l’investissement de 7,4 milliards de dollars réalisé par le Pentagone pour l’intelligence artificielle et le traitement des données. C’est à ce titre que le Ministère de la Défense a contacté des entreprises, experts, chercheurs et universitaires pour développer l’application de ces nouvelles technologies. Google avait indiqué dans son communiqué aider à analyser des images de drones en fournissant des accès à TensorFlow. Utilisé à des fins de renseignement sur des photos ou des vidéos, le logiciel permet de mieux identifier des individus, des véhicules ou des bâtiments et donc d’améliorer tant la surveillance que la reconnaissance de cibles potentielles.
Si Google avait indiqué que ces technologies mises à disposition dans le cadre du projet Maven avaient “un usage non-offensif” et que des précautions avaient été prises, notamment des “règles et garde-fous autour du développement et de l’usage de ses technologies de machine learning”, cela n’a pas suffi à rassurer de nombreux employés de la firme américaine.
“Nous estimons que Google ne devrait pas être impliqué dans le business de la guerre. Par conséquent, nous demandons que le projet Maven soit annulé et que Google rédige, publie et applique une politique claire stipulant que ni Google ni ses sous-traitants ne construiront de technologie de guerre”.
Les employés ayant rédigé et signé la lettre sont en désaccord avec la participation à ce projet. Pour eux :
“Construire cette technologie pour aider le gouvernement américain dans la surveillance militaire, avec donc des conséquences potentiellement mortelles, n’est pas acceptable”.
Une telle participation pourrait en effet avoir des répercutions pour la firme et les employés évoquaient notamment que cela :
“endommagera irrémédiablement la marque de Google et sa capacité à rivaliser pour attirer les talents dans l’entreprise (…)
L’argument selon lequel d’autres entreprises comme Microsoft et Amazon participent également ne rendent pas l’opération moins risquée pour Google
(…) Nous ne pouvons pas nous dédouaner de la responsabilité de nos technologies et la laisser peser sur les tiers.
Le lettre reprend également le slogan informel de Google “Do not Be Evil” (Ne soyez pas malveillants).
Ce n’est pas la première fois que des craintes et des protestations se font entendre quant à l’utilisation de l’intelligence artificielle à des fins militaires. Et, comme l’indique le New York Times, cela risque de “s’intensifier avec l’utilisation de plus en plus fréquente de l’intelligence artificielle à des fins militaires”. Il n’existe actuellement aucune loi internationale contraignante et on ne sait pas à quel degré les systèmes IA seront utilisés en cas de guerre. La course à l’armement a déjà bien commencé dans ce domaine. En France, la défense fait partie des quatre secteurs prioritaires en matière d’IA identifiés par le rapport de la mission Villani, avec la santé, l’environnement et les transport.