C’est sur le site de l’Institut Future of Life que la lettre ouverte « Pause Giant AI Experiments », appelant tous les laboratoires d’IA à suspendre immédiatement et pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4, a été publiée ce mercredi 29 mars.
En fin d’après-midi, la pétition avait déjà recueilli 1279 signatures et le site annonçait :
« En raison de la forte demande, nous recueillons toujours des signatures, mais suspendons leur apparition sur la lettre afin que nos processus de vérification puissent rattraper leur retard. Notez également que les signatures en haut de la liste sont toutes vérifiées indépendamment et directement ».
Parmi les signataires des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, notamment Elon Musk et Yuval Noah Harari, l’auteur de « Sapiens », mais également le cofondateur d’Apple, Steve Wozniak, le cofondateur de Skype Jaan Tallinn, des chercheurs et des experts en IA comme Yoshua Bengio, pionnier du deep learning, Directeur scientifique du Mila, l’informaticien Stuart Russell, Régis Sabbadin, chercheur en IA à l’Inrae, ou Malik Ghallab, Directeur de recherche émérite au CNRS qui avait signé en 2018 une lettre ouverte demandant à l’UE de fixer un cadre juridique sur le développement de l’intelligence artificielle et de la robotique.
Pause Giant AI Experiments
Selon cette lettre ouverte réclamant une pause non pas dans le développement de l’IA en général, mais simplement un recul de la course dangereuse vers des modèles de boîtes noires imprévisibles, toujours plus grands :« les systèmes d’IA dotés d’une intelligence concurrentielle humaine peuvent présenter des risques profonds pour la société et l’humanité ».
Elle fait référence à la déclaration du mois dernier de Sam Altman, le PDG d’OpenAI, concernant l’intelligence artificielle générale qui reconnaît que « à un moment donné, il peut être important d’obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles ».
Selon les signataires, « Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ».
Pour eux, « les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables”.
Ils questionnent: « devrions-nous laisser les machines inonder nos canaux d’information de propagande et de mensonge ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont épanouissants ? Devrions-nous développer des esprits non-humains qui pourraient éventuellement nous surpasser en nombre, nous déjouer, nous rendre obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? ».
Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus, selon les signataires.
Ils ajoutent que « les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés de l’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants ».
« La recherche et le développement en IA devraient être recentrés sur la création de systèmes puissants et à la pointe de la technologie d’aujourd’hui plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux ».
La pause qu’ils réclament « devrait être publique et vérifiable, et inclure tous les acteurs clé. Si une telle pause ne peut être adoptée rapidement, les gouvernements devraient intervenir et instituer un moratoire ».
Il est fortement improbable qu’une telle pause soit respectée par l’ensemble des acteurs, mais cet appel a pour mérite d’alerter le public sur l’importance des enjeux liés à l’IA pour nos sociétés.
Cette alerte est loin d’être la première du genre, mais les dernières avancées laissent penser que nous sommes à l’aube d’importants bouleversements du marché du travail. Les mutations en cours doivent être anticipées, mais peut-on réellement arrêter l’innovation en marche ?