Geoffrey Hinton, un des pionniers de l’IA et du deep learning, a quitté Google Brain, non seulement pour prendre une retraite bien méritée à l’âge de 75 ans, mais surtout pour pouvoir parler librement des dangers potentiels de l’intelligence artificielle. Dans une interview accordée au New York Times le 1er mai dernier, il va jusqu’à regretter le rôle qu’il a joué dans sa conception, ajoutant : « Je me console avec l’excuse normale : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait ».
Suite à différents échecs, la recherche sur les réseaux de neurones a été abandonnée durant quelques années avant de reprendre dans les années 80 sous l’impulsion de Geoffrey Hinton, qui a obtenu son doctorat en intelligence artificielle à l’université d’Edimbourg en 1978. Ce n’est toutefois qu’en 2006 que le chercheur propose le deep learning, une extension des réseaux de neurones implémentant de nombreuses couches de neurones entre les neurones d’entrée et les neurones de sortie.
En 2012, le chercheur britannico-canadien et deux de ses étudiants diplômés de l’université de Toronto, démontraient la supériorité du deep learning sur les meilleurs algorithmes de reconnaissance d’images.
En mars 2019, l’Association for Computing Machinery (ACM) lui remettait le prix Turing qu’il partageait avec Yann LeCun et Yoshua Bengio.
Alors que ce dernier fait partie des signataires de la lettre ouverte « Pause Giant AI Experiments » du 29 mars dernier, appelant tous les laboratoires d’IA à suspendre immédiatement et pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4, ce n’est pourtant pas le cas de Geoffrey Hinton. Pourtant, il partage certaines de leurs convictions, notamment lorsqu’ils déclarent :
« Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ».
Geoffrey Hinton défend toutefois Google, dans un tweet posté le 1er mai à la suite de l’article du New York Times, il assure :
« Au NYT aujourd’hui, Cade Metz sous-entend que j’ai quitté Google pour pouvoir critiquer Google. En fait, je suis parti pour pouvoir parler des dangers de l’IA sans tenir compte de l’impact que cela a sur Google. Google a agi de manière très responsable ».
L’IA, une possible menace pour l’humanité
Pour ce pionnier de l’IA, si confiant dans l’avenir de cette technologie, les perspectives de l’IA sont aujourd’hui effrayantes. Faisant allusion aux récents développements de l’IA, il a déclaré à la BBC :
« Le problème, c’est que cela fonctionne tellement mieux que ce qu’on imaginait. Alors que faire pour réduire le risque qu’à long terme des choses plus intelligentes que nous prennent le contrôle ? »
Ajoutant :
« Regardez où nous en étions il y a cinq ans et la situation actuelle. »
Il craint qu’Internet ne soit inondé de faux articles, de fausses photos ou vidéos, et que « les gens normaux ne puissent plus distinguer le vrai du faux ».
Tout comme les signataires de la lettre ouverte, il redoute également la disparition de certains métiers : les chatbots comme ChatGPT pourraient « remplacer les parajuristes, les assistants personnels, les traducteurs et autres qui gèrent les tâches par cœur », « Cela enlève le travail pénible, cela pourrait en retirer plus ».
Pur lui, les nouvelles technologies représentent une possible menace pour l’humanité, il s’inquiète du fait qu’elles tombent entre de mauvaises mains et de l’arrivée d’armes totalement autonomes.
Il confie au New York Times :
« L’idée que ce genre de choses pourraient en fait devenir plus intelligentes que les gens – quelques personnes le croyaient, mais la plupart des gens pensaient que c’était loin. Et je pensais que c’était loin. Je pensais que cela adviendrait dans 30 à 50 ans ou même plus. Évidemment, je ne pense plus comme ça ».