Le Garant pour la protection des données personnelles, l’autorité de contrôle italienne désignée pour la mise en œuvre du RGPD, annonce ce 31 mars son intention de bloquer provisoirement ChatGPT. Cette décision entraîne la limitation immédiate du traitement des données des utilisateurs italiens par OpenAI, accusée de collecte illicite de données privées mais aussi de ne pas avoir mis en place de systèmes de vérification d’âge pour les moins de 13 ans. Une enquête est d’ailleurs ouverte.
Alors que depuis son lancement en novembre dernier, on entendait parler des prouesses de ChatGPT, l’euphorie qu’il a suscité a été quelque peu douchée cette semaine…
Lundi dernier, Europol a tiré la sonnette d’alarme au sujet d’abus possibles dans l’usage de robots conversationnels tels que ChatGPT, qui pourraient être utilisés à des fins de phishing, de cybercriminalité, de propagande ou de désinformation.
Jeudi, le Center for AI and Digital Policy (CAIDP), organisme de recherche à but non lucratif, portait plainte auprès de la Federal Trade Commission (FTC), l’autorité de protection des consommateurs américaine, contre OpenAI, l’accusant de violer la loi fédérale sur la protection des consommateurs avec GPT-4, qui alimente aujourd’hui ChatGPT.
Vendredi dernier, Elon Musk, Yoshua Bengio et des centaines d’experts appelaient à suspendre temporairement la formation de systèmes d’IA plus puissants que GPT-4.
Que reproche le Garant à OpenAI ?
Dans son communiqué, l’Autorité de contrôle italienne souligne que « ChatGPT a subi le 20 mars une perte de données concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant ».
Elle relève le manque d’information pour les utilisateurs et toutes les parties intéressées concernant les données collectées par OpenAI, mais surtout « l’absence de cadre légal justifiant la collecte et le stockage massifs de données personnelles, à des fins d’entraînement des algorithmes faisant fonctionner ChatGPT ».
Les informations fournies par OpenAI dans le cadre d’audits réalisés par l’Autorité ne correspondent d’ailleurs pas toujours aux données réelles « déterminant ainsi un traitement inexact des données à caractère personnel ».
Elle rappelle que, selon les termes publiés par OpenAI, ChatGPT s’adresse aux personnes âgées d’au moins 13 ans, mais souligne « comment l’absence de tout filtre de vérification de l’âge des utilisateurs expose les mineurs à des réponses totalement inadaptées par rapport à leur degré de développement”.
L’Autorité demande donc à OpenAI de communiquer d’ici 20 jours les mesures entreprises pour remédier à cet état de fait, sous peine d’une sanction allant jusqu’à 20 millions d’euros ou jusqu’à 4 % du chiffre d’affaires mondial annuel.