Le 22 septembre 2022, ANITI, l’Institut Interdisciplinaire d’Intelligence Artificielle de Toulouse (ANITI) et Ekitia (ex Occitanie Data), lançaient une consultation citoyenne régionale sur les connaissances, l’acceptabilité et les enjeux éthiques des technologies émergentes liées au big data et à l’IA. Ils en publient aujourd’hui les résultats.
ANITI, Artificial and Natural Intelligence Toulouse Institute, fait partie, avec Grenoble, Nice et Paris, des quatre instituts interdisciplinaires d’intelligence artificielle (3IA) qui ont été mis en place pour une durée de 4 ans renouvelable dans le cadre du Programme Investissements d’Avenir du plan Villani. Il compte plus de 200 chercheurs, plus de 50 partenaires et 24 chaires scientifiques.
Ses activités s’adressent principalement à la mobilité, les transports et la robotique/cobotique pour l’industrie du futur, elles reposent sur 3 grands piliers : recherche scientifique, formation et contribution au développement économique.
Lorsque l’Institut a lancé cette consultation citoyenne avec Ekitia, ChatGPT n’avait pas encore suscité l’engouement général et les débats sur les systèmes d’IA générative. Il a depuis créé un groupe de travail consacré à cette thématique et publié en juin dernier un position paper pour une IA générative de confiance.
La consultation citoyenne
Ekitia, association créée en 2019 pour développer un cadre de confiance et éthique pour l’économie de la donnée, dans le respect des intérêts des individus et des propriétaires des données, et ANITI avaient fait le constat qu’il n’y a pas de connaissance claire sur l’opinion de la population quant aux potentialités de l’IA et leur place dans la société de demain. Ils ont donc décidé de lancer une consultation afin de mieux appréhender les perceptions et les attentes de la population à l’égard de l’IA.
Les 2 partenaires, soutenus par la Région Occitanie, ont été accompagnés dans l’élaboration de la méthodologie par un comité scientifique pluridisciplinaire composé de chercheurs, d’industriels, de représentants de l’Éducation Nationale et de citoyens. La consultation s’est déclinée en quatre enquêtes distinctes, chacune spécifique à un public cible : collégiens, étudiants, professionnels du numérique et néophytes.
Elle abordait les connaissances en matière d’IA et l’appréhension des citoyens par rapport à des enjeux essentiels comme l’usage des données personnelles, la collaboration humain-machine, la non-discrimination ou la sobriété énergétique et a reçu 3 707 réponses.
L’étude des résultats a permis aux membres du groupe de travail de l’enquête de tirer 6 enseignements principaux, qui les ont amené a proposé 4 recommandations.
Les six principaux constats de l’enquête sont les suivants :
- l’IA est appréhendée de manière très variable d’un individu à l’autre ;
- les connaissances de l’IA sont irrégulières ;
- il existe une forte défiance dans l’utilisation de données personnelles pour améliorer les services, y compris les services publics ;
- la finalité est clé dans l’acceptation de l’IA ;
- l’IA est acceptée comme indispensable mais elle n’est pour autant pas neutre;
- les citoyens sont en faveur d’un développement de l’IA, sous certaines conditions.
Les quatre recommandations du groupe de travail
Suite à ces constats, il apparaît pour le groupe de travail de l’enquête essentiel de :
Augmenter les connaissances :
- en poursuivant et amplifiant les actions de sensibilisation et de formation à tout âge ;
- en partageant une définition consensuelle de l’IA, de ses propriétés et des critères permettant de la quantifier.
Rendre les usages des données et de l’IA plus transparents :
- en renforceant la vigilance.
Démystifier les possibles applications et usages de l’IA :
- en priorisant une explication dans les secteurs identifiés comme prioritaires pour le déploiement de l’IA
Garantir des applications éthiques de l’IA :
- en anticipant la future réglementation de l’IA :
- en appliquant une démarche réglementaire dès la conception de tout projet d’IA ;
- en impliquant davantage les citoyens.
Retrouver tous les résultats ici