AI Risk Repository : le MIT publie un référentiel des risques liés à l’IA

Alors que l’IA occupe une place de plus en plus grande dans notre quotidien et que les entreprises sont nombreuses à envisager son adoption, qu’en est-il de notre compréhension des risques liés sur lesquels alertent de nombreux experts ? Les cadres actuels d’évaluation de ces risques, bien qu’utiles, montrent des lacunes significatives. Pour tenter de les combler, les chercheurs du MIT publient “AI Risk Repository”, un référentiel qui comprend une base de données accessible au public, comptant plus de 700 risques liés à l’IA, qui sera élargie et mise à jour pour s’assurer qu’elle reste pertinente.

Ce référentiel a été élaboré par des chercheurs du MIT CSAIL, du MIT FutureTech, de l’Université du Queensland, du Future of Life Institute, de la KU Leuven et d’Harmony Intelligence. En rendant cette base de données accessible au public, ils espèrent non seulement sensibiliser davantage aux risques potentiels de l’IA, mais aussi encourager une collaboration plus étroite entre les différents acteurs concernés, qu’il s’agisse de développeurs, de régulateurs ou de simples utilisateurs. L’objectif est de créer un cadre de référence commun qui facilite la discussion, la recherche et la mise en place de mesures de prévention adaptées, permettant ainsi une adoption plus sûre et plus éthique de l’IA.

Peter Slattery, postdoctorant entrant au MIT FutureTech Lab et actuel chef de projet, explique :

“Étant donné que la littérature sur les risques liés à l’IA est dispersée dans des revues à comité de lecture, des prépublications et des rapports de l’industrie, et qu’elle est très variée, je crains que les décideurs ne consultent involontairement des aperçus incomplets, passent à côté de préoccupations importantes et développent des angles morts collectifs”.

Un référentiel inédit des risques liés à l’IA

Pour construire ce référentiel, les chercheurs ont passé une revue systématique des taxonomies existantes et d’autres classifications structurées des risques liés à l’IA, ce qui leur a permis de recenser et d’analyser 43 cadres déjà en place, d’identifier les forces et les faiblesses de chaque approche. Ils ont intégré les éléments les plus pertinents et robustes de ces différents cadres existants pour créer une classification qui capture de manière complète les divers types de risques associés à l’IA.

 

Ce référentiel se distingue par son approche systématique et exhaustive. Il est structuré autour de deux taxonomies principales. Une taxonomie causale, qui classe les risques selon leurs facteurs d’origine : entité (humain ou IA), intentionnalité et timing (avant ou après déploiement) et une taxonomie de domaine, qui les organise en 7 catégories : la confidentialité et la sécurité, la désinformation, l’interaction homme-machine, les acteurs malveillants et usage abusif, la discrimination et la toxicité, les dommages socio-économiques et environnementaux, et les défaillances et les limites des systèmes d’IA.

Les 7 domaines ont ensuite été divisés en 23 sous-domaines, souvent négligés dans les évaluations traditionnelles. Selon l’examen des chercheurs, les 43 cadres n’ont mentionné que 34 % des 23 sous-domaines de risque identifiés, près d’un quart en couvrant moins de 20 %. Aucun document ou aperçu n’a mentionné la totalité des 23 sous-domaines de risque, les plus complets n’en couvrant que 70 %.

L’analyse montre que certains domaines de risque, tels que la “sécurité des systèmes d’IA” et les “préjudices socio-économiques”, reçoivent une attention disproportionnée par rapport à d’autres, comme “l’interaction homme-machine” ou la “désinformation”. Par exemple, les risques liés à la “discrimination injuste” sont fréquemment abordés, et ont été mentionnés par 62 % des documents alors que des sujets tels que le “bien-être et les droits de l’IA” (2 %) sont presque totalement ignorés.

Chacun des 777 risques extraits des 43 cadres étudiés a été rigoureusement analysé et classé en fonction de cette double taxonomie, qui permet une analyse plus fine et une gestion plus efficace des risques. Les chercheurs ont également souligné que plus de 65 % de ces risques émergent après le déploiement des systèmes d’IA, ce qui met en évidence l’importance de la vigilance continue et de l’adaptation des stratégies de gestion des risques une fois que les technologies sont en usage réel.

Neil Thompson, directeur du MIT FutureTech Lab et l’un des chercheurs principaux du projet, commente :

“Le référentiel des risques d’IA est, à notre connaissance, la première tentative de sélectionner, d’analyser et d’extraire rigoureusement des cadres de risque d’IA dans une base de données de risques accessible au public, complète, extensible et catégorisée. Cela fait partie d’un effort plus vaste visant à comprendre comment nous réagissons aux risques liés à l’IA et à identifier s’il existe des lacunes dans nos approches actuelles”.

Ajoutant :

“Nous commençons par une liste de contrôle complète, pour nous aider à comprendre l’étendue des risques potentiels. Nous prévoyons de l’utiliser pour identifier les lacunes dans les réponses organisationnelles. Par exemple, si tout le monde se concentre sur un type de risque tout en négligeant d’autres d’importance similaire, c’est quelque chose que nous devrions remarquer et aborder”.

Le référentiel est disponible gratuitement en ligne, peut être téléchargé, copié et utilisé. Il continuera d’évoluer au fur et à mesure que de nouveaux risques seront identifiés et que de nouvelles analyses seront effectuées. Les chercheurs encouragent à contribuer à cette ressource afin qu’elle reste pertinente et à jour.

Références de l’article :

Slattery, P., Saeri, A. K., Grundy, E. A. C., Graham, J., Noetel, M., Uuk, R., Dao, J., Pour, S., Casper, S., & Thompson, N. (2024). “Une revue systématique des données probantes et un cadre de référence commun pour les risques liés à l’intelligence artificielle”. http://doi.org/10.13140/RG.2.2.28850.00968

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
Offre exclusive : 1 an d'abonnement au magazine ActuIA + Le guide pratique d'adoption de l'IA en entreprise pour seulement 27,60€ Boutique ActuIA Pour tout abonnement à ActuIA, recevez en cadeau le Guide Pratique d'Adoption de l'IA en Entreprise, d'une valeur de 23€ !
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.