La généralisation des algorithmes d’intelligence artificielle implique de nouveaux problèmes : hormis la maintenance et l’évolution de ces systèmes, il s’agit également d’éviter des dérives. L’un des problèmes majeurs que peuvent rencontrer les modèles d’IA actuellement concerne les biais. Il en existe de plusieurs sortes : discrimination sur la couleur de peau, la religion, l’âge ou encore la nationalité, entre autres. Des initiatives ont été mises en place à différents niveaux (entreprises, national, international, etc.) pour travailler sur ce sujet. Focus aujourd’hui sur les Bias Buccaneers, une équipe de bénévoles issus de plusieurs sociétés, et le concours qu’ils ont lancé l’an dernier.
Un système de primes pour découvrir des biais et faire avancer l’IA
Le secteur de l’intelligence artificielle dans son ensemble est en ébullition depuis maintenant quelque temps. Les découvertes majeures se succèdent, et aujourd’hui, les algorithmes qui nous accompagnent sont légion. Cependant, ces nouvelles technologies en lien avec le machine learning apportent à la fois une évolution mais également des comportements inappropriés, contre lesquels il faut lutter.
Les biais des algorithmes peuvent reproduire ceux de la vie courante, notamment sur des sujets tels que l’accès à l’emploi ou au logement. Afin de répondre à ces enjeux immenses pour notre société, un groupe d’experts en intelligence artificielle et en apprentissage automatique a lancé le concours 8-bBB (8-bit Bias Bounty) afin de lutter contre ces préjugés. Les participants devaient former une équipe et développer leur propre outil d’identification et d’atténuation des biais dans les modèles d’IA. Les contributeurs ont eu accès à un ensemble de données de 15 000 images de visages humains générés synthétiquement.
Un modèle de ML précis et un code rapide, les deux clés du succès
L’organisation de ce concours a été faite avec des bénévoles qui viennent du réseau social Twitter, mais également d’entreprises comme Splunk (société de logiciels), ou encore Reality Defender (startup spécialisée dans la détection de deepfake). Tous, ensemble, forment l’équipe des « Bias Buccaneers ». La première phase du concours s’est concentrée sur les images biaisées, qui ont notamment déjà été médiatisées dans des affaires de racisme.
Concrètement, les participants ont eu à créer un modèle d’apprentissage automatique, qui va venir étiqueter le teint de la peau, son sexe et son groupe d’âge. Ceci dans le but d’aider la mesure et la détection des biais dans les ensembles de données fournis. Pour établir le classement, la précision du modèle ainsi que la durée d’exécution du code seront les deux critères principaux.
Les gagnants du 8-Bit Bias Bounty
Le concours a attiré des participants du monde entier, allant des praticiens chevronnés du ML aux étudiants. Soutenu par Reality Defender, Robust Intelligence, Microsoft et AWS, le 8-Bit Bias Bounty a annoncé ses gagnants :
- Modèle supervisé :
- Premier prix : Prakhar Ganesh alias Breeze (6 000 )
- Troisième prix : Justin Chung Clark alias Squashbuckler (2 000 )
- Mention spéciale pour l’approche la plus innovante :
- OII Crew (André Bean, Jonathan Rystrom et Lujain Ibrahim)
Une initiative dans le sens de la règlementation
D’après les régulateurs en intelligence artificielle et les experts du domaine, les contrôles d’algorithmes vont se généraliser, et pourraient même devenir une obligation légale dans certaines juridictions. Les nouvelles lois de l’Union européenne sur la modération du contenu d’une part, et celle sur les services numériques d’autre part, incluent des impératifs d’audits pour les grandes entreprises technologiques qui utilisent des algorithmes. Des votes futurs des instances européennes à ce sujet pourraient également donner accès à l’inspection de ces systèmes d’IA aux autorités.
Pour le moment, l’absence d’indépendants en nombre suffisant pourrait créer un écart entre la demande d’audit et l’offre sur le marché. De plus, certaines structures sont et seront réticentes à ouvrir leurs systèmes à des personnes extérieures. Dans tous les cas, le concours organisé jusqu’à fin novembre pourrait inciter des spécialistes en data, mais également en cybersécurité, à s’intéresser à cette nouvelle approche d’audit. À terme, le but des Bias Buccaneers est de créer et développer une filière d’experts en diagnostic d’intelligence artificielle.
Le premier pas vers des algorithmes optimisés
L’initiative des Bias Buccaneers est la première étape vers la démocratisation d’audits et de surveillance d’algorithmes. Pour Sara Hooker, dirigeante de Cohere AI, un laboratoire de recherche sur l’intelligence artificielle à but non lucratif, des concours comme le 8-bBB permettent aux experts de l’apprentissage automatique d’appréhender la conception d’audits, tout en accumulant une solide expérience dans le domaine.
Aujourd’hui, l’aspect sécuritaire des algorithmes que les entreprises utilisent et vont utiliser est une question primordiale. Les scénarios de science-fiction qui décrivent un modèle de machine learning qui se retourne contre ses créateurs restent pour le moment derrière un écran. Cela étant dit, les problématiques de discriminations existent quant à elles bel et bien. Un «nettoyage» est donc de mise pour garantir l’absence de données corrompues.
Le prochain événement se tiendra du 24 au 27 avril 2023 à l’occasion de la RSA Conférence à San Francisco.