Intelligence artificielle Comment faire de l'IA éthique une réalité ?

Pour approfondir le sujet

Sur le même thème :

Vendée Territoire Connecté : réseau d’objets connectés et jumeau numérique au service de la transition écologique

Vendée Territoire Connecté, l'un des douze projets lauréats de l'appel à projets DIAT, entre dans sa phase opérationnelle. Porté par Vendée Numérique et soutenu...

Nomination de Clara Chappaz : La voie vers une nouvelle mission ?

En ligne avec l’intervention en Serbie d’Emmanuel Macron fin août, la nomination de Clara Chappaz en tant que Secrétaire d’Etat Chargée de l’Intelligence Artificielle...

Mozilla appelle à créer une alternative publique à l’IA privée dominée par les Big Tech

Si l'organisation à but non-lucratif Mozilla est connue principalement pour son navigateur web, Mozilla Firefox, elle, œuvre sans relâche en faveur des libertés numériques, de...

IA et sûreté : vers une généralisation des caméras de vidéosurveillance intelligentes en France

L'expérimentation des caméras de surveillance augmentées d'IA lors des Jeux olympiques et paralympiques s'est avérée positive. Le gouvernement réfléchit donc à l'installer durablement sur...

Comment faire de l’IA éthique une réalité ?

L’intelligence artificielle se démocratise à vitesse grand V et s’intègre lentement dans le tissu de notre existence. Grâce aux multiples progrès de l’IA, à l’amélioration du deep learning et à la disponibilité de l’informatique haute performance, il est aujourd’hui possible de lancer des cas d’usages qui étaient encore auparavant inimaginables. Pour les entreprises, les enjeux sont immenses. Il est donc crucial d’établir une vision, d’insuffler des cadres et des politiques appropriés et de développer des contrôles et des équilibres adéquats, pour protéger les individus.

Principes et outils de l’IA éthique

Cadres et outils de gouvernance des données
Une structure de gouvernance des données, qui s’articule autour de contrôles de qualité des données, d’analyses de l’historique et de la traçabilité et de contrôle d’accès est devenue impérative. Des investissements au sein d’accélérateurs et de solutions internes pour la gestion de la vie privée, comme la gestion des données, la gestion de la sécurité des données (et en transit) et la gestion des versions pour le suivi, pourraient également constituer une garantie indispensable pour éviter toutes violations.

Détection des biais
Un ensemble de données non biaisé est une condition préalable nécessaire pour qu’un modèle d’IA puisse effectuer des prédictions fiables et non discriminatoires. Par exemple, une compagnie d’assurance automobile classait par défaut les hommes de moins de 25 ans comme des conducteurs imprudents – notamment dû à un biais historique inhérent aux ensembles de données concernant la couleur, l’âge et le sexe.

Des outils appropriés pour le contrôle de la qualité des données et l’évaluation des faiblesses des modèles, ainsi que la définition de metrics pour mesurer l’humilité des modèles, pourraient contribuer à mettre en évidence les potentielles défaillances. Les méthodes Champion/Challenger, certains tests et les mesures correctives devraient être directement intégrés au processus de développement des modèles ; au même titre que la formation des data scientists afin d’améliorer l’interprétabilité des modèles pour, in fine, en améliorer l’auditabilité.

IA explicable et reproductible
Les ingénieurs s’intéressent grandement à l’IA explicable (XAI) pour mieux comprendre le cheminement de pensée d’un modèle IA. Il s’agit essentiellement de comprendre les décisions ou les prédictions réalisées par une IA, afin d’atténuer les préoccupations liées à l’injustice. Les algorithmes XAI permettent une meilleure transparence, interprétabilité et apportent des explications claires et définies. Son autre objectif est d’ailleurs la reproductibilité, afin que les prédictions des modèles ML soient cohérentes à chaque fois et ce, même avec de nouveaux ensembles de données. Les outils et les processus permettant de réaliser des audits approfondis et des analyses de simulation peuvent expliquer pourquoi et comment ils sont parvenus à certaines conclusions. Cela permet non seulement d’apaiser les potentielles inquiétudes des collaborateurs, mais aussi de mener les organisations à réfléchir soigneusement à la manière dont leurs hypothèses sont formulées. Dans le même ordre d’idées, l’IA éthique devrait également énoncer clairement les avantages et la gestion de la collecte des données.

L’humain au cœur des situations critiques
Bien que les modèles d’IA soient construits pour fonctionner de manière autonome sans intervention humaine, l’implication humaine est impérative dans certains cas. Notamment dans l’application de la loi. Dans plusieurs applications judiciaires, il a été signalé que les peines de prison prononcées par un système d’IA présentaient un taux de faux positifs deux fois plus élevé pour certains groupes éthiques. Par conséquent, les modèles d’IA doivent être protégés contre les risques, en faisant appel à des humains pour toutes les décisions clés et en disposant d’un mécanisme de secours efficace si le système d’IA doit être contourné.

Les éléments constitutifs d’une base solide d’IA éthique
Un cadre éthique solide pour l’IA, conforme aux lois locales sur la protection de la vie privée, pourrait apaiser les craintes de violations et accroître la confiance dans les systèmes actuels. Il existe aujourd’hui plusieurs acteurs technologiques qui ont établi des codes d’éthique de l’IA pour garantir que leurs efforts en la matière sont équitables, socialement bénéfiques, responsables et respectueux de la vie privée. Pour instaurer la confiance et la responsabilité dans l’ensemble de l’écosystème des parties prenantes, un cadre devrait évaluer les systèmes d’IA en fonction des critères d’impartialité, d’explicabilité, de reproductibilité, de sécurité et d’utilité.

Le cadre de l’IA éthique devrait être créé sur la base de 6 grands principes fondamentaux pour atténuer les effets potentiellement négatifs de l’IA sur la société tout en maximisant la création de valeur à long terme. Il s’agit notamment de l’inclusion (à la fois dans l’habilitation à tirer parti de la technologie de l’IA et dans la représentation dans la conception), du caractère socialement bénéfique et durable, de la dynamique de l’emploi tout en favorisant la requalification, de l’équité en rejetant les préjugés sociaux et le dénigrement culturel, de la protection des données et de la vie privée, ainsi que de la responsabilité et de l’explicabilité. Une entreprise devrait promouvoir activement des discussions et délibérations inclusives entre les industries, les communautés, les organismes de réglementation et les universités sur les défis, les avantages, les coûts et les conséquences de l’IA, ainsi que pour influencer une gouvernance et des réglementations fortes autour de l’utilisation responsable et durable de l’IA.

L’autorégulation est également essentielle. Les équipes internes d’une organisation doivent être suffisamment habilitées pour assurer la protection de la vie privée et prévenir de certains biais dans les décisions algorithmiques.

À l’heure actuelle, l’IA a un impact considérable sur la rédéfinition de nos économies, sociétés et systèmes politiques. Par conséquent, les préoccupations liées à l’IA sont légitimes. Elles doivent être aujourd’hui abordées par toutes les parties prenantes afin de développer un écosystème IA éthique, responsable et durable.

Contributeur expert

Balakrishna D. R.

Bali est en charge de la section IA & Automatisation chez Infosys et aide les clients à tran

Partager l'article

Vendée Territoire Connecté : réseau d’objets connectés et jumeau numérique au service de la transition écologique

Vendée Territoire Connecté, l'un des douze projets lauréats de l'appel à projets DIAT, entre dans sa phase opérationnelle. Porté par Vendée Numérique et soutenu...

Nomination de Clara Chappaz : La voie vers une nouvelle mission ?

En ligne avec l’intervention en Serbie d’Emmanuel Macron fin août, la nomination de Clara Chappaz en tant que Secrétaire d’Etat Chargée de l’Intelligence Artificielle...

Mozilla appelle à créer une alternative publique à l’IA privée dominée par les Big Tech

Si l'organisation à but non-lucratif Mozilla est connue principalement pour son navigateur web, Mozilla Firefox, elle, œuvre sans relâche en faveur des libertés numériques, de...

IA et sûreté : vers une généralisation des caméras de vidéosurveillance intelligentes en France

L'expérimentation des caméras de surveillance augmentées d'IA lors des Jeux olympiques et paralympiques s'est avérée positive. Le gouvernement réfléchit donc à l'installer durablement sur...