Intelligence artificielle Comment faire de l'IA éthique une réalité ?

Pour approfondir le sujet

Sur le même thème :

Levée de fonds record pour Databricks qui sécurise 10 milliards de dollars

Databricks, "The Data and AI company” pionnière de l’architecture data lakehouse, a récemment annoncé une levée de fonds record de 10 milliards de dollars lors...

Extension du Lille Ynov Campus : un pôle d’innovation au cœur du développement numérique de la métropole lilloise

Le jeudi 21 novembre dernier, Ynov, une école privée qui forme aux métiers du numérique, de la création et de l’innovation, a officiellement inauguré...

Deepfakes : YouTube et la Creative Artists Agency s’associent pour protéger l’image des célébrités

YouTube a annoncé ce 17 décembre s'associer à la Creative Artists Agency (CAA), l'une des agences les plus influentes dans le domaine du divertissement...

Le Hub France IA annonce l’ouverture des candidatures pour l’édition 2025 de sa cartographie des start-ups IA

Depuis 2020, le HUB France IA apporte, via sa cartographie, de la visibilité aux start-ups françaises prometteuses dont l’IA est le cœur du produit...

Comment faire de l’IA éthique une réalité ?

L’intelligence artificielle se démocratise à vitesse grand V et s’intègre lentement dans le tissu de notre existence. Grâce aux multiples progrès de l’IA, à l’amélioration du deep learning et à la disponibilité de l’informatique haute performance, il est aujourd’hui possible de lancer des cas d’usages qui étaient encore auparavant inimaginables. Pour les entreprises, les enjeux sont immenses. Il est donc crucial d’établir une vision, d’insuffler des cadres et des politiques appropriés et de développer des contrôles et des équilibres adéquats, pour protéger les individus.

Principes et outils de l’IA éthique

Cadres et outils de gouvernance des données
Une structure de gouvernance des données, qui s’articule autour de contrôles de qualité des données, d’analyses de l’historique et de la traçabilité et de contrôle d’accès est devenue impérative. Des investissements au sein d’accélérateurs et de solutions internes pour la gestion de la vie privée, comme la gestion des données, la gestion de la sécurité des données (et en transit) et la gestion des versions pour le suivi, pourraient également constituer une garantie indispensable pour éviter toutes violations.

Détection des biais
Un ensemble de données non biaisé est une condition préalable nécessaire pour qu’un modèle d’IA puisse effectuer des prédictions fiables et non discriminatoires. Par exemple, une compagnie d’assurance automobile classait par défaut les hommes de moins de 25 ans comme des conducteurs imprudents – notamment dû à un biais historique inhérent aux ensembles de données concernant la couleur, l’âge et le sexe.

Des outils appropriés pour le contrôle de la qualité des données et l’évaluation des faiblesses des modèles, ainsi que la définition de metrics pour mesurer l’humilité des modèles, pourraient contribuer à mettre en évidence les potentielles défaillances. Les méthodes Champion/Challenger, certains tests et les mesures correctives devraient être directement intégrés au processus de développement des modèles ; au même titre que la formation des data scientists afin d’améliorer l’interprétabilité des modèles pour, in fine, en améliorer l’auditabilité.

IA explicable et reproductible
Les ingénieurs s’intéressent grandement à l’IA explicable (XAI) pour mieux comprendre le cheminement de pensée d’un modèle IA. Il s’agit essentiellement de comprendre les décisions ou les prédictions réalisées par une IA, afin d’atténuer les préoccupations liées à l’injustice. Les algorithmes XAI permettent une meilleure transparence, interprétabilité et apportent des explications claires et définies. Son autre objectif est d’ailleurs la reproductibilité, afin que les prédictions des modèles ML soient cohérentes à chaque fois et ce, même avec de nouveaux ensembles de données. Les outils et les processus permettant de réaliser des audits approfondis et des analyses de simulation peuvent expliquer pourquoi et comment ils sont parvenus à certaines conclusions. Cela permet non seulement d’apaiser les potentielles inquiétudes des collaborateurs, mais aussi de mener les organisations à réfléchir soigneusement à la manière dont leurs hypothèses sont formulées. Dans le même ordre d’idées, l’IA éthique devrait également énoncer clairement les avantages et la gestion de la collecte des données.

L’humain au cœur des situations critiques
Bien que les modèles d’IA soient construits pour fonctionner de manière autonome sans intervention humaine, l’implication humaine est impérative dans certains cas. Notamment dans l’application de la loi. Dans plusieurs applications judiciaires, il a été signalé que les peines de prison prononcées par un système d’IA présentaient un taux de faux positifs deux fois plus élevé pour certains groupes éthiques. Par conséquent, les modèles d’IA doivent être protégés contre les risques, en faisant appel à des humains pour toutes les décisions clés et en disposant d’un mécanisme de secours efficace si le système d’IA doit être contourné.

Les éléments constitutifs d’une base solide d’IA éthique
Un cadre éthique solide pour l’IA, conforme aux lois locales sur la protection de la vie privée, pourrait apaiser les craintes de violations et accroître la confiance dans les systèmes actuels. Il existe aujourd’hui plusieurs acteurs technologiques qui ont établi des codes d’éthique de l’IA pour garantir que leurs efforts en la matière sont équitables, socialement bénéfiques, responsables et respectueux de la vie privée. Pour instaurer la confiance et la responsabilité dans l’ensemble de l’écosystème des parties prenantes, un cadre devrait évaluer les systèmes d’IA en fonction des critères d’impartialité, d’explicabilité, de reproductibilité, de sécurité et d’utilité.

Le cadre de l’IA éthique devrait être créé sur la base de 6 grands principes fondamentaux pour atténuer les effets potentiellement négatifs de l’IA sur la société tout en maximisant la création de valeur à long terme. Il s’agit notamment de l’inclusion (à la fois dans l’habilitation à tirer parti de la technologie de l’IA et dans la représentation dans la conception), du caractère socialement bénéfique et durable, de la dynamique de l’emploi tout en favorisant la requalification, de l’équité en rejetant les préjugés sociaux et le dénigrement culturel, de la protection des données et de la vie privée, ainsi que de la responsabilité et de l’explicabilité. Une entreprise devrait promouvoir activement des discussions et délibérations inclusives entre les industries, les communautés, les organismes de réglementation et les universités sur les défis, les avantages, les coûts et les conséquences de l’IA, ainsi que pour influencer une gouvernance et des réglementations fortes autour de l’utilisation responsable et durable de l’IA.

L’autorégulation est également essentielle. Les équipes internes d’une organisation doivent être suffisamment habilitées pour assurer la protection de la vie privée et prévenir de certains biais dans les décisions algorithmiques.

À l’heure actuelle, l’IA a un impact considérable sur la rédéfinition de nos économies, sociétés et systèmes politiques. Par conséquent, les préoccupations liées à l’IA sont légitimes. Elles doivent être aujourd’hui abordées par toutes les parties prenantes afin de développer un écosystème IA éthique, responsable et durable.

Contributeur expert

Balakrishna D. R.

Bali est en charge de la section IA & Automatisation chez Infosys et aide les clients à tran

Partager l'article

Levée de fonds record pour Databricks qui sécurise 10 milliards de dollars

Databricks, "The Data and AI company” pionnière de l’architecture data lakehouse, a récemment annoncé une levée de fonds record de 10 milliards de dollars lors...

Extension du Lille Ynov Campus : un pôle d’innovation au cœur du développement numérique de la métropole lilloise

Le jeudi 21 novembre dernier, Ynov, une école privée qui forme aux métiers du numérique, de la création et de l’innovation, a officiellement inauguré...

Deepfakes : YouTube et la Creative Artists Agency s’associent pour protéger l’image des célébrités

YouTube a annoncé ce 17 décembre s'associer à la Creative Artists Agency (CAA), l'une des agences les plus influentes dans le domaine du divertissement...

Le Hub France IA annonce l’ouverture des candidatures pour l’édition 2025 de sa cartographie des start-ups IA

Depuis 2020, le HUB France IA apporte, via sa cartographie, de la visibilité aux start-ups françaises prometteuses dont l’IA est le cœur du produit...