Robots, chatbots, assistants vocaux, algorithmes pouvant gérer seuls les transactions financières ou sélectionner des candidats, caméras de surveillance pouvant afficher en temps réel sur des écrans géants le profil des citoyens… autant de technologies basées sur l’IA et qui ne sont pas sans générer des inquiétudes. Conscients des potientielles déviances de l’IA, les gouvernements, et notamment l’Union européenne, s’emparent du sujet. Mais peut on mettre en place une éthique de l’IA ?
L’IA passionne tout autant qu’elle inquiète. Et pour cause. Un robot, comme Nao ou Alpha 2, capable de détecter les émotions d’un humain, un assistant vocal comme Siri, Alexa ou Google home exécutant une tâche sur simple commande vocale, un chatbot répondant à une question administrative complexe, ou une machine capable d’anticiper une panne sont autant d’IA sources d’émerveillement.
En revanche, une IA capable d’identifier les visages dans l’espace public et d’y associer, en temps réel, l’identité de la personne et toutes ses données comportementales, un algorithme de recrutement discriminant les femmes, un chatbot tenant des propos racistes ou des robots capables de remplacer des médecins, des notaires, des techniciens sont des IA rapidement anxiogènes.
Tous ces exemples révèlent une chose : la problématique de l’IA est plus du ressort de sa finalité que de la technologie.
Les politiques et l’Union européenne réfléchissent à une éthique de l’IA
Tant que l’IA était cantonnée aux laboratoires de R&D public ou privé, les risques de son utilisation se limitaient à des sujets de recherche théorique. Mais l’essor de cette technologie au cours des dernières années et son utilisation progressive dans les métiers et dans le quotidien des citoyens ont rendu son impact bien plus réel et parfois massif. Ainsi, les algorithmes ont aujourd’hui une influence sur les marchés financiers, sur l’économie de toutes les entreprises et sur des millions de citoyens. Rien d’étonnant donc à ce que ces impacts soulèvent la question de l’éthique de l’IA.
Conscients des potentielles dérives de l’IA, les politiques et notamment l’Union européenne ont engagé des groupes de réflexion sur les impacts d’une telle technologie. En avril dernier, un rapport était remis à la Commission européenne sur l’éthique et l’IA. L’objectif est de parvenir à une IA digne de confiance :
Facteur humain et contrôle humain : les systèmes d’IA doivent être les vecteurs de sociétés équitables en se mettant au service de l’humain et des droits fondamentaux, sans restreindre ou dévoyer l’autonomie humaine.
Robustesse et sécurité : une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d’IA.
Respect de la vie privée et gouvernance des données : il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires.
Transparence : la traçabilité des systèmes d’IA doit être assurée.
Diversité, non-discrimination et équité : les systèmes d’IA doivent prendre en compte tout l’éventail des capacités, aptitudes et besoins humains, et leur accessibilité doit être garantie.
Bien-être sociétal et environnemental : les systèmes d’IA doivent être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique.
Responsabilisation : il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.
De manière intéressante, l’IA pose des questions éthiques parfois en raison de sa trop grande efficacité et précision (par exemple lorsqu’il s’agit d’identifier des individus par reconnaissance faciale dans l’espace publique et d’y juger son comportement sur la base de l’ensemble des informations personnelles ou sociales attachées), et parfois en raison de sa trop grande imprécision (par exemple les prévisions de risque de récidive).
Mais une IA éthique n’est-elle pas un mythe ? L’éthique n’étant pas une notion objective, elle ne peut être quantitativement inscrite dans un algorithme. Une étude récente publiée dans le très sérieux Nature illustre par exemple la façon dont les cultures divergent dans leur perception d’une décision éthique par une IA. D’ailleurs, le fait même que l’éthique soit un sujet aussi polémique et catalyseur de débats mêlant toutes les disciplines – philosophie, sciences, sciences sociales, technologie, juridique, etc.- montre bien l’impossibilité de le traiter en quelques équations.
L’éthique universelle en matière d’IA n’existant pas, comment les entreprises peuvent-elles alors prendre en compte cette dimension dans leurs projets ?
Définir l’éthique de l’entreprise
La première étape pour une société ou un groupe décidé à déployer l’IA consiste à définir un cadre précis sur les règles éthiques qu’il ne souhaite pas voir appliquer. Par exemple, si le risque de biais homme/femme n’est pas un problème pour un moteur de recommandation de vêtements de mode, c’est une tout autre question pour les services financiers. La définition et l’explicitation des critères, liées à l’activité et aux valeurs de l’entreprise présentent deux bénéfices importants : assurer une position claire de l’entreprise sur l’ensemble de ses principes, et faciliter la communication de ces éléments auprès de l’ensemble des équipes.
Responsabiliser à tous les niveaux
Un élément important vient accroître le risque de dérive des algorithmes : la perception d’une objectivité intrinsèque à ces technologies, qui, fondées sur des données quantitatives, fourniraient des recommandations et prévisions non soumises à la subjectivité des interprétations individuelles. Sur cette base, la question de l’éthique est orthogonale à celle de l’IA, et un algorithme serait une représentation indiscutable de la réalité mathématique du monde. Cette perception est dangereuse non seulement car elle est fausse, et qu’elle tend à créer un faux sens de confort et une vraie dé-responsabilisation des équipes impliquées dans des projets d’IA.
En effet, les algorithmes sont exposés à de nombreux risques de biais, parmi lesquels :
Le choix des données. Un algorithme d’IA est construit sur des données préexistantes. Le choix de ces données a un impact fondamental sur le comportement de la futur IA. Par exemple, un algorithme de reconnaissance de visage d’Amazon a rencontré des difficultés à reconnaître les femmes et les personnes non blanches, les données utilisées pour sa création présentant une sur-représentation d’hommes blancs. L’IA n’ayant appris à ne distinguer que des hommes blancs entre eux ne pouvait correctement traiter les autres cas de figure.
Les biais préexistant dans les données. Toute donnée aussi bonne soit elle, contient fréquemment des biais. L’exemple des femmes automatiquement éliminées lors des processus de recrutement est en grande partie lié aux biais passés. En effet, si les recruteurs fournissent à l’algorithme des données sujettes à leurs propres critères, l’IA présentera les mêmes travers.
Le choix des techniques de modélisation et de validation. Chaque étape de création d’une IA est susceptible d’induire des biais et dérives.
Face à tous ces risques, la réponse est à la fois humaine et technique. Humaine car il est indispensable d’éduquer et de responsabiliser les équipes développant ces algorithmes. En pratique, les personnes qui développent et déploient un modèle doivent être non seulement conscientes des déviances potentielles mais aussi, puisqu’elles sont les seules à pouvoir le faire, doivent porter la responsabilité des travers éventuels de l’IA. Chez Dataiku par exemple nous proposons des formations sur cette thématique. En complément, il existe aussi des méthodes technologiques permettant de limiter ces risques, en analysant, par exemple, explicitement s’il existe des biais sur divers sous populations.
Ces formations et outils nécessaires à la responsabilisation des équipes sont intimement dépendants des grands critères retenus par l’entreprise lors de l’étape 1, qui assurent que l’attention et l’énergie soient particulièrement dédiées aux sujets les plus importants ou risqués dans le contexte spécifique de l’organisation.
Gouvernance des IA
Le troisième niveau est la mise en place d’une réelle gouvernance des IA au sein des sociétés. Aujourd’hui, une part importante des entreprises qui se sont lancées dans la Data Science l’ont fait de manière semi organique. Il n’est pas rare de voir plusieurs, voire une douzaine d’équipes différentes développer des IA au sein d’un grand groupe, chacune utilisant des technologies et des données différentes. Les algorithmes une fois déployés sont eux suivis de manière individuelle par leurs propriétaires.
Une gouvernance à l’échelle de l’entreprise doit permettre de suivre les projets en cours, de visualiser les données utilisées et la façon dont elles le sont. Il est également important de valider le comportement des IA utilisées dans les environnements métiers.
La mise en place de cette gouvernance, appuyée sur les principes définis à l’étape 1 et soutenue par la responsabilisation des équipes menée à l’étape 2, est la meilleure garantie d’un comportement “responsable” des IA.
En conclusion, la question de l’éthique se pose à tous ceux qui croient en l’IA. Et si un algorithme ne possède pas de valeur éthique intrinsèque, chez Dataiku nous sommes convaincus qu’il est impératif de s’assurer que les actions qui découlent de l’IA respectent l’éthique de l’environnement dans lequel elles sont prises. C’est pourquoi, en tant que fournisseur d’une solution d’IA nous laissons à nos clients le soin de définir et de développer leurs propres cadres d’IA, tout en leur apportant la puissance des algorithmes et la capacité de mettre en place leurs outils de gouvernance et de contrôle.