Impact AI, collectif de réflexion et d’action constitué d’un ensemble d’acteurs de l’intelligence artificielle, réunis autour de deux objectifs communs : traiter des enjeux éthiques et sociétaux de l’IA et soutenir des projets innovants et positifs pour le monde de demain, organisera ce 10 juin la conférence explor’IA.
Comment éduquer à l’IA et former les personnes qui sont ou seront amenées à développer des IA de manière éthique et inclusive ? C’est le sujet de la table ronde d’ouverture de la journée, à laquelle François Taddei, Chercheur, Président-Fondateur du centre de Recherche Interdisciplinaire (CRI) et Hélène Chinal, Head of transformation for SBU South & Central Europe de Capgemini, Vice présidente d’Impact AI, participeront aux cotés de Valérie Pehririn, spécialiste de l’IA et de la data chez Capgemini Invent, Damien Bourgeois, Responsable Ingénierie, Expertise et Innovation pédagogique au sein d’Axa et Joel Courtois, Directeur de l’Epita.
Nous saisissons cette occasion nous entretenir avec Hélène Chinal et François Taddei.
ActuIA : Au-delà des compétences techniques quel constat peut-on faire sur la situation actuelle de l’IA éthique et responsable ?
Hélène Chinal : Il me parait important tout d’abord de définir ce qu’on entend par une IA responsable et éthique. Créer une intelligence artificielle de manière éthique, c’est s’assurer que cette IA ne comporte pas de biais, mais également comprendre que son usage ne doit pas porter préjudice à l’être humain. C’est le sens du projet de réglementation au niveau européen. L’IA fonctionne sur la donnée, si les données sont biaisées, les IA reproduisent ces biais, et donc des préjugés existants dans la société. C’est pourquoi l’éthique est devenu un point essentiel dès lors qu’on envisage de créer une IA et qui a donc toute sa place au cœur de l’enseignement.
François Taddei : Oui sauf que dans la grande majorité des cas, l’éthique ne fait pas encore l’objet d’un enseignement spécifique au même titre que les compétences techniques par exemple. Pour l’instant, seule la réflexion éthique individuelle entre en ligne de compte, et cette capacité au raisonnement éthique, au questionnement, à la remise en cause d’un modèle n’est pas forcement la qualité la plus recherchée et plus stimulée chez un étudiant en école d’ingénieur, ou de développement informatique. Il y a un véritable travail pédagogique à faire pour favoriser une prise de conscience sur les biais. Et ce pour tous les types de biais, genre, diversité etc.
ActuIA : Comment faire pour avancer sur cette prise de conscience ?
Hélène Chinal : Cela rejoint une des thématiques sur lesquelles travaillent des Directions RSE en entreprises, un sujet qui me tient particulièrement à cœur étant engagée depuis de nombreuses années sur la mixité et la diversité. A mon sens, il faut prendre les choses à la racine, éduquer pour déconstruire les biais, il ne faut pas se contenter d’embarquer ceux qui sont déjà motivés et concernés, mais également aller chercher ceux qui considèrent que ce n’est pas un sujet. Apprendre à reconnaitre les biais devraient être au programme de n’importe quelle filière de l’enseignement supérieur. Au sein des entreprises, la formation et l’implication des managers est essentielle.
François Taddei : Absolument, il est plus facile de corriger un algorithme qu’un préjugé ! pour comprendre qu’une base de données contient des biais encore faut-il savoir les identifier, il y a une réelle réflexion collective à mener par exemple en créant des listes de bases de données et de méthodes non-biaisées afin d’équiper les développeurs et les ingénieurs de check-lists. Mais le plus important pour moi est de développer notre capacité et celle des étudiants à challenger la question posée. La question du sens au cœur des préoccupations éthiques régresse. Ceux qui tirent la sonnette d’alarme sont impuissants à changer le fonctionnement de l’entreprise pour le moment, c’est le constat actuel dans la Silicon Valley, les individus qui se posent des questions éthiques sont rejetés par le système.
ActuIA : Il y a beaucoup à faire, par où commencer ? avez-vous des exemples de ce qui est fait dans vos organisations respectives ?
François Taddei : Au CRI nous mettons les étudiants en situation de pouvoir ouvrir les boites noires qu’elles soient relationnelles, émotionnelle ou algorithmique. Et pour se faire, nous les laissons être eux-mêmes. Nous les encourageons à prendre soin d’eux, des autres et de la planète. La science et la technologie ne doivent pas être une fin en soi, mais bien un moyen pour atteindre cette fin.
Hélène Chinal : Au sein de Capgemini, nous avons développé un code de conduite des projets d’intelligence artificielle, et le Capgemini Research Institute a récemment mené une étude qui nous dit l’importance de la transparence mais aussi la nécessaire pro-activité pour prendre en compte la diversité et l’inclusion sur tout le cycle de vie de l’IA pour assurer une IA « humaine ». Au-delà, tous nos collaborateurs sont formés à nos principes éthiques en cohérence avec nos valeurs.
Pour plus d’informations sur le sujet, nous vous invitons à assister à la conférence explor’IA , dont vous pouvez retrouver tous les détails et le programme ici.