Retour sur l’intervention de Nozha Boujemaa sur l’IA de confiance à l’occasion de la session Inria Alumni du 13 novembre 2018 consacrée à la transparence des algorithmes.
Nozha Boujemaa, vice-présidente du groupe européen d’experts de haut niveau en intelligence artificielle (AI HLEG) et directrice de recherche Inria est intervenue sur l’un de ses sujets de prédilection : l’IA de confiance.
“Les industriels ne se sentent pas concernés par l’éthique de l’IA, ils se sentent concernés d’avantage par l’IA responsable, l’IA de confiance.
Ca, c’est plutôt un argument de compétitivité économique, mais l’éthique de l’IA, c’est pas vendeur.
On n’a pas beaucoup d’espoir, en tout cas dans le cadre de l’effort qui est fait par l’union européenne, quand on parle de l’IA éthique, il n’y a pas d’industriel qui contribue à l’effort.
Par contre, quand on parle d’IA responsable et d’IA de confiance tout le monde est là. Donc c’est plus engageant, et de mon point de vue c’est plus consistant de considérer ces questions là, qui englobent l’éthique.”
Au cours de son intervention, Nozha Boujemaa insiste sur la dualité entre données et algorithmes, qu’elle regroupe sous le nom de système algorithmique. Pour elle, il ne fait aucun sens de se focaliser sur l’un sans prendre l’autre en considération. En revanche, la transparence des systèmes algorithmiques est d’autant plus cruciale que l’on est passés d’une ère de la prédiction à une ère de la prescription. Elle rappelle cependant que transparence ne signifie pas obligatoirement publication du code source ou publication de secrets industriels, mais elle définit la quête de transparence comme:
“la réduction de l’asymétrie informationnelle entre les producteurs de services numériques et les consommateurs de ces services”.