En quelques années, l’intelligence artificielle s’est imposée comme l’un des enjeux phares de la transformation digitale, poussant les entreprises à repenser leurs process et leur culture d’entreprise. Mobilité, santé, banque, recrutement… rares sont les secteurs qui ne cherchent pas à profiter des bénéfices de l’IA, malgré un impact souvent difficile à évaluer pour les citoyens et les consommateurs.
Dans l’imaginaire collectif, le terme d’intelligence artificielle est encore parfois mal compris. À l’origine de cette confusion, des représentations faussées par un mélange de science-fiction, de faits avérés et de projections fantasmées, ainsi que par l’hypermédiatisation de l’IA. Et si l’impact positif de l’IA pour les entreprises de tous secteurs est indéniable (augmentation de la productivité, réduction des coûts, meilleure efficacité, accélération de l’innovation), une certaine méfiance demeure vis-à-vis de cette technologie et du deep learning, en raison de l’opacité croissante des systèmes et des risques de dérives que ces technologies représentent.
La transparence contre l’effet de « boîte noire »
D’un point de vue éthique, la notion de transparence de l’IA, et le principe d’explicabilité du fonctionnement des algorithmes et des décisions automatisées, font partie des enjeux majeurs de l’intelligence artificielle. Dans sa publication Lignes directrices en matière d’éthique pour une IA digne de confiance[1], la Commission Européenne décrit le principe d’explicabilité comme essentiel pour éviter l’effet de « boîte noire » que peuvent provoquer les systèmes d’IA et ainsi renforcer et conserver la confiance des utilisateurs.
Cela implique une transparence à la fois de la technologie et des business models. La transparence technologique implique que les systèmes d’IA soient auditables, compréhensibles et intelligibles pour des personnes de différents niveaux de connaissances et d’expertise. La transparence des business models, quant à elle, suppose que les personnes, directement et indirectement concernées, doivent être informées de l’intention des développeurs et des responsables de la mise en œuvre des technologies axées sur l’IA.
Si ces arguments sont clairs, la logique du raisonnement se heurte parfois à la volonté des entreprises de conserver leur avantage concurrentiel. En effet, le caractère unique et puissant des sources et modèles algorithmiques sur lesquels reposent les systèmes d’IA ne les encourage pas à vouloir en révéler le secret. La divulgation d’informations liées à l’IA et ses systèmes n’est pas sans risque : les informations rendues publiques peuvent être détournées ou rendre l’IA plus vulnérable aux attaques, et les entreprises, en faisant preuve de transparence, peuvent se retrouver plus exposées à des poursuites judiciaires ou se voir imposer des sanctions.
Ceci est d’autant plus important que les systèmes d’IA sont de plus en plus intelligents, mais également de plus en plus complexes. L’exemple du développement de GPT-2 l’illustre bien. Développé par le centre de recherche privé en intelligence artificiel OpenAI, le GPT-2, système d’intelligence artificielle capable de générer, de manière non-supervisée, des textes cohérents, dépasse les 1,5 milliards de paramètres. Or, l’amélioration continue de ses modèles linguistiques permet de renforcer en permanence son score de crédibilité, tant et si bien qu’il ne sera bientôt plus possible à l’être humain de déterminer si le texte est un texte synthétique, généré par l’ordinateur ou pas. Si le GPT-2 venait à être affiné à l’aide de techniques de transfert d’apprentissage afin de le rendre spécifique à un domaine particulier, il ne serait soudainement plus nécessaire d’avoir accès aux centaines de processeurs graphiques ni à toutes les données d’entraînement pour exploiter l’un des réseaux de neurones les plus puissants au monde.
La transparence en réponse à une réalité législative et réglementaire
Dans la majorité des cas, les applications d’intelligence artificielle sont encore à petite échelle ou d’ordre expérimental, mais pour pouvoir passer de ces projets pilotes à des implémentations à plus grande échelle, il sera essentiel de s’attaquer au problème de la transparence, notamment pour faire face à une réalité législative de plus en plus forte. En effet, pas une semaine ne passe sans qu’une nouvelle loi ou régulation soit envisagée quelque part dans le monde. On pourrait citer le RGPD en Europe, ou encore le California Consumer Privacy Act de 2018 et le National Artificial Intelligence Initiative Act de 2020 aux Etats-Unis. En matière de données clients, les entreprises doivent désormais composer avec les nombreuses régulations applicables. Il s’agit donc d’adopter une approche proactive et stratégique de la gouvernance des données pour parvenir à davantage de transparence.
Pour les secteurs où l’IA est déjà utilisée, les entreprises devront redoubler d’efforts pour maintenir la transparence à mesure qu’elles enrichissent leurs capacités. C’est le cas notamment des banques et autres institutions financières, qui ont depuis longtemps recours au machine learning, au minage de données et à l’analyse, et ont aujourd’hui besoin de nouveaux outils plus poussés pour faire face à l’évolution du paysage des risques. Si le développement de capacités d’intelligence artificielle est un atout indéniable pour ce secteur, l’utilisation de ces systèmes doit se faire en conformité avec un cadre juridique dense. Le secteur du retail a, lui aussi, su tirer profit d’innovations numériques avancées pour améliorer les ventes, notamment dans les magasins physiques, avec l’utilisation de technologies de vision par ordinateur, beacons, RFID, vidéosurveillance… Avant de pouvoir aller plus loin, en ayant par exemple recours à la biométrie, les retailers devront obtenir le consentement de leurs clients tel que l’exige le RGPD. Ils devront également être en mesure de rendre des comptes sur la manière dont ces données d’observation sont utilisées.
Les secteurs qui ne parviendront pas à mettre en œuvre le principe de transparence risquent de se voir priver des bénéfices de l’IA. Aux Pays-Bas, le tribunal a ainsi interdit à l’administration d’utiliser un logiciel de détection de fraudes aux aides sociales[2] devant le refus du gouvernement de fournir les détails de son algorithme.
L’environnement d’entreprise étant soumis à un fort niveau de réglementation et de surveillance, la capacité à comprendre le « comment » et le « pourquoi » de ces systèmes est essentielle à la mise en œuvre opérationnelle des fonctionnalités d’intelligence artificielle. Les entreprises devront donc réfléchir attentivement à leur gestion des risques liés à l’IA et assumer les coûts qui en découlent. Les instances réglementaires, quant à elles, doivent impérativement trouver le juste milieu pour que la conformité ne devienne pas une contrainte qui freine l’innovation.
Outre les défis que l’IA permet de relever, son succès futur dépendra largement de la capacité du secteur à créer de la confiance en ses systèmes en développant une IA fiable et responsable, axée sur la transparence.
[1] https://op.europa.eu/fr/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1/prodSystem-cellar/language-fr/format-PDF
[2] https://www.lesechos.fr/idees-debats/sciences-prospective/lintelligence-artificielle-a-lheure-de-la-transparence-algorithmique-1183297