Adoption de l’IA, bonnes pratiques et IA de confiance by Design : entretien avec Gwendal Bihan, CEO Axionable

Le déploiement de l’IA dans notre vie quotidienne, tant personnelle que professionnelle, est source d’opportunités et d’innovation mais présente également des risques non-négligeables en matière de sécurité, de respect de la vie privée, de discrimination et d’impact environnemental. Pour en discuter, nous avons échangé avec Gwendal Bihan, CEO Axionable, qui a évoqué avec nous l’importance de l’IA de confiance, by Design, l’équilibre à trouver, la régulation mais également la situation de l’écosystème canadien.

L’adoption de solutions basées sur l’IA avance en France, quelles sont selon vous les bonnes pratiques à mettre en place en entreprise ?

Gwendal BIHAN : La clé de la réussite réside encore et toujours dans la culture et les compétences au sein des entreprises. Nous militons au quotidien pour une compréhension aussi large que possible des opportunités d’innovations utiles tout comme des risques liés à l’IA en entreprise, et un investissement encore plus important dans l’acculturation et la formation. Sans cette compréhension à tous les étages, l’adoption de l’IA reste cloisonnée à certains métiers de l’entreprise, ne dépasse pas le stade du Proof of concept (POC) ou peut faire prendre des risques non maitrisés. En complément, d’autres bonnes pratiques en matière de conduite de projet d’IA sont bien sûr à garder en tête : partir du plan stratégique de l’entreprise et des problématiques métier (et non pas des data ou des modèles), démarrer frugal ou encore adopter une approche responsable et de confiance « by design ».

Si l’innovation et les opportunités offertes par l’IA sont nombreuses pour les entreprises, des voix s’élèvent pour alerter des dangers de la technologie tant pour les libertés, le respect de la vie privée et l’environnement. Comment vous positionnez-vous face à ces risques ?

GB : Le paradoxe de l’IA réside en effet dans son potentiel infini d’opportunités d’innovations utiles d’un côté, et de l’autre la génération d’externalités potentiellement insoutenables (biais, empreinte carbone, etc.). Il est pour nous indispensable de piloter l’équilibre entre ces deux aspects, avec d’un côté une finalité durable des IA, et de l’autre des risques et externalités à maitriser.

Cet équilibre devient donc relatif. Prenons deux exemples extrêmes dans le domaine de l’environnement pour illustrer cette problématique : si une IA sert à décarboner les activités émissives d’un industriel, même avec des temps d’entrainement du modèle d’IA important et donc une empreinte CO2 élevée, la balance nette sera à la fin largement négative, et donc l’IA sera « à impact positif » pour la planète. À l’inverse, si une IA vise à faire du ciblage marketing pour des produits carbonés, on peut naturellement s’interroger sur la balance nette de l’IA, et le seuil que nous pouvons collectivement tolérer pour l’empreinte de cette IA.

Les organismes internationaux se sont saisis du sujet de la réglementation de l’IA et les avis sont multiples entre ceux prônant un contrôle plus important des données et ceux qui souhaiteraient que les données puissent circuler plus librement. Dans ce contexte, comment pensez-vous que l’IA de confiance puisse prospérer ?

GB : Le parallèle avec d’autres enjeux sociétaux pour les entreprises, comme la réduction de leur empreinte CO2, la parité F/H ou encore la QVT (Qualité de Vie au Travail) apporte un éclairage intéressant. Les études démontrent clairement que les entreprises qui mettent ces enjeux sociétaux au cœur de leur modèle d’affaires, en apportant des preuves opposables, tirent un avantage compétitif bien supérieur par rapport à celles qui attendent passivement l’arrivée de la réglementation.

Nous observons qu’en matière d’IA de confiance cette analyse se confirme. Les entreprises qui parviennent à en faire un enjeu business, en tirent un retour sur investissement largement supérieur à celles qui en feront un projet de mise en conformité subi, sans doute douloureux, dans deux ou trois ans quand l’AI Act entrera en application.

La régulation est néanmoins une bonne chose pour faire avancer ces pratiques dans l’ensemble de l’écosystème IA. Une approche coercitive, avec de lourdes sanctions à la clé, est indispensable pour que l’ensemble des acteurs de l’IA se transforment.

Axionable prône justement une IA responsable et de confiance, comment cela se manifeste-il dans vos activités ?

GB : Nous avons conçu une méthode de développement d’IA responsable et de confiance, qui permet de gérer ces risques « by design », de la conception à la mise en production. Notre méthode est aujourd’hui reconnue comme une référence sur le marché et par des tiers de confiance comme le LNE (certification IA obtenue par Axionable en novembre 2021) ou encore Labelia (label avancé obtenu en janvier 2022).
 Nous l’observons déjà en interne, la mise en place de ces bonnes pratiques et méthode donne lieu à des gains de productivité significatifs.

Cette approche responsable et de confiance est indispensable pour déployer l’IA dans les secteurs à risques et régulés dans lesquels évoluent nos clients. Nous travaillons par exemple au service d’une meilleure résilience climatique des sites nucléaires chez Orano, pour un usage responsable des données dans les services financiers avec Arkéa ou encore dans le secteur de l’impact social pour la Croix-Rouge française.

Vous avez également lancé Axionable au Canada, quelles différences / ressemblances voyez-vous entre les deux écosystèmes ?

GB : L’écosystème IA Canadien fonctionne à deux vitesses. D’un côté la recherche en IA est de niveau mondial. Dans le monde des entreprises, la situation est en revanche très variée, mais en majorité nous observons un retard dans la transformation digitale (avant même parler de data ou d’IA) dans les entreprises, mêmes au sein de certains grands groupes nationaux.

Le Canada s’avère par ailleurs beaucoup plus décentralisé que la France, à l’image du pays, avec par exemple des hubs IA de niveau équivalent entre Montréal, Toronto ou encore Vancouver. Ils sont d’ailleurs souvent en concurrence et rivalisent d’incitatifs pour attirer les investisseurs étrangers, américains et européens notamment.

Concernant la réglementation, le marché reste beaucoup plus libéral qu’en Europe. Paradoxalement cela freine souvent l’innovation car en l’absence de cadre légal clair, beaucoup d’entreprise hésite à utiliser des données personnels ou sensibles de peur de se retrouve dans une zone grise.

L’équivalent du RGPD y étant tout juste adoptée, la réglementation de l’IA n’est vraisemblablement pas attendue pour tout de suite de l’autre côté de l’atlantique.

Un grand merci à Gwendal Bihan et à Marie Geoffroy-Lombard pour cet entretien !

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.