Une étude de BCG-Gamma révèle les niveaux de maturité des organisations et entreprises quant à l’IA responsable

L'IA responsable est selon une étude de BCG, loin d'être correctement adoptée par les entreprises et les organisations.

L’adoption de l’Intelligence Artificielle en entreprise avance à grande vitesse. Mais pour être déployée à grande échelle au sein des organisations, l’IA doit être “responsable”, c’est-à-dire qu’elle doit inspirer confiance, être perçue comme juste, non biaisée, explicable et augmenter les capacités humaines sans s’y substituer. Aujourd’hui, tout le monde parle d’IA responsable et éthique, il existe plus d’une soixantaine de chartes sur le sujet. Mais il est temps de passer des principes à l’action comme l’indique BCG Gamma.

Selon une étude sur le niveau de maturité des entreprises en termes d’IA responsable, moins de la moitié (48%) des entreprises qui ont réussi à déployer l’IA dans l’ensemble de l’organisation l’ont fait avec une IA responsable. D’autres chiffres sont également parlants : 55% des organisations surestiment leur maturité en termes d’IA responsable mais aussi près de la moitié des entreprises pensant avoir réussi à déployer une IA responsable sont, en réalité, à la traîne.

Cette étude – “Surestimez-vous votre maturité en Intelligence artificielle ?” – a été réalisée par BCG Gamma, l’entité d’IA et de data science du BCG, auprès de plus de 1000 grandes entreprises mondiales.

L’IA responsable repose sur sept principes clés : la responsabilité, la transparence, la justice et l’équité, la gouvernance des données et le respect de la vie privée, l’impact social et environnemental, la sûreté et la sécurité ainsi que la combinaison entre IA et intelligence humaine. Les entreprises étudiées se répartissent au sein de quatre niveaux de maturité en fonction de leur avancement sur ces sept dimensions: 14% d’entre elles sont en retard, La majorité est en stade de développement (34 %) ou avancé (31 %), enfin, moins d’un quart des entreprises (21%) sont leaders sur le sujet.

Toutefois, il existe un vrai fossé entre la perception des dirigeants sur la maturité de leur organisation et la réalité de leur avancée sur la question de l’IA responsable, et ce pour presque chaque stade de développement. La gouvernance des données et le respect de la vie privée est la dimension la plus avancée pour tous. Cependant, les dimensions de justice et équité, d’impact social et environnemental, ainsi que l’approche Human+AI (augmenter les capacités humaines sans s’y substituer) sont les plus difficiles à implémenter et celles pour lesquels il y a le moins d’investissement de la part des organisations aujourd’hui. Ce sont des dimensions pour lesquelles pourrait également entrer dans l’équation l’IA de confiance notamment évoquée dans le troisième numéro de notre trimestriel.

Si des écarts majeurs existent dans le déploiement, ces écarts sont également perceptibles d’une région à une autre. On note que l’Europe et l’Amérique du Nord sont les régions les plus avancées avec un index respectif de 66.8 et 66.3 contre 62 pour l’Asie ou encore 60.7 pour le Moyen-Orient. La différence entre perception des dirigeants et réalité du déploiement est très nette : 36 % des entreprises européennes déclarent avoir pleinement intégré une IA responsable mais 52% d’entre elles surestiment en réalité leur maturité sur le sujet. C’est encore plus vrai en ce qui concerne les entreprises qui ont passé l’IA à l’échelle : 81 % déclarent avoir pleinement intégré une IA responsable mais seules 49 % d’entre elles sont réellement matures sur le sujet.

Il reste important de soulever les opportunités existantes pour les entreprises de basculer vers l’IA responsable. La principale motivation des organisations pour déployer une IA responsable reste les bénéfices business (pour 42% d’entre elles). C’est encore plus vrai pour les entreprises les plus avancées en la matière. Vient ensuite la satisfaction client (20%), la gestion des risques (16%), les obligations de conformité (14%). Seulement 6% souhaitent déployer l’IA responsable pour des enjeux de responsabilité sociale (6%).

C’est ce qu’avance pour conclure, Sylvain Duranton, Directeur monde de BCG GAMMA et co-auteur de l’étude :

“Aujourd’hui, les organisations les plus en pointe en matière d’IA responsable ne le font plus seulement pour mieux anticiper et gérer les risques potentiels. Elles la perçoivent comme un véritable avantage compétitif, que ce soit pour différencier leur marque ou bien accélérer leurs recrutements et développer la fidélisation de leurs employés. Implémenter une IA responsable est la preuve d’une culture d’innovation responsable, une culture souvent soutenue par les objectifs et les valeurs de l’entreprise”

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
1 an d'abonnement au magazine de référence sur l'IA pour 27,60€ Boutique ActuIA Recherche, Business, Impact : Restez à la page en matière d'intelligence artificielle.
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.