Le collectif Impact AI, en collaboration avec le cabinet d’audit et de conseil KPMG et BNP Paribas, a publié hier la première édition de son “Observatoire de l’IA responsable”. Ce rapport, réalisé avec l’institut de sondage Viavoice et le centre de prospective GCF, analyse les perceptions des salariés du secteur privé en France quant au déploiement de l’IA dans leur entreprise.
L’IA : un atout stratégique
Plus de la moitié des salariés français (52 %) considère que l’IA joue un rôle crucial dans le développement et le rayonnement d’un pays, une proportion qui grimpe à 74 % parmi les utilisateurs réguliers de ces technologies. Pour ces derniers, les grands gagnants du développement de l’IA sont les Etats-Unis (53 %), devant la Chine (42 %), la Corée du Sud (33 %), la France (30 %) l’UE (29 %) et Israël (29 %).
La régulation de l’IA, essentielle pour concilier innovation et éthique
Près de 75 % des salariés jugent nécessaire de réguler le développement de l’IA, 37 % « tout à fait nécessaire », 85 % des utilisateurs de l’IA sont également en faveur d’une régulation.
Les salariés expriment une préférence pour une régulation exercée par une agence internationale (30 %), 25 % penchent pour une régulation de l’état et pour 19 %, elle devrait être assumée par l’Europe. Cependant, l’AI Act suscite un accueil favorable : 57 % des salariés le considèrent comme une avancée positive, un chiffre qui atteint 75 % chez les utilisateurs d’IA.
Concernant les projets IA des entreprises, seule une minorité (10 %) place l’innovation au sommet des priorités, 36% des salariés interrogés, quelle que soit la taille de l’entreprise et le secteur d’activité, prônant un équilibre entre innovation, responsabilité et sécurité et 21 % estimant qu’il faut privilégier le respect des principes éthiques.
L’impact sur l’emploi : une préoccupation persistante
Parmi les risques identifiés, l’impact sur l’emploi arrive en tête (41 %), suivi des inquiétudes relatives à la confidentialité des données (33 %) et à une dépendance excessive à l’IA (31 %). Les salariés citent ensuite la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %).
L’IA responsable : un atout éthique et un levier d’efficacité
La définition de l’IA responsable proposée aux salariés interrogés était la suivante : “une intelligence artificielle responsable est conçue pour respecter des principes éthiques, garantir la transparence et minimiser les risques potentiels, y compris les biais dans ses algorithmes. Elle favorise l’inclusion sociale et la protection des données, tout en étant capable de choix explicables. De plus, elle vise à améliorer le bien-être humain sans causer de dommages sociaux, environnementaux ou de santé”.
Pour 63 % des salariés et 83 % des utilisateurs d’IA dans le cadre professionnel, le développement d’une telle IA est essentielle ou indispensable. Pour près de 8 salariés sur 10 une IA responsable doit s’attacher au respect de l’être humain, de sa santé, de son bien-être et de ses droits. Interrogés sur les domaines où la responsabilité de l’IA devait être appliquée en priorité, les sondés citent :
- la protection des données personnelles et sensibles (36 %) ;
- le respect des droits fondamentaux (27 %) ;
- l’amélioration du bien-être humain (25 %) ;
- le respect de l’humain et de sa singularité (24 %) ;
- le respect des principes éthiques (22 %) ;
- la garantie de la transparence (21 %) ;
- le respect de la santé humaine (20 %) ;
- l’impact environnemental (17 %) ;
- l’explicabilité des choix (13 %) ;
- la réduction des biais dans les algorithmes (11 %) ;
- l’inclusion sociale (9 %).
L’IA responsable n’est pas seulement perçue comme une nécessité éthique. Pour 44 % des salariés, elle améliore l’efficacité, favorise une prise de décision optimisée (39 %) et réduit la consommation de ressources (32 %).
Une acculturation encore trop faible
Malgré l’importance accordée à l’IA responsable, 63 % des salariés ignorent les initiatives menées par leurs entreprises dans ce domaine. Seulement 9 % peuvent se référer à une charte éthique ou un interlocuteur spécialisé.
Pour accélérer cette acculturation à l’IA responsable, les salariés suggèrent qu’un certain nombre de freins soient levés, comme le manque de compétences internes, cité par 30 % des salariés, la complexité technique de l’IA (26 %), les coûts élevés de sa mise en œuvre (24 %), la résistance au changement (22 %) ou le manque d’engagement de la direction.
Christophe LIÉNARD, Président d’Impact AI, commente :
“Les conclusions de cette première édition de l’Observatoire de l’IA responsable montrent la grande sensibilité des Français aux notions d’IA responsable et d’IA éthique et vont donc nourrir les grands travaux que le collectif entend mener en 2025, avec l’impulsion de l’AI Action Summit de février : autour du travail, de la santé, de l’environnement et pour toujours plus de formation et d’appropriation de toutes et tous des outils d’IA responsable”.