Dans le cadre de France 2030, le gouvernement français a lancé un Grand Défi visant à « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle », piloté par le Secrétariat Général pour l’Investissement (SGPI) et financé par le Plan d’Investissement d’Avenir. L’AFNOR, l’association française de normalisation, a été mandatée pour « créer l’environnement normatif de confiance accompagnant les outils et les processus de certification des systèmes critiques à base d’intelligence artificielle ». Elle a publié récemment une feuille de route stratégique où elle présente six axes essentiels pour la normalisation de l’IA.
Développer des IA de confiance est essentiel. Le gouvernement français a dans ce but engagé 1,2 million d’euros, au titre du Programme d’investissements d’avenir (PIA) et du plan France Relance, pour faciliter la création de normes consensuelles et acceptées à l’échelle mondiale.
Cédric O, secrétaire d’Etat chargé de la Transition numérique et des Communications électroniques, a d’ailleurs déclaré :
« L’IA de confiance, c’est-à-dire l’IA pour les systèmes critiques, est aujourd’hui nécessaire dans de nombreux domaines comme la voiture autonome, l’aéronautique ou le spatial. »
Lancé par le SGPI, le Grand Défi « Sécuriser, fiabiliser et certifier des systèmes fondés sur l’intelligence artificielle » a pour objectif de construire les outils garantissant la confiance placée dans les produits et services intégrant l’IA et a servi de cadre technique à la proposition de réglementation européenne sur l’IA du 21 avril dernier. Le SGPI y a développé une approche basée sur trois piliers : la recherche, les applications et la normalisation.
Ce dernier pilier est confié à l’AFNOR, qui compte de nombreux acteurs de l’écosystème IA, dans l’objectif de créer des synergies en France, avec d’autres pays dans le cadre de l’Organisation internationale de normalisation (ISO) ainsi que d’autres consortiums internationaux.
Pour structurer l’écosystème, l’association va ainsi mettre en place une plateforme de coopération entre acteurs français de l’IA, des actions stratégiques en normalisation et développer des coopérations européennes et internationales.
Une incompréhension nationale de la normalisation
Les entreprises françaises n’appréhendent pas toutes l’importance stratégique des normes, en particulier les start-ups, PME et ETI, qui, insuffisamment intégrées dans les écosystèmes de normalisation n’en mesurent pas les enjeux. Les acteurs économiques semblent s’en désintéresser alors qu’ils s’inquiètent de l’application de la réglementation et de la mise en conformité.
Les experts des entreprises concernées contribuent à l’élaboration de règles de normalisation de manière directe, au niveau national comme au niveau européen et international, qui serviront de support technique à la réglementation européenne.
Cette réglementation européenne s’inscrit dans la continuité en Europe du Data Governance Act présenté en novembre 2020, du RGPD actif depuis 2018 ou encore de l’étude du rôle de l’IA dans le Green Deal, réalisée par le Parlement Européen.
La feuille de route de l’AFNOR
260 acteurs français de l’IA ont pris part à la consultation menée à l’été 2021 pour établir cette stratégie de normalisation de l’IA. Toutes les entreprises de l’écosystème pourront participer à l’élaboration des normes dans l’enceinte des commissions de normalisation.
Patrick Bezombes, président de la commission de normalisation française, assure :
« La contribution n’est pas réservée aux grands groupes, bien au contraire. Les start-up et PME constituent un maillon essentiel de l’écosystème, elles doivent faire entendre leur voix et donner leur point de vue : les orientations choisies les impacteront directement, en plein cœur de leur business. »
La feuille de route comporte 6 axes :
- Développer les normes portant sur la confiance
Les caractéristiques prioritaires à normaliser retenues sont la sécurité, la sûreté, l’explicabilité, la robustesse, la transparence, l’équité (dont non-discrimination). Chacune de ces caractéristiques fera l’objet d’une définition, d’une description du concept, des exigences techniques et des métriques et contrôles associés, tout particulièrement la sécurité.
- Développer les normes sur la gouvernance et le management de l’IA
Toutes les nouvelles applications d’IA comportent des risques : mauvaise qualité des données, mauvaise conception, mauvaise qualification. Une analyse des risques pour les systèmes à base d’IA est donc essentielle. Les entreprises devront mettre en place des dispositifs de management de la qualité et des risques. Dans le cadre des travaux ISO/IEC, deux normes sont en cours de développement portant sur :
• Un système de management de la qualité des IA : ISO 42001 (AI management System);
• Un système de management des risques IA : ISO 23894.2 (AI Risk management).
Elles pourraient s’imposer au niveau mondial tout comme ISO 9001, qui est à présent une référence internationale en matière de management de la qualité, et devenir des normes harmonisées européennes.
- Développer les normes sur la supervision et le reporting de l’IA
La place de l’homme de la conception des systèmes d’IA à leur utilisation est essentielle. Il faut donc s’assurer qu’ils sont contrôlables, que l’humain pourra les superviser et reprendre la main aux moments critiques où l’IA sortira de son domaine de fonctionnement nominal.
Des processus de reporting permettront de faire remonter les incidents majeurs afin de les traiter en temps réel avant qu’ils ne se propagent. En cas d’incidents et d’accidents, des audits seront menés sur les produits et sur les standards sur lesquels ils reposent.
- Développer des normes sur les compétences des organismes de certification
Les organismes de certification devront embaucher, former leurs personnels et disposer des méthodes et outils d’évaluation des systèmes d’IA pour maintenir la confiance dans les produits, les processus de plus en plus techniques et les services. Ils devront s’assurer que les entreprises ont mis en place des processus de développement et de qualification des systèmes d’IA mais aussi que les produits sont bien conformes aux exigences, notamment règlementaires.
- Développer la normalisation de certains outils numériques
Les données synthétiques apportées par la simulation permettent la spécification, la conception, l’entrainement, les tests, la validation, la qualification et l’audit des systèmes à d’IA. La simulation permettra une grande répétabilité des tests et ainsi de mieux comprendre et expliquer certains comportements des systèmes d’IA. La simulation va être de plus en plus utilisée et de nouvelles normes en matière de qualification des simulations, d’interopérabilité des simulations et des objets (jumeaux numériques) devront être mises en place.
- Simplifier l’accès et l’utilisation des normes
Une plateforme de concertation sera prochainement ouverte et ajustée au fur et à mesure.