Financé par France 2030, le programme de recherche technologique Confiance.ai, destiné à aider les industriels à intégrer une intelligence artificielle de confiance dans leurs systèmes critiques, s'est achevé en septembre 2024. Forte des résultats obtenus, la communauté Confiance.ai a choisi de poursuivre son investissement collectif à travers une stratégie articulée autour de trois axes : pérenniser les résultats acquis, approfondir les travaux de recherche et favoriser leur industrialisation à l’échelle européenne.

Lancé en 2021 dans le cadre du Grand Défi "Sécuriser, fiabiliser et certifier des systèmes fondés sur l’intelligence artificielle", le programme a permis de développer une méthodologie complète encadrant le développement et le déploiement de l’IA dans les systèmes critiques. Celle-ci couvre des dimensions clés telles que la robustesse, l’explicabilité, la fiabilité ou encore la conformité réglementaire, en particulier avec l’AI Act en cours d’adoption au niveau européen.

Une fondation open source pour structurer l’écosystème

L’un des piliers de la nouvelle phase du programme est la création de l’European Trustworthy AI Foundation. Cette fondation a vocation à :
  • diffuser les outils et méthodologies développés dans le cadre du programme initial ;
  • fédérer une communauté européenne autour de standards partagés ;
  • aligner les solutions technologiques avec les exigences réglementaires ;
  • contribuer à la mise en œuvre d’une solution européenne pour évaluer et labéliser les systèmes et les organisations en matière d'IA, dans le cadre de son implication dans l’AI Trust Alliance.

De nouveaux chantiers de R&D autour des verrous émergents

L'IA évoluant rapidement, la communauté identifie de nouveaux défis technologiques à adresser. Sont notamment visés :
  • l’IA générative, appliquée à la gestion des connaissances techniques ;
  • les approches hybrides, combinant modèles physiques et apprentissage automatique ;
  • les nouvelles formes de collaboration humain-machine dans les systèmes complexes ;
  • la cybersécurité, devenue une exigence clé pour tout système intelligent.
Ces travaux seront conduits à travers des cas d’usage concrets, dans une logique de transfert vers l’industrie, et viendront enrichir la méthodologie outillée.

Une offre structurée pour accompagner l’industrialisation de l’IA responsable

Pour faciliter l’adoption de l’IA de confiance par les entreprises, plusieurs dispositifs sont déjà opérationnels :
  • des offres de formation, dont le mastère spécialisé® « IA de confiance » de CentraleSupélec Exed et  l’IRT SystemX ;
  • des outils de mise en conformité réglementaire proposés par Airbus Protect ;
  • des services d’industrialisation intégrant les contraintes de l’IA responsable, portés notamment par Sopra Steria.
Une start-up issue du programme sera également créée, avec une offre SaaS dédiée à la gouvernance des composants IA intégrable aux processus d’ingénierie industrielle.

Appel à mobilisation

Face aux enjeux cruciaux de l’IA dans l’industrie, la communauté Confiance.ai appelle tous les acteurs européens à rejoindre son action : contribuer activement à façonner l’avenir de l’IA industrielle en Europe.
 Paul Labrogère, Directeur de l’IRT SystemX qui avait piloté ce programme, conclut :
"Notre communauté se réjouit que l’IA de confiance ait été mise sur le devant de la scène lors du Sommet pour l’action sur l’IA. Ce dernier a mis en lumière la nécessité de mobiliser les acteurs publics, privés et académiques pour bâtir un écosystème de confiance autour de l’IA. Plus précisément dans le domaine de l’IA industrielle et responsable, l’Europe peut déjà compter sur la plus importante communauté au monde constituée par le programme Confiance.ai ces quatre dernières années. Nous sommes déjà en ordre de marche pour que les industriels européens intègrent des solutions d’IA de confiance afin de déployer de nouveaux services innovants ultra-compétitifs sur leurs marchés".