Le Hub France IA a constitué un groupe de travail qui, durant six semaines, a étudié comment ChatGPT fonctionne, quels sont ses usages, ses limites et ses impacts. Il a publié le 2 mai dernier une note de synthèse sur les usages et les impacts de ChatGPT et de l’IA Générative (IAG) afin de restituer, de façon aussi accessible que possible à tout un chacun, les travaux de ce groupe de travail et de fournir des informations sur les alternatives existantes ainsi que des recommandations opérationnelles.
Chaque semaine, le groupe de travail ChatGPT a accueilli plus de 100 acteurs de tous horizons : startups (Aleia, ClicNWork, Datavaloris, DecisionBrain, Neovision…), grands groupes (Atos, BNP Paribas, EDF, SNCF…), établissements d’enseignement supérieur (ESSEC BS, Université Sorbonne…), administrations publiques (DGAC, DGE…) et media (FranceTV, France 2).
La collaboration d’acteurs divers a permis de réaliser un travail en profondeur représentant un large consensus de l’écosystème.
La note de synthèse aborde :
- Le fonctionnement de ChatGPT : le modèle de langage GPT-3 et l’agent conversationnel. Elle envisage ensuite les capacités et les limites de ChatGPT, et plus largement, les autres systèmes d’IA générative (les travaux du groupe se sont arrêtés le 17 mars dernier, GPT-4, Google Bard, Adobe Firefly ou Microsoft Copilot 365 n’ont donc été que peu voire pas analysés) ;
- Les usages de ChatGPT par domaine (relation client et marketing, développement informatique, cybersécurité, banque et assurance, bâtiment et travaux publics, recherche, enseignement, éthique, journalisme, ressources humaines, droit, santé…) ;
- Les impacts de ChatGPT pour les entreprises, l’emploi, l’environnement, l’éthique et l’enseignement.
Pour le groupe de travail, les IA génératives vont continuer à se développer, les entreprises doivent s’y préparer pour en tirer les bénéfices et ne pas courir les risques suivants décrits dans son rapport :
- une adoption incontrôlée par le personnel ;
- la non-conformité aux normes légales et aux enjeux éthiques ;
- le développement de biais (liés à l’entraînement de ChatGPT) ;
- les risques cyber ;
- des risques juridiques liés à l’ingestion de textes protégés par des droits d’auteur ;
- une utilisation hors contrat avec OpenAI.
Il recommande donc aux entreprises d’encadrer soigneusement l’usage de ChatGPT et des IAG, par exemple par une charte dédiée.
Les recommandations du Hub France IA
Pour les auteurs de la note de synthèse, il faut préparer d’urgence la société aux évolutions apportées par ChatGPT et l’IA générative. Selon eux, “Les IAG ont propulsé l’intelligence artificielle hors du seul champ des spécialistes ; citoyens, journalistes, enseignants, politiques ou encore philosophes, tous sont concernés par l’essor fulgurant de cette technologie. De ce fait, il est essentiel d’acculturer à tous les niveaux pour un usage raisonné de ces outils, loin des discours alarmistes mais de façon non naïve en tenant compte de recommandations telles que celles émises dans notre rapport”.
Ils recommandent notamment de :
- Mettre en place des actions de formation massive des salariés ;
- Ne pas interdire l’usage de l’IAG, mais mettre en place des chartes d’usage claires et
opérationnelles : interdire exclusivement les actions inacceptables (fuite de données
confidentielles, triche, etc.), mais permettre les activités à valeur ajoutée en les
encadrant soigneusement ; - Protéger les données confidentielles et ne pas les introduire dans les prompts ;
- Toujours vérifier les résultats produits par ChatGPT, pour contrôlerles hallucinations ;
- Contribuer au développement de solutions souveraines, open-source si possible,
accessibles aux petites entreprises ; - Travailler à ce que ces solutions permettent de développer des solutions verticales
par métier, avec, pour l’entreprise, la maîtrise de ses données (confidentielles).
Consulter la note de synthèse