Encadrement de l’IA en santé mentale : le Collectif MentalTech appelle à la “numéricovigilance”

Alors que la santé mentale connaît une dégradation alarmante, le Collectif MentalTech publie ce jeudi 10 octobre, Journée Mondiale de la Santé Mentale, un rapport mettant en lumière le rôle à la fois prometteur et préoccupant de l’IA dans ce domaine crucial. Coordonné par Alexia Adda, cofondatrice de KLAVA Innovation, ce rapport fait état des avancées technologiques en santé mentale tout en soulevant des questions éthiques fondamentales.

MentalTech est le premier collectif français dédié à l’émergence de solutions numériques en santé mentale. Créé en mars 2022 par 7 membres fondateurs : Qare, hypnoVR, Kwit, moka.care, PetitBamBou, ResilEyes Therapeutics, et Tricky, il regroupe aujourd’hui plus d’une trentaine d’acteurs (startups, institutionnels, professionnels de santé) autour d’une même ambition  : répondre à l’urgence de déployer des outils numériques éthiques dans la prévention et la prise en charge de la santé psychique.

Le collectif souligne la recrudescence ces dernières années des troubles de l’humeur, en particulier chez les jeunes adultes, et l’augmentation des consultations d’urgence en psychiatrie, en raison de l’errance diagnostique et du tabou entourant la santé mentale. Face à ces enjeux, l’émergence d’outils numériques devient essentielle pour améliorer la précision des diagnostics, personnaliser les traitements et faciliter l’accès aux soins.

L’IA : un outil transformateur

Au cours des dernières années, l’IA a fait des progrès considérables, offrant des solutions innovantes dans divers domaines, y compris la santé mentale. Selon le rapport, quatre principaux cadres d’intervention de l’IA émergent :

  • Prédiction de valeur : l’IA peut prédire des états psychiques en analysant de grandes quantités de données, détectant ainsi des émotions dans des vidéos ou des conversations textuelles avant l’apparition de symptômes graves ;
  • Génération de dialogue : des agents conversationnels peuvent interagir directement avec les patients, offrant un soutien continu et personnalisé. Ils peuvent analyser en temps réel l’état psychologique des individus à travers leurs réponses verbales ou écrites, et fournir un premier niveau d’assistance ou de recommandations ;
  • Création d’activités thérapeutiques : l’IA peut générer des programmes adaptés aux besoins spécifiques des patients, y compris des jeux sérieux et des exercices de relaxation. La réalité virtuelle peut aider à traiter des phobies ou des
    troubles de stress post-traumatique en simulant des environnements thérapeutiques contrôlés ;
  • Recommandation de ressources : des recommandations pertinentes peuvent être faites aux patients (articles ou vidéos), les aidant à mieux comprendre et à gérer leurs symptômes, et aux professionnels de santé (protocoles de soin) selon les besoins exprimés ou détectés.

Ces technologies visent à améliorer les diagnostics et à créer un système de soins plus inclusif, comblant ainsi les lacunes dans l’accès aux soins psychiques.

Défis éthiques à relever

Cependant, l’utilisation croissante de l’IA en santé mentale soulève d’importants défis éthiques. La protection des données sensibles des patients est une préoccupation majeure, d’autant plus que l’IA repose souvent sur de vastes ensembles de données personnelles. De plus, le rapport met en garde contre le risque de déshumanisation des soins, soulignant la nécessité d’une validation humaine des décisions prises par l’IA.

Un autre défi réside dans l’explicabilité des algorithmes. Souvent qualifiés de “boîtes noires”, ces modèles peuvent prendre des décisions complexes sans que leur logique soit toujours compréhensible pour les médecins, d’où l’importance d’une meilleure transparence.

La réglementation européenne

Les applications d’IA en santé sont souvent considérées comme à haut risque, et les nouvelles exigences de l’AI Act s’ajoutent aux régulations existantes pour les dispositifs médicaux.

Le collectif rappelle que les éditeurs d’IA doivent suivre six étapes pour se conformer aux nouvelles normes : définir le cadre d’utilisation, obtenir le consentement des patients pour la collecte de données, évaluer l’impact de l’IA, anticiper les biais, garantir la conformité réglementaire et établir une gouvernance appropriée.

Appel à la numéricovigilance

Pour faire face à ces enjeux, le Collectif MentalTech appelle à la création d’un cadre de “numéricovigilance”. Inspiré du modèle de pharmacovigilance, ce cadre vise à garantir la sécurité des patients tout en détectant rapidement les dérives potentielles des dispositifs d’IA. Selon lui, il permettrait de maintenir un équilibre entre l’innovation technologique et le respect des principes éthiques fondamentaux dans la prise en charge de la santé mentale.

Le collectif identifie dix axes majeurs pour ce cadre :

1. L’élaboration d’une notice d’information : créer un document explicatif pour les utilisateurs, détaillant le fonctionnement de l’IA, ses avantages, ses risques, la population cible et les mesures en cas de dysfonctionnement, avec un langage accessible.

2. La constitution d’un comité scientifique pluridisciplinaire : former un comité composé d’au moins un médecin, un.e expert.e en IA, un.e éthicien.ne et un.e spécialiste du Réglementaire pour superviser le développement et l’évaluation des systèmes d’IA.

3. L’implication des professionnels de santé : engager les professionnels de santé dans le processus de développement de l’IA pour garantir la robustesse et la fiabilité des systèmes.

4. La formation des professionnels de santé : proposer des formations sur l’IA, ses applications en médecine et les principes d’évaluation des systèmes de machine learning.

5. L’installation personnalisée pour les utilisateurs : adapter l’utilisation des outils d’IA aux appréhensions des utilisateurs, en développant des protocoles spécifiques pour chaque cas d’usage.

6. L’absence de conflits d’intérêts : veiller à ce qu’il n’y ait pas de conflits d’intérêts entre les entités impliquées dans le dépistage et le traitement des troubles.

7. L’adaptation des métriques d’évaluation : ajuster les métriques d’évaluation de l’algorithme selon le cas d’usage et garantir la transparence et l’efficacité des mécanismes de sécurité.

8. Le retracement des décisions de l’IA : documenter le processus décisionnel de l’IA, en expliquant les résultats générés, tout en prévoyant des exceptions lorsque des bénéfices médicaux substantiels peuvent être démontrés.

9. La sélection de la population d’entraînement : assurer la représentativité des données utilisées pour l’entraînement de l’IA, et mener des études complémentaires pour prévenir les biais algorithmiques si nécessaire.

10. La collecte parcimonieuse des données : suivre les recommandations de la CNIL en ne collectant que les données indispensables, afin de tester les IA de manière pragmatique et efficace.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
1 an d'abonnement au magazine de référence sur l'IA pour 27,60€ Boutique ActuIA Recherche, Business, Impact : Restez à la page en matière d'intelligence artificielle.
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.