Selon un article de Will Douglas Heaven, dans le Massachussetts Institute Of Technology Review, nombreux sont les outils qui ont été conçus afin de lutter contre le Covid-19. Toutefois, leurs performances n’ont pas été à la hauteur des attentes des médecins et spécialistes : aucun des outils prédictifs développés n’a fait une réelle différence, pire encore, certains d’entre eux auraient eu des effets malvenus voire potentiellement nocifs. Retour sur ces outils d’IA sur lesquels les chercheurs ont fondé beaucoup d’espoirs pour lutter contre la pandémie du Covid-19, mais qui n’ont, finalement, pas eu l’effet escompté.
Une situation particulière à laquelle les médecins ont dû s’adapter
En mars 2020, le Covid-19 a frappé l’Europe de plein fouet, d’abord en Italie, c’est ensuite en France que la maladie a fait le plus de victimes et de contaminés, ce qui a plongé les hôpitaux dans une grave crise sanitaire qui à l’heure actuelle, est encore mal comprise. Les médecins et infirmiers, pour qui la situation étant une grande première, n’avaient pas de réelle idée quant à la manière de gérer l’ensemble des patients, selon Laure Wynants, épidémiologiste à l’Université de Maastricht aux Pays-Bas, qui étudie les outils prédictifs.
En Chine, le virus était déjà présent depuis décembre, et les chercheurs du pays étaient déjà en train de mener des études et des enquêtes afin de mieux connaître le virus et vaincre, ce qui était alors à ce moment-là, une “épidémie”. Laure Wynants déclare alors à ce moment-là : “S’il y a un moment où l’IA pourrait prouver son utilité, c’est maintenant. J’avais de l’espoir.”. L’objectif théorique semble “simple”, former des algorithmes de machine learning formés sur les données chinoises récupérées entre décembre 2019 et mars 2020 pour aider les médecins à mieux comprendre le virus et à prendre des bonnes décisions pour sauver des vies.
L’intelligence artificielle au service des médecins dans la lutte contre le Covid-19 ? Pas tout à fait…
Malheureusement, l’objectif n’a pas été atteint : non pas parce que l’effort était inexistant, loin de là, puisque des équipes de chercheurs du monde entier se sont mobilisées afin d’apporteur leur aide. Non pas parce qu’ils n’ont rien réussi à élaborer, puisque ce sont plusieurs centaines d’outils prédictifs qui ont été développés afin d’aider le personnel situé en première ligne à mieux diagnostiquer et trier les patients selon leurs symptômes par exemple.
Il n’a pas été atteint, car aucun de ces outils n’a fait une réelle différence : c’est ce que plusieurs études ont affirmé, dont celle du Alan Turing Institute, le centre national britannique pour la data science et l’IA, qui précise que les outils d’IA n’avaient eu que peu voire aucun impact dans la lutte contre le Covid-19. Ces résultats sont en lien avec les résultats d’une étude publiée par Laure Wynants.
Elle et ses collègues ont examiné 232 algorithmes utilisés pour diagnostiquer les patients ou prédire à quel point les personnes atteintes de la maladie pourraient tomber malades. Ils ont constaté qu’aucun d’entre eux n’était adapté à un usage clinique. Seuls deux d’entre eux ont été identifiés comme suffisamment prometteurs pour des tests futurs.
Concrètement, quels sont les problèmes des outils d’IA face au Covid-19 ?
Bon nombre des problèmes découverts sont liés à la mauvaise qualité des données utilisées par les chercheurs pour développer leurs outils. Les informations sur les patients atteints du Covid-19, y compris les analyses médicales, ont été collectées et partagées au milieu d’une pandémie mondiale, souvent par les médecins qui luttent pour traiter ces patients.
Les chercheurs voulaient aider rapidement, et il s’agissait des seuls ensembles de données publiques disponibles. Mais cela signifiait que de nombreux outils étaient construits à l’aide de données mal étiquetées ou de données provenant de sources inconnues. C’est notamment ce qu’a relevé Derek Driggs, chercheur en machine learning à l’Université de Cambridge, dans son étude sur les modèles de deep learning dédié au diagnostic du Covid-19.
Les deux équipes (celles de Laure Wynants et de Derek Driggs) ont découvert que les chercheurs répétaient les mêmes erreurs de base dans la façon dont ils formaient ou testaient leurs outils. Des hypothèses incorrectes sur les données signifiaient souvent que les modèles entraînés ne fonctionnaient pas comme prévu. Driggs met en évidence le problème de ce qu’il appelle “les ensembles de données de Frankenstein” : ces données sont assemblées à partir de plusieurs sources et peuvent contenir des doublons. Cela signifie que certains outils finissent par être testés sur les mêmes données sur lesquelles ils ont été formés, ce qui n’aide clairement pas le modèle.
Quelles solutions à l’avenir ?
Bien entendu, les chercheurs restent convaincus que l’IA peut aider dans ce genre de situation exceptionnelle. L’erreur la plus répandue aura été de ne pas trier les ensembles de données mises à disposition des chercheurs. Un autre aspect à soulever est ironiquement celui de l’égoïsme : les chercheurs n’ont pas partagé leurs modèles et outils d’IA pour que d’autres puissent les tester et s’appuyer sur eux pour en créer des plus performants. C’est ce qu’explique Laure Wynants :
“Les modèles sont si similaires – ils utilisent presque tous les mêmes techniques avec des ajustements mineurs, les mêmes entrées – et ils commettent tous les mêmes erreurs. Si tous les experts qui fabriquent de nouveaux modèles testaient plutôt des modèles qui étaient d’ores et déjà disponibles, nous aurions peut-être quelque chose qui pourrait vraiment aider les hôpitaux à l’heure actuelle…”
Pour résoudre ce problème, l’Organisation mondiale de la santé envisage un contrat de partage de données d’urgence qui entrerait en vigueur lors de crises sanitaires internationales. Cela permettrait aux chercheurs de déplacer plus facilement les données à travers les régions du monde.