Intelligence artificielle biomédicale

Une nouvelle ère pour le soutien à la décision clinique : quand l’IA apprend à partir des essais cliniques

Par Dr. Marco Vinicio Benavides Sánchez.

La médecine moderne s’appuie de plus en plus sur l’intelligence artificielle (IA) pour aider les médecins à prendre des décisions. Ces outils, appelés systèmes d’aide à la décision clinique (ou CDSS), promettent de personnaliser les traitements, de réduire les erreurs humaines et même de prédire quelle thérapie serait la plus efficace pour un patient donné. Mais un obstacle persiste.

La majorité de ces systèmes sont formés à partir de données hospitalières réelles — c’est-à-dire des cas où les médecins ont déjà choisi un traitement et observé les résultats. Mais que se passe-t-il lorsque le traitement est encore en phase d’expérimentation, testé uniquement dans des essais cliniques, et n’a pas encore été intégré dans la pratique quotidienne ?

C’est à cette question essentielle que répond une étude novatrice publiée en 2025 dans Artificial Intelligence in Medicine, dirigée par Vishnu Unnikrishnan et son équipe. Les chercheurs y proposent une nouvelle méthode pour entraîner et valider un système d’aide à la décision à partir des données d’essais cliniques — même quand des informations importantes sont manquantes.

Un défi de taille : le fossé entre la recherche et la pratique

Les essais cliniques randomisés (ECR) sont la référence ultime pour prouver l’efficacité d’un traitement. Pourtant, leur structure même — où les patients reçoivent un traitement de manière aléatoire — complique l’apprentissage pour une intelligence artificielle.

Pourquoi ? Parce que l’IA apprend à partir de motifs, de corrélations et de logiques. Or, dans un ECR, les traitements ne sont pas choisis en fonction du profil du patient, mais attribués au hasard. Cela signifie que la “raison” du choix thérapeutique est absente. Pire encore : l’IA ne peut évaluer l’efficacité d’un traitement que chez les patients qui l’ont effectivement reçu — et non chez ceux à qui il n’a pas été administré.

Cette double absence d’information a longtemps empêché l’IA d’exploiter pleinement les données des essais cliniques. Jusqu’à cette étude.

La percée : apprendre malgré l’invisibilité

Les chercheurs ont utilisé les données d’un essai clinique multi-braches impliquant plus de 240 patients souffrant d’acouphènes chroniques — cette sensation de bourdonnement ou de sifflement dans les oreilles. Ces patients ont été suivis dans cinq centres cliniques différents et ont reçu divers traitements ou combinaisons de traitements.

Plutôt que d’attendre que ces traitements soient implantés en clinique, l’équipe a formé un système de recommandation à partir des seules données de l’essai. Mais comment s’y sont-ils pris ?

Étape 1 : Repenser la variable cible

Ils ont d’abord redéfini la manière dont l’IA évalue le résultat pour chaque patient. Plutôt que d’associer les effets à un traitement spécifique (rappelons qu’il est attribué au hasard), l’IA apprend à reconnaître les motifs d’amélioration en général — en neutralisant l’effet de la randomisation.

Étape 2 : Gérer les données manquantes

De nombreux patients présentaient des dossiers incomplets. Mais l’équipe a utilisé un noyau d’apprentissage robuste à l’absence d’informations. En plus, elle a eu recours à des ensembles d’algorithmes (ou ensembles), qui permettent de combiner les résultats de plusieurs modèles pour une meilleure performance, même avec peu de données.

Étape 3 : Vérification contrefactuelle

L’aspect le plus original réside dans la “vérification contrefactuelle”. Cette méthode consiste à comparer deux scénarios : que se serait-il passé si ce patient avait reçu le traitement recommandé par l’IA, au lieu de celui assigné au hasard ? Lorsque l’IA et l’ECR sont d’accord, les résultats peuvent être comparés directement. Quand ils diffèrent, l’équipe estime le résultat probable à l’aide de données similaires.

Des résultats encourageants… mais à nuancer

Le système a montré qu’il pouvait recommander des traitements qui améliorent réellement les résultats des patients — sans jamais avoir été exposé à des données hospitalières classiques.

Cependant, les auteurs restent prudents : chaque bras de traitement comportait peu de patients. Et même si les méthodes utilisées limitent l’impact de cette faiblesse, les performances prédictives de l’IA restent perfectibles.

Mais ce n’est pas tant le résultat que la méthode qui est révolutionnaire : elle montre qu’il est possible de concevoir des systèmes d’aide à la décision fiables avant que les traitements ne soient adoptés en clinique.

Et maintenant ? Des patients synthétiques et plus de robustesse

Face au manque de données supplémentaires, les chercheurs suggèrent de générer des données synthétiques — des dossiers fictifs mais réalistes — pour compléter les bases d’apprentissage. Grâce aux modèles génératifs, il est possible de créer de faux patients tout en respectant les normes éthiques et la confidentialité.

Cela ouvre une nouvelle voie : les médecins pourront former des outils d’aide à la décision pour de nouveaux traitements, directement à partir des ECR — sans attendre leur déploiement réel.

En conclusion : raccourcir le chemin de la recherche au lit du patient

Cette étude marque une étape essentielle dans l’intégration de l’intelligence artificielle en médecine. Dans un contexte où de nouvelles thérapies émergent sans cesse, cette méthode permet de créer plus rapidement des outils d’aide à la décision sûrs et efficaces.

L’idée que l’IA peut apprendre avant même que les traitements ne soient utilisés change la donne. L’avenir de la médecine personnalisée devient plus proche — plus rapide, plus intelligent, et surtout, plus humain.

Références

1. Unnikrishnan, V., Puga, C., Schleicher, M., Niemann, U., Langguth, B., Schoisswohl, S., Mazurek, B., Cima, R., Lopez-Escamez, J. A., Kikidis, D., Vellidou, E., Pryss, R., Schlee, W., & Spiliopoulou, M. (2025). Training and validating a treatment recommender with partial verification evidence. Artificial Intelligence in Medicine, 160, 103062. https://doi.org/10.1016/j.artmed.2024.103062

2. Topol, E. (2019). Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books.

3. Esteva, A., Robicquet, A., Ramsundar, B., Kuleshov, V., DePristo, M., Chou, K., … & Dean, J. (2019). A guide to deep learning in healthcare. Nature Medicine, 25(1), 24–29. https://doi.org/10.1038/s41591-018-0316-z

#ArtificialIntelligence #Medicine #Surgery #Medmultilingua

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *