Quand l'IA invente des maladies : les dangereuses hallucinations médicales

Quand l'IA invente des maladies : les dangereuses hallucinations médicales

L'intelligence artificielle diagnostique… des maladies qui n'existent pas

Imaginez un médecin qui vous annonce souffrir d'une pathologie rare, vous cite trois études scientifiques à l'appui, vous propose un protocole de traitement détaillé — et dont tout ce qu'il vient de dire est faux. Pas approximatif. Pas exagéré. Fondamentalement inventé. C'est exactement ce que font certains systèmes d'intelligence artificielle lorsqu'ils sont sollicités dans un contexte médical. Ce phénomène, connu sous le nom d'hallucination, représente l'une des failles les plus préoccupantes de l'IA appliquée à la recherche en santé.

Comprendre le phénomène : qu'est-ce qu'une hallucination en IA ?

Les grands modèles de langage — comme GPT, Gemini ou Claude — ne "comprennent" pas le monde au sens humain du terme. Ils prédisent des séquences de mots statistiquement cohérentes à partir de milliards de données d'entraînement. Le problème ? La cohérence linguistique n'est pas la vérité factuelle.

Une hallucination survient quand le modèle génère une information qui semble crédible, bien formulée, scientifiquement habillée… mais qui ne repose sur aucune réalité vérifiable. En médecine, cela peut prendre plusieurs formes :

  • Des maladies inventées avec des noms latins convaincants et une symptomatologie détaillée
  • Des études scientifiques fictives — avec auteurs, revues et DOI fabriqués de toutes pièces
  • Des interactions médicamenteuses erronées présentées avec une fausse assurance
  • Des statistiques épidémiologiques inventées, précises au dixième de pourcentage près

Des exemples concrets qui font froid dans le dos

En 2023, une étude publiée dans le Journal of the American Medical Association (JAMA) a révélé que lorsque ChatGPT était invité à répondre à des questions médicales complexes, il produisait des références bibliographiques erronées dans plus de 47 % des cas. Des titres d'articles plausibles, des noms d'auteurs réels… mais des publications qui n'ont jamais existé.

Plus troublant encore : des chercheurs de l'université de Stanford ont testé plusieurs modèles sur des scénarios cliniques impliquant des maladies rares. Résultat ? Certains systèmes ont non seulement proposé des diagnostics incorrects, mais ont créé des entités nosologiques entièrement nouvelles — des maladies avec leur propre nom, leurs critères diagnostiques et leurs options thérapeutiques. Le tout présenté avec la rigueur froide d'un manuel de médecine interne.

Dans un cas documenté, un avocat américain avait utilisé ChatGPT pour préparer un dossier médical. L'IA avait cité plusieurs précédents juridiques liés à des pathologies spécifiques. Aucun de ces précédents n'existait. L'affaire s'est terminée devant un juge scandalisé.

Pourquoi la médecine est-elle particulièrement vulnérable ?

Le domaine médical cumule plusieurs facteurs qui amplifient les risques des hallucinations :

  • La complexité du vocabulaire : un langage technique dense crée une apparence d'expertise facile à imiter
  • L'asymétrie d'information : le patient ou l'étudiant non spécialiste n'a pas les moyens de détecter l'erreur
  • La confiance accordée à l'outil : l'IA est perçue comme neutre, exhaustive, infaillible
  • Les enjeux vitaux : une erreur en médecine n'est pas une anecdote — elle peut coûter une vie

La recherche médicale est également touchée en amont : des chercheurs sous pression utilisent l'IA pour générer des revues de littérature, synthétiser des données ou rédiger des sections entières d'articles. Si la vérification humaine est insuffisante, des erreurs peuvent s'infiltrer dans la chaîne scientifique et contaminer d'autres travaux.

Que font les développeurs et les institutions pour y remédier ?

La réponse existe, mais elle reste insuffisante. Plusieurs pistes sont à l'œuvre :

  • Le développement de modèles spécialisés, entraînés exclusivement sur des données médicales validées (Med-PaLM de Google en est un exemple)
  • L'intégration de systèmes de vérification en temps réel via des bases de données comme PubMed ou Cochrane
  • La mise en place de garde-fous réglementaires, notamment en Europe avec l'AI Act, qui classe les applications médicales comme "à haut risque"
  • La formation des professionnels de santé à un usage critique et éclairé des outils d'IA

Mais ces avancées se heurtent à une réalité : l'adoption va plus vite que la réglementation. Des milliers de personnes interrogent chaque jour des chatbots généralistes sur leurs symptômes, leurs médicaments, leurs résultats d'analyses.

Ce que cela signifie pour vous, aujourd'hui

L'intelligence artificielle n'est pas l'ennemi de la médecine. Elle représente une révolution réelle dans l'analyse d'images médicales, la découverte de molécules ou la gestion des dossiers patients. Mais elle doit être utilisée comme un outil d'appui, jamais comme une autorité médicale autonome.

La règle d'or reste simple : toute information médicale générée par une IA doit être vérifiée par un professionnel qualifié, en croisant les sources primaires. Une IA confiante n'est pas une IA fiable. Et dans un domaine où l'erreur peut être fatale, la prudence n'est pas une option — c'est une exigence éthique absolue.

L'ère de l'IA médicale est déjà là. La question n'est plus de savoir si nous allons l'utiliser, mais avec quelle lucidité nous allons le faire.


Reservoir Live

S'abonner à Reservoir Live

Ne manquez aucune édition. Inscrivez-vous pour accéder à l'ensemble des éditions réservées aux abonnés.
jean.martin@exemple.com
S'abonner