Quand l'IA invente des maladies et publie dans des revues médicales

Quand l'IA invente des maladies et publie dans des revues médicales

L'IA a inventé une maladie. Et personne ne l'a remarqué… jusqu'à ce qu'il soit trop tard.

Imaginez ouvrir une revue médicale, lire une étude sur une pathologie rare, consulter ses références bibliographiques — et réaliser que la maladie décrite n'a jamais existé. Que les articles cités sont des fantômes. Que tout a été fabriqué, avec une précision clinique troublante, par une intelligence artificielle. Ce scénario, qui ressemble à un roman de science-fiction, s'est produit. Et il soulève des questions qui dépassent largement le monde académique.

Les hallucinations de l'IA : quand la machine confond confiance et vérité

Les grands modèles de langage — comme GPT, Gemini ou Claude — sont des outils d'une puissance remarquable. Ils peuvent rédiger, résumer, analyser et synthétiser des informations complexes en quelques secondes. Mais ils souffrent d'un défaut structurel bien documenté : l'hallucination.

Ce terme désigne la tendance de ces modèles à générer des informations fausses avec une apparente conviction. Ils ne "savent" pas qu'ils se trompent. Ils produisent du texte statistiquement plausible, cohérent en surface, mais déconnecté de la réalité. Des noms d'auteurs inventés, des titres d'articles qui n'ont jamais été publiés, des données chiffrées sorties de nulle part — le tout présenté dans un style académique impeccable.

Dans la plupart des contextes, ces erreurs sont embarrassantes mais corrigeables. En médecine, elles peuvent devenir dangereuses.

Le cas concret : une pathologie née d'un algorithme

En 2023 et 2024, plusieurs incidents ont mis en lumière la fragilité du processus de validation scientifique face à l'IA générative. Des chercheurs ont soumis — parfois volontairement pour tester le système, parfois de bonne foi — des travaux rédigés en partie ou en totalité par des modèles d'IA.

Dans l'un des cas les plus frappants, une publication médicale a accepté un article décrivant les mécanismes physiopathologiques d'un syndrome dont aucune trace ne figurait dans la littérature médicale préexistante. Les références citées ? Introuvables dans PubMed, Cochrane ou tout autre base de données sérieuse. Les auteurs mentionnés ? Soit inexistants, soit n'ayant jamais écrit sur le sujet.

L'IA avait, en toute logique probabiliste, comblé les lacunes de son entraînement par de la fiction présentée comme de la science. Et le comité de lecture, débordé ou insuffisamment vigilant, avait validé le tout.

Pourquoi les systèmes de vérification ont-ils failli ?

La réponse est à la fois simple et inquiétante. Les revues scientifiques reposent sur le principe du peer review — la relecture par les pairs. Ce système, conçu pour des erreurs humaines classiques (biais méthodologiques, erreurs d'interprétation), n'est pas calibré pour détecter des fabrications systématiques et fluides générées par des algorithmes.

  • Les relecteurs ne vérifient pas chaque référence bibliographique manuellement — ils font confiance à leur expertise thématique.
  • Les détecteurs de textes générés par IA restent imparfaits et facilement contournables.
  • La pression de publication ("publish or perish") pousse certains chercheurs et certaines revues à accélérer les processus au détriment de la rigueur.
  • Les "revues prédatrices" — publications peu scrupuleuses qui facturent des frais de soumission sans assurer de véritable contrôle — prolifèrent et absorbent ce type de contenu sans filtre.

Les implications concrètes pour la médecine et la société

On pourrait penser que ces erreurs restent cantonnées à l'enceinte académique. C'est une illusion dangereuse. La littérature médicale alimente directement :

  • Les recommandations cliniques des praticiens
  • Les décisions de remboursement des autorités de santé
  • Les bases de données qui, demain, serviront à entraîner de nouveaux modèles d'IA

Ce dernier point est particulièrement préoccupant. Si des données fictives entrent dans le corpus d'entraînement de futurs algorithmes médicaux, nous entrons dans une boucle de contamination où l'IA apprend de ses propres erreurs, les amplifie et les redistribue comme vérités établies. Les spécialistes appellent ce phénomène le model collapse.

Que faire face à ce risque systémique ?

La solution n'est pas de bannir l'IA de la recherche — ce serait à la fois impossible et contre-productif. Ces outils peuvent accélérer la recherche, démocratiser l'accès à la connaissance et assister les chercheurs dans des tâches répétitives. Mais leur usage exige un cadre rigoureux.

Plusieurs pistes font consensus parmi les experts :

  • Obligation de déclaration de l'usage de l'IA dans tout article soumis à publication
  • Vérification systématique des références via des outils dédiés comme Semantic Scholar ou CrossRef
  • Formation des comités de lecture aux spécificités des hallucinations algorithmiques
  • Responsabilité accrue des auteurs qui signent un texte, qu'il soit écrit par un humain ou une machine

Conclusion : la confiance, ce bien fragile que l'IA doit encore mériter

L'incident de la maladie fictive n'est pas une anecdote. C'est un signal d'alarme sur l'état de notre rapport collectif à la vérité à l'ère des algorithmes génératifs. L'IA ne ment pas — elle ne sait tout simplement pas ce qu'est mentir. Elle produit du vraisemblable, pas du vrai.

La responsabilité revient donc entièrement aux humains : chercheurs, éditeurs, institutions et utilisateurs. Car une science qui ne peut plus distinguer le réel de l'hallucination n'est plus une science. C'est une histoire bien racontée. Et en médecine, les histoires bien racontées peuvent coûter des vies.


Reservoir Live

S'abonner à Reservoir Live

Ne manquez aucune édition. Inscrivez-vous pour accéder à l'ensemble des éditions réservées aux abonnés.
jean.martin@exemple.com
S'abonner