230 millions de personnes par an confient leurs symptômes à ChatGPT, Gemini ou Copilot. ECRI, l’organisme américain de référence en sécurité des patients, vient de classer cette pratique comme le premier danger sanitaire technologique de 2026.
230 millions de consultations, zéro responsabilité
Un quart des 800 millions d’utilisateurs hebdomadaires de ChatGPT posent des questions sur leur santé, selon les chiffres communiqués par OpenAI. Mal de tête persistant, douleur thoracique, éruption cutanée suspecte : au lieu d’appeler un médecin, des dizaines de millions de personnes tapent leurs symptômes dans une fenêtre de chat et prennent les réponses pour argent comptant.
ECRI, qui publie chaque année un classement des risques technologiques en milieu hospitalier, a placé les chatbots d’intelligence artificielle en première position pour 2026. Devant les défaillances de moniteurs cardiaques. Devant les erreurs de pompes à perfusion. L’organisme, qui conseille plus de 3 000 hôpitaux et cliniques, ne mâche pas ses mots : ces outils ont « suggéré des diagnostics incorrects, recommandé des examens inutiles, promu du matériel médical de qualité inférieure et même inventé des parties du corps », selon le rapport.
Un exemple parmi d’autres : un chatbot, interrogé sur la pose d’une électrode de retour pour bistouri électrique sur l’omoplate d’un patient, a validé le placement. En chirurgie réelle, suivre ce conseil exposerait le patient à des brûlures graves.
Un essai clinique donne raison aux sceptiques
L’Université d’Oxford a voulu trancher le débat avec la méthode la plus rigoureuse possible. Son équipe, en partenariat avec le Nuffield Department of Primary Care et l’organisation MLCommons, a conduit un essai randomisé publié dans Nature Medicine. Près de 1 300 participants ont reçu des scénarios médicaux conçus par des praticiens : migraine violente, épuisement post-partum, douleur abdominale soudaine. La moitié pouvait utiliser un chatbot IA, l’autre devait se débrouiller avec une recherche en ligne classique ou son propre jugement.
Le résultat a de quoi refroidir les enthousiastes. Les participants assistés par l’IA n’ont pas fait mieux que les autres. Seulement un tiers d’entre eux a identifié correctement la pathologie en jeu. Et 43 % seulement ont pris la bonne décision sur la conduite à tenir : se rendre aux urgences, consulter un généraliste ou rester chez soi.
Plus préoccupant encore : dans 52 % des cas d’urgence simulée, les chatbots ont sous-estimé la gravité de la situation. Un cas d’acidocétose diabétique avec détresse respiratoire imminente ? Le chatbot n’a pas orienté le patient vers les urgences. « Demander à un grand modèle de langage de vous dire ce que vous avez peut être dangereux », a résumé la docteure Rebecca Payne, co-auteure de l’étude, à l’Université d’Oxford.
Un médecin programmé pour vous donner raison
À l’Université Duke, la chercheuse Monica Agrawal a épluché 11 000 conversations réelles entre patients et chatbots, soit environ 25 000 messages couvrant 21 spécialités médicales. Son constat pointe un défaut structurel : le vrai problème n’est pas l’hallucination (quand l’IA fabule), mais la réponse techniquement correcte, médicalement inappropriée par manque de contexte.
Un patient demande comment réaliser une procédure médicale chez lui. Le chatbot commence par prévenir que cela nécessite un professionnel. Puis il détaille les étapes, une par une. Un médecin aurait stoppé la conversation. Le chatbot, lui, a répondu à la question.
« L’objectif du modèle est de fournir une réponse que l’utilisateur va aimer », explique Monica Agrawal dans ses travaux publiés à Duke. Cette mécanique encourage les comportements à risque : questions orientées qui présupposent un diagnostic, demandes de posologie pour une maladie auto-diagnostiquée, recours au registre émotionnel pour obtenir des informations que le chatbot devrait refuser. Un vrai médecin résiste à ces dynamiques. L’IA s’y plie.
Google glisse l’IA dans vos recherches santé
Le danger ne se limite plus aux chatbots. Google intègre désormais des résumés générés par intelligence artificielle directement dans ses résultats de recherche. Un internaute qui tape « douleur poitrine côté gauche » voit apparaître, avant même les liens, un paragraphe rédigé par l’IA qui synthétise les causes possibles.
La frontière entre « contenu généré par IA » et « avis médical » s’estompe un peu plus à chaque mise à jour. Et contrairement aux chatbots, cette exposition ne nécessite aucune démarche : l’IA s’invite dans le parcours de recherche sans que personne ne l’ait demandé.
Côté réglementation, le vide reste total. Ni en Europe ni aux États-Unis, les chatbots grand public ne sont classés comme dispositifs médicaux. Ils échappent aux obligations de validation clinique, de certification et de pharmacovigilance qui s’imposent à n’importe quelle application de santé vendue aux hôpitaux.
Trois failles structurelles, aucun correctif en vue
L’essai d’Oxford a identifié trois problèmes récurrents. D’abord, les patients ne savent pas quelles informations donner au chatbot pour obtenir une réponse fiable. Un médecin pose des questions ciblées, reformule, exclut des pistes. Le chatbot attend passivement qu’on lui fournisse la matière.
Ensuite, une même question formulée différemment produit des réponses contradictoires. Un patient qui décrit une « gêne au thorax » ne reçoit pas le même conseil que celui qui parle de « douleur dans la poitrine », alors que les deux formulations peuvent désigner la même pathologie. « Les systèmes d’IA doivent être testés rigoureusement avec des utilisateurs réels et diversifiés » avant tout déploiement dans le domaine de la santé, a insisté le professeur Adam Mahdi, directeur de l’étude à Oxford.
Enfin, le mélange d’informations exactes et erronées rend le tri quasi impossible pour un non-spécialiste. Le chatbot peut enchaîner trois faits vérifiables et glisser une aberration au milieu, le tout sur un ton d’expert qui ne trahit aucun doute.
ECRI recommande aux hôpitaux de créer des comités de gouvernance IA, de former les soignants et d’auditer régulièrement les performances de ces outils. Pour les patients, le conseil tient en une phrase : vérifier toute information obtenue d’un chatbot auprès d’une source médicale qualifiée. L’Organisation mondiale de la santé prépare un cadre réglementaire spécifique à l’IA en santé, dont la première version est attendue avant la fin de l’année.