40 millions de personnes posent chaque jour une question médicale à ChatGPT. Parmi elles, 600 000 messages par semaine proviennent de zones où l’hôpital le plus proche se trouve à plus de trente minutes de route. Le problème : une étude publiée dans Nature Medicine révèle que l’outil rate plus de la moitié des urgences vitales.
600 000 appels à l’aide depuis les déserts médicaux américains
Les chiffres viennent d’OpenAI elle-même. Chengpeng Mou, responsable finances de l’entreprise, a détaillé sur X les données d’utilisation anonymisées de ChatGPT aux États-Unis. Sur quatre semaines fin 2025, la plateforme a reçu en moyenne 580 000 messages hebdomadaires liés à la santé en provenance de « hospital deserts », ces zones rurales où aucun établissement hospitalier ne se situe à moins de trente minutes en voiture.
Le Wyoming arrive en tête avec 4,15 % de ces messages, suivi de l’Oregon (3,4 %), du Montana (3,2 %), du Dakota du Sud (2,95 %) et du Vermont (2,89 %). Sept requêtes sur dix tombent en dehors des heures de consultation, le soir ou le week-end. Sur l’ensemble des utilisateurs, un sur quatre pose au moins une question de santé par semaine. Parmi les adultes américains qui ont utilisé l’IA pour gérer leur santé ces trois derniers mois, 55 % s’en sont servis pour vérifier des symptômes, 48 % pour comprendre un terme médical et 44 % pour évaluer des options de traitement.
OpenAI branche dossiers médicaux, Apple Health et Peloton
OpenAI ne se contente pas de constater cette ruée. L’entreprise a lancé ChatGPT Health, une section dédiée qui permet aux utilisateurs de connecter leurs dossiers médicaux, leurs données Apple Health et des applications de bien-être comme MyFitnessPal ou Peloton. Les conversations de santé sont stockées séparément, dotées de « mémoires » isolées et, selon OpenAI, exclues de l’entraînement des modèles. En parallèle, l’entreprise noue des partenariats avec des hôpitaux américains pour élargir l’adoption institutionnelle de ses outils.
Le message est clair : OpenAI veut devenir un acteur de santé. Mais cette ambition se heurte à un problème de taille, documenté par une équipe de chercheurs du Mount Sinai à New York.
52 % des urgences passent sous le radar
Publiée en février 2026 dans Nature Medicine, l’une des revues scientifiques les plus rigoureuses au monde, l’étude du Mount Sinai est la première évaluation indépendante de ChatGPT Health en conditions de triage médical. Les chercheurs ont soumis 60 scénarios cliniques couvrant 21 spécialités, calibrés selon 56 recommandations de sociétés savantes. Avec 16 variantes de contexte par cas, l’expérience a produit 960 interactions au total.
Le verdict : ChatGPT Health a sous-évalué la gravité de 52 % des cas que trois médecins indépendants classaient comme des urgences. Les situations « scolaires », un AVC ou un choc anaphylactique, étaient correctement identifiées. En revanche, les tableaux plus ambigus posaient problème. Face à une acidocétose diabétique ou une insuffisance respiratoire débutante, le chatbot conseillait de consulter un médecin « dans les 24 heures » au lieu de diriger vers les urgences.
Les garde-fous anti-suicide se déclenchent au mauvais moment
L’étude a révélé un dysfonctionnement supplémentaire. Les alertes de prévention du suicide, censées orienter les utilisateurs vers le 988 (numéro d’urgence psy américain), s’activaient de manière erratique. Elles apparaissaient régulièrement dans des conversations à faible risque, mais rataient parfois des cas où l’utilisateur décrivait un plan concret d’automutilation. Quand le filet de sécurité se déclenche pour un mal de dos mais reste silencieux face à une personne en détresse aiguë, le système inspire moins confiance qu’il n’en détruit.
Le paradoxe du désert médical
La situation crée un piège. Dans les zones où les habitants n’ont pas de médecin accessible, ChatGPT comble un vide réel. Ces 600 000 messages hebdomadaires ne sont pas un caprice technologique. Ils reflètent une demande de soins sans réponse, concentrée dans des États ruraux où la pénurie de praticiens s’aggrave depuis une décennie. Un rapport de l’Association of American Medical Colleges estime qu’il manquera entre 17 800 et 48 000 médecins de soins primaires aux États-Unis d’ici 2034.
Mais un outil qui rate une urgence sur deux n’est pas un substitut acceptable. En France, la situation de la désertification médicale ressemble à s’y méprendre au tableau américain. Selon la DREES, 11 % des Français vivent dans un désert médical, soit environ 7,4 millions de personnes. Si un outil comme ChatGPT Health débarquait avec la même fonctionnalité sur le marché français, la tentation serait forte pour des patients qui attendent parfois six mois avant de décrocher un rendez-vous chez un généraliste.
Un quart des utilisateurs ChatGPT, chaque semaine
Les 800 millions d’utilisateurs hebdomadaires revendiqués par OpenAI donnent une idée de l’échelle. Si un sur quatre pose une question de santé, cela représente 200 millions de consultations informelles par semaine. 40 millions de personnes chaque jour. C’est plus que le nombre de visites quotidiennes chez un médecin dans l’ensemble des États-Unis.
OpenAI précise que les données de ChatGPT Health ne servent pas à entraîner ses modèles et que les conversations restent cloisonnées. Reste que l’entreprise collecte, stocke et analyse des informations médicales à une échelle que ni les assureurs, ni les hôpitaux, ni les administrations de santé publique n’ont jamais atteinte. La FDA n’a pas encore statué sur la classification réglementaire de ce type d’outil. L’Europe, via le règlement sur l’IA, pourrait imposer des obligations de transparence et de certification pour tout système d’IA intervenant dans un contexte médical, mais les textes d’application ne sont pas finalisés.
Le prochain test grandeur nature aura lieu cet été, quand OpenAI prévoit d’étendre ses partenariats hospitaliers à une dizaine d’établissements supplémentaires. D’ici là, 40 millions de personnes continueront de poser leurs questions de santé à un chatbot qui, dans un cas sur deux, ne reconnaît pas une urgence quand il en voit une.