UnitedHealth Group, le plus gros assureur santé de la planète, injecte 3 milliards de dollars dans l’intelligence artificielle. Le problème : son algorithme de refus de soins se trompe 9 fois sur 10 quand les patients font appel. Et certains d’entre eux ne sont plus là pour contester.
22 000 ingénieurs et un millier de cas d’usage déjà en place
L’annonce a été détaillée début avril 2026 par STAT News. UnitedHealth emploie 22 000 ingénieurs logiciels à travers le monde, et plus de 80 % d’entre eux utilisent désormais l’IA pour écrire du code ou construire des agents autonomes. Le groupe a déjà déployé plus de 1 000 cas d’usage de l’intelligence artificielle dans ses activités, du traitement des réclamations à la détection de fraudes, en passant par la documentation clinique et la sélection des codes de facturation.
Sandeep Dadlani, directeur d’Optum Insight (la branche technologique du groupe), a déclaré à STAT : « Depuis l’arrivée de l’IA générative, nous avons vraiment doublé nos efforts en formation, en investissements et en déploiement de cas d’usage concrets. » L’objectif affiché : accélérer les décisions et réduire le fardeau administratif de l’assurance santé. Un fardeau qui, aux États-Unis, représente entre 15 % et 30 % de chaque dollar dépensé en soins, selon les estimations de l’OCDE.
nH Predict : l’algorithme qui contredit les médecins
Derrière les chiffres impressionnants se cache un outil beaucoup plus controversé. nH Predict, développé par naviHealth (filiale d’Optum, elle-même filiale d’UnitedHealth), est un algorithme conçu pour estimer la durée nécessaire de soins post-hospitaliers. En clair, c’est lui qui décide combien de jours un patient peut rester en centre de rééducation après une opération ou un AVC.
Le problème, révélé par une enquête de STAT dès 2023, est que nH Predict contredit régulièrement l’avis des médecins traitants. D’après les documents judiciaires, UnitedHealth fixait un objectif interne : maintenir la durée de séjour des patients à moins de 1 % de la prédiction de l’algorithme. Les employés subissaient des pressions pour suivre la machine plutôt que le jugement clinique.
9 refus sur 10 annulés en appel, et des patients qui n’ont pas survécu
Le taux d’erreur est vertigineux. Selon la plainte de recours collectif déposée contre UnitedHealth, 90 % des refus de couverture générés via nH Predict ont été annulés en appel. Neuf décisions sur dix. Ce chiffre signifie que l’algorithme refusait des soins médicalement nécessaires dans l’écrasante majorité des cas, forçant des patients âgés couverts par Medicare Advantage à quitter prématurément leur centre de soins.
La plainte, initialement déposée en 2023 par les familles de deux patients décédés, rapporte que ces refus ont conduit à une dégradation de l’état de santé des assurés, et dans certains cas, à leur décès. CBS News a relayé le témoignage de familles qui décrivent un système où l’IA prenait le pas sur les recommandations des soignants, sans que les patients sachent qu’un algorithme influençait leur prise en charge.
UnitedHealth se défend, la justice avance
Face aux accusations, UnitedHealth affirme que nH Predict n’est pas utilisé pour « prendre des décisions de couverture » mais comme « un guide pour informer les prestataires, les familles et les soignants sur le type d’assistance dont le patient pourrait avoir besoin ». Un simple outil d’aide, selon le groupe.
Les tribunaux ne voient pas les choses de la même façon. En février 2025, un juge fédéral a rejeté la tentative d’UnitedHealth de faire classer cinq des sept chefs d’accusation, autorisant la poursuite du recours collectif sur les motifs de rupture de contrat et de manquement au devoir de bonne foi. Plus récemment, un autre juge a ordonné au groupe de remettre des dizaines de milliers de documents internes avant le 29 avril 2026, refusant la demande d’UnitedHealth de limiter la portée de l’enquête.
L’assureur a également tenté de restreindre l’accès aux données relatives au fonctionnement de nH Predict. Le tribunal a refusé, selon Healthcare Finance News, estimant que la transparence sur le rôle de l’algorithme dans les refus de soins relevait de l’intérêt des plaignants.
3 milliards de plus dans la machine : un pari ou un problème ?
C’est le paradoxe central de l’affaire. UnitedHealth annonce tripler ses investissements dans l’IA au moment précis où la justice américaine examine si cette même technologie a causé des préjudices mortels. Le groupe, qui couvre environ 53 millions d’Américains via ses différents plans, prévoit d’étendre l’IA à la quasi-totalité de ses processus : réclamations, audits, détection de fraude, assistance aux adhérents via un chatbot baptisé Avery.
Pour les défenseurs des droits des patients, le signal est inquiétant. L’IA en santé promet des gains d’efficacité considérables, mais quand l’optimisation des coûts prime sur le jugement médical, la frontière entre automatisation et négligence devient floue. Comme le résume un analyste cité par Becker’s Payer : « Au fond, nous sommes une entreprise de données. » La formule, prononcée par un dirigeant d’UnitedHealth, résonne différemment quand les « données » en question concernent des vies humaines.
Un précédent qui dépasse les frontières américaines
L’affaire UnitedHealth n’est pas un cas isolé. En Europe, le règlement sur l’intelligence artificielle (AI Act), entré en application progressive depuis 2024, classe les systèmes d’IA utilisés dans les décisions de santé et d’assurance parmi les applications « à haut risque ». Ces outils devront passer des audits de conformité, fournir des explications sur leurs décisions et garantir un recours humain effectif.
Aux États-Unis, aucune législation fédérale comparable n’encadre encore l’usage de l’IA dans l’assurance santé. Le procès UnitedHealth pourrait changer la donne. Les documents que le groupe doit remettre avant fin avril révéleront, pour la première fois, le fonctionnement interne d’un algorithme de décision médicale utilisé à grande échelle. Si les accusations se confirment, le précédent juridique pourrait contraindre l’ensemble du secteur à repenser la place de la machine dans les décisions qui comptent le plus.