Stephen King qui relit votre prose, Neil deGrasse Tyson qui ajuste votre argumentaire, Carl Sagan qui peaufine votre style. L’outil d’écriture Grammarly propose tout ça à ses 40 millions d’utilisateurs quotidiens grâce à une fonctionnalité baptisée « Expert Review ». Le détail qui coince : aucune de ces personnalités n’a donné son accord.
Un faux comité de relecture
Grammarly, désormais propriété de la maison mère Superhuman depuis le rebranding d’octobre, a déployé « Expert Review » en août 2025. Le principe : l’IA analyse un texte, génère des suggestions de correction et les attribue à des personnalités réelles. Dans Google Docs, ces commentaires s’affichent exactement comme ceux d’un collaborateur humain, nom de l’« expert » en en-tête. Sans vérifier, un utilisateur pourrait légitimement croire que Stephen King a personnellement relu son paragraphe.
Derrière le vernis, la mécanique est plus banale. Selon la newsletter Platformer de Casey Newton, qui a épluché un rapport SOC 3 de l’entreprise, Grammarly achète des jetons auprès de fournisseurs de modèles de langage comme OpenAI et les revend sous forme de suggestions « inspirées par » des experts. L’abonnement annuel coûte 144 dollars.
Stephen King, Carl Sagan et des dizaines de journalistes
Le magazine Wired a été le premier à documenter l’ampleur du problème début mars. Parmi les noms utilisés sans consentement : des auteurs comme Stephen King, l’astrophysicien Neil deGrasse Tyson et Carl Sagan, décédé en 1996.
The Verge a creusé davantage et découvert que ses propres journalistes figuraient dans la liste. Le rédacteur en chef Nilay Patel, les rédacteurs David Pierce, Sean Hollister et Tom Warren : tous transformés en correcteurs virtuels à leur insu. La liste inclut aussi Casey Newton (Platformer), Joanna Stern (Wall Street Journal), Lauren Goode (Wired), Mark Gurman et Jason Schreier (Bloomberg), Kashmir Hill (New York Times) et une dizaine d’autres.
Les fiches des « experts » contiennent des erreurs factuelles, des titres de poste obsolètes que Superhuman aurait pu corriger en demandant tout simplement aux personnes concernées, note The Verge. Les liens « sources » censés appuyer les suggestions renvoient parfois vers des copies suspectes de sites web, voire des pages sans rapport avec l’expert cité.
Un opt-out par email pour toute réponse
Face aux critiques, Superhuman n’a ni présenté d’excuses ni retiré la fonctionnalité. L’entreprise a proposé aux personnes concernées d’envoyer un email pour demander le retrait de leur nom, rapporte Platformer.
Alex Gay, vice-présidente marketing de Superhuman, s’est défendue dans un communiqué transmis à The Verge : « L’agent a été conçu pour aider les utilisateurs à découvrir des perspectives influentes et des travaux qui apportent de la valeur à leur écriture. Nous souhaitons que les personnes derrière ces perspectives aient un meilleur contrôle sur l’utilisation de leur nom. »
La formulation a fait tiquer plus d’un observateur. Le mot « permission » n’apparaît nulle part dans la déclaration, relève Sean Hollister de The Verge. Le PDG Shishir Mehrotra a décliné toute demande d’interview, selon Platformer. La porte-parole Jen Dakin a ajouté que Superhuman « travaille à affiner la fonctionnalité », sans préciser de calendrier ni de mesures concrètes.
« Comment aurions-nous pu savoir que nos noms étaient utilisés si nous n’avions pas testé le produit nous-mêmes ? », interroge Hollister. Pour lui, des gens méritent que leur identité soit protégée même s’ils n’ont jamais entendu parler de Grammarly.
Quand publier revient à consentir
L’affaire touche un nerf à vif dans l’industrie de l’IA. La justification avancée par Superhuman tient en une phrase, rapportée par The Verge : « Les experts figurent dans Expert Review parce que leurs travaux publiés sont accessibles au public et largement cités. » Autrement dit, avoir publié un article, un livre ou un post de blog suffirait à autoriser une entreprise à associer votre nom à des contenus que vous n’avez jamais écrits.
C’est le même type de raisonnement que celui avancé par les générateurs d’images ou de voix par IA, un parallèle que nous détaillions dans notre article sur le clonage vocal. La différence ici : ce n’est pas un style ou un timbre qui est répliqué, mais un nom propre associé à un jugement éditorial fictif. L’utilisateur croit recevoir les conseils de Stephen King. Il reçoit du texte généré par un algorithme qui n’a jamais lu une seule page de « Ça ».
Aux États-Unis, plusieurs États disposent de lois sur le droit de publicité qui protègent l’utilisation commerciale du nom et de l’image d’une personne sans consentement. La Californie, où Superhuman est basée, applique l’une des législations les plus strictes en la matière. En Europe, le règlement sur l’IA pourrait à terme couvrir ce type de pratique si les institutions élargissent la définition des systèmes à haut risque.
Aucune action en justice n’a été annoncée pour l’instant, mais les précédents se multiplient. Un présentateur de NPR poursuit Google après que NotebookLM a cloné sa voix, des acteurs attaquent des studios pour l’usage de leur image. La ligne de tolérance se resserre. Superhuman a annoncé qu’une refonte de la fonctionnalité arriverait dans les prochaines semaines, sans donner de date précise.