Une journaliste de The Verge ouvre Grammarly, demande une « relecture experte » de son texte et tombe sur le nom de son propre rédacteur en chef parmi les consultants proposés. Nilay Patel n’a jamais donné son accord. Personne ne lui a posé la question.

La fonctionnalité « Expert Review », lancée en août 2025 par Grammarly (produit de Superhuman, la nouvelle identité de l’entreprise depuis octobre), promet de « peaufiner votre message à travers le prisme de perspectives sectorielles pertinentes ». En clair : une IA analyse votre texte et génère des suggestions d’écriture soi-disant « inspirées » par des spécialistes reconnus. Stephen King, Neil deGrasse Tyson, Steven Pinker figurent au catalogue, rapporte Wired. Mais aussi Carl Sagan, mort en 1996, et William Zinsser, décédé en 2015.

Un historien mort en janvier, déjà cloné

Le cas le plus glaçant concerne David Abulafia, historien britannique spécialiste du Moyen Âge et de la Renaissance, décédé en janvier 2026. Quelques semaines après sa mort, Vanessa Heggie, professeure associée en histoire des sciences à l’université de Birmingham, découvre son nom dans la liste des « experts » Grammarly et partage sa colère sur LinkedIn. « Obscène », tranche-t-elle, accusant l’entreprise de « créer des petits LLM à partir du travail scrapé » de chercheurs vivants et morts, en capitalisant sur « leurs noms et leurs réputations ».

Wired a confirmé que le bot Abulafia était bien actif sur la plateforme, aux côtés de modèles imitant des auteurs vivants comme Pinker.

The Verge retrouve quatre de ses propres rédacteurs

L’enquête de The Verge a révélé l’ampleur du problème. En plus de Nilay Patel, rédacteur en chef du média, trois autres cadres éditoriaux ont été identifiés dans le système : David Pierce, Sean Hollister et Tom Warren. Aucun n’a été contacté par Superhuman. Aucun n’a consenti à voir son nom apposé sur des conseils d’écriture générés par une machine.

La liste ne s’arrête pas là. Casey Newton (ex-Verge, désormais Platformer), Joanna Stern (ex-Verge), Lauren Goode de Wired, Mark Gurman et Jason Schreier de Bloomberg, Kashmir Hill du New York Times, Kaitlyn Tiffany de The Atlantic ont tous été repérés. Plus d’une vingtaine de journalistes tech identifiés au total, selon The Verge, avec parfois des descriptions obsolètes ou erronées, comme des titres de postes qui ne correspondent plus à rien.

« Leurs publications sont publiques »

Confronté à ces révélations, Superhuman n’a pas bronché. Alex Gay, vice-président produit et marketing, a déclaré à The Verge que la fonctionnalité « ne prétend pas que les experts cautionnent le produit ou y participent directement ». Les suggestions seraient simplement « inspirées par les travaux des experts » et viseraient à orienter les utilisateurs vers des « voix influentes » qu’ils pourraient ensuite « explorer plus en profondeur ».

Quand The Verge a demandé si l’entreprise avait envisagé de prévenir les personnes concernées ou de solliciter leur autorisation, Gay a répondu : « Les experts présents dans Expert Review y figurent parce que leurs travaux publiés sont accessibles au public et largement cités. » Un avertissement discret accompagne la fonctionnalité, précisant que les références « ne signifient aucune affiliation avec Grammarly ni approbation de la part de ces individus ».

Des sources bidons et des conseils fantômes

Au-delà de la question éthique, la qualité technique du produit pose problème. The Verge signale des plantages fréquents de la fonctionnalité, et surtout des « sources » qui mènent vers des copies douteuses de sites légitimes, voire des pages totalement sans rapport avec l’expert censé avoir « inspiré » le conseil. Un article attribué à un journaliste tech peut en réalité s’appuyer sur le travail d’un tout autre auteur, sans que l’utilisateur s’en aperçoive à moins de cliquer sur le bouton « source » caché en fin de suggestion.

Plus révélateur encore : dans Google Docs, les suggestions Expert Review imitent visuellement les commentaires de vrais collaborateurs, avec un style quasi identique aux notes laissées par des relecteurs humains. The Verge a testé une suggestion estampillée Sean Hollister et constaté qu’elle contredisait directement le style d’édition du véritable Hollister. L’IA recommandait d’ajouter une parenthèse de contexte redondante, là où le vrai rédacteur l’aurait supprimée sans hésiter.

Un modèle juridique fragile

Le positionnement de Superhuman repose sur l’idée que les travaux publiés constituent un matériau libre d’exploitation. C’est le même argument que les grands laboratoires d’IA avancent depuis des années pour justifier l’entraînement de leurs modèles sur des contenus protégés par le droit d’auteur. La question reste ouverte devant les tribunaux : aux États-Unis, la Cour suprême a récemment enterré un recours concernant le copyright des images générées par IA, mais d’autres procédures continuent de s’empiler, selon Wired, qui recense des dizaines de plaintes actives liées à l’exploitation de contenus par des systèmes d’intelligence artificielle.

Ce qui distingue le cas Grammarly, c’est l’utilisation des noms et réputations des personnes elles-mêmes, pas seulement de leurs écrits. Fabriquer un avatar numérique d’un expert sans son consentement va plus loin que le simple entraînement sur des textes publics. C’est la frontière entre l’exploitation de données et l’usurpation d’identité que Superhuman piétine, et la réponse de l’entreprise suggère qu’elle ne voit pas le problème.

Stephen King et Neil deGrasse Tyson, contactés par Wired, n’ont pas répondu. L’outil reste accessible à tous les utilisateurs de Grammarly, sans option permettant aux experts concernés de retirer leur nom du catalogue.