1 800 exemplaires vendus au Royaume-Uni, une sortie américaine prévue ce printemps, un buzz monstre sur les réseaux sociaux. Le roman d’horreur Shy Girl, de Mia Ballard, avait tout d’un succès fulgurant. Jusqu’à ce qu’un logiciel de détection révèle que 78 % du texte portait les traces d’une intelligence artificielle.
Hachette, l’un des plus grands groupes d’édition au monde, a retiré le livre de la vente jeudi 20 mars, après une enquête du New York Times. C’est la première fois qu’un éditeur majeur prend une telle décision sur la base d’accusations d’écriture par IA. Un précédent qui pourrait redéfinir les règles du jeu dans toute l’industrie du livre.
Du selfpublishing au contrat chez Hachette
Shy Girl raconte l’histoire de Gia, une jeune femme endettée et dépressive qui accepte un marché tordu avec un inconnu rencontré en ligne : il efface ses dettes, à condition qu’elle vive comme son animal de compagnie. L’intrigue bascule progressivement dans l’horreur gore, un genre baptisé « femgore » par sa communauté de fans.
Publié en autoédition en février 2025, le roman a rapidement trouvé son public sur TikTok et les forums de lecture. Les chiffres de vente ont attiré l’attention d’Orbit, la branche science-fiction et fantastique d’Hachette, qui l’a publié au Royaume-Uni à l’automne 2025. Une édition américaine était programmée pour le printemps 2026.
78 % de texte généré selon Pangram
Les premiers soupçons sont apparus fin 2025 sur Reddit et Goodreads. Des lecteurs ont pointé des incohérences stylistiques troublantes : métaphores absurdes, formulations répétitives, enchaînements logiques bancals. Le genre d’erreurs que l’œil humain repère sans toujours savoir les nommer.
Max Spero, fondateur et PDG de Pangram, une entreprise spécialisée dans la détection de contenus générés par IA, a décidé de passer le texte intégral au crible. Résultat : 78 % du roman présentait des marqueurs caractéristiques d’un texte produit par un modèle de langage. Spero a publié son analyse sur X en janvier 2026 : « Je suis très confiant dans le fait que ce texte est en grande partie généré par IA, ou très lourdement assisté par IA. »
Le New York Times a mené sa propre investigation en utilisant plusieurs outils de détection. Ses conclusions recoupent celles de Pangram : le texte accumule des schémas récurrents propres aux modèles génératifs, comme l’abus d’adjectifs mélodramatiques, une utilisation systématique de la « règle de trois » en écriture, et des ruptures de logique narrative que la relecture humaine aurait corrigées.
Hachette tranche, l’autrice accuse un tiers
Face à l’enquête du Times, Hachette n’a pas traîné. Le groupe a annoncé le retrait de Shy Girl du marché britannique et l’annulation de la publication américaine. D’après les données de NielsenIQ BookData, le livre s’était écoulé à 1 800 exemplaires papier outre-Manche, un chiffre modeste pour un titre porté par un tel engouement numérique.
« Hachette reste engagé dans la protection de l’expression créative originale et de la narration », a déclaré une porte-parole du groupe, rappelant que l’éditeur exige de ses auteurs la divulgation de tout recours à l’IA durant le processus d’écriture.
Mia Ballard, l’autrice, a répondu tardivement par e-mail au Times en niant avoir utilisé l’IA elle-même. Sa défense : une connaissance engagée pour relire la version autoéditée aurait eu recours à des outils génératifs sans son accord. « Cette polémique a changé ma vie de bien des façons, ma santé mentale est au plus bas et mon nom est ruiné pour quelque chose que je n’ai même pas personnellement fait », a-t-elle écrit, ajoutant qu’elle engageait des poursuites judiciaires.
L’édition sans filet face à l’IA
L’affaire met en lumière un angle mort majeur de l’industrie : aucun protocole standardisé n’existe pour détecter l’IA dans un manuscrit avant publication. Les éditeurs s’appuient sur la confiance et les déclarations des auteurs. Les outils de détection comme Pangram, GPTZero ou Originality.ai progressent, mais leurs résultats restent contestés, avec des taux de faux positifs qui varient selon la langue et le style.
Le New York Times souligne que les éditeurs traditionnels interdisent généralement le recours à l’IA pour la rédaction, mais les contours restent flous. Utiliser ChatGPT pour structurer un plan, affiner un dialogue ou reformuler un passage : où commence la fraude ? La frontière entre « outil d’assistance » et « auteur fantôme numérique » n’a jamais été aussi poreuse.
Comme le relève Ars Technica, le parallèle avec l’industrie musicale est frappant. Des plateformes comme Suno permettent de produire des morceaux entiers par IA, et certains finissent sur Spotify sans que les auditeurs s’en doutent. Dans le cas de Shy Girl, des milliers de lecteurs ont apprécié le roman et l’ont recommandé en ligne, preuve que la qualité perçue ne suffit plus à garantir l’origine humaine d’une œuvre.
Un précédent, pas un cas isolé
Plusieurs signaux montrent que Shy Girl n’est qu’un début. Amazon a dû modifier ses règles pour Kindle Direct Publishing face à l’afflux de livres générés par IA. Sur Wattpad et d’autres plateformes d’écriture en ligne, les modérateurs peinent à distinguer le texte humain du contenu synthétique. L’autoédition, qui a démocratisé l’accès à la publication, devient aussi le principal vecteur de contenus opaques.
Pour les auteurs professionnels, le risque est double. D’un côté, la suspicion pourrait se généraliser : combien de manuscrits seront passés au détecteur avant d’être acceptés ? De l’autre, la banalisation du texte IA pourrait tirer vers le bas les attentes des lecteurs, habitués à un contenu « suffisamment bon » produit à coût quasi nul.
Hachette n’a pas précisé si d’autres manuscrits feraient l’objet d’analyses rétroactives. Le groupe Penguin Random House et HarperCollins n’ont pas encore réagi publiquement. Côté juridique, aucune loi ne sanctionne spécifiquement la vente d’un livre rédigé par IA sans mention. Le droit d’auteur protège les œuvres humaines, mais la qualification juridique d’un texte « assisté » à 78 % reste un terrain vierge que les tribunaux devront un jour défricher.