Alex Preston a publié six romans et écrit pour le Financial Times, le Guardian et le New York Times. En janvier 2026, sa critique du roman « Watching Over Her » de Jean-Baptiste Andrea a fait voler en éclats cette réputation. Un lecteur a repéré des passages quasi identiques à une critique du Guardian signée Christobel Kent, publiée cinq mois plus tôt. Preston a reconnu avoir utilisé un outil d’intelligence artificielle. Le NYT a rompu toute collaboration.

Des phrases recopiées, personnage par personnage

La superposition entre les deux textes va au-delà de la ressemblance. Kent avait décrit les personnages secondaires du roman : « the lazy Machiavellian Stefano to hardworking Vittorio, whose otherworldly twin brother Emmanuele is prone to speaking in tongues and dressing up in ragtag begged-and-borrowed uniforms ». La version de Preston reprenait la même structure, le même enchaînement de personnages, avec des variations cosmétiques sur le vocabulaire.

C’est un lecteur anonyme qui a signalé le problème au NYT. Le journal a mené une enquête interne, à l’issue de laquelle Preston a admis les faits. « J’ai commis une erreur grave en utilisant un outil d’IA sur un brouillon que j’avais écrit, et je n’ai pas identifié ni supprimé les passages qui se recoupaient », a-t-il déclaré au Guardian, se disant « profondément embarrassé ».

Un porte-parole du New York Times a tranché : « Le recours à l’IA et l’inclusion de travaux non attribués d’un autre auteur constituent une violation grave de l’intégrité du Times. » Le journal a ajouté une note éditoriale à la critique et mis fin à sa relation avec Preston, qui avait signé six critiques pour le quotidien entre 2021 et 2026.

Un outil qui pille le web sans prévenir son utilisateur

Preston n’a pas nommé l’outil qu’il a utilisé. Ce qu’il a décrit ressemble à un assistant d’écriture qui, au lieu de reformuler à partir du texte soumis, va chercher du contenu en ligne et l’intègre sans avertissement. Le critique pensait que l’IA retravaillait son propre brouillon. Elle a puisé dans la critique de Kent, indexée par les moteurs de recherche, et en a injecté des fragments dans le texte final.

Ce mécanisme n’est pas propre à un outil. En 2025, un éditeur d’Ars Technica s’était retrouvé dans une situation comparable : ChatGPT avait fabriqué de fausses citations attribuées au blog d’un développeur, alors que ce blog avait bloqué l’accès au robot d’OpenAI. Le modèle avait généré des passages fictifs à partir de l’URL seule. Dans les deux cas, l’utilisateur ne savait pas ce que l’outil faisait réellement avec les sources externes.

Le piège est le même à chaque fois. L’utilisateur croit que l’IA reformule ses propres idées. L’IA, elle, agrège des contenus existants, parfois intacts, sans signaler leur provenance. Le résultat passe les vérifications rapides. Il faut un lecteur attentif, qui connaît la source originale, pour repérer le problème.

La critique littéraire, un exercice que l’IA ne peut pas simuler

L’affaire dépasse la question du plagiat. Bec Kavanagh, chercheuse en littérature, a analysé le cas dans The Conversation. Son argument : la critique repose sur un pacte implicite entre le critique, l’auteur et le lecteur. Le lecteur attend un jugement personnel, forgé par une lecture réelle, une sensibilité propre, un parcours intellectuel. « Le rôle du critique n’est pas de résumer ou de remballer l’art, mais de participer activement à une conversation autour de l’oeuvre », écrit Kavanagh.

Quand Preston délègue une partie de ce travail à un outil qui agrège des avis existants, le pacte se rompt. Le lecteur ne sait plus si l’opinion vient d’une lecture authentique ou d’un recyclage automatisé. Et l’auteur du roman, Jean-Baptiste Andrea, se retrouve évalué par un texte qui n’a pas été écrit par la personne qui l’a signé.

Hannah Bowman, agente littéraire, résume l’enjeu : « La méfiance est le plus grand danger pour l’industrie du livre. Toutes les parties du processus éditorial doivent faire preuve de transparence sur l’usage des outils d’IA. » Julieanne Lamond, chercheuse en littérature australienne, ajoute que le critique travaille « à nu, en tant que lecteur individuel, face à un public qui juge ses jugements ». Déléguer cette exposition à un algorithme revient à supprimer ce qui donne à la critique sa valeur.

Une série d’incidents qui fragilise la presse

Le cas Preston n’est pas isolé. En 2023, le photographe Boris Eldagsen avait volontairement soumis une image générée par IA à un concours et remporté le prix, avant de révéler la supercherie pour provoquer le débat. En 2025, plusieurs auteurs ont découvert que Meta avait utilisé leurs livres pour entraîner ses modèles d’IA sans autorisation. La romancière Mia Ballard a vu son roman « Shy Girl » retiré de la vente après que des lecteurs ont suspecté des sections entières d’avoir été générées par IA.

Pour les médias, chaque incident érode un capital de confiance déjà fragile. Le New York Times, qui poursuit OpenAI en justice pour violation de droits d’auteur depuis décembre 2023, se retrouve dans la position paradoxale de victime et de véhicule involontaire du même phénomène. L’OCDE a enregistré l’affaire Preston dans sa base de données des incidents liés à l’IA, la classant parmi les cas de « sortie trompeuse » impliquant des modèles de langage.

Le règlement européen sur l’IA, dont les premières obligations de transparence entrent en vigueur en août 2026, imposera aux fournisseurs de systèmes d’IA générative de signaler les contenus produits par leurs outils. Reste à savoir si cette obligation suffira à empêcher un brouillon assisté par IA de se retrouver signé par un humain qui n’a pas vérifié ce que la machine avait mis dans son texte.