« Rendre mon père fier. » Ces mots n’ont jamais franchi les lèvres de Mackenyu Maeda. C’est une intelligence artificielle qui les a écrits, dans une interview publiée par Esquire Singapore. Le père en question, Sonny Chiba, légende des films d’arts martiaux, est mort en 2021. L’acteur japonais qui incarne Zoro dans la série Netflix One Piece n’a jamais donné cette interview. Il n’était même pas au courant.
Un magazine invente un acteur pour remplir ses pages
Le procédé est simple. Esquire Singapore voulait un entretien exclusif avec Mackenyu pour accompagner la promotion de la saison 2 de One Piece. L’acteur n’a pas répondu aux sollicitations, son emploi du temps ne le permettait pas. Au lieu d’abandonner le sujet ou de publier un portrait classique, la rédaction a choisi une troisième voie : fabriquer les réponses.
Joy Ling, l’éditrice du magazine, assume la démarche dans un encadré : « Son emploi du temps l’en a empêché. Avec un besoin impérieux de contenu, il fallait être inventifs. » Le mot « inventifs » fait tout le travail. Esquire a compilé des extraits d’anciennes interviews de l’acteur, les a passés dans deux programmes d’IA (Claude d’Anthropic et Copilot de Microsoft), puis a retouché les réponses avec une équipe humaine. Le résultat : un entretien de plusieurs pages où Mackenyu semble répondre à des questions qu’il n’a jamais lues.
L’IA rit, philosophe et parle d’un père décédé
Le problème ne tient pas au principe de l’IA. Il tient à ce que l’IA a fabriqué. Dans le faux entretien, le Mackenyu artificiel livre des réflexions personnelles sur la pression familiale : « Je sépare la pression du poids. La pression est extérieure. » Interrogé sur la paternité, il glisse un « (rires) » entre deux phrases, comme si la machine pouvait trouver quelque chose de drôle. « La paternité n’a pas de scénario », ajoute l’IA.
Le passage le plus glaçant concerne Sonny Chiba. L’acteur légendaire, connu pour Kill Bill et des dizaines de films de samouraïs, est décédé d’une pneumonie liée au Covid en août 2021. Dans la fausse interview, l’IA fait dire à son fils que son objectif n’est pas « d’égaler son père » mais de « le rendre fier ». Sauf que ce n’est pas Mackenyu qui parle. C’est un algorithme qui a digéré ses anciennes déclarations et recraché une version lissée, émotionnellement calibrée pour plaire au lecteur.
Les fans découvrent la supercherie, la presse s’enflamme
L’article est passé inaperçu à sa publication en mars 2026. Début avril, des fans de One Piece tombent dessus et relèvent la mention en petits caractères : « Produit avec Claude, Copilot, et édité par des humains. » La réaction est immédiate. « Je suis déçu qu’Esquire ait écrit une interview IA complète pour remplacer les réponses de Mackenyu. Je doute qu’ils aient eu son consentement », écrit un compte de fans sur les réseaux sociaux. Ni l’acteur ni son agence n’ont relayé l’article, ce qui confirme l’absence d’accord.
Dans la presse spécialisée, le ton monte. Nathan Grayson, journaliste chez Aftermath, parle d’un cas qui illustre comment « l’IA pourrit le cerveau des journalistes ». Chez AV Club, le critique William Hughes ne prend aucun gant. En tant que reporter habitué à décrocher des entretiens avec des célébrités, il qualifie la démarche d’Esquire d’aberration pure et simple. Son verdict tient en une phrase qui résume le sentiment de la profession.
Le vrai problème : l’IA sait imiter l’émotion, pas la ressentir
Esquire a présenté son choix comme « une expérience philosophique audacieuse sur l’inaccessibilité des célébrités ». La formulation cache une réalité plus prosaïque : le magazine avait besoin de contenu, l’acteur n’était pas disponible, et l’IA coûte moins cher qu’un billet d’avion. Ce qui frappe, c’est la facilité avec laquelle les outils ont produit un résultat crédible en surface. Les phrases sonnent juste, les transitions sont naturelles, les moments d’émotion tombent pile au bon endroit.
C’est précisément ce qui rend la pratique dangereuse. Quand un chatbot peut fabriquer des larmes sur commande et les attribuer à une personne réelle, la frontière entre citation et fiction disparaît. En 2024, une enquête de l’Associated Press avait déjà documenté la multiplication des contenus IA dans les médias locaux américains. Selon un rapport du Reuters Institute publié en janvier 2026, 42% des lecteurs interrogés dans 47 pays déclarent ne plus faire confiance aux articles qu’ils soupçonnent d’avoir été rédigés par une IA. Esquire Singapore vient de leur donner raison.
Le cas est d’autant plus troublant que les outils utilisés (Claude et Copilot) sont conçus pour produire du texte fluide et convaincant. L’IA n’a pas inventé de faits faux sur Mackenyu : elle a recombiné des déclarations réelles pour créer l’illusion d’une conversation qui n’a jamais eu lieu. Le résultat passe le test de lecture rapide. Sans la mention en bas de page, rien ne distingue cet entretien d’un vrai. Et c’est tout le problème : le lecteur n’a aucun moyen de vérifier si les mots attribués à une personne ont été prononcés par elle ou générés par un programme.
Un précédent qui dépasse One Piece
L’affaire pose une question que toute la presse va devoir trancher. Si un magazine peut fabriquer une interview avec un acteur japonais, rien n’empêche de faire la même chose avec un politique, un sportif ou un chef d’entreprise. Le garde-fou actuel repose sur la bonne volonté des rédactions, pas sur la loi. En France, la loi sur la presse de 1881 sanctionne la diffamation et les fausses nouvelles, mais le cas d’une interview inventée par IA avec des propos vraisemblables n’entre dans aucune catégorie claire.
Mackenyu, lui, n’a toujours rien dit publiquement. Esquire Singapore n’a pas retiré l’article. La saison 2 de One Piece continue sa promotion sur Netflix, avec cette fois un vrai acteur derrière le personnage de Zoro. Reste à savoir combien de temps il faudra avant qu’un autre média tente la même chose, avec une célébrité qui, cette fois, décidera de porter l’affaire devant un tribunal.