TV recommandée par WIRED qui ne figure pas dans le guide de WIRED. Casque audio cité comme « choix des testeurs » alors qu’aucun testeur ne l’a encore touché. Ordinateur portable présenté comme numéro un, mais c’est le modèle de l’année dernière. OpenAI vient de refondre l’assistant shopping de ChatGPT, et les premières vérifications concrètes révèlent un problème que les chiffres de vente ne capturaient pas : le chatbot invente des recommandations.
Le bon lien, la mauvaise réponse
Le journaliste Reece Rogers, de WIRED, a posé une question simple à ChatGPT : « Quels sont les meilleurs téléviseurs selon vos testeurs ? » Le chatbot a renvoyé vers le bon guide d’achat. Puis il a placé en tête de liste un téléviseur LG QNED Evo Mini-LED. Le problème : ce modèle n’apparaît nulle part dans le classement de WIRED. Le véritable choix des testeurs, un TCL QM6K, avait disparu.
Confronté à l’erreur, ChatGPT l’a reconnue dans des termes inhabituellement lucides : « J’ai pris le vrai choix de WIRED et je l’ai remplacé par une option de catégorie similaire. Ce n’est pas fidèle à ce que vous avez demandé. » L’aveu pointe un mécanisme récurrent : le modèle accède à la source, la cite correctement en lien, mais en extrait une version déformée.
Casques fantômes et laptops périmés
Le test ne s’est pas arrêté aux téléviseurs. Pour les casques sans fil, ChatGPT a présenté les AirPods Max 2 d’Apple comme la sélection de WIRED pour les utilisateurs de l’écosystème Apple. En réalité, les testeurs du magazine n’avaient même pas encore eu le casque en main au moment du test. Le chatbot avait confondu un article d’annonce produit avec un test pratique, un glissement que Ryan Waniata, expert audio de WIRED, résume ainsi : « Les hallucinations rendent tout plus difficile, surtout pour les journalistes. Quand notre travail n’est pas détourné, il est mal cité. »
Côté ordinateurs portables, même scénario. Le chatbot a insisté pour désigner le MacBook Air M4 (modèle 2025) comme choix numéro un de WIRED, alors que le MacBook Air M5 (2026) occupait cette place depuis des semaines. ChatGPT a de nouveau lié la bonne page, sans en lire les données à jour. « J’ai ancré le choix principal sur le M4, un cadrage obsolète », a-t-il fini par admettre quand l’erreur lui a été signalée.
Un assistant shopping à 852 milliards de dollars de valorisation
Ces erreurs tombent une semaine après la refonte officielle de l’expérience shopping dans ChatGPT. Le 24 mars, OpenAI a annoncé l’abandon d’Instant Checkout, sa fonctionnalité d’achat direct lancée fin 2025 avec Etsy, Shopify et Walmart. Selon CNBC, les analystes estimaient qu’OpenAI avait sous-estimé la difficulté d’intégrer des transactions : paniers multi-articles impossibles, données produits inexactes, programmes de fidélité non connectés.
Le remplacement s’appelle « product discovery ». Target, Sephora, Nordstrom et Walmart fournissent désormais leurs catalogues directement à OpenAI. Le blog officiel promet des résultats « plus à jour et plus utiles ». La même semaine, Shopify a lancé un « Agentic Plan » permettant à ses marchands de remonter dans ChatGPT, Google Gemini et d’autres assistants IA. Le tout s’inscrit dans une levée de fonds record de 122 milliards de dollars, valorisant OpenAI à 852 milliards.
Le contraste est saisissant : d’un côté, une infrastructure commerciale qui absorbe les catalogues de géants du retail. De l’autre, un modèle de langage incapable de distinguer un test produit d’un article d’annonce, ou de vérifier qu’un classement qu’il cite est bien celui qu’il restitue.
Le trafic qui ne revient plus
Le problème dépasse la simple erreur de recommandation. Selon les données de Search Engine Land, reprises par eMarketer, le trafic que ChatGPT renvoyait vers les sites web a chuté de 52 % en un seul mois en 2025. Reddit et Wikipédia dominent désormais les citations du chatbot, avec respectivement 87 % et 62 % de hausse.
Pour un média comme WIRED, qui finance ses tests indépendants en partie grâce aux commissions d’affiliation (le lecteur clique sur un lien produit, achète, le média touche un pourcentage), le calcul est cruel. ChatGPT aspire le contenu du guide, le reformule avec des erreurs, et le lecteur n’a plus besoin de visiter le site. Les liens d’affiliation dans les réponses de ChatGPT ? Absents. « Les outils d’IA réduisent le besoin de visiter les sites web et détournent de plus en plus le trafic des éditeurs », constate WIRED.
Condé Nast, la maison mère de WIRED, a pourtant signé un accord commercial avec OpenAI pour que ses liens apparaissent dans les réponses du chatbot. Malgré ce partenariat, OpenAI présente les guides d’achat comme un obstacle pour le consommateur. « Faire du shopping sur le web, c’est facile si on sait déjà ce qu’on veut. Mais quand on hésite, ça veut dire sauter d’onglet en onglet et lire les mêmes listes « best of » », écrit OpenAI dans son blog de lancement. Pour les médias qui produisent ces listes, le message est clair : vous êtes le problème, pas la solution.
Quand le consommateur ne sait pas qu’il se trompe
Le risque le plus concret concerne l’acheteur. Quelqu’un qui demande à ChatGPT « quel téléviseur acheter selon WIRED » et reçoit un LG QNED Evo en premier choix n’a aucun moyen de deviner que cette recommandation est inventée. Le chatbot affiche la photo du produit, le lien vers le guide, un résumé structuré. Tout ressemble à une réponse fiable.
Ce n’est pas un bug isolé. Chaque catégorie testée par WIRED (téléviseurs, casques, ordinateurs) a produit au moins une recommandation fantôme. Le schéma se répète : le chatbot cite la source correcte, puis substitue silencieusement un produit différent. Parfois un modèle concurrent, parfois un modèle obsolète, parfois un produit pas encore testé.
Pour les marques, la situation crée un paradoxe. Un produit peut se retrouver « recommandé par WIRED » dans ChatGPT sans avoir jamais été évalué par WIRED. Inversement, le vrai choix des testeurs peut disparaître de la réponse sans explication. Le label de confiance d’un média se retrouve attribué de manière aléatoire par un algorithme.
Un modèle de commerce qui repose sur de la confiance fabriquée
OpenAI a déjà traversé des crises de confiance sur son assistant shopping. En décembre 2025, la startup avait dû désactiver une fonctionnalité de « suggestions d’applications » après que des utilisateurs avaient pris ces recommandations pour des publicités déguisées. Nick Turley, responsable du produit grand public chez OpenAI, avait nié la dimension publicitaire avant de reconnaître que « l’exécution n’avait pas été à la hauteur ».
Quatre mois plus tard, la nouvelle mouture du shopping ChatGPT repose sur des catalogues marchands fournis directement à OpenAI. Target, Sephora et Nordstrom sont déjà intégrés. Le modèle économique s’affine : les marques alimentent le chatbot en données produits, le chatbot oriente les consommateurs. Mais si le consommateur ne peut pas faire confiance aux recommandations affichées, l’ensemble de l’édifice repose sur une base fragile.
Walmart a lancé le 24 mars son application dédiée dans ChatGPT, avec paiement intégré et programme de fidélité connecté. L’enjeu commercial est considérable pour OpenAI, qui cherche des revenus au-delà de l’abonnement. Reste que transformer un modèle de langage en conseiller d’achat fiable suppose de résoudre un problème que même les moteurs de recherche classiques n’ont jamais totalement maîtrisé : s’assurer que l’information affichée correspond à l’information réelle.