Plus de 100 références bibliographiques totalement inventées ont réussi à passer la relecture par les pairs des plus grandes conférences d’intelligence artificielle au monde. Des chercheurs viennent de publier un outil gratuit capable de repérer ces fantômes avec une fiabilité que les modèles commerciaux les plus puissants n’atteignent pas.
Des sources fantômes dans les publications les plus prestigieuses
Quand GPTZero a passé au crible 4 841 articles acceptés à NeurIPS 2025, le constat a été brutal : 51 publications contenaient au moins une citation renvoyant vers un document qui n’existe tout simplement pas. Le total dépasse les 100 références fabriquées de toutes pièces, selon l’analyse publiée par la société spécialisée dans la détection de contenu généré par IA. Le problème, c’est que ces 51 articles avaient franchi toutes les étapes de sélection, battant environ 15 000 autres soumissions pour décrocher un taux d’acceptation de 24,52 %.
Les exemples relevés oscillent entre le grossier et le sophistiqué. Un article liste les auteurs fictifs « John Doe et Jane Smith ». Un autre fabrique des identifiants DOI qui ne mènent nulle part. Le plus prolifique accumule à lui seul 15 citations inventées, dont des identifiants ArXiv incomplets du type « arXiv:2305.XXXX ». Côté ICLR 2026, GPTZero a mis en évidence plus de 50 hallucinations supplémentaires dans les soumissions, rapporte The Decoder. Des noms d’auteurs entièrement fabriqués côtoient des titres subtilement modifiés, suffisamment crédibles pour tromper un relecteur pressé.
Cinq agents IA contre les citations fantômes
Face à ce constat, une équipe de chercheurs a mis au point CiteAudit, présenté comme le premier système ouvert de détection et de référencement des citations hallucinées. Le jeu de données utilisé pour le tester comprend 6 475 citations authentiques et 2 967 fausses, générées par GPT, Gemini, Claude, Qwen et Llama. Les hallucinations réelles, elles, proviennent de publications trouvées sur Google Scholar, OpenReview, ArXiv et BioRxiv.
Le fonctionnement repose sur cinq agents spécialisés qui se relaient. Un premier extrait les métadonnées bibliographiques du PDF (titre, auteurs, conférence). Un agent mémoire compare ensuite la citation à celles déjà vérifiées pour éviter les doublons. Si aucune correspondance n’est trouvée, un agent de recherche interroge Google et récupère le contenu des cinq résultats les plus pertinents. Un agent juge compare alors caractère par caractère les données citées et les preuves récupérées. En dernier recours seulement, un agent interroge des bases de données académiques comme Google Scholar. Le tout tourne sur le modèle Qwen3-VL-235B hébergé localement, selon l’article scientifique de Yuan et al.
À lire aussi
GPT-5 repère les faux en labo, mais s’effondre sur le terrain
En conditions contrôlées, les modèles commerciaux s’en sortent honorablement. GPT-5.2 détecte environ 91 % des citations fabriquées sans rejeter aucune des 3 586 références légitimes du jeu de test synthétique. CiteAudit, de son côté, attrape la totalité des 2 500 faux mais signale à tort 167 citations authentiques.
L’écart se creuse quand on passe aux hallucinations réelles, celles dénichées dans des articles déjà publiés. GPT-5.2 identifie encore 78 % des 467 fausses citations, mais étiquette simultanément 1 380 des 2 889 références légitimes comme frauduleuses, selon The Decoder. GPTZero génère 1 358 faux positifs. Gemini 3 Pro produit moins de fausses alertes, mais rate 116 des 467 citations inventées.
CiteAudit identifie les 467 fabrications et ne rejette que 100 citations authentiques sur 2 889. Au total, le système prend la bonne décision dans 97,2 % des cas. Dix références sont traitées en 2,3 secondes, et puisque le modèle tourne en local, le coût en tokens est nul.
Un système de relecture saturé par l’afflux de soumissions
Derrière ces chiffres se cache un problème structurel. Entre 2020 et 2025, le nombre de soumissions à NeurIPS a grimpé de plus de 220 %, passant de 9 467 à 21 575. Pour absorber cette vague, les organisateurs recrutent toujours plus de relecteurs, au prix d’un appariement d’expertise de moins en moins rigoureux et d’une relecture de plus en plus superficielle.
La confiance s’érode des deux côtés. Côté auteurs, un fil Reddit publié avant ICLR 2026 a fait surface : les auteurs d’un article sur le fine-tuning quantifié ont retiré leur soumission en estimant que leurs relecteurs n’avaient pas lu le texte et avaient utilisé des outils IA pour générer leurs critiques, rapporte The Decoder. Côté relecteurs, la vérification manuelle de listes de références qui comptent parfois des dizaines d’entrées relève de la gageure.
Une étude publiée dans la revue Research Ethics par les chercheurs Xinqu Zhang et Peng Wang a analysé comment les politiques de publication des universités chinoises d’élite créent des structures d’incitation toxiques. Le mécanisme décrit, baptisé « cengceng jiama » (pression bureaucratique croissante), pousse les chercheurs à publier en volume au détriment de la rigueur. Un phénomène loin d’être limité à la Chine : la pression du « publish or perish » touche l’ensemble de la communauté scientifique mondiale.
Un outil gratuit, mais pas encore universel
CiteAudit est accessible gratuitement via une application web sur checkcitation.com. Après inscription avec une adresse e-mail, chaque utilisateur peut vérifier jusqu’à 500 citations par jour. Ceux qui ont besoin d’un volume plus élevé peuvent brancher leur propre clé API Gemini. Le code et le jeu de données sont ouverts, ce qui permet à d’autres équipes de reproduire les résultats ou d’améliorer le système.
Les chercheurs ont aussi mis en lumière un angle mort des modèles propriétaires : même quand on leur demande explicitement de chercher des informations en ligne, ces modèles ne fournissent aucune trace vérifiable de leurs recherches. L’origine des documents qu’ils consultent reste opaque, un problème pour quiconque cherche à auditer leur travail.
La prochaine étape pour GPTZero sera d’examiner les annexes des articles scientifiques, des sections moins lues et donc plus susceptibles de contenir des hallucinations, selon Alex Cui de GPTZero. De son côté, NeurIPS et ICLR considèrent les citations hallucinées comme un motif de rejet ou de rétractation. Reste à voir si ces conférences intégreront des outils de vérification automatique dans leur processus de soumission, une décision qui pourrait redéfinir les standards de la publication scientifique en IA.