300 à 500 nouveaux sites chaque mois. Des noms rassurants comme « Times Business News » ou « Ireland Top News ». Une mise en page soignée, des rubriques sport, politique, économie. Sauf qu’aucun journaliste n’y travaille. Ces milliers de faux médias sont entièrement rédigés par des intelligences artificielles, et le système publicitaire du web les finance sans broncher.
L’organisation NewsGuard, spécialisée dans l’évaluation de la fiabilité des médias, vient de franchir un cap : son système de détection, développé avec la société d’analyse Pangram Labs, a identifié 3 006 « fermes à contenu IA » actives sur le web. Le chiffre a plus que doublé en un an, et la courbe ne fléchit pas.
Le mode opératoire des usines à faux articles
Un site est classé comme ferme à contenu IA lorsqu’il remplit trois critères simultanés : une part significative de ses articles est générée par intelligence artificielle, le site ne le signale nulle part, et sa présentation imite celle d’un vrai journal avec rédaction humaine. Le résultat ressemble à un média local ou spécialisé tout à fait crédible. Certains de ces sites publient jusqu’à 1 200 articles par jour, un rythme impossible pour une équipe de journalistes, mais trivial pour un modèle de langage connecté à des flux d’actualité.
Les erreurs factuelles y sont fréquentes, faute de vérification humaine. En octobre 2025, le site « News 24 » a publié un article affirmant que Coca-Cola menaçait de retirer son parrainage du Super Bowl si le rappeur Bad Bunny se produisait à la mi-temps. Problème : Coca-Cola ne sponsorise même pas le Super Bowl, relève NewsGuard. L’article n’a jamais été corrigé.
La pub programmatique, carburant du système
Ces sites ne vivent pas de dons ni d’abonnements. Leur modèle économique repose sur la publicité programmatique, ce système automatisé qui place des annonces sur des pages web sans que l’annonceur choisisse précisément où elles apparaissent. Un algorithme achète de l’espace, le contenu importe peu tant que le trafic est là.
Dès juin 2023, NewsGuard avait repéré les publicités de 141 grandes marques sur ces sites fantômes. Expedia, AT&T, YouTube, Priceline, Hotels.com, Skechers, GoDaddy : toutes y diffusaient des annonces sans le savoir. Google, via son programme AdSense, y plaçait lui aussi des publicités, tirant au passage un revenu de sites qu’il contribue par ailleurs à référencer dans Google News et Google Discover.
Le cercle est vicieux : Google indexe ces sites, leur apporte du trafic, puis monétise ce trafic via ses propres régies publicitaires. Les annonceurs paient, les fermes à contenu encaissent, et l’internaute consomme de la désinformation emballée dans un habillage professionnel.
La Russie exploite le filon à grande échelle
Parmi les 3 006 sites identifiés, 358 sont liés à Storm-1516, une opération d’influence pro-russe qui crée de faux journaux locaux imitant la presse américaine et européenne. Le contenu mélange articles anodins générés par IA et désinformation ciblée sur des sujets géopolitiques sensibles.
Un exemple documenté par NewsGuard : le site « CitizenWatchReport » a publié un article affirmant que deux sénateurs américains avaient dépensé 814 000 dollars en hôtels lors d’un voyage en Ukraine. L’information était entièrement fabriquée, mais les médias d’État russes l’ont reprise et amplifiée auprès du public américain. Le nombre réel de sites liés à des acteurs étatiques russes, chinois ou iraniens est probablement bien supérieur, reconnaît NewsGuard, les méthodes de détection actuelles ne captant pas tout.
Un détecteur en temps réel pour couper les financements
Le système lancé par NewsGuard et Pangram Labs fonctionne en deux temps. Le logiciel de Pangram Labs, fondé à Brooklyn par d’anciens chercheurs de Tesla et Google, analyse automatiquement les sites web pour repérer ceux dont le contenu est majoritairement généré par IA. Des analystes humains prennent ensuite le relais pour écarter les faux positifs et confirmer le classement.
Le flux de données produit est conçu pour s’intégrer directement aux plateformes d’achat publicitaire comme The Trade Desk. L’objectif : permettre aux marques et à leurs agences d’exclure ces sites de leurs campagnes en temps réel, plutôt que de maintenir des listes noires manuelles toujours en retard sur la prolifération.
Car c’est là que le bât blesse. La plupart des annonceurs utilisent des « listes d’exclusion » censées protéger leur image de marque. Mais ces listes ne suivent pas le rythme de création de 300 à 500 nouveaux sites par mois. Le temps qu’un site soit repéré et blacklisté, trois autres ont pris sa place.
Google News recommande ce que Google ne filtre pas
Ces fermes à contenu ne survivraient pas sans trafic. Or une partie significative de leurs visiteurs arrive via Google News et Google Discover, les deux canaux par lesquels Google oriente des millions d’internautes vers l’actualité chaque jour. Le moteur de recherche semble incapable, ou peu disposé, à filtrer ces sites de ses recommandations.
Le sujet n’est pas nouveau. NewsGuard couvre le phénomène des sites d’information non fiables générés par IA depuis 2023, quand il en comptait 49. En moins de trois ans, ce chiffre a été multiplié par soixante. La baisse continue du coût des modèles de langage et l’apparition d’outils de publication automatisée expliquent en partie cette accélération. Créer un faux journal ne demande plus ni compétences techniques ni investissement significatif.
Le système de détection en temps réel de NewsGuard et Pangram Labs couvre pour l’instant 16 langues, de l’anglais au turc en passant par le français et le coréen. La prochaine étape sera de voir si les plateformes publicitaires et les moteurs de recherche intègrent réellement ces données dans leurs filtres, ou si le marché de la désinformation automatisée continuera de croître plus vite que les défenses.