Le trafic automatisé a crû huit fois plus vite que le trafic humain en 2025. Pour la première fois, les robots et les intelligences artificielles génèrent plus de visites sur le web que les êtres humains.

C’est le constat posé par le rapport « State of AI Traffic » publié le 27 mars par HUMAN Security, une entreprise de cybersécurité qui a analysé plus d’un quadrillion d’interactions numériques sur l’année écoulée. Le chiffre donne le vertige, mais la conclusion est limpide : quand vous naviguez sur internet, vous êtes désormais en minorité.

+7 851 % : les agents IA ont explosé en un an

Le rapport distingue trois catégories de trafic non humain. Les robots d’indexation, comme ceux de Google, représentent encore 67,5 % de l’activité automatisée. Les « scrapers », ces programmes qui aspirent le contenu des sites, ont bondi de 597 %. Mais c’est la troisième catégorie qui inquiète le plus : les agents IA autonomes, capables de naviguer, cliquer, comparer des prix et même passer commande à votre place, ont vu leur trafic grimper de 7 851 % en douze mois.

En 2024, ce type d’activité était à peine mesurable. Un an plus tard, plus des trois quarts de l’activité des agents se concentre sur les pages produits et les moteurs de recherche internes des sites marchands. Le reste se répartit entre les pages de connexion, les tunnels de paiement et les espaces clients.

Trois secteurs absorbent 95 % du trafic IA

Le commerce en ligne, le streaming vidéo et le voyage concentrent à eux seuls la quasi-totalité de cette déferlante automatisée. Si le prix de votre billet d’avion change trois fois en une heure, ce n’est pas la compagnie qui joue avec vos nerfs. Ce sont des centaines de robots qui comparent, actualisent et recalculent les tarifs plus vite que n’importe quel doigt humain.

Côté répartition, OpenAI génère environ 69 % du trafic de robots IA observé, selon le rapport. Meta suit avec 16 %, Anthropic pèse 11 %. Le reste du marché se partage les miettes.

Le trafic IA global a bondi de 187 % entre janvier et décembre 2025, rapporte CNBC. Les modèles de langage comme ChatGPT, Claude et Gemini sont les premiers responsables de cette accélération : chaque requête d’un utilisateur déclenche en coulisses des dizaines d’appels automatisés vers des sites tiers.

La fraude en embuscade derrière les agents « utiles »

Le problème, c’est que les agents IA et les scripts frauduleux empruntent exactement les mêmes chemins. Un assistant IA qui parcourt un catalogue pour trouver le meilleur prix suit le même parcours qu’un programme de fraude au clic. Près d’une visite sur cinq était une tentative de scraping en 2025, selon HUMAN Security. Les tentatives de piratage de comptes ont quadruplé, avec une moyenne de 402 000 attaques par organisation. Les fraudes à la carte bancaire ont grimpé de 250 % sur les deux dernières années.

« Cette idée que les machines sont forcément mauvaises et les humains forcément bons n’est pas réaliste », a déclaré Stu Solomon, PDG de HUMAN Security, à CNBC. « Il faut accepter de vivre dans un monde où les machines agissent en notre nom, et établir un niveau de confiance durable. »

La « Dead Internet Theory » n’est plus une théorie

En 2021, une idée circulait sur les forums : la « Dead Internet Theory », ou théorie de l’internet mort. Elle postulait que la majorité du contenu en ligne était déjà produit par des machines, et que les humains ne faisaient plus que consommer un simulacre. À l’époque, la plupart des experts balayaient l’hypothèse d’un revers de main.

Cinq ans plus tard, un rapport de la société Imperva (groupe Thales) estimait déjà que 51 % du trafic web mondial était automatisé en 2024. HUMAN Security enfonce le clou : le trafic automatisé croît à un rythme tel que le PDG de Cloudflare, Matthew Prince, prédit que les robots dépasseront totalement les humains d’ici 2027. Lors de la conférence SXSW en mars, il a rappelé qu’avant l’ère de l’IA générative, les bots ne pesaient qu’environ 20 % du trafic, essentiellement via le robot d’indexation de Google.

Le modèle économique du web vacille

Toute l’économie d’internet repose sur une hypothèse simple : une visite, c’est une personne. Les impressions publicitaires, les taux de clic, les statistiques d’audience, tout est calibré pour des yeux humains. Quand plus de la moitié des « visiteurs » sont des scripts, ces métriques perdent leur sens.

Les annonceurs paient pour des impressions que personne ne voit. Les éditeurs gonflent involontairement leurs chiffres d’audience. Les sites e-commerce voient leurs serveurs saturés par des requêtes qui ne génèrent aucun achat. Le coût de cette infrastructure fantôme retombe sur les entreprises, et in fine sur les consommateurs.

Filippo Menczer, professeur d’informatique à l’université de l’Indiana, nuance toutefois la portée du rapport. « On peut estimer le trafic bot en regardant les chaînes d’identification des agents, mais ce sont des estimations très bruitées », a-t-il expliqué à CNBC. « Elles dépendent de l’échantillon, de l’endroit où les mesures sont prises. »

Vers un péage pour les machines

Certains acteurs commencent à réagir. Reddit envisage de scanner les visages de ses utilisateurs pour prouver qu’ils sont humains. Le New York Times, Le Monde et d’autres grands médias bloquent déjà les robots d’OpenAI et de Google. Cloudflare a lancé des outils de protection spécifiques contre le scraping IA.

La question qui se pose désormais dépasse la technique : faut-il faire payer les IA pour accéder au web ? L’idée fait son chemin. Si les agents autonomes consomment de la bande passante, sollicitent des serveurs et exploitent des contenus produits par des humains, la gratuité de cet accès devient difficile à justifier. Les entreprises qui trouveront comment monétiser ce trafic machine survivront. Les autres découvriront trop tard que leurs « millions de visiteurs » n’avaient ni yeux, ni portefeuille.