51 % du trafic web mondial. C’est déjà la part des machines. Selon le rapport annuel d’Imperva sur les bots malveillants, publié début 2025, le trafic automatisé a dépassé pour la première fois en dix ans l’activité humaine sur Internet. Et le patron de Cloudflare, Matthew Prince, prédit que ce n’est que le début.
Lors d’une intervention au festival SXSW à Austin cette semaine, le dirigeant a livré un constat sans ambiguïté : d’ici 2027, les bots dopés à l’intelligence artificielle généreront plus de trafic que l’ensemble des internautes humains réunis. Une bascule qui redistribue les cartes pour tous ceux qui utilisent, gèrent ou financent un site web.
5 sites pour vous, 5 000 pour votre agent IA
Pour comprendre pourquoi le trafic explose, il suffit de suivre le raisonnement de Prince. Prenez un achat banal : vous cherchez un appareil photo numérique. Vous consultez cinq sites, comparez les prix, lisez deux tests, et passez commande. Un agent IA chargé de la même mission, lui, va explorer jusqu’à 5 000 pages, rapporte TechCrunch. Il aspire les fiches produits, croise les avis, analyse les stocks, compare les garanties, le tout en quelques secondes.
Multipliez ce ratio par des centaines de millions d’utilisateurs de ChatGPT, Gemini, Perplexity ou Claude qui délèguent progressivement leurs recherches à des assistants automatiques, et la charge qui pèse sur les serveurs devient vertigineuse. Chaque requête posée à un chatbot déclenche une cascade de visites invisibles sur des dizaines de sites. L’utilisateur voit une réponse, les serveurs encaissent un tsunami.
De 20 % à la majorité en quelques années
Cloudflare protège environ un cinquième de tous les sites web de la planète. Cette position lui offre une vue panoramique sur l’évolution du trafic mondial. Avant l’essor de l’IA générative, les bots représentaient environ 20 % du trafic total, selon Prince. Le plus gros d’entre eux était le robot d’indexation de Google, suivi de quelques crawlers légitimes et d’une armée de scripts malveillants utilisés par des fraudeurs.
Le rapport d’Imperva, basé sur l’analyse de milliers de milliards de requêtes, chiffre la situation début 2025 : les bots malveillants seuls comptent pour 37 % de tout le trafic Internet. Si l’on ajoute les bots « légitimes », les crawlers d’IA et les agents automatiques, le total dépasse les 51 %. Pour la première fois depuis que ces mesures existent, les humains sont devenus minoritaires sur leur propre réseau.
La cause principale de cette accélération est claire : l’IA générative et sa soif insatiable de données. Les modèles de langage ont besoin de texte, d’images, de code, de prix, d’avis pour fonctionner. Leurs éditeurs envoient des armées de robots aspirer le web en permanence, souvent sans respecter les règles établies comme le fichier robots.txt. Dès juillet 2024, Cloudflare a d’ailleurs lancé un bouton permettant à n’importe quel site de bloquer tous les bots IA en un clic, gratuit y compris pour ses utilisateurs sans abonnement.
Une pression plus lente que le Covid, mais sans fin
Prince compare la situation actuelle à la période Covid, quand le confinement mondial a provoqué une explosion soudaine du trafic Internet. YouTube, Netflix et Disney+ avaient fait trembler l’infrastructure, au point que certains segments du réseau frôlaient la rupture. Mais cette crise avait un plateau : après deux semaines de hausse brutale, le trafic s’est stabilisé.
Avec les bots IA, la courbe est différente. La croissance est plus progressive, mais elle ne s’arrête pas. « Le trafic ne cesse d’augmenter, et nous ne voyons rien qui puisse le ralentir ou le stopper », a déclaré Prince lors de sa conférence, citée par TechCrunch. Chaque nouveau modèle de langage, chaque nouvel agent autonome, chaque fonctionnalité « recherche IA » intégrée à un navigateur ou un assistant vocal ajoute une couche supplémentaire de requêtes automatiques.
Pour les éditeurs de sites, la facture grimpe. Plus de trafic signifie plus de bande passante, plus de puissance serveur, et des coûts d’hébergement qui gonflent sans que les revenus publicitaires suivent, puisque les bots ne cliquent pas sur les pubs et ne s’abonnent pas. Les petits sites, ceux qui n’ont pas les moyens de Cloudflare ou d’Akamai, risquent de se retrouver submergés par un trafic dont ils ne tirent aucun bénéfice.
Des millions de bacs à sable par seconde
Face à cette lame de fond, Prince dessine l’infrastructure de demain. Il imagine un monde où les agents IA ne naviguent plus sur le web comme un humain ouvre des onglets dans son navigateur. À la place, chaque tâche confiée à un agent déclencherait la création d’un « bac à sable » : un environnement de code isolé, lancé à la volée, qui exécute la mission puis disparaît.
Le dirigeant anticipe que des millions de ces environnements éphémères seront créés chaque seconde. Réserver un voyage, comparer des assurances, surveiller un prix : autant de micro-sessions invisibles pour l’utilisateur, mais très réelles pour les serveurs. Cloudflare, dont le modèle économique repose précisément sur la gestion du trafic et la protection des sites, se positionne évidemment pour capter cette demande. Mais le constat dépasse ses intérêts commerciaux.
Car derrière la question technique se cache un enjeu plus profond. Si les bots représentent bientôt la majorité écrasante du trafic, la structure économique du web en sera bouleversée. Les modèles publicitaires fondés sur les clics humains, les systèmes d’analyse d’audience, les mesures de performance : tout repose sur l’hypothèse que ce sont des humains qui visitent les pages. Quand ce ne sera plus le cas, ces modèles devront être entièrement repensés.
Un virage de plateforme, pas une simple évolution
Prince résume la situation en une formule : l’IA est un « changement de plateforme », comparable au passage du bureau au mobile. La façon dont les gens consomment l’information est en train de changer fondamentalement. Au lieu de visiter un site, on pose une question à un assistant. Au lieu de naviguer, on délègue. Le web reste la source, mais l’humain n’est plus le visiteur.
Cette bascule pose aussi la question de la sécurité. Le rapport d’Imperva souligne que l’IA ne profite pas qu’aux agents légitimes : elle abaisse aussi la barrière d’entrée pour les attaquants. Générer des bots malveillants sophistiqués devient accessible à des acteurs peu qualifiés, ce qui explique la hausse simultanée des attaques simples en volume et des attaques complexes en sophistication.
Les centres de données nécessaires pour absorber cette croissance devront eux aussi suivre le rythme. L’infrastructure physique, câbles sous-marins, fermes de serveurs, points de présence réseau, constitue le goulet d’étranglement ultime. Si le trafic bot poursuit sa trajectoire actuelle, les investissements en datacenters devront s’accélérer bien au-delà de ce que la seule demande humaine aurait justifié. Les géants du cloud, AWS, Google Cloud, Microsoft Azure, l’ont déjà compris : leurs plans d’expansion à plusieurs dizaines de milliards de dollars intègrent cette réalité où les machines parlent d’abord aux machines.