Une requête ChatGPT consomme dix fois plus d’électricité qu’une recherche Google classique. Dix fois. Le chiffre vient de l’Agence internationale de l’énergie (AIE), et il donne le vertige quand on sait que des centaines de millions de personnes interrogent des chatbots chaque jour.

Les data centers, ces ogres électriques qu’on ne voit jamais

On ne les croise pas dans la rue. Ils ressemblent à de gros hangars gris, souvent perdus dans des zones industrielles. Pourtant, les data centers sont devenus l’une des infrastructures les plus énergivores de la planète. En 2022, ils avalaient environ 460 térawattheures d’électricité dans le monde, soit 2 % de la demande mondiale, selon l’AIE. C’est plus que la consommation annuelle de la France. Et l’explosion de l’IA générative change complètement la donne : l’agence prévoit que cette consommation pourrait augmenter de 35 % à 128 % d’ici 2026. Au bas mot, c’est comme si on ajoutait la Suède au réseau. Au pire, l’Allemagne. Pourquoi autant ? Parce qu’entraîner un modèle d’IA, c’est lui faire digérer des quantités monstrueuses de données. Un modèle de langage comme GPT ne s’apprend pas la grammaire anglaise par cœur. On lui montre à peu près tout ce qui a été écrit en anglais sur Internet. « On est proches d’avoir épuisé tout le texte jamais écrit par l’humanité », explique Roy Schwartz, chercheur en informatique à l’Université hébraïque de Jérusalem, cité par Nature.

Le problème du « mur mémoire »

Le gros du problème est technique, et il porte un nom : le mur mémoire (memory wall). Dans un processeur classique, les unités de calcul et la mémoire sont séparées. Chaque fois que le processeur a besoin d’une donnée, il doit aller la chercher en mémoire, puis la ramener. Allers-retours permanents. Quand on entraîne un gros modèle d’IA, jusqu’à 90 % de l’énergie est dépensée juste pour déplacer des données entre la mémoire et les puces de calcul, selon Subhasish Mitra, informaticien à Stanford. Pas pour calculer. Pour transporter de l’information. C’est un peu comme si un restaurant dépensait 90 % de son budget en livraisons et seulement 10 % en cuisine.

Et l’eau dans tout ça ?

On parle beaucoup d’électricité. Beaucoup moins d’eau. C’est pourtant un angle mort considérable. Les data centers chauffent énormément. Pour éviter que les serveurs ne grillent, il faut les refroidir, souvent avec de l’eau. Entraîner GPT-3 dans les data centers de Microsoft aux États-Unis a directement évaporé 700 000 litres d’eau potable, selon une étude publiée par des chercheurs de l’Université de Californie Riverside dans la revue Communications of the ACM. Sept cent mille litres. Pour un seul entraînement d’un seul modèle. Et ce n’est que le début. Les mêmes chercheurs projettent que la demande mondiale en IA pourrait nécessiter entre 4,2 et 6,6 milliards de mètres cubes de prélèvement d’eau en 2027. Pour donner une échelle : c’est plus que la consommation annuelle totale de quatre à six fois le Danemark, ou la moitié du Royaume-Uni. Google l’a d’ailleurs admis à demi-mot. Son rapport environnemental 2024 révèle que ses émissions de carbone ont grimpé de 48 % en cinq ans. Microsoft, même combat : +30 % d’émissions depuis 2020, a reconnu son président Brad Smith.

Les pistes pour réduire l’addition

Tout n’est pas perdu. Des chercheurs bossent sur des solutions, et certaines sont plutôt malines. La première piste s’appelle le « calcul en mémoire » (in-memory computing). L’idée : au lieu de séparer mémoire et processeur, on colle la mémoire directement dans le processeur. Moins de distance à parcourir pour les données, moins d’énergie gaspillée en transport. Naveen Verma, ingénieur à Princeton et fondateur d’EnCharge AI, pense que cette technologie arrivera d’abord dans les ordinateurs portables. Autre approche encore plus radicale : le retour à l’analogique. Les puces numériques fonctionnent en tout-ou-rien, des 0 et des 1. Les puces analogiques travaillent avec des valeurs intermédiaires, ce qui permet de stocker plus de données sur la même surface et de basculer entre états avec moins d’énergie. « L’analogique a une meilleure efficacité énergétique », confirme Hechen Wang, chercheur chez Intel Labs, cité par Nature. William Dally, directeur scientifique de Nvidia, assure que les GPU restent incontournables. L’entreprise a multiplié par 4 000 les performances par watt de ses GPU en dix ans. Pas mal, mais probablement insuffisant face à la croissance exponentielle de la demande.

Ce que ça change pour vous

On pourrait se dire : les data centers, c’est le problème des Big Tech, pas le mien. Sauf que ces infrastructures s’installent de plus en plus près des populations. Aux États-Unis, des agriculteurs de Virginie et du Midwest se battent contre des projets de data centers qui grignotent les terres agricoles. En Irlande, les data centers consomment déjà 21 % de l’électricité du pays, selon l’AIE. Chaque fois qu’on pose une question à un chatbot, qu’on génère une image ou qu’on lance une recherche boostée à l’IA, on tire un tout petit peu sur ces ressources. Multiplié par des milliards d’utilisateurs, le petit peu devient un gouffre. Roy Schwartz résume le dilemme : si rien ne change, l’IA risque de devenir « un outil de riches », réservé aux quelques organisations qui ont les moyens de payer la facture énergétique. Les chercheurs et les startups, eux, seraient mis sur la touche.

La facture est ouverte

L’industrie du semi-conducteur devrait atteindre 1 000 milliards de dollars de chiffre d’affaires d’ici 2030, rapporte Nature. Les enjeux financiers sont colossaux, ce qui rend les changements d’architecture lents et risqués. Mais la pression monte. Les villes refusent des permis, les nappes phréatiques se vident, les réseaux électriques saturent. La question n’est plus de savoir si l’IA consomme trop. C’est de savoir qui va payer l’addition.