36 heures d’entraînement ramenées à 34 minutes. 1 % de l’énergie consommée. Et un taux de réussite qui passe de 34 à 95 %. Ces chiffres ne viennent pas d’un communiqué de presse d’OpenAI ou de Google, mais d’un laboratoire de l’université Tufts, à Boston, qui vient de démontrer qu’une approche radicalement différente de l’intelligence artificielle pourrait résoudre l’un des problèmes les plus urgents du secteur : sa consommation d’énergie délirante.
L’IA engloutit déjà 10 % de l’électricité américaine
Selon l’Agence internationale de l’énergie (AIE), les systèmes d’intelligence artificielle et les centres de données ont absorbé environ 415 térawattheures en 2024, soit plus de 10 % de la production électrique totale des États-Unis. Ce chiffre devrait doubler d’ici 2030. Les grands centres de calcul consomment des centaines de mégawatts, davantage que certaines villes moyennes. Chaque résumé généré par l’IA en haut d’une page Google, comme le rappelle Matthias Scheutz, chercheur principal de l’étude, « consomme jusqu’à 100 fois plus d’énergie que la génération de la liste de sites web en dessous ».
La course aux modèles toujours plus gros, GPT-5 en tête, aggrave la tendance. Chaque nouveau modèle exige davantage de puces, davantage de refroidissement, davantage de centrales. Meta construit des data centers qui rivalisent avec la consommation du Dakota du Sud. Google a inauguré une centrale à gaz dédiée à ses serveurs IA. Le secteur tout entier fonce dans un mur énergétique, et tout le monde le sait.
La méthode Tufts : faire raisonner l’IA au lieu de la gaver de données
L’équipe de Matthias Scheutz, professeur titulaire de la chaire Karol Family à l’école d’ingénieurs de Tufts, propose une voie à contre-courant. Plutôt que d’empiler des milliards de paramètres et de laisser le modèle tâtonner par essai-erreur, les chercheurs ont combiné deux familles d’intelligence artificielle : les réseaux de neurones classiques (ceux qui alimentent ChatGPT, Gemini ou Claude) et le raisonnement symbolique, fondé sur des règles logiques, des catégories et des étapes structurées.
Le principe ressemble à la façon dont un humain résout un problème. Plutôt que de tester des millions de combinaisons aléatoires, on décompose la tâche en sous-étapes, on applique des règles de logique, on vérifie chaque résultat intermédiaire. « Un système neuro-symbolique peut appliquer des règles qui limitent le tâtonnement pendant l’apprentissage et parvenir à une solution beaucoup plus vite », explique Scheutz. L’article, cosigné par Timothy Duggan, Pierrick Lorang et Hong Lu, sera présenté à la Conférence internationale de robotique et automatisation (ICRA) à Vienne en mai 2026.
Le test qui humilie les modèles classiques
Pour mesurer l’écart, l’équipe a choisi un problème connu de tous les informaticiens : la tour de Hanoï, ce puzzle où il faut déplacer des disques empilés d’une tige à une autre sans jamais poser un grand disque sur un petit. Le terrain de jeu n’est pas un écran, mais un robot physique équipé de caméras et guidé par des instructions en langage naturel, ce que les chercheurs appellent un modèle vision-langage-action (VLA).
Résultat : le système neuro-symbolique résout le puzzle 95 % du temps. Les modèles conventionnels plafonnent à 34 %. Quand les chercheurs ont introduit une variante inédite du puzzle, jamais rencontrée pendant l’entraînement, le système hybride a maintenu un taux de réussite de 78 %. Les modèles classiques ? Zéro. Pas une seule tentative réussie.
Les systèmes classiques échouent parce qu’ils s’appuient exclusivement sur des corrélations statistiques. Une ombre mal placée suffit à les faire confondre deux pièces. Un disque posé de travers provoque un effondrement de toute la séquence. Le raisonnement symbolique, lui, « sait » que le petit disque va au-dessus, quelle que soit la luminosité ambiante.
1 % de l’énergie, et 34 minutes au lieu d’un jour et demi
L’écart de performance serait déjà remarquable sans la dimension énergétique. Mais c’est sur la consommation que les chiffres deviennent vertigineux. L’entraînement du modèle neuro-symbolique a duré 34 minutes, contre plus de 36 heures pour les approches conventionnelles. En termes d’énergie, la phase d’entraînement n’a mobilisé que 1 % de ce que consomme un système VLA standard. Pendant l’exécution des tâches, la consommation tombe à 5 % de celle d’un modèle classique.
Ramené à l’échelle, le calcul donne le vertige. Si les systèmes d’IA les plus gourmands adoptaient une approche similaire, la facture électrique mondiale des centres de données pourrait être divisée par un facteur considérable. Pas par deux ou trois, comme le promettent les optimisations habituelles de refroidissement ou de gestion de charge, mais potentiellement par cent sur certaines tâches.
Pourquoi personne n’en parle (encore)
L’approche neuro-symbolique n’est pas nouvelle. Des chercheurs comme Gary Marcus militent depuis des années pour intégrer du raisonnement formel dans les systèmes d’IA. Mais l’industrie a massivement parié sur la direction opposée : des modèles toujours plus massifs, gavés de données brutes, entraînés sur des fermes de GPU qui coûtent des milliards. OpenAI vient de lever 100 milliards de dollars. Nvidia explose en Bourse. Tout l’écosystème financier tire dans le même sens.
Le problème, c’est que cette course au gigantisme produit des rendements décroissants. Les benchmarks progressent de quelques points à chaque nouvelle génération, pendant que la consommation d’énergie, elle, grimpe de façon exponentielle. L’étude de Tufts montre qu’une fraction de cette puissance suffit pour obtenir de meilleurs résultats, à condition de changer de méthode.
Le résultat est pour l’instant limité à un domaine précis : la robotique et les tâches de manipulation physique. Les chercheurs n’affirment pas que la technique s’applique directement à la génération de texte ou d’images. Mais le principe, remplacer le tâtonnement par du raisonnement structuré, ouvre une piste que la prochaine génération de modèles pourrait explorer, si les financeurs acceptent de regarder au-delà du paradigme actuel.
Une conférence à Vienne, et des milliards de watts en jeu
L’équipe de Tufts présentera ses travaux complets à l’ICRA de Vienne en mai prochain. Parmi les participants : les divisions robotique de Google DeepMind, Nvidia, Toyota et Meta, qui développent toutes des modèles VLA pour leurs propres robots. Si les résultats se confirment à plus grande échelle, la question ne sera plus de savoir comment construire assez de centrales pour alimenter l’IA, mais pourquoi on n’a pas changé d’approche plus tôt.
En attendant, les 415 térawattheures continuent de tourner, et chaque requête ChatGPT consomme dix fois plus qu’une recherche Google classique. Le papier de Scheutz et de ses collègues ne règle pas tout. Mais il pose une question que les géants de la tech préféreraient éviter : et si la voie la plus chère n’était tout simplement pas la bonne ?