Entraîner GPT-3 en 2020 a consommé environ 1 287 mégawattheures d’électricité. L’équivalent de ce que 120 foyers américains consomment en un an, brûlé en quelques semaines pour qu’une IA apprenne à compléter des phrases. Depuis, les modèles ont grossi à vue d’oeil. Les estimations pour GPT-4 dépassent les 50 000 MWh. Et les modèles d’aujourd’hui sont encore plus massifs.
Une étude publiée sur arXiv en février 2026 par des chercheurs de l’Université Tufts propose une piste radicale : diviser par 100 cette consommation en combinant les réseaux de neurones modernes avec une technique beaucoup plus ancienne, que l’informatique croyait avoir rangée au placard dans les années 90. Le raisonnement symbolique.
Pourquoi les IA actuelles consomment autant
Pour comprendre l’enjeu, il faut d’abord saisir comment un modèle d’IA apprend. Les systèmes actuels, qu’on appelle des réseaux de neurones profonds, fonctionnent essentiellement par essais et erreurs à très grande échelle. On leur montre des millions d’exemples, ils ajustent des milliards de paramètres internes, ils se trompent, ils corrigent, ils recommencent. C’est une force brute computationnelle.
Pour les robots en particulier, cette approche prend la forme de ce qu’on appelle des modèles VLA, pour « vision-langage-action ». Ces systèmes perçoivent leur environnement via une caméra, reçoivent des instructions en langage naturel, et génèrent des actions physiques – faire bouger un bras, saisir un objet, se déplacer. Ils sont impressionnants. Mais entraîner l’un d’eux sur une tâche précise peut prendre 36 heures et mobiliser des dizaines de GPU qui tournent à plein régime.
Le problème fondamental : ces systèmes n’ont pas de « compréhension » des règles sous-jacentes à ce qu’ils font. Ils statistifient. Ils généralisent à partir d’exemples. Si on leur présente une situation légèrement différente de ce qu’ils ont vu à l’entraînement, ils échouent. Et pour voir suffisamment d’exemples pour couvrir la plupart des situations, il faut énormément de données et d’énergie.
Le raisonnement symbolique : l’ancienne façon de penser des machines
Il existe une autre approche, bien plus ancienne. Dans les années 1950 à 1980, avant l’avènement des réseaux de neurones, la plupart des chercheurs en intelligence artificielle travaillaient sur ce qu’on appelle l’IA symbolique, ou raisonnement symbolique. L’idée : plutôt que de faire apprendre une machine par accumulation d’exemples, on lui donne des règles explicites, de la logique formelle, des représentations structurées du monde.
Un exemple concret : pour jouer aux échecs, une IA symbolique n’a pas besoin de voir 10 millions de parties. On lui fournit les règles du jeu, une représentation du plateau, et des heuristiques pour évaluer les positions. Elle peut alors raisonner pas à pas, en suivant une logique formelle.
L’avantage ? Cette approche est économe. Elle ne recalcule pas tout depuis zéro à chaque situation. Elle applique des règles. Elle est aussi plus transparente : on peut suivre le raisonnement de la machine étape par étape.
L’inconvénient, et c’est pour ça qu’elle a été largement abandonnée dans les années 90 : le monde réel est difficile à modéliser avec des règles. Percevoir une image, comprendre une phrase ambiguë, naviguer dans un environnement désordonné – tout ça résiste à la formalisation logique. Les réseaux de neurones, eux, ont réussi là où le symbolique échouait.
Ce que dit l’étude de Tufts : le Tour de Hanoi comme terrain de test
Matthias Scheutz et son équipe à Tufts University ont décidé de confronter les deux approches sur un terrain précis : des tâches de manipulation physique structurées, testées sur le classique Tour de Hanoi – ce casse-tête où il faut déplacer des disques de taille croissante entre trois piquets en respectant certaines règles.
C’est un choix malin. Ce type de tâche a des règles claires et un espace de solutions bien défini, mais nécessite quand même de la perception visuelle et du contrôle moteur fin pour un robot. C’est exactement le genre de problème où les deux approches peuvent être comparées équitablement.
Les résultats publiés sur arXiv (référence 2602.19260) sont nets. Le système neurosymbolique hybride – combinant réseau de neurones pour la perception et raisonnement symbolique pour la planification – a réussi 95% des tâches. Le modèle VLA classique, 34%.
Mais le chiffre le plus frappant porte sur l’énergie et le temps. L’entraînement du système hybride a pris 34 minutes. Celui du VLA classique : plus de 36 heures. En termes de consommation électrique, le système neurosymbolique n’a utilisé que 1% de ce que le modèle classique a consommé à l’entraînement, et 5% en fonctionnement. Cent fois moins.
Mieux encore : quand on a testé les deux systèmes sur des configurations du Tour de Hanoi qu’ils n’avaient jamais vues pendant l’entraînement, le modèle hybride a réussi 78% des cas. Le modèle classique a échoué complètement. Ce n’est pas seulement une question d’efficacité : c’est aussi une question de généralisation, de capacité à appliquer des règles à des situations nouvelles.
La clé : laisser les règles guider la recherche
Comment fonctionne concrètement cette approche hybride ? Le réseau de neurones conserve son rôle : il perçoit l’environnement (identifier les pièces, leur position, leur forme), comprend les instructions en langage naturel. C’est là que la flexibilité du deep learning est irremplaçable.
Mais la planification des actions, elle, est confiée à un moteur de raisonnement symbolique. Plutôt que de laisser le réseau tâtonner par essais et erreurs pour trouver la bonne séquence d’actions, le module symbolique applique des règles logiques : « un disque plus grand ne peut jamais aller sur un disque plus petit », « pour déplacer le disque du dessous, tous ceux au-dessus doivent d’abord être déplacés ». Il génère ainsi un plan structuré, efficace, vérifiable.
L’image que les chercheurs utilisent est celle d’un architecte et d’un ouvrier. Le réseau de neurones perçoit et comprend le chantier. Le module symbolique dresse le plan de construction et s’assure que les fondations passent avant le toit.
Pourquoi ce n’est pas la panacée – encore
Un point d’honnêteté s’impose. Cette approche brille sur des tâches structurées, avec des règles claires et un espace de solutions défini. La Tour de Hanoi est un cas d’école. Pour des tâches ouvertes, créatives ou ambiguës – rédiger un texte, tenir une conversation naturelle, analyser une image de rue chaotique – le symbolique pur reste inadapté.
C’est d’ailleurs pour ça que l’approche neurosymbolique n’est pas nouvelle. Des chercheurs la défendent depuis les années 2000, avec des succès limités. Ce que l’étude de Tufts apporte, c’est une démonstration concrète et chiffrée sur un cas robotique réel, présentée à la conférence internationale de robotique et d’automatisation de Vienne en mai 2026.
La revue systématique publiée sur arXiv en janvier 2025 (référence 2501.05435) recensait déjà une résurgence marquée de l’intérêt pour ces approches hybrides. Le domaine de la robotique, en particulier, s’y prête bien : les robots évoluent souvent dans des environnements partiellement prévisibles, avec des contraintes physiques explicites, et doivent opérer avec des ressources limitées – loin des data centers climatisés qui alimentent les grands modèles de langage.
Ce que ça change pour l’IA de demain
Le débat sur la consommation électrique des IA n’est plus théorique. En 2026, les grands fournisseurs de cloud déclarent que les centres de données IA représentent une part croissante de leur consommation nationale. Plusieurs pays européens ont commencé à questionner les permis de construire de nouveaux data centers, faute de capacité réseau suffisante. La question de l’efficacité des algorithmes eux-mêmes est donc devenue stratégique.
Des approches comme le neuro-symbolique ne vont pas remplacer les grands modèles de langage. Mais elles ouvrent une voie complémentaire : pour certaines classes de problèmes bien définis – logistique, robotique industrielle, contrôle de systèmes – il est possible de faire bien mieux qu’un réseau de neurones à temps plein, avec une fraction des ressources.
La recherche en neuromorphic computing, explorée notamment dans les pages de la revue PNAS, suit une logique similaire : concevoir des puces qui imitent le fonctionnement des neurones biologiques, qui ne calculent que quand c’est nécessaire, plutôt que de tourner en permanence à pleine puissance. Les deux pistes convergent vers la même intuition : l’IA du futur sera probablement moins gourmande, pas parce qu’on aura trouvé une énergie moins chère, mais parce qu’on aura appris à penser mieux – avec moins.