« Je pense que c’est maintenant. Je pense qu’on a atteint l’AGI. » Quatre mots lâchés par Jensen Huang sur le podcast de Lex Fridman, le 23 mars 2026, et la planète tech s’est coupée en deux. D’un côté, ceux qui applaudissent le patron de Nvidia. De l’autre, ceux qui lui reprochent de déplacer les poteaux de but pour vendre plus de GPU.

Le problème, c’est que personne ne s’entend sur ce que « AGI » veut dire. Et cette ambiguïté vaut des dizaines de milliards de dollars.

La définition qui arrange tout le monde

Fridman a posé la question en termes concrets : une IA capable de créer et de diriger une entreprise tech valorisée à un milliard de dollars. « Dans 5 ans ? 10 ? 15 ? », a-t-il demandé. Huang n’a pas hésité : « C’est maintenant. »

Puis il a nuancé, presque dans la foulée. Fridman parlait d’un milliard, « mais pas éternellement », a corrigé le patron de Nvidia. Il a cité des plateformes d’agents IA autonomes comme exemples de technologies qui pourraient, en théorie, lancer et piloter une telle entreprise. Quelques secondes plus tard, il a reconnu que la probabilité qu’un agent construise seul un groupe de la taille de Nvidia reste « extrêmement faible ».

Ce va-et-vient résume le problème : Huang déclare l’AGI atteinte, puis admet que ses propres exemples ne tiennent pas la route face à un critère exigeant.

Un mot à 100 milliards de dollars

La définition de l’AGI n’est pas qu’un débat philosophique. Elle a des conséquences financières directes. La charte d’OpenAI définit l’AGI comme des « systèmes hautement autonomes qui surpassent les humains dans la plupart des travaux ayant une valeur économique ». Or, selon Reuters, l’accord entre OpenAI et Microsoft prévoit qu’environ 20 % du chiffre d’affaires reversé à Microsoft disparaît si OpenAI déclare avoir atteint l’AGI. Pour une entreprise qui génère désormais plusieurs milliards par an, ce seuil représente des centaines de millions de dollars par exercice.

Autrement dit, le jour où OpenAI prononce officiellement le mot, c’est un tremblement de terre comptable. Sam Altman, le patron d’OpenAI, reste plus prudent que Huang. Il a qualifié l’AGI de « but le plus important » de sa société, prédit une IA de « niveau stagiaire » fin 2026, et une parité avec les chercheurs humains vers 2028. Pas exactement la même temporalité.

Quand LeCun veut supprimer le terme

Yann LeCun, directeur scientifique de l’IA chez Meta, va encore plus loin dans la dissidence. Selon un article publié par The Decoder, il propose avec des chercheurs de Columbia et NYU de remplacer purement et simplement le concept d’AGI par celui de « Superhuman Adaptable Intelligence ». Leur argument : l’intelligence humaine n’est pas « générale », elle est spécialisée. Parler d’AGI revient à viser un fantasme mal défini.

LeCun a répété sur plusieurs plateformes que les architectures actuelles, y compris les grands modèles de langage, sont « loin de toute forme d’AGI selon une définition rigoureuse ». Pour lui, les LLM excellent dans la génération de texte, mais échouent sur le raisonnement robuste, la planification à long terme et la compréhension réelle du monde physique.

Le vendeur de pelles pendant la ruée vers l’or

Nvidia vaut près de 4 000 milliards de dollars en Bourse, portée par la demande explosive de GPU pour entraîner et déployer les modèles d’IA. L’entreprise projette plus de 1 000 milliards de ventes cumulées pour ses architectures Blackwell et Vera Rubin. Chaque avancée perçue dans les capacités de l’IA pousse les hyperscalers (Amazon, Google, Microsoft) à commander davantage de puces.

Quand Huang déclare que l’AGI est déjà là, il ne fait pas que de la philosophie. Il envoie un signal aux marchés : les systèmes actuels sont suffisamment avancés pour justifier des investissements massifs en infrastructure. L’action Nvidia a légèrement reculé après la diffusion du podcast, signe que les investisseurs restent partagés. Mais sur un an, le titre reste l’un des plus performants de Wall Street.

Le conflit d’intérêts est structurel. Nvidia vend les outils. Plus le récit ambiant présente l’IA comme proche de l’intelligence humaine, plus la demande de matériel grimpe. Un chercheur en IA a résumé la situation sur les réseaux sociaux, rapporte IBTimes : « Huang utilise une interprétation très généreuse. Les systèmes actuels produisent des résultats impressionnants, mais ils manquent de l’autonomie, de la fiabilité et de la capacité de généralisation nécessaires à une véritable intelligence générale. »

Des agents IA, pas des cerveaux artificiels

Ce qui brouille les cartes, c’est que les agents IA progressent réellement. Des systèmes gèrent déjà des workflows complexes en développement logiciel, en service client et en recherche scientifique. Selon un témoignage publié par VentureBeat cette semaine, une équipe d’ingénieurs passée en mode « IA d’abord » a atteint 170 % de productivité avec 80 % de l’effectif initial. Des startups revendiquent des milliards de valeur créée par des agents.

Faut-il pour autant parler d’AGI ? Le benchmark ARC Prize, créé spécifiquement pour mesurer les capacités de raisonnement général, offre toujours 2 millions de dollars de récompense en 2026 parce qu’aucun modèle ne l’a résolu de manière convaincante. Les LLM battent des records sur les tests de code, de maths et de connaissances, mais trébuchent dès qu’on sort du cadre prévu : un problème inédit, un raisonnement spatial, une situation qui exige du bon sens physique.

La vraie question que personne ne pose

Le débat sur l’AGI masque un enjeu plus concret. Si des systèmes capables de piloter une entreprise à un milliard existent déjà (selon la définition Fridman-Huang), alors les régulateurs sont en retard. L’Union européenne finalise les textes d’application de l’AI Act, les États-Unis viennent de publier un nouveau cadre exécutif. Aucun de ces dispositifs ne prend en compte l’hypothèse d’une IA véritablement autonome dans la prise de décision économique.

Côté emploi, la question se pose aussi. Si la productivité double avec 20 % d’effectifs en moins, comme le suggère le cas VentureBeat, le calcul est simple : les mêmes résultats avec moins de monde. Huang a toujours défendu une vision optimiste où l’IA « augmente » la créativité humaine plutôt qu’elle ne la remplace. Les chiffres, pour l’instant, racontent une histoire plus nuancée.

Nvidia prépare sa conférence annuelle GTC, traditionnellement l’occasion de dévoiler de nouvelles puces et de nouvelles architectures. La déclaration de Huang sur le podcast de Fridman pourrait bien être le premier acte d’une campagne de communication soigneusement orchestrée : poser l’AGI comme une réalité pour justifier la prochaine vague d’investissements.

Google DeepMind et Anthropic, de leur côté, placent l’AGI plus loin dans le temps, insistant sur la nécessité de systèmes qui égalent ou dépassent l’humain dans « quasiment toutes » les tâches cognitives. Un critère nettement plus exigeant que « lancer une startup ».