26 milliards de dollars sur cinq ans. C’est la somme que Nvidia s’apprête à injecter dans la création de ses propres modèles d’intelligence artificielle, selon un document financier déposé auprès de la SEC et révélé par Wired ce mercredi. Le roi incontesté des puces graphiques ne veut plus se contenter de vendre les pelles de la ruée vers l’or : il veut aussi chercher l’or lui-même.

Du silicium aux neurones artificiels

Nvidia a bâti un empire en vendant les processeurs graphiques (GPU) dont tout le monde a besoin pour entraîner des modèles d’IA. OpenAI, Google, Anthropic, Meta : tous dépendent de ses puces. Mais la publication de ses comptes annuels 2025 révèle un virage stratégique majeur. L’entreprise de Santa Clara investit massivement dans la R&D de modèles open source, c’est-à-dire des modèles dont les paramètres sont publiés librement et que n’importe qui peut télécharger, modifier et exécuter.

Bryan Catanzaro, vice-président de la recherche en apprentissage profond appliqué chez Nvidia, a confirmé cette orientation à Wired. Arrivé chez Nvidia en 2011, il avait déjà piloté la transition de l’entreprise des cartes graphiques pour le jeu vidéo vers le silicium pour l’IA. « Nvidia prend le développement de modèles ouverts beaucoup plus au sérieux », a-t-il déclaré. Et les chiffres le prouvent : l’entreprise a terminé le pré-entraînement d’un modèle colossal de 550 milliards de paramètres.

Nemotron 3 Super, la première salve

Pour accompagner cette annonce, Nvidia a lancé Nemotron 3 Super, son modèle le plus performant à ce jour. Avec 128 milliards de paramètres, il rivalise frontalement avec GPT-OSS d’OpenAI, le modèle open source le plus connu du côté américain. Sur l’AI Index, un classement qui agrège dix benchmarks différents, Nemotron 3 Super obtient un score de 37, contre 33 pour GPT-OSS.

Côté technique, le modèle embarque plusieurs innovations. Une architecture hybride Mamba-Transformer avec un système d’experts (MoE) permet d’activer seulement une fraction des paramètres à chaque requête, ce qui réduit considérablement les coûts de calcul. Nvidia a aussi intégré la prédiction multi-tokens, une technique qui accélère la génération de texte long. Le tout gère une fenêtre de contexte allant jusqu’à un million de tokens, soit l’équivalent de plusieurs romans complets.

La famille Nemotron 3 se décline en trois tailles : Nano (31,6 milliards de paramètres totaux, 3,2 milliards actifs), Super (128 milliards) et Ultra, encore en développement. Le plus petit modèle surpasse déjà GPT-OSS-20B en précision tout en consommant 3,3 fois moins de ressources lors de l’inférence, selon les données publiées par Nvidia sur sa page de recherche.

La menace chinoise qui change tout

Pourquoi ce pivot maintenant ? La réponse tient en un mot : DeepSeek. En janvier 2025, cette startup chinoise a publié un modèle open source entraîné avec une efficacité redoutable, ébranlant la conviction selon laquelle seules les entreprises les mieux financées pouvaient produire des modèles compétitifs. Depuis, les modèles chinois ouverts se sont multipliés. Alibaba avec Qwen, Moonshot AI, Z.ai, MiniMax : tous publient leurs paramètres gratuitement, et les chercheurs et startups du monde entier construisent dessus.

Le problème pour les États-Unis est limpide. Les meilleurs modèles américains, ceux d’OpenAI, Anthropic et Google, ne sont accessibles qu’en ligne via des API payantes. Côté chinois, les modèles les plus performants sont téléchargeables librement. Résultat : une part croissante de l’écosystème mondial de l’IA repose sur des fondations chinoises. Meta avait comblé ce vide avec Llama en 2023, mais Mark Zuckerberg a récemment laissé entendre que les futurs modèles de Meta ne seraient pas tous ouverts, selon TechCrunch.

Un détail aggrave encore la situation : le prochain modèle de DeepSeek aurait été entraîné exclusivement sur des puces Huawei, sous sanctions américaines. Si cette rumeur se confirme, elle pourrait inciter davantage d’entreprises à tester le matériel chinois, une perspective qui menace directement le quasi-monopole de Nvidia sur le marché des GPU pour l’IA.

Une contre-offensive calculée

« C’est dans notre intérêt d’aider l’écosystème à se développer », explique Catanzaro. Le sous-texte est clair : si les développeurs du monde entier adoptent les modèles Nvidia, ils resteront dépendants de ses puces, puisque ces modèles sont optimisés pour tourner sur du matériel Nvidia. C’est la même stratégie que celle d’Android pour Google : offrir le logiciel pour verrouiller le matériel.

Kari Briski, vice-présidente du logiciel d’IA générative pour l’entreprise, précise que la construction de ces modèles sert aussi de banc d’essai interne. « On les utilise pour pousser nos systèmes dans leurs retranchements, tester le calcul, le stockage et le réseau, et construire notre feuille de route matérielle », a-t-elle déclaré à Wired. En d’autres termes, chaque modèle entraîné améliore aussi les futures puces de l’entreprise.

Nvidia ne se contente pas de publier des poids. L’entreprise met à disposition ses données d’entraînement, ses recettes de préparation et ses rapports techniques détaillés. Une transparence rare dans l’industrie, qui va plus loin que ce que proposent Meta ou OpenAI avec leurs modèles « ouverts ».

L’Amérique se réveille sur l’open source

L’investissement de Nvidia s’inscrit dans un mouvement plus large. Nathan Lambert, chercheur à l’Allen Institute for AI, dirige le projet ATOM (American Truly Open Models), une initiative qui milite pour que les États-Unis financent davantage de modèles véritablement ouverts. « Je suis un grand fan de Nemotron », confie-t-il, tout en soulignant que le gouvernement américain devrait lui aussi mettre la main à la poche.

Andy Konwinski, informaticien et entrepreneur à la tête du Laude Institute, une ONG dédiée à l’ouverture en IA, mesure le poids du signal envoyé par Nvidia. « Ils sont au carrefour de tant d’efforts IA, ouverts et fermés. C’est un signal sans précédent de leur croyance dans l’ouverture », analyse-t-il.

La conférence annuelle des développeurs Nvidia, GTC, se tient la semaine prochaine. L’entreprise devrait y dévoiler NemoClaw, une plateforme d’agents IA open source, et potentiellement le modèle Ultra, le plus gros de la famille Nemotron 3. Pour OpenAI, Anthropic et les startups chinoises, le message est le même : le fournisseur de puces qui les rendait tous possibles veut désormais jouer dans leur cour.