90% des projets d’intelligence artificielle tournent sur du matériel Nvidia. Le chiffre est connu, rabâché, presque banal. Ce qui l’est moins, c’est la raison précise pour laquelle personne n’arrive à s’en défaire. Spoiler : le problème n’est pas la puce. C’est le logiciel qui va avec.
Un GPU sans CUDA, c’est comme un moteur sans boîte de vitesse
Pour comprendre, il faut remonter à 2007. Cette année-là, Nvidia sort CUDA (Compute Unified Device Architecture), une plateforme qui permet aux développeurs d’utiliser les cartes graphiques pour faire autre chose que du jeu vidéo. Du calcul scientifique, de la simulation, puis du machine learning.
L’idée est simple sur le papier : au lieu de confier tous les calculs au processeur central (le CPU), on en délègue une partie au GPU, qui sait traiter des milliers d’opérations en parallèle. Un CPU, ça excelle sur les tâches séquentielles complexes. Un GPU, ça fait de l’addition par millions. Pour entraîner un réseau de neurones, c’est pile ce qu’il faut.
CUDA, c’est la couche logicielle qui traduit les instructions du développeur dans le langage du GPU Nvidia. Sans elle, impossible d’exploiter la puissance de la puce. Avec elle, un chercheur qui code en Python peut lancer un entraînement massif en quelques lignes.
Le piège de l’écosystème
Le génie de Nvidia, selon le Financial Times et le Wall Street Journal, ce n’est pas d’avoir fabriqué les meilleurs GPU du marché. C’est d’avoir construit autour un écosystème logiciel tellement vaste qu’il est devenu presque impossible d’en sortir.
PyTorch, le framework d’IA le plus utilisé au monde ? Optimisé pour CUDA. TensorFlow de Google ? Pareil. cuDNN pour le deep learning, TensorRT pour l’inférence, NCCL pour la communication entre GPU dans les data centers : tout ça, c’est Nvidia.
Résultat : quand une startup ou un labo de recherche écrit du code d’IA, il écrit du code CUDA sans même y penser. Les bibliothèques qu’il utilise reposent dessus. Les tutoriels en ligne l’utilisent. Les formations aussi. On estime que plus de 4 millions de développeurs maîtrisent CUDA dans le monde, selon Wired, contre quelques dizaines de milliers pour les alternatives.
C’est ce que les analystes appellent un « moat logiciel » : une douve invisible qui protège la position dominante de Nvidia mieux que n’importe quel brevet.
AMD, Intel, Google : les challengers qui patinent
Les concurrents ne manquent pas de talent, ni de moyens. AMD propose ROCm, sa propre plateforme de calcul GPU. Intel développe oneAPI. Google a ses TPU (Tensor Processing Units), des puces spécialisées pour l’IA. Et OpenCL existe depuis 2009 comme standard ouvert multi-plateforme.
Le souci ? Aucune de ces alternatives n’a réussi à atteindre la masse critique. ROCm souffre de bugs de compatibilité récurrents, selon Tom’s Hardware. Les TPU de Google restent cantonnés à l’écosystème Google Cloud. OpenCL n’a jamais bénéficié du même investissement en bibliothèques spécialisées.
Un développeur qui veut migrer un projet d’IA de CUDA vers ROCm doit réécrire une partie du code, retester chaque opération, débuguer des comportements inattendus. Pour une startup qui a levé des fonds et doit livrer un produit vite, le calcul est simple : on reste chez Nvidia.
BarraCUDA et les nouvelles tentatives de libération
Des projets open-source tentent malgré tout de briser le verrou. BarraCUDA, un compilateur qui vient d’être rendu public, promet de traduire du code CUDA pour qu’il tourne sur des GPU non-Nvidia. L’annonce a fait du bruit cette semaine.
L’approche est maline : plutôt que de demander aux développeurs de tout réécrire, on crée une couche de traduction automatique. Le code existant reste le même, mais il peut s’exécuter sur du matériel AMD ou autre.
Est-ce que ça marchera ? Trop tôt pour le dire. Des projets similaires comme ZLUDA (un traducteur CUDA pour AMD développé par un ingénieur d’Intel) ont montré des résultats prometteurs, d’après The Register, avant de se heurter à des problèmes de maintenance et de financement. La traduction automatique ne couvre pas tous les cas, et certaines optimisations bas niveau restent spécifiques à chaque architecture.
Pourquoi ça vous concerne (même si vous ne codez pas)
Le monopole CUDA a des conséquences bien au-delà des labos de recherche. Chaque fois que vous utilisez ChatGPT, Midjourney ou un assistant vocal, les calculs passent très probablement par du matériel Nvidia piloté par CUDA.
Ce monopole tire les prix vers le haut. Une carte H100, le GPU star de Nvidia pour l’IA, se négocie autour de 25 000 à 40 000 dollars pièce, selon Bloomberg.
Meta vient de signer un accord massif pour des millions de puces Nvidia. Des sommes colossales que les entreprises répercutent sur le coût de leurs services.
Un écosystème plus ouvert, avec de vraies alternatives matérielles et logicielles, ferait baisser les prix et accélérerait l’innovation. Mais pour y arriver, il faut que les outils alternatifs deviennent aussi fiables, aussi documentés et aussi faciles à utiliser que CUDA. On n’y est pas encore.
Et demain ?
La situation pourrait évoluer sous la pression de plusieurs forces. Les régulateurs commencent à s’intéresser à la position dominante de Nvidia, rapporte le Wall Street Journal. L’Union européenne examine la question de la dépendance technologique. Les géants du cloud comme Google, Amazon et Microsoft investissent dans leurs propres puces IA pour réduire leur dépendance.
Mais le logiciel reste le nerf de la guerre. Tant que CUDA sera le langage commun de l’IA, Nvidia gardera une longueur d’avance. Le jour où un concurrent proposera un écosystème logiciel aussi riche, aussi stable et aussi adopté, les cartes seront redistribuées. Ce jour-là n’est pas pour demain. Mais les fissures commencent à apparaître.