Pour entraîner un modèle comme GPT-4, il faut environ 25 000 GPU haut de gamme qui tournent pendant plusieurs mois. Coût estimé : plus de 100 millions de dollars, rien qu’en calcul. Dans la course à l’IA, la vraie bataille ne se joue pas dans le code. Elle se joue dans les puces.
GPU, TPU, NPU : c’est quoi la différence ?
Le GPU (Graphics Processing Unit) a été conçu pour le rendu graphique des jeux vidéo. Sa force : effectuer des milliers de calculs simples en parallèle. C’est exactement ce dont l’IA a besoin pour entraîner des réseaux de neurones. Nvidia domine ce marché avec ses puces H100 et B200, utilisées par OpenAI, Google et Meta.
Le TPU (Tensor Processing Unit) est une puce conçue par Google spécifiquement pour le machine learning. Contrairement au GPU qui reste polyvalent, le TPU est optimisé pour les opérations sur les tenseurs (les structures de données utilisées en deep learning). Google l’utilise en interne pour entraîner ses modèles Gemini.
Le NPU (Neural Processing Unit) est une puce dédiée à l’inférence IA dans les appareils mobiles et les PC. On en trouve dans les iPhone (Neural Engine d’Apple), les Pixel de Google et les PC Copilot+ de Microsoft. Le NPU consomme peu d’énergie et gère les tâches IA courantes (reconnaissance vocale, traitement photo) sans solliciter le processeur principal.
Nvidia : le roi incontesté (pour l’instant)
Nvidia contrôle environ 80 % du marché des puces d’entraînement IA. Sa valeur en bourse a dépassé 3 000 milliards de dollars début 2025, devant Apple et Microsoft. Son avantage n’est pas seulement matériel : c’est l’écosystème logiciel CUDA, utilisé depuis 15 ans par les chercheurs, qui rend la migration vers un concurrent très coûteuse.
Sa puce B200 (architecture Blackwell), lancée fin 2024, offre des performances 2,5 fois supérieures au H100 pour l’entraînement. Chaque exemplaire coûte entre 30 000 et 40 000 dollars, et les délais de livraison dépassent 6 mois.
AMD et Apple : les challengers
AMD pousse ses puces MI300X comme alternative aux GPU Nvidia. Moins chères et disponibles plus vite, elles séduisent des acteurs comme Microsoft (qui les utilise dans certains clusters Azure). Mais le retard logiciel (l’écosystème ROCm face à CUDA) reste un frein majeur.
Apple Silicon joue une carte différente. Les puces M4 Pro et M4 Ultra intègrent un GPU puissant et un NPU dans la même puce, avec une mémoire unifiée qui évite les transferts de données coûteux. Pour l’inférence et le fine-tuning de petits modèles, un Mac Studio peut rivaliser avec des configurations GPU dédiées, pour une fraction de la consommation électrique.
TSMC et la géopolitique des puces
Toutes ces puces (Nvidia, AMD, Apple) sont fabriquées par TSMC, à Taïwan. Cette dépendance donne des sueurs froides aux États-Unis et à l’Europe. Si la Chine bloquait Taïwan, l’industrie mondiale de l’IA s’arrêterait net.
C’est pour cette raison que les États-Unis ont investi 52 milliards de dollars (CHIPS Act) pour relocaliser la production de semi-conducteurs. TSMC construit trois usines en Arizona. Intel investit massivement en Ohio. L’Europe, via le European Chips Act (43 milliards d’euros), tente aussi d’attirer des fonderies.
La Chine, de son côté, est coupée des puces Nvidia les plus avancées depuis les restrictions d’export américaines de 2022. Elle développe ses propres alternatives (Huawei Ascend 910C), mais accuse un retard de 2 à 3 générations.
Pourquoi ça compte pour tout le monde
Le hardware IA détermine qui peut entraîner les modèles les plus puissants, et donc qui domine cette industrie. Aujourd’hui, seules une poignée d’entreprises américaines ont accès aux clusters de GPU nécessaires. Cette concentration de puissance de calcul est un enjeu économique, stratégique et démocratique. Celui qui contrôle les puces contrôle l’IA.