3 200 milliards de dollars. C’est la capitalisation boursière de Nvidia début 2026. Une seule entreprise, qui fabrique des puces graphiques, vaut plus que le PIB de la France. Ça donne une idée de l’enjeu derrière ces petits bouts de silicium qui font tourner ChatGPT, Gemini et tous les autres.

Mais entre GPU, TPU, NPU et ASIC, difficile de s’y retrouver. Qui fait quoi ? Pourquoi certains valent des fortunes et d’autres restent confidentiels ? On démêle tout ça.

Le GPU, couteau suisse devenu roi de l’IA

À la base, le GPU (Graphics Processing Unit) servait à afficher des jeux vidéo. Son truc : exécuter des milliers de petits calculs en parallèle pour dessiner chaque pixel à l’écran. Les chercheurs en intelligence artificielle ont vite compris que ces calculs parallèles ressemblaient furieusement à ce dont leurs réseaux de neurones avaient besoin, des multiplications de matrices, par millions, en boucle.

Nvidia a sauté sur l’occasion dès 2012. Quand Alex Krizhevsky a entraîné AlexNet sur deux GPU et pulvérisé le concours ImageNet, le monde de la recherche a basculé. Depuis, les GPU dominent. Les H100, puis les B200 de Nvidia s’arrachent comme des places de concert, avec des délais de livraison qui se comptent en mois. Selon le Wall Street Journal, Nvidia contrôlait encore plus de 80 % du marché des puces d’entraînement IA en 2025.

Le secret de cette domination ne tient pas qu’au matériel. C’est CUDA, la couche logicielle propriétaire de Nvidia, qui verrouille l’écosystème. Quinze ans de bibliothèques, de tutoriels, de code optimisé. Migrer vers un concurrent, c’est comme changer de langue : techniquement possible, pratiquement épuisant.

Le TPU, la riposte maison de Google

Google ne voulait pas dépendre d’un seul fournisseur. En 2015, l’entreprise a conçu son propre accélérateur : le TPU, pour Tensor Processing Unit. Un circuit intégré spécialisé (c’est un ASIC, on y revient) taillé pour les opérations sur les tenseurs, ces tableaux de nombres au cœur du deep learning.

La différence avec un GPU ? Le TPU sacrifie la polyvalence pour la vitesse brute sur un type de calcul précis. D’après la documentation technique de Google Cloud, les premiers TPU affichaient 15 à 30 fois les performances d’un CPU classique et 30 à 80 fois le rapport performance/watt d’un GPU contemporain, sur les tâches d’inférence. Le tout en consommant nettement moins d’énergie.

Aujourd’hui, Google en est au TPU v7 (nom de code Trillium). Chaque génération double ou triple la puissance de la précédente. Et Google ne les vend pas : ils tournent dans ses data centers, accessibles uniquement via Google Cloud. C’est à la fois un avantage concurrentiel et une limite. Pas de TPU dans votre garage.

NPU : la puce IA qui se glisse dans votre poche

Votre iPhone a un NPU. Votre PC portable récent aussi, probablement. Le NPU (Neural Processing Unit) est un petit accélérateur intégré directement dans le processeur principal de l’appareil. Rien à voir avec les monstres des data centers : ici, on parle de quelques TOPS (trillions d’opérations par seconde) contre des centaines pour un GPU de serveur.

Apple, Qualcomm, Intel, AMD, tous embarquent désormais un NPU dans leurs puces. L’idée ? Faire tourner des modèles d’IA légers directement sur l’appareil, sans envoyer vos données dans le cloud. La reconnaissance faciale de votre téléphone, la suppression du bruit de fond en visioconférence, les suggestions de texte, tout ça passe par le NPU.

Le Nikkei Asia rapportait fin 2025 que le marché des NPU pour smartphones et PC devrait dépasser 15 milliards de dollars d’ici 2027. La bataille se joue sur l’efficacité énergétique : faire tourner un maximum de calculs par watt, parce qu’un téléphone, ça a une batterie.

ASIC : la puce sur mesure, taillée pour un seul job

ASIC, ça veut dire Application-Specific Integrated Circuit. En clair : un circuit conçu de A à Z pour une tâche unique. Le TPU de Google en est un. Les puces Trainium et Inferentia d’Amazon aussi. Et c’est exactement ce que fait MatX, la startup qui vient de lever 500 millions de dollars pour créer un ASIC optimisé exclusivement pour les grands modèles de langage.

L’avantage d’un ASIC par rapport à un GPU ? Il ne gaspille rien. Pas de transistors dédiés à l’affichage 3D, pas de circuits de rastérisation inutiles. Chaque millimètre carré de silicium sert le calcul visé. Résultat : plus de performance par watt, moins de chaleur, des coûts de fonctionnement réduits à grande échelle.

L’inconvénient ? Le temps et l’argent. Concevoir un ASIC prend deux à trois ans et coûte des centaines de millions de dollars avant même de produire la première puce. Si l’architecture IA change entre-temps (et elle change vite), vous vous retrouvez avec du silicium obsolète. C’est le pari que font MatX, Groq, Cerebras et une dizaine d’autres.

Pourquoi tout le monde veut sa propre puce

La dépendance à Nvidia fait peur. Quand un fournisseur unique contrôle 80 % d’un marché stratégique, les clients cherchent la sortie. Le Financial Times notait mi-2025 que chaque grand acteur du cloud (Google, Amazon, Microsoft, Meta) investissait désormais massivement dans ses propres accélérateurs. Meta a signé un contrat pouvant atteindre 100 milliards de dollars avec AMD pour diversifier ses approvisionnements. Amazon a lancé ses puces Graviton et Trainium. Microsoft développe Maia en interne.

La raison est simple : à l’échelle de ces entreprises, économiser 10 % sur la consommation électrique de l’entraînement d’un modèle représente des dizaines de millions de dollars par an. Et posséder sa puce, c’est aussi maîtriser sa feuille de route sans attendre le bon vouloir de Nvidia.

Comment choisir entre GPU, TPU et ASIC ?

Pour une startup qui veut entraîner un modèle, la réponse reste souvent le GPU Nvidia. L’écosystème CUDA est imbattable en termes de compatibilité logicielle. Pour de l’inférence à très grande échelle (des milliards de requêtes par jour), les ASIC comme les TPU ou les puces Groq prennent l’avantage grâce à leur efficacité énergétique. Et pour faire tourner un petit modèle sur un téléphone ou un PC, le NPU intégré suffit largement.

Bref, il n’y a pas de puce magique. Chaque type répond à un besoin précis. Ce qui est nouveau, c’est que la course aux puces IA est devenue une course géopolitique : les restrictions américaines sur l’export de GPU vers la Chine, les investissements européens dans la souveraineté des semi-conducteurs, la bataille pour le contrôle de TSMC à Taïwan. Le silicium, c’est le nouveau pétrole. Et la guerre ne fait que commencer.