86 % des lignes de production les plus avancées au monde pour une seule industrie. D’ici 2027, les accélérateurs d’intelligence artificielle pourraient monopoliser la quasi-totalité de la capacité N3 de TSMC, le fondeur taïwanais qui fabrique les puces de Nvidia, Google, Amazon et AMD. Les smartphones, eux, deviennent une simple variable d’ajustement.

Une ruée simultanée sans précédent

Le problème se résume en une collision calendaire. En 2026, quatre familles de puces IA majeures migrent en même temps vers le procédé de gravure N3, le plus avancé de TSMC : les GPU Rubin de Nvidia, les TPU v7 et v8 de Google, les Trainium3 d’Amazon et les MI350X d’AMD. Chacun de ces clients à lui seul représente une commande colossale. Réunis, ils créent un choc de demande que la fonderie ne peut tout simplement pas absorber.

Selon un rapport du cabinet d’analyse SemiAnalysis, spécialisé dans les semiconducteurs, TSMC a sous-estimé l’ampleur de cette vague. Malgré le lancement du plus grand cycle d’investissement en infrastructures informatiques de l’histoire, amorcé fin 2022 avec la montée en puissance des modèles de langage, les dépenses d’investissement du fondeur n’ont dépassé leur précédent record qu’en 2025. Trois ans de retard dans la lecture du marché.

Plus de 100 % d’utilisation, un paradoxe industriel

Le taux d’utilisation effectif des lignes N3 devrait dépasser 100 % au second semestre 2026, indique SemiAnalysis. Concrètement, cela signifie que TSMC déplace déjà certaines étapes de fabrication vers d’autres usines pour grappiller de la capacité supplémentaire sur ses chaînes les plus avancées. C’est l’équivalent industriel d’un restaurant qui installe des tables dans le couloir parce que la salle est pleine.

Les puces liées à l’IA représentent aujourd’hui un peu moins de 60 % de la production N3 en 2026. Ce chiffre grimpera à 86 % en 2027 d’après les projections de SemiAnalysis. Autrement dit, sur cent plaquettes de silicium gravées sur les lignes les plus fines du monde, 86 serviront à entraîner ou faire tourner des modèles d’intelligence artificielle.

Les smartphones sacrifiés sur l’autel de l’IA

Quand la demande dépasse l’offre, quelqu’un doit céder sa place. Ce sont les fabricants de puces pour smartphones qui font les frais de cette redistribution. SemiAnalysis qualifie l’industrie mobile de « soupape de décompression » : la baisse de la demande grand public, aggravée par la hausse des prix de la mémoire, libère des créneaux de production que TSMC redirige aussitôt vers les accélérateurs IA.

Les analystes ont calculé que réaffecter 25 % des plaquettes N3 initialement destinées aux smartphones permettrait de produire environ 700 000 GPU Rubin supplémentaires pour Nvidia, ou 1,5 million de TPU v7 pour Google. Pour les géants du cloud, chaque plaquette récupérée vaut de l’or. Pour les consommateurs, cela pourrait se traduire par des délais de production plus longs ou des prix en hausse sur les prochaines générations de téléphones haut de gamme.

TSMC rattrape son retard, mais pas assez vite

Le fondeur taïwanais a pris la mesure de la situation. Ses investissements pour 2026 devraient largement surpasser le record établi l’année précédente, selon ses propres communications financières. Mais construire une salle blanche, installer les machines de lithographie et qualifier une nouvelle ligne de production prend entre 18 et 24 mois. Les milliards investis aujourd’hui ne produiront pas de plaquettes avant 2028 au plus tôt.

Cette inertie industrielle crée une fenêtre de pénurie structurelle. D’après SemiAnalysis, TSMC ne sera pas en mesure de satisfaire pleinement la demande de ses clients pendant au moins deux ans. Et le problème ne se limite pas aux puces logiques : la mémoire HBM (pour High Bandwidth Memory), indispensable aux accélérateurs IA, consomme environ trois fois plus de capacité de production que la DRAM classique. Ce ratio pourrait grimper à quatre avec la transition vers la norme HBM4, comme le rapportait déjà The Decoder.

Un bouleversement qui dépasse les data centers

L’appétit de l’IA pour les semiconducteurs les plus avancés redessine toute la chaîne d’approvisionnement mondiale. TSMC fabrique plus de 90 % des puces gravées en dessous de 7 nanomètres. Quand ce seul acteur réoriente massivement sa production, les effets se propagent bien au-delà des centres de données.

Les fabricants de PC portables et de consoles de jeux, qui partagent les mêmes lignes de production, pourraient aussi être touchés. On l’a vu avec l’envolée des prix de la DRAM, multipliés par cinq en partie à cause de la demande IA : quand l’infrastructure d’entraînement des modèles absorbe les composants, ce sont les appareils du quotidien qui trinquent.

Le marché des équipements de gravure en profite mécaniquement. ASML, le fabricant néerlandais des machines de lithographie EUV sans lesquelles rien de tout cela ne serait possible, voit son carnet de commandes exploser. Mais même ASML ne peut pas produire ses machines plus vite : chacune coûte plus de 350 millions d’euros et nécessite des mois d’assemblage.

La course aux puces IA ne fait que commencer

Ce que révèle le rapport de SemiAnalysis, c’est que la pénurie actuelle n’est pas un accident conjoncturel. C’est le résultat d’un décalage structurel entre la vitesse à laquelle l’industrie de l’IA consomme de la puissance de calcul et la vitesse à laquelle le monde sait fabriquer des puces. Nvidia, Google, Amazon et AMD se livrent une bataille féroce pour sécuriser chaque plaquette disponible, et cette compétition ne fera que s’intensifier avec l’arrivée de modèles toujours plus gourmands.

La prochaine échéance à surveiller : le keynote de Jensen Huang au GTC 2026 de Nvidia, où le PDG devrait dévoiler les détails de l’architecture Rubin et, peut-être, la manière dont l’entreprise compte gérer cette pénurie qui menace de freiner même les plus grands acteurs du cloud mondial.