Un kit de 32 Go de DDR5 coûte désormais plus de 360 dollars aux États-Unis. L’an dernier, le même produit se vendait autour de 90 dollars. Et au beau milieu de cette flambée historique, le PDG de Micron annonce que chaque voiture autonome de niveau 4 embarquera plus de 300 Go de mémoire vive. Autrement dit : l’automobile s’apprête à entrer en concurrence directe avec les data centers, les PC et les smartphones pour la même ressource que tout le monde s’arrache.
De 16 Go à 300 Go : le bond de mémoire que personne n’a vu venir
Sanjay Mehrotra, patron de Micron, a lâché cette prédiction lors de la présentation des résultats trimestriels de l’entreprise, rapportée par The Register. Les véhicules actuels embarquent en moyenne 16 Go de mémoire. De quoi alimenter l’écran tactile, le régulateur adaptatif, le maintien de voie, la connectivité. Mais l’autonomie de niveau 4, celle où la voiture négocie un rond-point, dépasse un camion et traverse un carrefour bondé sans jamais solliciter le conducteur, exige une toute autre puissance de calcul.
L’autonomie de niveau 4 repose sur des modèles d’intelligence artificielle qui traitent en temps réel les données de dizaines de capteurs : caméras, lidars, radars, capteurs à ultrasons. Chaque seconde, des téraoctets de données brutes doivent être analysés pour que le véhicule prenne la bonne décision. Et pour faire tourner ces modèles à la vitesse requise, il faut de la mémoire vive rapide, beaucoup de mémoire vive rapide. Selon Tom’s Hardware, un véhicule L4 serait en réalité « un supercalculateur IA sur quatre roues ».
Nvidia a présenté sa plateforme Drive Hyperion lors du GTC 2026, un système complet destiné à équiper les constructeurs pour atteindre ce niveau d’autonomie. BYD, Geely, Isuzu et Nissan ont déjà annoncé leur adoption. Chaque véhicule équipé de cette plateforme aura besoin d’une quantité de mémoire comparable à celle d’un serveur haut de gamme.
70 % de la production mondiale déjà avalée par les data centers
La pénurie de mémoire n’est pas un scénario futur. Elle est là. Les centres de données absorbent 70 % des puces mémoire produites en 2026, selon les données compilées par Tom’s Hardware. Les commandes massives de puces HBM (High Bandwidth Memory, la mémoire ultra-rapide utilisée dans les GPU d’entraînement IA) par les géants du cloud ont aspiré l’essentiel de la capacité de production. Samsung, SK Hynix et Micron, les trois seuls fabricants mondiaux de DRAM, tournent à plein régime mais ne suffisent plus.
Résultat : les revenus de Micron ont grimpé de 200 % en un an, atteignant 23,86 milliards de dollars au deuxième trimestre 2026 contre 8,03 milliards un an plus tôt. L’entreprise s’enrichit, mais la pression sur l’offre ne faiblit pas. IDC prévoit une contraction du marché PC allant jusqu’à 9 % cette année, directement causée par la flambée du prix de la RAM. Le président de SK Group, Chey Tae-won, a été catégorique lors d’une conférence récente : la pénurie de puces mémoire durera « au moins jusqu’en 2030 ».
Pour les consommateurs, cela se traduit par des tarifs que personne n’aurait imaginés il y a deux ans. Aux États-Unis, un simple kit de 32 Go de DDR5 ne descend plus sous les 359 dollars. Apple a retiré le Mac Studio 512 Go de sa boutique en ligne, faute de puces mémoire disponibles, et a relevé le prix de la version 256 Go à 2 000 dollars. Un détaillant américain a même refusé un échange de RAM sous garantie en expliquant que la hausse des prix transformait un remplacement standard en « upgrade ».
Les fabricants font la police contre la spéculation
Face à l’envolée des prix, un phénomène inédit s’est installé : la spéculation sur les composants mémoire. Des revendeurs et des entreprises ont commencé à accumuler des stocks bien au-delà de leurs besoins réels, anticipant de nouvelles hausses. Le marché spot de la DRAM fonctionne désormais avec des prix actualisés à l’heure, un mécanisme jamais vu dans l’industrie des semi-conducteurs, rapporte Tom’s Hardware.
Les trois géants de la mémoire ont réagi en créant un front commun inédit. Samsung, SK Hynix et Micron surveillent désormais les commandes de leurs clients pour repérer et bloquer les tentatives de stockage massif. Plusieurs revendeurs ont été coupés de l’approvisionnement. Des robots automatisés ont même été détectés en train d’acheter des composants mémoire avant les acheteurs légitimes, un phénomène qui rappelle les scalpers de GPU durant la crise du minage de cryptomonnaies en 2021.
Des usines neuves, mais pas avant 2028
Micron prépare l’ouverture de nouvelles usines au Japon, à Singapour et d’une « méga-usine » dans l’État de New York. Ces sites n’entreront en production qu’entre 2028 et 2029. En attendant, le fabricant compte augmenter sa production de 20 % dès cette année. Elon Musk a dévoilé de son côté un projet baptisé « TeraFab », une installation à 20 milliards de dollars capable de fabriquer des puces, de la mémoire et de les assembler sous un même toit.
Mais la question reste ouverte : cette capacité supplémentaire suffira-t-elle à absorber la demande combinée des data centers, des PC, des smartphones et, bientôt, de millions de véhicules autonomes ? Si des constructeurs comme BYD et Nissan commencent à produire des centaines de milliers de voitures L4, chacune réclamant 300 Go de RAM, l’équation se complique brutalement.
Un marché automobile qui n’est pas encore prêt
À court terme, les véhicules L4 restent chers et les réglementations ne suivent pas. Peu de pays autorisent la conduite totalement autonome sur route ouverte. Le Japon fait figure de précurseur avec des autorisations régionales. L’Union européenne avance prudemment, encadrée par le règlement sur les véhicules automatisés adopté en 2025. Les États-Unis laissent les règles varier d’un État à l’autre, créant un patchwork réglementaire complexe pour les constructeurs.
L’impact immédiat sur la pénurie de mémoire sera donc limité. Mais le signal envoyé par Micron traduit une réalité de fond : la voiture se transforme en ordinateur. Et chaque nouvel ordinateur sur quatre roues entrera en compétition directe avec les serveurs IA, les PC et les téléphones pour la même ressource devenue rare. DeepSeek a publié des travaux de recherche sur le découplage entre puissance de calcul et pools de mémoire, une approche qui pourrait à terme alléger les besoins en RAM des GPU, mais ces recherches restent au stade expérimental.
Micron a réalisé son chiffre d’affaires record en surfant sur la vague IA. Ses nouvelles usines arriveront au moment où l’automobile L4 commencera à passer à l’échelle industrielle. Si la production rattrape la demande, la crise actuelle de la RAM pourrait se résorber après 2030. Dans le cas contraire, le kit DDR5 à 360 dollars pourrait devenir une bonne affaire par rapport à ce qui attend les consommateurs.