Un réseau social qui conçoit des semi-conducteurs. Il y a cinq ans, l’idée aurait fait sourire. Meta vient pourtant de dévoiler quatre nouveaux processeurs maison, baptisés MTIA (Meta Training and Inference Accelerators), conçus pour alimenter l’IA qui tourne derrière Facebook, Instagram et WhatsApp. Le plus surprenant : l’entreprise continue en parallèle de signer des chèques de plusieurs milliards de dollars à Nvidia et AMD.

Quatre puces, quatre rôles distincts

La gamme s’appelle MTIA et se décline en quatre modèles. Le premier, le MTIA 300, est déjà en production. Sa mission : entraîner les algorithmes de recommandation, ceux qui décident ce que 3 milliards d’utilisateurs voient dans leur fil d’actualité. Pas de chatbot spectaculaire ici, juste l’optimisation à très grande échelle de ce qui vous retient sur Instagram ou Facebook.

Le MTIA 400, lui, a été testé et arrive prochainement en datacenter. Meta le destine à l’inférence, c’est-à-dire le processus par lequel un modèle IA déjà entraîné produit un résultat (du texte, une image, une réponse). L’entreprise affirme que ses performances « rivalisent avec les principaux produits commerciaux du marché », une allusion à peine voilée aux GPU de Nvidia, rapporte Wired.

Les deux derniers modèles, MTIA 450 et MTIA 500, sont attendus courant 2027. Le 450 embarquera le double de mémoire à haute bande passante par rapport au 400. Le 500, plus ambitieux encore, promet des innovations en calcul à précision réduite, une technique qui permet d’accélérer les traitements IA en utilisant moins de ressources par opération.

Un rythme de production que l’industrie ne connaît pas

Meta ne fabrique pas physiquement ses puces. Elle les conçoit en partenariat avec Broadcom, les fait graver par TSMC (le géant taïwanais qui produit aussi les puces d’Apple et de Nvidia), et s’appuie sur l’architecture ouverte RISC-V. L’approche repose sur des « chiplets modulaires », des blocs de silicium assemblés comme des briques pour accélérer le développement.

C’est la philosophie de conception qui détonne. YJ Song, vice-président de l’ingénierie chez Meta, l’a résumé dans un billet publié sur le blog officiel de l’entreprise : « Plutôt que de miser gros et d’attendre longtemps, nous adoptons délibérément une approche itérative. Chaque génération de MTIA s’appuie sur la précédente. » Concevoir un processeur prend traditionnellement trois à cinq ans dans l’industrie des semi-conducteurs. Meta veut faire tourner ses générations de puces comme on fait tourner des versions logicielles. La raison : les modèles IA évoluent si vite que le matériel conçu aujourd’hui risque d’être dépassé avant même d’atteindre les serveurs.

Si l’entreprise tient son calendrier, elle aura renouvelé quatre générations de silicium en moins de quatre ans, entre la première puce MTIA dévoilée en 2023 et le MTIA 500 prévu fin 2027. Chez Intel, un tel rythme prendrait facilement une décennie.

Des milliards chez Nvidia, et des puces maison quand même

Le paradoxe saute aux yeux. Quelques jours avant cette annonce, Meta a signé des contrats pharaoniques avec Nvidia et AMD, selon Wired. L’entreprise loue aussi des puces à Google. Fabriquer ses propres processeurs ne signifie pas se couper des fournisseurs historiques. C’est une stratégie de diversification, pas de remplacement.

The Information rapportait récemment que Meta avait réduit ses ambitions sur les puces haut de gamme capables de concurrencer frontalement Nvidia. L’annonce de cette nouvelle gamme MTIA semble vouloir corriger ce récit. La réalité est plus nuancée : les puces maison couvrent des tâches spécifiques (recommandation de contenu, inférence de routine), pas l’entraînement des modèles massifs de type Llama, qui reste le terrain de Nvidia.

La logique économique est simple. L’inférence, c’est-à-dire faire tourner un modèle IA en production, représente une part croissante des coûts. Quand 3 milliards de personnes utilisent vos applications chaque jour, chaque centime économisé par requête se transforme en centaines de millions d’euros sur l’année. Une puce optimisée pour VOS besoins spécifiques coûte moins cher par opération qu’un GPU généraliste vendu au prix fort par Nvidia.

Tout le monde veut ses propres puces

Meta n’est pas seule sur ce créneau. OpenAI a annoncé un partenariat avec Broadcom pour développer ses propres accélérateurs, selon le même schéma. Google utilise ses TPU (Tensor Processing Units) depuis presque dix ans. Amazon a lancé ses puces Trainium pour l’entraînement et Inferentia pour l’inférence. Microsoft pousse son projet Maia.

Le mouvement de fond est clair : les entreprises les plus dépendantes de l’IA refusent qu’un seul fournisseur dicte les prix et les délais de livraison. Nvidia, qui a vu son chiffre d’affaires annuel dépasser les 130 milliards de dollars grâce à l’explosion de la demande IA, reste incontournable pour les tâches les plus lourdes. Mais son monopole sur l’inférence, lui, commence à s’effriter.

Les trois prochaines puces MTIA doivent être déployées progressivement jusqu’à fin 2027. Google, de son côté, vient de lancer Gemini Embedding 2, un modèle multimodal optimisé pour ses propres TPU, selon VentureBeat. La guerre du silicium IA se joue désormais sur deux fronts : qui entraîne les meilleurs modèles, et qui les fait tourner au moindre coût.