14,3 milliards de dollars investis dans Scale AI. Un labo dédié à la « superintelligence ». Des centaines de chercheurs débauchés à prix d’or. Et malgré tout cela, le prochain modèle d’intelligence artificielle de Meta n’arrive pas à rivaliser avec la concurrence. Pire : la direction aurait sérieusement envisagé de louer la technologie de Google pour combler le trou.
C’est le New York Times qui a révélé l’information mercredi soir, citant trois personnes au fait du dossier. Le modèle, nom de code « Avocado », devait sortir à la mi-mars. Il ne verra pas le jour avant mai, au mieux.
Avocado bat le précédent Meta, mais pas Google
Les tests internes racontent une histoire nuancée, mais gênante. Avocado surpasse le précédent modèle maison de Meta et fait mieux que Gemini 2.5, la version de Google datée de mars dernier. Le problème, c’est que Google n’en est plus là. Son Gemini 3.0, sorti en novembre, reste hors de portée d’Avocado en raisonnement logique, en programmation et en rédaction, trois piliers sur lesquels les grands modèles sont évalués.
Le fossé est suffisamment large pour que les dirigeants de la division IA de Meta aient ouvert une discussion inattendue : licencier temporairement Gemini à Google pour alimenter les produits Meta AI en attendant qu’Avocado soit prêt. D’après le New York Times, aucune décision n’a été prise, mais le simple fait que l’option soit sur la table mesure l’ampleur du retard.
65 milliards dépensés, et toujours derrière
Les sommes engagées par Mark Zuckerberg donnent le vertige. En juin 2025, Meta a signé un chèque de 14,3 milliards de dollars pour acquérir 49 % de Scale AI, la startup spécialisée dans l’étiquetage de données, selon CNBC. Son PDG, Alexandr Wang, 28 ans, a pris la tête de Meta Superintelligence Labs (MSL), le nouveau labo créé spécifiquement pour rattraper OpenAI, Google et Anthropic. Yann LeCun, le chef scientifique historique de Meta en IA, lui rend désormais compte.
En parallèle, Meta a conclu un accord massif avec AMD pouvant atteindre 100 milliards de dollars pour des puces IA, en complément de sa dépendance à Nvidia. Les dépenses d’infrastructure ont explosé : l’entreprise a investi plus de 65 milliards de dollars en capex en 2025, un record dans le secteur tech. Zuckerberg avait promis en juillet que ses modèles « repousseraient la frontière dans l’année à venir ». Cette échéance semble désormais intenable.
Llama 4 avait déjà sonné l’alarme
Le retard d’Avocado n’est pas un accident isolé. En avril 2025, la sortie de Llama 4, le modèle open source de Meta, avait déclenché une polémique. Les versions Maverick et Scout affichaient des scores corrects sur les benchmarks standards, mais la plateforme LMArena avait soulevé un problème embarrassant : Meta avait optimisé un modèle « expérimental » spécifiquement pour doper ses résultats dans les classements, en lui faisant produire des réponses plus longues et truffées d’émoticônes.
Les évaluations indépendantes d’Artificial Analysis avaient confirmé le décalage. Maverick, avec ses 17 milliards de paramètres actifs sur 402 milliards au total, restait derrière DeepSeek V3 et ses 37 milliards de paramètres actifs. Un modèle chinois, plus petit, qui faisait mieux qu’un géant financé à coups de dizaines de milliards.
L’open source en sursis
L’autre signal inquiétant concerne la stratégie même de Meta. L’entreprise s’était distinguée dans la course à l’IA en publiant ses modèles Llama en accès libre, permettant à des milliers de développeurs et d’entreprises de les utiliser, modifier et déployer. Cette approche lui avait valu un capital sympathie considérable dans la communauté tech.
Mais Avocado pourrait rompre avec cette philosophie. Selon The Decoder, qui citait des sources en décembre, le nouveau modèle serait fermé et destiné à la vente directe aux entreprises, calquant le modèle commercial d’OpenAI et de Google. Si Meta abandonne l’open source, elle perd l’un de ses rares avantages concurrentiels sans avoir comblé son retard technique.
Une course qui coûte cher à tout le monde
Le cas Meta illustre une réalité que l’industrie IA préfère ignorer : dépenser plus ne garantit pas un meilleur modèle. Google, avec ses décennies de recherche en apprentissage automatique et ses données issues de la recherche web, de Gmail ou de YouTube, dispose d’un avantage structurel difficile à reproduire par la force brute. OpenAI, de son côté, capitalise sur trois ans d’avance dans le déploiement grand public avec ChatGPT. Anthropic mise sur la sécurité et le positionnement éthique.
Meta, elle, est arrivée tard dans la partie avec un atout : 3,3 milliards d’utilisateurs quotidiens sur ses plateformes (Facebook, Instagram, WhatsApp), un terrain de jeu unique pour déployer l’IA à grande échelle. Mais un terrain de jeu ne remplace pas un modèle compétitif. Et quand vos utilisateurs reçoivent un chatbot inférieur à ce que Google offre gratuitement, la distribution massive devient un handicap de réputation.
La suite du programme chez Meta tient dans des noms de fruits. Après Avocado, un modèle « Watermelon » est déjà prévu. Un générateur d’images et de vidéos baptisé « Mango » est en développement. La direction assure que des mises à jour arriveront « très bientôt » et que d’autres modèles sont programmés pour 2026. Jensen Huang, le patron de Nvidia, prononce ce soir le discours d’ouverture de la conférence GTC 2026 : si de nouvelles puces accélératrices sont annoncées, Meta sera probablement le premier acheteur en ligne.