115 milliards de dollars de dépenses prévues d’ici 2029, un générateur vidéo sacrifié, un partenariat Disney d’un milliard enterré. Le tout pour libérer de la puissance de calcul au profit d’un modèle dont personne n’a encore vu la moindre démonstration. Chez OpenAI, le virage stratégique amorcé fin mars ressemble moins à une mise à jour qu’à un changement de cap radical.
Un modèle fantôme baptisé d’un nom de légume
Le 24 mars, The Information a révélé qu’OpenAI venait d’achever le pré-entraînement d’un nouveau modèle au nom de code « Spud » (« patate », en anglais). Sam Altman a confirmé l’information en interne, qualifiant le modèle de « très solide » et capable de « vraiment accélérer l’économie ». Les détails techniques restent introuvables : ni architecture, ni nombre de paramètres, ni benchmarks. Seule certitude communiquée aux employés : le modèle entrera bientôt en phase de post-entraînement, c’est-à-dire l’étape où l’on aligne ses réponses, teste ses limites de sécurité et le soumet à des « red teams » chargées de le casser.
Sur les réseaux sociaux, les spéculations vont bon train. Certains y voient GPT-5.5, d’autres un GPT-6 complet. Andrej Karpathy, ancien directeur de l’IA chez Tesla et cofondateur d’OpenAI, a tempéré l’enthousiasme en estimant que l’intelligence artificielle générale (AGI) reste « à environ dix ans ». Deux jours plus tôt pourtant, Jensen Huang, patron de Nvidia, déclarait que l’AGI était « déjà atteinte » si on la mesure à la capacité de l’IA à générer un milliard de revenus. Deux définitions incompatibles pour un même sigle, et une guerre narrative qui sert les intérêts de chacun.
Sora sacrifié pour nourrir la bête
Pour comprendre l’ampleur du virage, il faut regarder ce qui a été jeté par-dessus bord. Le même jour, Altman a annoncé l’arrêt de Sora, le générateur vidéo lancé en septembre 2025 et devenu viral grâce à sa fonction « cameo » permettant de créer des deepfakes de célébrités. L’outil avait provoqué un tollé quand les familles de Martin Luther King Jr. et Robin Williams avaient supplié les utilisateurs de cesser de fabriquer des vidéos de leurs proches décédés.
Mais le vrai problème de Sora n’était pas éthique, il était arithmétique. Selon les données compilées par plusieurs médias dont TechSpot et PetaPixel, l’application coûtait environ 15 millions de dollars par jour en puissance de calcul pour des revenus de 2 millions de dollars sur toute sa durée de vie. Chaque vidéo générée brûlait des GPU qui auraient pu servir aux modèles de texte, de code et d’agents autonomes, les produits qui rapportent réellement de l’argent.
L’arrêt a entraîné l’effondrement du partenariat avec Disney, un accord potentiel d’un milliard de dollars annoncé en décembre 2025 qui devait donner accès aux personnages Disney dans les applications d’OpenAI. L’entreprise a préféré récupérer les GPU plutôt que d’honorer un contrat d’un milliard. Le signal est limpide.
Quand l’équipe produit s’appelle « Déploiement de l’AGI »
En parallèle, OpenAI a renommé sa division produit. L’ancienne « Applications » s’appelle désormais « AGI Deployment ». Sam Altman a confié la supervision des équipes de sécurité et de sûreté à d’autres cadres (Mark Chen pour la sécurité des modèles, Greg Brockman pour la sécurité informatique) afin de se consacrer à la levée de fonds, à la construction de centres de données et à l’approvisionnement en puces.
Le contexte financier éclaire ces choix. En février 2026, OpenAI a bouclé une levée de fonds de 110 milliards de dollars auprès d’Amazon, Nvidia et SoftBank, pour une valorisation post-money de 840 milliards, selon Reuters et Crunchbase. C’est la plus grosse levée de fonds privée de l’histoire de la tech, quatre fois supérieure à la plus grande introduction en bourse jamais réalisée, d’après Business Insider. L’entreprise prépare une entrée en bourse prévue fin 2026 ou début 2027, et chaque décision prend désormais la forme d’un calcul de rentabilité.
Les 115 milliards de dépenses projetées jusqu’en 2029 se répartissent principalement entre la construction de datacenters et l’achat de capacité de calcul. Pour un investisseur, renommer l’équipe « AGI Deployment » n’est pas qu’un choix sémantique : c’est positionner l’entreprise comme celle qui déploie l’AGI, un argument de vente d’une puissance considérable au moment de l’introduction en bourse.
Anthropic perd ses secrets la même semaine
Le calendrier rend la séquence encore plus frappante. Deux jours après l’annonce de Spud, des chercheurs en sécurité de LayerX Security et de l’université de Cambridge ont découvert près de 3 000 documents non publiés dans un espace de stockage Anthropic accessible à tous, comme l’a rapporté Fortune en exclusivité. Parmi eux : des brouillons de blog décrivant Claude Mythos, qualifié en interne de « changement de palier » en termes de capacités. Anthropic a confirmé l’existence du modèle, reconnaissant qu’il surpassait « considérablement » Opus 4.6 en programmation, raisonnement et cybersécurité.
Les actions des entreprises de cybersécurité ont chuté de 3 à 7 % dans la foulée, CrowdStrike perdant 7 % et Palo Alto Networks 6 %, selon Investing.com. La raison : un brouillon fuité avertissait que Mythos est « actuellement très en avance sur tout autre modèle d’IA en matière de cybercapacités » et « annonce une vague de modèles capables d’exploiter des vulnérabilités bien plus vite que les défenseurs ne peuvent les corriger ».
L’ironie est cinglante : une entreprise dont la raison d’être est la sécurité de l’IA a laissé son plus gros secret derrière une porte déverrouillée, à cause d’un réglage par défaut dans son système de gestion de contenu qui rendait les fichiers publics sauf intervention manuelle.
La course aux modèles et le recul des garde-fous
Ce qui se joue en coulisses dépasse la compétition commerciale. Comme l’a détaillé Fortune dans une analyse du conflit entre les deux entreprises, Anthropic a récemment modifié sa politique de « mise à l’échelle responsable » pour ne plus s’engager à bloquer unilatéralement le développement d’un modèle tant que sa sécurité n’est pas prouvée. De son côté, OpenAI a retiré en 2024 les interdictions explicites d’usages militaires et offensifs de ses conditions d’utilisation, ouvrant la porte à un contrat avec le Pentagone qu’Anthropic avait refusé.
Jan Leike, ancien responsable du « superalignement » chez OpenAI parti chez Anthropic mi-2024, avait écrit sur X que « la culture de la sécurité et les processus ont été relégués au second plan au profit de produits brillants ». Aujourd’hui, Altman délègue la sécurité pour construire des datacenters. Le schéma se confirme.
La question devient politique. Avec une régulation américaine quasi inexistante et des efforts internationaux au point mort, la sécurité de l’IA repose sur l’autorégulation d’entreprises en concurrence féroce. Les dirigeants d’OpenAI et d’Anthropic ne se serrent pas la main en public (au sens propre : lors d’un sommet en Inde en février, Altman et Dario Amodei ont refusé de se joindre les mains pour la photo de groupe). En interne, Amodei compare OpenAI à « l’industrie du tabac », selon la biographe d’Altman, Keach Hagey. La confiance mutuelle nécessaire à une autorégulation efficace semble aussi fictive que les benchmarks de Spud.
Le prochain test grandeur nature
Spud devrait arriver « dans quelques semaines », selon les mots d’Altman. Le modèle sera intégré dans la « super-app » qu’OpenAI construit en fusionnant ChatGPT, Codex et son navigateur web, une plateforme unique dont l’ambition est de devenir le point d’entrée quotidien pour le travail assisté par IA.
Pendant ce temps, Apple peut désormais distiller les modèles Gemini de Google pour les faire tourner localement sur iPhone, selon The Information. Samsung vient d’intégrer Perplexity dans son navigateur, touchant potentiellement un milliard d’appareils. La course ne se joue plus seulement entre labos : elle se joue dans la poche de chaque utilisateur.
OpenAI a tué son produit le plus viral, renoncé à un milliard de Disney, renommé son équipe « AGI Deployment » et confié la sécurité à quelqu’un d’autre. Tout ça pour un modèle dont personne n’a vu la couleur. La première démonstration publique de Spud sera le vrai test : soit le pari se justifie, soit c’est la plus grosse opération de communication avant introduction en bourse que la Silicon Valley ait jamais vue. Réponse attendue en avril.