Il y a un an, Satya Nadella affirmait sur un podcast que « les modèles IA se commoditisent ». Un discours rassurant pour les actionnaires : pas besoin de dépenser des milliards en recherche fondamentale, mieux vaut vendre les applications. Lundi, le PDG de Microsoft a annoncé une restructuration complète de sa division intelligence artificielle. L’objectif affiché : construire des modèles capables d’atteindre la superintelligence. En un an, la doctrine a changé du tout au tout. Et la raison n’est pas celle qu’on croit.
Fusion générale et nouveau commandement
La restructuration touche l’ensemble de l’écosystème Copilot. Les équipes commerciales et grand public, jusqu’ici séparées, fusionnent en une seule organisation articulée autour de quatre pôles : expérience Copilot, plateforme Copilot, applications Microsoft 365 et modèles IA. Jacob Andreou, ancien cadre de Snap qui dirigeait déjà le produit et la croissance chez Microsoft AI, prend le titre de vice-président exécutif de l’expérience produit Copilot et rendra compte directement à Nadella, rapporte Bloomberg.
Côté recherche, Mustafa Suleyman, cofondateur historique de DeepMind passé chez Microsoft en 2024 pour diriger Microsoft AI, recentre entièrement ses efforts sur la construction de modèles « extrêmement capables ». Nadella ne s’embarrasse plus de périphrases : « Nous doublons la mise sur notre mission de superintelligence, avec les talents et la puissance de calcul nécessaires pour construire des modèles qui ont un vrai impact produit. »
Un changement de vocabulaire radical, relevé par The Decoder, pour quelqu’un qui déclarait il y a douze mois sur le podcast South Park Commons qu’« OpenAI n’est pas une entreprise de modèles, c’est une entreprise de produits qui a d’excellents modèles ».
Des modèles maison encore loin du compte
Si Nadella change de cap, c’est aussi parce que les premiers essais de Microsoft en modèles propriétaires n’ont pas convaincu. En août 2025, l’entreprise a présenté MAI-Voice-1, un modèle de synthèse vocale, et MAI-1-preview, son premier vrai modèle fondateur de langage. Ce dernier a été entraîné sur environ 15 000 GPU Nvidia H100 : un chiffre qui paraît dérisoire comparé aux plus de 100 000 unités mobilisées par des concurrents comme xAI pour Grok.
Résultat : MAI-1-preview se classe 13e sur LMArena, la plateforme de référence pour comparer les performances des modèles de langage. Honorable pour un premier essai, mais insuffisant pour un groupe qui investit des dizaines de milliards dans l’IA et qui dépend encore largement d’OpenAI pour alimenter ses produits phares.
Avant MAI-1, Microsoft ne produisait que des modèles compacts dans la gamme Phi, conçus pour tourner sur des appareils légers avec peu de paramètres. La série Phi a démontré qu’il était possible de faire beaucoup avec peu de ressources, mais elle ne joue pas dans la même cour que GPT-5 ou Claude. Suleyman a lui-même reconnu que les performances de MAI-1 « dépassent ce que sa taille laisserait supposer », une façon diplomatique d’admettre que le modèle reste modeste face à la concurrence.
La vraie menace : l’IA comme système d’exploitation
Le tournant stratégique de Microsoft ne s’explique pas uniquement par la course aux benchmarks. La raison profonde est plus inquiétante pour Redmond : les fournisseurs de modèles IA cherchent de plus en plus à se positionner comme une sorte de « système d’exploitation IA ». En clair, une couche logicielle qui prend le contrôle des processus à l’intérieur des applications, y compris Outlook, Teams et Excel.
L’exemple le plus frappant vient d’Anthropic. L’entreprise a lancé Cowork, une fonctionnalité qui transforme son assistant Claude en agent autonome capable de lire, modifier et créer des fichiers directement sur l’ordinateur de l’utilisateur. Ce n’est plus un chatbot qui répond à des questions : c’est un logiciel qui exécute des tâches complexes en pilotant vos applications. Microsoft a réagi en intégrant la technologie Claude Cowork dans Copilot début mars 2026, mais cette adaptation rapide illustre précisément le problème.
Si un modèle externe contrôle les processus au cœur d’Outlook, Teams et Excel, Microsoft cède la maîtrise d’une couche critique de son propre écosystème, analyse The Decoder. Dans le pire des cas, l’entreprise pourrait se retrouver incapable d’agir de façon indépendante sur une brique fondamentale de ses logiciels. OpenAI pousse dans la même direction avec Frontier, un framework d’agents IA conçu pour s’intégrer profondément dans l’infrastructure informatique des entreprises. Google développe ses propres agents via Gemini. Chaque acteur veut devenir la couche intermédiaire entre l’utilisateur et le logiciel. Pour Microsoft, se retrouver en position de simple « hôte » de modèles développés par d’autres serait un scénario catastrophe.
Nadella reprend les commandes en personne
Le ton a changé en interne aussi. Selon The Information, Nadella a envoyé un message cinglant aux responsables de l’ingénierie Copilot : les intégrations entre l’assistant, Gmail et Outlook « ne marchent pas vraiment » et « ne sont pas intelligentes ». Ce n’était pas une remarque isolée.
Le PDG s’est mué en directeur produit de facto. Il intervient dans un canal Teams regroupant une centaine d’ingénieurs seniors, y poste des critiques détaillées et interroge les équipes lors de réunions hebdomadaires d’une heure. L’été dernier, il s’était déjà emporté parce que de nouvelles fonctionnalités Excel assistées par IA tardaient à sortir.
Nadella rappelle régulièrement à ses troupes les ratés historiques de Microsoft : le retard dans la recherche web face à Google, l’échec des smartphones Windows Phone, l’abandon des tablettes. Le message est limpide : la bataille de l’IA est existentielle, et un nouvel aveuglement stratégique n’est pas une option. Pour combler les lacunes techniques, le PDG recrute en personne. Il appelle directement les candidats et valide des salaires inhabituellement élevés pour débaucher des talents chez OpenAI et Google DeepMind. Avec 13 milliards de dollars déjà investis dans OpenAI, Microsoft se retrouve dans la position paradoxale de devoir concurrencer son propre partenaire financier.
Un cluster de calcul massif et une feuille de route à cinq ans
Pour concrétiser ses ambitions, Microsoft prévoit d’utiliser un nouveau cluster de calcul basé sur les puces GB200 de Nvidia, la dernière génération de processeurs dédiés à l’entraînement de modèles d’IA. Suleyman a évoqué un plan quinquennal, avec des modèles spécialisés pour différents usages intégrés progressivement dans Windows, Office et Azure.
Côté sécurité, l’équipe travaille à supprimer les comportements qui donneraient l’impression que l’IA possède des émotions ou des intentions propres. Suleyman a déjà alerté sur les risques d’une IA « apparemment consciente » qui imiterait le comportement humain, un sujet que Microsoft veut traiter en amont plutôt qu’en réaction à un scandale.
La vraie inconnue reste financière. Microsoft dépense des sommes colossales en infrastructure IA sans que Copilot ait encore prouvé sa rentabilité. L’entreprise reste évasive sur les métriques commerciales de son assistant, et la contribution réelle de Copilot au chiffre d’affaires demeure opaque. En parallèle, les négociations sur la restructuration d’OpenAI en entreprise à but lucratif ajoutent une couche d’incertitude. Si OpenAI prend son indépendance, Microsoft devra compter sur ses propres modèles bien plus vite que prévu. La course à la superintelligence, pour Redmond, n’est pas un luxe : c’est une police d’assurance.