Trois ennemis qui partagent leurs fichiers
Google, OpenAI et Anthropic se livrent une guerre commerciale féroce depuis trois ans. Pourtant, ces trois géants de l’intelligence artificielle viennent d’ouvrir un canal de renseignement commun, via le Frontier Model Forum, pour contrer la copie industrielle de leurs modèles par des entreprises chinoises. C’est la première fois que ces rivaux coordonnent leur défense à cette échelle.
Le Frontier Model Forum, cofondé en 2023 avec Microsoft, servait jusqu’ici de vitrine pour des engagements éthiques. Il vient de changer de vocation. Selon les informations rapportées par Bloomberg le 6 avril, ce forum sert désormais de plateforme d’échange d’informations techniques pour détecter et bloquer les tentatives de « distillation adversariale », une technique où des entreprises chinoises interrogent massivement ChatGPT, Claude ou Gemini, puis utilisent les réponses pour entraîner des modèles moins chers qui imitent leurs performances.
16 millions de requêtes, 24 000 faux comptes
L’ampleur du pillage a poussé les rivaux à mettre leurs querelles de côté. En février 2026, Anthropic avait révélé que DeepSeek, Moonshot et MiniMax avaient envoyé plus de 16 millions de requêtes à Claude via 24 000 comptes frauduleux. Chaque labo chinois visait des capacités différentes : DeepSeek cherchait à reproduire le raisonnement logique, Moonshot ciblait les fonctions d’agent autonome et de vision par ordinateur, MiniMax aspirait les capacités de programmation avec 13 millions d’échanges à elle seule.
OpenAI a constaté des tentatives similaires sur ChatGPT. Sam Altman a écrit aux législateurs américains que DeepSeek continuait de trouver « des moyens toujours plus sophistiqués pour extraire des informations » de ses systèmes. Selon des responsables américains cités par Bloomberg, ces opérations de copie coûtent aux laboratoires de la Silicon Valley des milliards de dollars chaque année en manque à gagner.
Pare-feu technique contre espionnage algorithmique
Concrètement, les trois entreprises développent des outils pour repérer les schémas de trafic anormaux sur leurs plateformes. L’objectif : distinguer un utilisateur humain d’un robot qui tente de reconstruire un modèle, en analysant le volume de requêtes, leur répétition et leur structure à travers plusieurs comptes. Quand un comportement suspect est détecté, les réponses possibles vont de la suspension de compte au blocage de plages IP entières, en passant par la modification des formats de réponse pour brouiller les données exploitables.
Anthropic a pris la mesure la plus radicale en interdisant totalement l’accès à Claude depuis la Chine. OpenAI a révisé ses conditions d’utilisation pour qualifier explicitement l’extraction de modèle comme une menace de sécurité. Google, de son côté, n’a pas détaillé publiquement ses mesures, mais participe activement à l’échange de renseignements via le Forum.
La difficulté reste la même pour les trois : comment bloquer l’extraction sans ralentir les millions d’utilisateurs légitimes qui interrogent ces mêmes plateformes chaque jour.
Quand DeepSeek a changé les règles du jeu
En janvier 2025, DeepSeek avait provoqué un séisme dans la Silicon Valley en publiant R1, un modèle capable de rivaliser avec les systèmes américains pour une fraction du coût. Cette prouesse avait fait chuter les valorisations boursières des géants technologiques américains de plusieurs centaines de milliards de dollars en une seule journée. La question que tout le monde se posait : comment un labo chinois avait-il rattrapé son retard aussi vite ?
La réponse, selon OpenAI et Anthropic, tient en un mot : la distillation. Plutôt que de développer des capacités de zéro, certaines entreprises chinoises auraient aspiré les réponses de modèles américains pour entraîner les leurs. Un raccourci qui réduit les coûts de développement de façon spectaculaire, mais qui revient à photocopier le travail d’un concurrent.
DeepSeek a nié toute infraction. Moonshot et MiniMax n’ont pas commenté publiquement les accusations. Le silence de ces deux entreprises n’a pas empêché Anthropic de couper tout accès à Claude depuis les adresses associées à ces trois groupes.
Washington pousse, mais l’antitrust freine
L’administration Trump a signalé son soutien à cette collaboration en proposant la création d’un centre de partage d’informations formalisé entre les entreprises d’IA. L’idée : institutionnaliser ce que le Frontier Model Forum fait de manière informelle, avec un cadre juridique clair.
Le problème, c’est que trois entreprises qui dominent le marché de l’IA et qui échangent des données opérationnelles, ça ressemble à une entente. Les juristes des trois groupes avancent avec prudence, incertains de ce que le droit antitrust autorise dans ce type de coopération défensive. Aucun n’a envie de se retrouver face à une procédure de la FTC pour avoir tenté de protéger sa propriété intellectuelle.
Le précédent existe dans d’autres secteurs. Les banques partagent des informations sur la fraude via FinCEN, les opérateurs télécoms échangent sur les cybermenaces. Mais dans l’IA, aucun cadre comparable n’existe encore.
La copie comme arme géopolitique
Cette alliance dépasse la simple protection commerciale. La distillation non autorisée permet à des entreprises liées à l’État chinois d’acquérir des capacités d’IA avancées sans investir les dizaines de milliards nécessaires au développement. Pour Washington, c’est un problème de sécurité nationale autant qu’un problème économique. Le risque : que des modèles copiés, débarrassés de leurs garde-fous de sécurité, servent à des fins militaires ou de surveillance.
La confrontation entre les États-Unis et la Chine sur l’IA s’accélère sur tous les fronts. L’embargo sur les puces Nvidia, le découplage technologique, et maintenant la guerre contre la copie de modèles. Google, OpenAI et Anthropic, qui se disputent chaque point de part de marché, se retrouvent du même côté de la tranchée. Une configuration que personne n’aurait prédite il y a un an, et qui en dit long sur l’intensité de la confrontation en cours. Le prochain chapitre se jouera au Congrès américain, où un projet de loi sur la protection de la propriété intellectuelle des modèles d’IA est attendu avant l’été.