Le Pentagone menace de rompre son contrat de 200 millions de dollars avec Anthropic. En cause : la start-up refuse de laisser l’armée américaine utiliser Claude sans aucune restriction. Un bras de fer qui en dit long sur les tensions entre les géants de l’IA et le pouvoir militaire.
Le Pentagone en a « ras-le-bol »
Selon une enquête d’Axios publiée le 15 février, un responsable de l’administration Trump a lâché le mot : le ministère de la Défense américain serait « excédé » par les mois de négociations avec Anthropic. Le gouvernement veut que toutes les entreprises d’IA mettent leurs outils à disposition pour « toutes les utilisations légales », y compris dans les zones les plus sensibles du développement d’armes, du renseignement et des opérations sur le terrain.
Anthropic, elle, ne l’entend pas de cette oreille.
Deux lignes rouges, selon les sources citées par Axios : les armes entièrement autonomes et la surveillance de masse des citoyens américains. Les conditions d’utilisation de Claude interdisent explicitement de faciliter des violences, développer des armes ou mener des opérations de surveillance. Et la start-up californienne ne compte pas les réécrire pour faire plaisir au Pentagone.
Claude, déjà sur les réseaux classifiés
Le détail qui complique tout : Claude est le premier modèle d’IA à avoir été intégré aux réseaux classifiés du Pentagone. Remplacer Anthropic ne serait pas simple. Le responsable cité par Axios reconnaît lui-même que « les autres modèles ne sont pas encore au même niveau » pour ces applications gouvernementales spécialisées. ChatGPT (OpenAI), Gemini (Google) et Grok (xAI) fonctionnent pour l’instant uniquement sur des réseaux non classifiés.
Résultat, le Pentagone se retrouve coincé. Couper les ponts avec Anthropic, d’accord, mais pour aller où ?
L’affaire Maduro, l’étincelle qui a tout accéléré
Le Wall Street Journal a révélé le 14 février que Claude aurait été utilisé lors de l’opération américaine pour capturer l’ancien président vénézuélien Nicolás Maduro. L’IA aurait transité par Palantir, dont les outils équipent déjà largement le ministère de la Défense et les agences fédérales.
Anthropic a refusé de confirmer ou démentir, se contentant de rappeler que « toute utilisation de Claude doit respecter nos conditions d’utilisation ». Une réponse prudente, presque diplomatique. Mais qui n’a visiblement pas suffi à calmer les tensions côté militaire.
Un rapport de force inédit entre la tech et l’armée
On assiste à quelque chose d’assez rare. D’un côté, une administration qui exige un accès total aux technologies d’IA. De l’autre, une entreprise qui dit non, au risque de perdre un contrat colossal. Difficile de ne pas y voir un tournant dans la relation entre les entreprises d’IA et le pouvoir politique américain.
Car Anthropic n’est pas seule dans le viseur. Le Pentagone détient aussi des contrats avec OpenAI, Google et xAI. Mais c’est la start-up fondée par Dario et Daniela Amodei qui résiste le plus ouvertement. Le responsable de l’administration Trump a prévenu : « tout est sur la table », y compris un remplacement pur et simple, même si ça prendra du temps.
La question qui se pose maintenant : est-ce qu’Anthropic tiendra sa position si le chèque de 200 millions de dollars disparaît ? Et surtout, est-ce que les autres entreprises d’IA oseront, elles aussi, poser des limites à leur technologie face à la pression militaire ?