380 milliards de dollars de valorisation. Et pourtant, depuis le 8 avril, l’armée américaine lui interdit officiellement ses portes. La cour d’appel fédérale de Washington a refusé de suspendre le blacklistage d’Anthropic par le Pentagone, laissant la désignation « risque pour la chaîne d’approvisionnement » pleinement active. Une décision qui a tout d’un signal politique autant que juridique.
Pour comprendre ce qui se joue, il faut remonter à la source du conflit. Anthropic, l’entreprise derrière l’assistant Claude, a refusé une demande du Pentagone : lever les restrictions qui empêchent son modèle d’être utilisé pour de la surveillance de masse et pour guider des armes autonomes, c’est-à-dire des systèmes militaires capables de décider de tirer sans intervention humaine. Un refus au nom de la sécurité de l’IA. Le Pentagone a répondu en activant un mécanisme qui n’avait, jusqu’alors, jamais visé une entreprise américaine.
La première entreprise américaine dans le viseur de sa propre armée
La désignation « supply chain risk » est un outil réservé aux entités qui menacent la sécurité nationale. Elle est habituellement braquée sur des sociétés étrangères, chinoises en tête. Que le Pentagone l’applique à une startup de San Francisco, fondée par des anciens d’OpenAI, et valorisée à 380 milliards de dollars après une levée de fonds de 30 milliards en février 2026, c’est une rupture historique.
Concrètement, cette désignation impose aux contractants de défense, parmi lesquels Amazon, Microsoft et Palantir, de certifier par écrit qu’ils n’utilisent pas Claude dans leurs travaux militaires. Pour ces géants qui ont intégré l’IA d’Anthropic dans leurs services cloud et leurs offres gouvernementales, c’est une contrainte immédiate et commercialement très douloureuse. Selon CNBC, plusieurs entreprises spécialisées dans les technologies de défense ont d’ores et déjà commencé à écarter Claude de leurs solutions.
Trois mois de bataille judiciaire aux signaux contradictoires
Fin février 2026, Axios révèle que le Pentagone envisage sérieusement le blacklistage. Anthropic réplique rapidement devant les tribunaux. Le 26 mars, une première victoire : la juge fédérale Rita F. Lin, en Californie, accorde une injonction préliminaire. Elle estime que la décision de l’administration Trump « semble davantage punitive que protectrice », qu’elle manque de base légale solide et dépasse le cadre des pouvoirs exécutifs. Cette ordonnance suspend temporairement l’application du blacklistage.
Mais le 8 avril, le circuit de Washington D.C., une cour d’appel fédérale distincte, rejette la demande d’Anthropic de bloquer en urgence la désignation. Deux tribunaux, deux décisions opposées, sur deux aspects différents du même dossier. Le résultat pratique : le blacklistage reste en vigueur. La prochaine étape, une audience orale sur le fond, est programmée pour le 19 mai 2026. D’ici là, le secteur de la défense navigue en eaux troubles.
Ce que le Pentagone craint vraiment
La justification officielle du Pentagone mérite qu’on s’y attarde. Le département de la Défense affirme « craindre qu’Anthropic prenne à l’avenir des mesures pour saboter ou perturber des systèmes informatiques ». Une accusation qui surprend : nulle preuve d’un tel sabotage n’a été produite. Anthropic dénonce une « requalification arbitraire » et assure, dans un communiqué, « rester convaincue que les tribunaux reconnaîtront que ces désignations étaient illégales ».
Les avocats de l’entreprise invoquent une violation du premier amendement, celui qui protège la liberté d’expression, arguant que les garde-fous de Claude constituent une forme de prise de position morale protégée. Ils citent également le cinquième amendement, qui interdit les sanctions gouvernementales sans procédure légale régulière. Des arguments que la cour d’appel de Washington n’a pas jugés suffisamment urgents pour justifier une suspension immédiate, tout en reconnaissant que les questions soulevées sont « nouvelles et difficiles ».
L’IA de sécurité, mauvaise élève du moment
Derrière le dossier Anthropic se dessine une fracture plus profonde au sein de l’industrie de l’IA américaine. L’administration Trump pousse activement à déréguler l’IA dans le domaine militaire, au nom de la compétitivité face à la Chine. OpenAI, Google et même Meta ont ces derniers mois assoupli leurs politiques d’usage militaire. Anthropic fait figure d’exception, une entreprise fondée en 2021 par d’anciens d’OpenAI qui avaient quitté la société mère pour créer, selon leurs propres mots, « une IA plus sûre pour l’humanité ».
Le paradoxe est saisissant. L’entreprise dont le modèle économique repose sur la confiance, la transparence et la sécurité se retrouve sanctionnée précisément parce qu’elle refuse de brader ces principes. Ses principaux investisseurs, Amazon, Google et Nvidia, sont aussi les contractants potentiellement contraints de certifier qu’ils n’utilisent plus ses produits pour le compte de l’armée. Un imbroglio financier que même les analystes de Wall Street peinent à modéliser.
380 milliards et une question ouverte
La levée de 30 milliards finalisée en février a été célébrée comme le signe d’une confiance absolue du marché envers Anthropic. Trois semaines plus tard, la désignation du Pentagone tombait. Les deux événements coexistent de manière inconfortable : d’un côté, des investisseurs prêts à miser des milliards sur la fiabilité et l’éthique du modèle ; de l’autre, un gouvernement qui traite cette même fiabilité comme une menace potentielle.
Sur le marché civil, les clients d’Anthropic n’ont pour l’instant pas signalé de perturbations majeures. Claude reste accessible pour les usages professionnels et personnels habituels. C’est dans le secteur de la défense et des contrats gouvernementaux que les dégâts se concentrent, un marché que l’entreprise avait pourtant soigneusement cultivé ces derniers mois, avec des accords signés notamment avec le ministère américain de l’Energie.
Le 19 mai, rendez-vous décisif
L’audience orale du 19 mai devant le circuit de Washington D.C. fixe le prochain horizon judiciaire. C’est là que se jouera, sur le fond, la question centrale : une administration peut-elle désigner une entreprise privée américaine comme « risque pour la chaîne d’approvisionnement nationale » au motif qu’elle refuse d’adapter son produit à des usages militaires spécifiques ? La réponse redessinera non seulement l’avenir d’Anthropic, mais aussi les règles du jeu pour toute l’industrie de l’IA face aux demandes des pouvoirs publics.
Ce qui est déjà clair : refuser d’armer son IA n’est plus, aux Etats-Unis, une position sans risque commercial. D’autres acteurs du secteur observent ce procès avec attention. Certains ont déjà pris leurs décisions. L’audience du 19 mai dira si Anthropic avait raison de tenir la sienne.