Mardi, en visioconférence devant une juge fédérale californienne, un avocat du département de la Justice américain a refusé de garantir que le gouvernement ne prendrait aucune mesure supplémentaire contre Anthropic. « Je ne suis pas en mesure d’offrir un quelconque engagement sur cette question », a déclaré James Harlow. En coulisses, la Maison-Blanche finalise un décret présidentiel visant à bannir les outils de la startup de l’ensemble de l’administration fédérale, selon Axios et Wired.
L’affaire oppose la créatrice du chatbot Claude au Pentagone depuis plusieurs semaines, sur une question qui dépasse le simple contrat : une entreprise d’intelligence artificielle peut-elle poser des limites à l’usage militaire de sa technologie ?
Un contrat militaire qui dérape
L’armée américaine souhaitait déployer les modèles d’IA d’Anthropic pour « tous les usages légaux », sans aucune exception. La startup a posé deux conditions : pas de surveillance de masse des citoyens américains, pas d’armes autonomes sans supervision humaine. Le Pentagone a jugé ces restrictions inacceptables et les négociations ont échoué.
Le 27 février, le secrétaire à la Défense Pete Hegseth a déclenché une réponse musclée : la désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement ». En pratique, cette mesure interdit à tout sous-traitant militaire de travailler avec l’entreprise. « Aucun contractant, fournisseur ou partenaire qui fait affaire avec l’armée américaine ne peut mener d’activité commerciale avec Anthropic », a-t-il écrit sur les réseaux sociaux.
Le mécanisme juridique utilisé vise en temps normal les entreprises soupçonnées de sabotage ou de liens avec des puissances étrangères. David Super, professeur de droit constitutionnel à Georgetown University, estime que son application à Anthropic relève du détournement de pouvoir. « C’est un étirement absurde du langage que d’assimiler « ne pas accepter chaque exigence de Pete Hegseth » à du « sabotage » », a-t-il déclaré à Wired. La Cour suprême américaine a récemment invalidé plusieurs mesures similaires, dont les tarifs douaniers de Trump et l’annulation des prêts étudiants sous Biden, au motif que l’exécutif détournait des lois de leur objectif initial.
Deux procès fédéraux et un décret en préparation
Le 9 mars, Anthropic a déposé deux plaintes fédérales simultanées, l’une en Californie, l’autre à Washington. L’entreprise dénonce une « campagne inconstitutionnelle de représailles » et demande une injonction temporaire pour suspendre la désignation de risque.
L’audience du lendemain a confirmé que l’escalade n’est pas terminée. Quand l’avocat d’Anthropic a demandé au gouvernement de s’engager à ne prendre aucune nouvelle mesure le temps de la procédure, le représentant du département de la Justice a décliné. Ce refus prend tout son sens à la lumière de la révélation d’Axios : un décret présidentiel élargirait l’interdiction à l’ensemble du gouvernement fédéral, bien au-delà des seuls contrats militaires. Wired a confirmé l’information auprès d’une source au sein de la Maison-Blanche.
La juge Rita Lin a fixé l’audience préliminaire au 24 mars à San Francisco. « Les actions des défendeurs causent des dommages irréparables, et ces dommages s’aggravent jour après jour », a plaidé Michael Mongan, avocat de la startup au cabinet WilmerHale, le même cabinet figurant sur une liste de firmes juridiques déjà visées par des décrets de l’administration Trump.
Les rivaux prennent la défense du concurrent
Fait inhabituel dans une industrie qui se livre une guerre commerciale féroce : des employés d’OpenAI et de Google se sont rangés du côté d’Anthropic. Le 9 mars, plus de 30 d’entre eux ont déposé un mémoire amicus curiae (« ami de la cour ») auprès du tribunal californien. Parmi les signataires : Jeff Dean, directeur scientifique de Google DeepMind, ainsi que des chercheurs d’OpenAI comme Gabriel Wu et Pamela Mishkin.
Leur argument : si cette sanction est maintenue, elle « introduira une imprévisibilité dans l’industrie qui sapera l’innovation et la compétitivité américaines ». Le mémoire souligne que le Pentagone aurait pu se contenter de résilier le contrat d’Anthropic au lieu de la classer comme menace à la sécurité nationale. Sam Altman, patron d’OpenAI, a enfoncé le clou sur les réseaux sociaux : « Appliquer cette désignation à Anthropic serait très mauvais pour notre industrie et pour notre pays. »
Le soutien n’empêche pas le pragmatisme. OpenAI a profité de la rupture entre Anthropic et l’armée pour signer son propre contrat avec le Pentagone, avec des garanties contre la surveillance de masse et les armes totalement autonomes. Cette décision a provoqué une hausse de 295 % des désinstallations de ChatGPT, selon TechCrunch, tandis que l’application Claude grimpait à la deuxième place de l’App Store américain.
Des centaines de millions en jeu
L’impact financier dépasse le seul périmètre militaire. Plusieurs sous-traitants de la défense, dont Lockheed Martin, cherchent des alternatives à Claude, rapportent Reuters et CNBC. Des contrats en négociation ont été gelés, d’autres renégociés à de nouvelles conditions.
Dario Amodei, PDG d’Anthropic, a tenté de limiter les dégâts en affirmant que la « vaste majorité » des clients ne serait pas concernée, la désignation ne s’appliquant qu’aux contrats militaires directs. Mais si le décret présidentiel en préparation élargit l’interdiction à tout le gouvernement fédéral, le périmètre changerait du tout au tout. Des entreprises technologiques qui intègrent Claude dans leurs services vendus à des agences fédérales ne savent plus si elles peuvent continuer, observe Zohra Tejani, avocate spécialisée en contrats fédéraux au cabinet Seyfarth Shaw.
Pour Dean Ball, chercheur à la Foundation for American Innovation et ancien conseiller de la Maison-Blanche sur l’IA, il s’agit de « l’action la plus choquante, la plus dommageable et la plus abusive que j’aie jamais vu le gouvernement américain commettre. Nous avons sanctionné une entreprise américaine. »
Un bras de fer constitutionnel
Harold Hongju Koh, professeur de droit international à Yale et ancien conseiller de l’administration Obama, inscrit l’affaire dans une série de mesures ciblant des opposants perçus : universités, médias, cabinets d’avocats. « Si c’était un cas isolé, on pourrait accorder une certaine marge au président. Mais le schéma est désormais impossible à ignorer », a-t-il déclaré à Wired.
Côté Maison-Blanche, la ligne est tout autre. La porte-parole Liz Huston a déclaré que « notre armée obéira à la Constitution des États-Unis, pas aux conditions d’utilisation d’une entreprise d’IA woke ».
L’audience du 24 mars à San Francisco déterminera si le tribunal suspend la désignation de risque pendant la durée du procès. En parallèle, l’appel administratif déposé par Anthropic auprès du département de la Défense devrait recevoir une réponse cette semaine. Si le décret présidentiel est signé avant l’audience, le rapport de force pourrait basculer : Anthropic ne se battrait plus contre une sanction militaire, mais contre une exclusion de l’ensemble de l’appareil fédéral américain.