« Polluer la chaîne d’approvisionnement. » Ce sont les mots choisis par le directeur technique du département de la Guerre américain pour décrire l’IA d’Anthropic. Pas un malware, pas une porte dérobée chinoise. Non, le problème de Claude, c’est d’être trop éthique pour le Pentagone.

Une sanction réservée aux ennemis de l’Amérique

Le 5 mars, le département de la Défense, rebaptisé « département de la Guerre » par l’administration Trump, a classé Anthropic comme « risque pour la chaîne d’approvisionnement ». En clair, tout sous-traitant ou fournisseur militaire doit certifier qu’il n’utilise pas Claude dans ses contrats avec le Pentagone. Cette classification, d’ordinaire, vise des entreprises chinoises ou russes soupçonnées d’espionnage. Anthropic est la première société américaine à la recevoir.

Emil Michael, le CTO du département, a levé le voile sur les motivations réelles lors d’une interview accordée à CNBC le 12 mars. Selon lui, la « constitution » d’Anthropic, un ensemble de règles éthiques intégrées dans les modèles Claude, risque de fournir aux soldats « des armes inefficaces, des gilets pare-balles inefficaces, une protection inefficace ». La mesure, assure-t-il, « n’est pas censée être punitive ».

Cinq milliards de chiffre d’affaires menacés

Les documents judiciaires déposés par Anthropic racontent une autre histoire. Le directeur financier, Krishna Rao, y révèle que le chiffre d’affaires cumulé de l’entreprise depuis 2023 dépasse cinq milliards de dollars, pour plus de dix milliards investis dans l’entraînement et le déploiement de ses modèles. La startup tablait sur 500 millions de dollars de revenus récurrents du secteur public en 2026. Elle estime désormais en perdre 150 millions.

Mais les dégâts ne s’arrêtent pas aux contrats militaires. Le secrétaire à la Défense Pete Hegseth a élargi le périmètre en publiant sur X que « tout contractant, fournisseur ou partenaire qui travaille avec l’armée américaine » devait cesser toute activité commerciale avec Anthropic. Résultat : un groupe financier a gelé un contrat de 15 millions de dollars, deux autres exigent des clauses de résiliation unilatérale sur 80 millions de dollars de contrats, et une entreprise du Fortune 20 a vu ses avocats « paniquer » à l’idée de maintenir la relation, selon les déclarations du directeur commercial Paul Smith devant le tribunal.

Le paradoxe : punir une IA parce qu’elle refuse de tuer

Le conflit a éclaté lorsqu’Anthropic a posé deux lignes rouges dans ses négociations avec le Pentagone : pas de surveillance de masse des citoyens américains, pas d’armes létales autonomes. L’entreprise estime que l’IA n’est pas encore assez fiable pour ces missions. Le département de la Guerre considère que ce choix ne revient pas à un fournisseur privé.

La « constitution » visée par Emil Michael est un document public qu’Anthropic met à jour régulièrement, la dernière version date de janvier 2026. Elle guide le comportement de Claude en lui donnant des consignes de sécurité, d’honnêteté et de respect des droits fondamentaux. Pour le Pentagone, ces garde-fous intégrés au modèle sont un obstacle opérationnel. Pour Anthropic, ils sont la raison pour laquelle ses clients entreprises lui font confiance.

Concurrents et rivaux font front commun

Fait rare dans un secteur où la compétition est féroce : plus de 30 employés d’OpenAI et de Google, dont Jeff Dean, directeur scientifique de Google DeepMind, ont déposé un mémoire de soutien (amicus brief) devant le tribunal de San Francisco. Leur argument : la décision du Pentagone « introduit une imprévisibilité qui sape l’innovation américaine » et « dissuade le débat professionnel sur les risques de l’IA ».

Sam Altman, PDG d’OpenAI, a lui aussi pris position publiquement en qualifiant la sanction de « très mauvaise décision ». Pourtant, OpenAI a signé dans la foulée son propre contrat avec le département de la Guerre, ce que certains observateurs ont qualifié d’opportuniste, rapporte Wired.

Microsoft et Amazon ont adopté une position intermédiaire : leurs services cloud continuent de distribuer Claude, sauf pour tout contrat lié au Pentagone. Palantir, l’un des plus gros contractants de la Défense, continue d’utiliser Claude. Son PDG Alex Karp l’a confirmé à CNBC, tandis qu’Emil Michael reconnaissait lui-même que la transition vers un autre fournisseur prendrait du temps. « Ce n’est pas Outlook, on ne peut pas juste le supprimer du bureau », a-t-il concédé.

Une méthode qui rappelle Pékin

The Decoder, média spécialisé en IA, a relevé un parallèle troublant entre l’approche du Pentagone et celle du gouvernement chinois, qui impose depuis 2023 à ses entreprises d’IA d’aligner leurs modèles sur les « valeurs socialistes ». Dans les deux cas, un État exige que l’intelligence artificielle reflète ses préférences idéologiques plutôt que des principes éthiques définis par ses créateurs.

L’administration Trump avait déjà signalé cette direction en préparant des régulations ciblant ce qu’elle appelle l’« IA woke », présentées comme un engagement en faveur de la neutralité politique, selon The Decoder.

Anthropic porte le combat devant deux tribunaux

Anthropic a déposé deux plaintes lundi 9 mars. La première, devant le tribunal fédéral de San Francisco, invoque une violation du premier amendement : la « constitution » de Claude relèverait de la liberté d’expression. La seconde, devant la cour d’appel fédérale de Washington, accuse le département de la Guerre de discrimination et de représailles.

L’entreprise demande une injonction temporaire pour continuer à travailler avec ses partenaires militaires le temps que la justice tranche. Une audience était prévue dès vendredi 13 mars à San Francisco. Le verdict pourrait fixer un précédent majeur : un État peut-il punir une entreprise technologique parce que son produit intègre des garde-fous éthiques ?

La réponse intéresse bien au-delà du Pentagone. Google, Meta et Microsoft intègrent tous des principes similaires dans leurs modèles d’IA. Si la classification « risque pour la chaîne d’approvisionnement » est maintenue, chaque entreprise du secteur devra se demander si ses propres garde-fous pourraient un jour devenir un handicap commercial face à l’État fédéral.