Contrat de 200 millions de dollars en jeu. Mardi matin, Dario Amodei, le PDG d’Anthropic, est attendu au Pentagone pour une réunion que personne n’a l’air d’attendre avec enthousiasme. Pete Hegseth, secrétaire à la Défense américaine, l’a convoqué. Le message, selon Axios qui a révélé l’information, est limpide : coopérer ou disparaître.

La ligne rouge qu’Anthropic refuse de franchir

Au coeur de la dispute, deux usages que le Département de la Défense (DOD) voudrait faire de Claude, et qu’Anthropic a refusés. Premier point : la surveillance de masse des citoyens américains. Second point : le développement d’armes autonomes, autrement dit des systèmes capables de tirer sans intervention humaine dans la boucle de décision.

Ce sont exactement les deux lignes rouges que la plupart des chercheurs en éthique de l’IA jugent les plus sensibles. Anthropic n’a pas commenté publiquement les détails des négociations.

Une menace inédite : le label « supply chain risk »

La réponse de Hegseth, rapportée par TechCrunch qui cite Axios, dépasse le simple bras de fer commercial. Le secrétaire à la Défense envisagerait de classer Anthropic comme « supply chain risk », une désignation normalement réservée aux entreprises étrangères jugées dangereuses pour la sécurité nationale. Huawei s’est retrouvé dans cette case en 2019.

Coller cette étiquette à une startup américaine de San Francisco relève d’une démarche assez inhabituelle. Et les conséquences seraient immédiates : le contrat de 200 millions de dollars signé entre Anthropic et le DOD l’été dernier serait annulé. Pire, tous les autres partenaires et fournisseurs du Pentagone seraient contraints d’abandonner Claude dans leurs systèmes.

Bref. Un seul coup de tampon, et Claude disparaît de l’écosystème militaire américain.

Claude et le raid sur Maduro

Ce qui rend la situation encore plus complexe, c’est que Claude était déjà là. Selon Axios, le modèle d’Anthropic aurait été utilisé lors du raid de forces spéciales du 3 janvier dernier, qui s’est soldé par la capture du président vénézuélien Nicolás Maduro. Une opération qui a fait beaucoup de bruit.

Cette révélation a rendu public un désaccord qui couvait depuis plusieurs semaines. D’un côté, l’armée américaine qui a visiblement jugé l’outil utile. De l’autre, Anthropic, qui découvre que son modèle est déployé dans des contextes qu’elle n’avait peut-être pas tous validés.

Un bluff ou un vrai ultimatum ?

La réunion de mardi matin est présentée comme un ultimatum. « Coopère ou tu es banni », résume une source citée par Axios. Mais TechCrunch note que remplacer Anthropic représenterait un chantier considérable pour le Pentagone. Claude est profondément intégré dans certains systèmes. Le bluff est donc dans les deux sens.

Reste une question que personne ne tranche vraiment : est-ce qu’une IA privée, soumise aux politiques éthiques décidées par son entreprise, peut refuser des ordres d’usage à son client gouvernemental ? La réponse d’Anthropic semble être oui. Celle de Hegseth, clairement non.