Le memo qui change tout

Un document interne ne devait jamais sortir des murs d’Anthropic. Mais le 5 mars, le New York Times DealBook a révélé un memo de Dario Amodei, patron de la startup californienne, dans lequel il livre sa version des événements. Le ton est direct, et le message limpide : si Anthropic s’est fait éjecter du contrat Défense à 200 millions de dollars, ce n’est pas une question de sécurité nationale. C’est une question de politique.

Dans ce memo adressé à ses équipes, Amodei pointe deux problèmes. D’abord, Anthropic n’a pas fait de donations à la campagne de Donald Trump. Ensuite, contrairement à Sam Altman, le patron d’OpenAI, il n’a jamais multiplié les louanges publiques envers le président. « On n’a pas donné à Trump, et on ne lui a pas fait d’éloges à la manière d’un dictateur, alors que Sam l’a fait », écrit Amodei selon les extraits rapportés par le DealBook.

La formulation est brutale. Elle transforme un conflit présenté comme éthique et technologique en un dossier profondément politique.

Comment les négociations ont déraillé

Pour comprendre le memo, il faut revenir deux semaines en arrière. Fin février, le Pentagone exigeait d’Anthropic qu’elle modifie les termes de son contrat militaire. Le département de la Défense voulait pouvoir utiliser Claude, le modèle d’IA d’Anthropic, pour « tout usage légal », sans exception. Anthropic refusait deux choses précises : la surveillance de masse des citoyens américains, et l’utilisation de son IA dans des armes autonomes capables de tuer sans intervention humaine.

Le secrétaire à la Défense Pete Hegseth avait fixé un ultimatum au vendredi 27 février, 17 heures. Selon le New York Times, les deux camps étaient proches d’un accord. Il ne restait qu’à s’entendre sur la formulation exacte concernant la surveillance légale des Américains. Mais Emil Michael, directeur technologique du Pentagone et ancien cadre d’Uber, a exigé qu’Amodei se joigne personnellement à l’appel. On lui a répondu que le CEO était en réunion avec son comité exécutif.

Michael n’a pas attendu. À 17h14, Hegseth annonçait qu’Anthropic était désormais classée « risque pour la chaîne d’approvisionnement », une désignation habituellement réservée aux entreprises liées à la Chine ou à des pays sous surveillance fédérale. Trump lui-même enchaînait sur Truth Social, qualifiant Anthropic de « dingues de gauche ».

Mais pendant que le rideau tombait sur Anthropic, un autre acteur préparait son entrée. Le NYT révèle qu’Emil Michael négociait en parallèle avec OpenAI. Un accord cadre était déjà bouclé avant même que le délai d’Anthropic n’expire.

OpenAI obtient ce qu’Anthropic demandait

C’est là que l’affaire devient gênante pour le Pentagone. Le soir même du 27 février, Sam Altman annonçait un accord entre OpenAI et le département de la Défense pour déployer ses modèles dans des environnements classifiés. Dans la foulée, il affirmait que deux de ses « principes de sécurité les plus importants » restaient en place : pas de surveillance de masse, pas d’armes autonomes.

Deux jours plus tard, le 2 mars, OpenAI allait encore plus loin. Sous la pression de critiques venues de ses propres employés (plusieurs centaines avaient signé une lettre ouverte de soutien à Anthropic, selon WIRED), l’entreprise amendait son contrat. Le nouvel avenant stipule explicitement que les systèmes d’IA d’OpenAI « ne doivent pas être intentionnellement utilisés pour la surveillance intérieure de citoyens et ressortissants américains ».

En d’autres termes, OpenAI a obtenu par écrit exactement ce qu’Anthropic réclamait. Le Pentagone a accepté ces termes avec OpenAI, mais les a refusés à Anthropic.

Le département de la Défense a tenté de justifier cette différence. Dans un communiqué cité par le NYT, un porte-parole a déclaré que le Pentagone « viendra toujours à la table pour une discussion raisonnable, comme il l’a fait avec OpenAI. Anthropic n’a pas voulu le faire, parce qu’ils ont leurs propres vendettas personnelles. »

La guerre de communication fait rage

La situation a viré à l’affrontement public. Hegseth n’a pas mâché ses mots contre Amodei, l’accusant de se draper dans la « rhétorique sanctimoniale de l’altruisme efficace » pour imposer l’idéologie de la Silicon Valley au détriment des soldats américains. Côté Anthropic, la réponse est venue par blog interposé : la startup a annoncé qu’elle contesterait la désignation de risque devant les tribunaux, estimant que Hegseth n’avait pas l’autorité légale pour imposer une telle mesure.

Dans la communauté tech, la réaction a été vive. Paul Graham, fondateur de Y Combinator, a qualifié l’administration d’« impulsive et vindicative » sur X. Dean Ball, ancien conseiller IA de la Maison Blanche, a parlé de la mesure la plus « choquante et disproportionnée » qu’il ait jamais vue de la part du gouvernement américain. Même chez OpenAI, le chercheur Boaz Barak a estimé que « handicaper une de nos entreprises d’IA de pointe est probablement le pire but contre son camp possible ».

Max Tegmark, physicien au MIT et fondateur du Future of Life Institute, a dressé un constat plus large dans une interview à TechCrunch. Selon lui, toutes les grandes entreprises d’IA partagent la responsabilité de cette situation. Aucune n’a soutenu une régulation contraignante quand c’était encore possible. « On a aujourd’hui moins de régulation sur l’IA aux États-Unis que sur les sandwichs », a-t-il résumé.

Retour à la table, mais à quel prix ?

Le 5 mars, selon le Financial Times et Bloomberg, Anthropic et le Pentagone auraient repris les discussions. Le dossier n’est donc pas enterré. Mais les termes du débat ont changé. Amodei a dit tout haut ce que beaucoup pensaient tout bas : le traitement réservé à Anthropic n’est pas qu’une question technique sur les garde-fous de l’IA militaire. C’est aussi le reflet d’un système où les liens politiques et financiers avec l’administration pèsent lourd dans l’attribution des contrats fédéraux.

Pour l’industrie de l’IA, le signal est clair. Greg Allen, conseiller au Center for Strategic and International Studies, le résume ainsi dans les colonnes de WIRED : « Le département de la Défense vient d’envoyer un message à chaque entreprise : si vous mettez un orteil dans les eaux de la sous-traitance militaire, on attrapera votre cheville et on vous tirera tout entier. »

La question qui reste ouverte ne concerne plus seulement Anthropic. Elle touche Google, Meta, xAI, et tous les acteurs qui collaborent avec l’armée américaine. Si le Pentagone peut retirer la désignation aussi vite qu’il l’a imposée, il peut aussi la brandir contre n’importe qui d’autre. En attendant, OpenAI occupe le terrain, contrat en main, protections anti-surveillance incluses.