Plus de 100 employés de Google DeepMind viennent d’envoyer une lettre à leur direction. Leur demande : que Google refuse de laisser le Pentagone utiliser Gemini pour surveiller les citoyens américains ou piloter des armes autonomes. En parallèle, des dizaines de salariés d’OpenAI signent une pétition publique dans le même sens. La révolte couve dans les labos d’IA les plus puissants du monde.
Une lettre interne chez Google DeepMind
La lettre, révélée par le New York Times jeudi 26 février, a été adressée à Jeff Dean, le scientifique en chef de Google DeepMind. Les signataires, tous impliqués dans le développement des systèmes d’intelligence artificielle de Google, posent deux conditions claires : pas de surveillance de masse des citoyens américains, pas d’armes létales autonomes sans supervision humaine.
« Faites tout ce qui est en votre pouvoir pour bloquer tout accord qui franchirait ces lignes rouges fondamentales », écrivent les employés, selon le New York Times. « Nous aimons travailler chez Google et voulons être fiers de notre travail. »
Google n’a pas répondu publiquement à cette lettre. Le groupe avait pourtant déjà traversé une crise similaire en 2018, quand des milliers d’employés avaient protesté contre le projet Maven, un contrat avec le Pentagone pour analyser des images de drones par intelligence artificielle. Google avait alors renoncé à renouveler le contrat. Huit ans plus tard, le contexte a changé : les contrats militaires représentent un marché colossal, et la pression politique pour y participer s’est intensifiée.
À lire aussi
Une pétition publique qui traverse les entreprises
Le mouvement ne se limite pas aux couloirs de Google. Le même jour, une pétition publique a été mise en ligne sur le site notdivided.org, signée par près de 50 employés d’OpenAI et 175 employés de Google. Le texte appelle les dirigeants des laboratoires d’IA à « mettre de côté leurs différences et à tenir bon ensemble pour continuer à refuser les exigences actuelles du département de la Guerre ».
Le choix des mots est révélateur. Les signataires utilisent le terme « Department of War » (département de la Guerre), l’ancien nom du Pentagone abandonné en 1947, un clin d’oeil repris directement du vocabulaire utilisé par l’administration actuelle qui a rebaptisé le ministère de la Défense. Les signatures sont vérifiées par les organisateurs : chaque signataire doit prouver son emploi via une adresse email professionnelle @google.com ou @openai.com. La signature anonyme est possible, les données personnelles étant supprimées sous 24 heures après vérification.
Le Pentagone, détonateur involontaire
Cette mobilisation est une conséquence directe du bras de fer entre le Pentagone et Anthropic. Depuis plusieurs semaines, le secrétaire à la Défense Pete Hegseth exige que tous les laboratoires d’IA acceptent que l’armée utilise leurs modèles « pour tout usage légal », sans restriction. OpenAI et xAI auraient accepté ces nouvelles conditions, selon le Washington Post. Anthropic, elle, refuse.
Dario Amodei, le patron d’Anthropic, a publié jeudi un communiqué détaillé sur le site de l’entreprise. « Ces menaces ne changent pas notre position : nous ne pouvons pas, en conscience, accéder à leur demande », écrit-il. Le Pentagone avait menacé de classer Anthropic comme « risque pour la chaîne d’approvisionnement », une désignation habituellement réservée aux adversaires étrangers, et d’invoquer le Defense Production Act pour forcer la main de l’entreprise. Amodei a souligné la contradiction : « L’une nous qualifie de risque sécuritaire, l’autre qualifie Claude d’essentiel à la sécurité nationale. »
Selon TechCrunch, Anthropic est actuellement le seul laboratoire d’IA avancée à disposer de systèmes classifiés opérationnels pour l’armée américaine. Le contrat en jeu représente 200 millions de dollars.
Un précédent qui remonte à 2018
Pour les employés de Google, la situation a un air de déjà-vu. En 2018, le projet Maven avait provoqué la plus grosse crise interne de l’histoire du groupe. Plus de 3 000 employés avaient signé une pétition, une douzaine avaient démissionné. Google avait cédé et publié des « principes éthiques » sur l’IA, s’engageant à ne pas développer d’armes ou de technologies de surveillance contraires aux « normes internationales ».
Depuis, les lignes ont bougé. En 2022, Google a signé un contrat cloud de 1,2 milliard de dollars avec le gouvernement israélien (projet Nimbus), malgré les protestations de plusieurs dizaines d’employés. L’entreprise a licencié certains manifestants. Le message était clair : les contrats gouvernementaux ne seraient plus remis en question par la base.
La lettre envoyée à Jeff Dean jeudi montre que cette page n’est pas tournée. Les employés de DeepMind, qui travaillent sur les modèles Gemini parmi les plus avancés au monde, estiment que leur expertise leur donne une responsabilité particulière sur l’usage de ces outils.
La fracture entre dirigeants et ingénieurs
Le contraste entre les positions des dirigeants et celles des ingénieurs est saisissant. Sam Altman, le patron d’OpenAI, a publiquement soutenu la collaboration avec l’armée américaine. Elon Musk, qui contrôle xAI, a accepté les conditions du Pentagone sans sourciller. Seul Dario Amodei résiste au niveau corporate, une position qui lui vaut désormais un ultimatum expirant vendredi à 17h01.
Côté ingénieurs, le tableau est inverse. Les signataires de la pétition publique viennent précisément d’OpenAI et de Google, deux entreprises dont les dirigeants ont accepté les termes du Pentagone. Les employés demandent à leurs patrons de revenir sur cette décision.
Le New York Times note que cette situation pourrait se retourner contre le Pentagone. En cherchant à forcer la main d’Anthropic, le département de la Défense a involontairement réveillé un mouvement qui dépasse largement le cas d’une seule entreprise. Les ingénieurs qui construisent les systèmes d’IA les plus puissants au monde posent une question simple : qui décide de ce que ces systèmes peuvent faire ?
Vendredi, jour de vérité pour Anthropic
L’ultimatum du Pentagone expire vendredi 27 février à 17h01 (heure de Washington). Si Anthropic maintient sa position, le département de la Défense pourrait lancer la procédure pour la retirer de ses systèmes. Selon Axios, le Pentagone a déjà demandé aux grands sous-traitants de la défense d’évaluer leur dépendance à Claude.
Le mouvement des employés de Google et OpenAI ajoute une variable imprévue. Si le Pentagone parvient à évincer Anthropic, il devra compter sur des entreprises dont une partie des équipes techniques refuse ouvertement les conditions imposées. La prochaine étape pourrait venir du Congrès, où des élus des deux partis ont déjà exprimé leur opposition à la surveillance de masse assistée par IA, selon le communiqué d’Amodei.