Caitlin Kalinowski ne fait pas partie de ces salariés qui signent une pétition avant de retourner à leur bureau. L’ancienne responsable du hardware robotique chez OpenAI a posté sa lettre de démission sur LinkedIn le 8 mars, six jours après la signature officielle du contrat entre OpenAI et le Département de la Guerre américain. Sa formulation est chirurgicale : elle invoque « la surveillance d’Américains sans contrôle judiciaire » et « l’autonomie létale sans autorisation humaine » comme motifs de départ.
Deux lignes rouges. Un poste stratégique abandonné. Et un signal que même les cadres les mieux placés de la tech refusent désormais d’ignorer.
Le parcours qui donne du poids à la démission
Avant d’arriver chez OpenAI, Kalinowski a passé plus de dix ans chez Meta, où elle pilotait l’équipe hardware de Reality Labs, la division responsable des casques Quest. En octobre 2024, OpenAI l’avait recrutée pour un rôle clé : bâtir la plateforme matérielle de ses futurs robots, à la croisée de l’IA logicielle et de la robotique physique.
Ce n’est donc pas une ingénieure junior qui claque la porte sur un coup de tête. C’est une cadre dirigeante, ancienne de Meta, qui quitte un poste de premier plan après cinq mois. Et qui explique publiquement pourquoi, comme le rapportent Reuters, Fortune et Fast Company.
« C’était une question de principe, pas de personnes », écrit-elle dans son post LinkedIn. Elle ne cible pas ses collègues. Elle cible un cadre contractuel qu’elle juge insuffisamment protecteur.
Un contrat militaire annoncé dans la précipitation
Le contrat entre OpenAI et le Département de la Guerre a été officialisé début mars. OpenAI l’a présenté comme centré sur des « applications administratives et logistiques » : planification, gestion documentaire, aide à la décision. Sam Altman a d’ailleurs reconnu, selon PC Gamer, que l’annonce avait été « précipitée » et qu’il s’agissait d’une « bonne leçon ».
Le problème : le texte initial ne contenait aucune clause excluant explicitement les applications de surveillance ou d’armement autonome. OpenAI a dû amender les termes dans les jours qui ont suivi la publication, sous une double pression interne et médiatique. Mais pour Kalinowski, le mal était fait. L’absence de garde-fous dès le départ révélait une culture de la priorité inversée : signer d’abord, sécuriser ensuite.
Pas une lettre ouverte, un départ effectif
Ce qui distingue cette démission des protestations habituelles dans la tech, c’est son caractère irréversible. Les géants de l’IA ne manquent pas de frondeurs. Chez Google et OpenAI, des centaines d’ingénieurs ont signé des lettres ouvertes contre les contrats militaires ces derniers mois. Chez Anthropic, un responsable sécurité est parti avec un billet sibyllin évoquant « les périls du monde ».
Kalinowski, elle, pose deux menaces concrètes sur la table : la surveillance sans mandat et les armes autonomes sans humain dans la boucle. Pas de manifeste philosophique, pas de citation poétique. Et surtout, un départ effectif d’un poste que n’importe quelle entreprise de robotique rêverait de pourvoir.
Le timing amplifie le signal. Kalinowski dirigeait la branche robotique d’OpenAI, la discipline où le passage de l’IA logicielle à l’IA physique se joue. Quand la personne chargée de construire les robots d’une entreprise la quitte parce qu’elle craint ce que ces robots pourraient faire, la dissonance est difficile à ignorer.
Un Pentagone qui force la main
La démission s’inscrit dans un feuilleton plus large. Le secrétaire à la Défense Pete Hegseth a rebaptisé le Pentagone en « Département de la Guerre » et multiplié les pressions sur les entreprises d’IA pour obtenir des contrats. Anthropic, qui a refusé de fournir son modèle Claude sans restrictions éthiques, a été formellement désignée comme « risque pour la chaîne d’approvisionnement », selon plusieurs médias américains. Une mesure inédite qui lui interdit de facto l’accès aux contrats fédéraux.
OpenAI a choisi la voie inverse : signer le contrat, puis négocier les limites. Les termes ont été amendés a posteriori, mais le geste fondateur reste celui d’une entreprise qui a dit oui avant de poser ses conditions. C’est ce séquençage que Kalinowski a jugé inacceptable.
Les conséquences pour OpenAI
Sur le plan opérationnel, un poste se remplace. OpenAI a les moyens d’attirer des talents. Mais chaque démission publique d’un cadre sur des motifs éthiques complique le recrutement dans un secteur où les meilleurs ingénieurs peuvent choisir leur employeur. La réputation pèse autant que le salaire quand trois entreprises concurrentes font la même offre.
Pour l’industrie, l’épisode confirme une fracture croissante dans la tech américaine. D’un côté, ceux qui estiment que collaborer avec l’armée permet de poser des limites de l’intérieur. De l’autre, ceux qui considèrent que certains contrats sont incompatibles avec des principes non négociables, quel que soit le libellé des clauses.
Anthropic, de son côté, poursuit son bras de fer juridique avec le gouvernement fédéral après sa mise au ban. La confrontation entre les entreprises d’IA et l’État américain sur la question militaire n’en est qu’à ses débuts, et les prochaines semaines pourraient voir d’autres départs chez les acteurs qui ont signé.