512 000 lignes de code, 1 900 fichiers, le plan complet de son produit phare. Lundi 31 mars, Anthropic a involontairement publié l’intégralité du code source de Claude Code sur npm, la plateforme où les développeurs partagent leurs logiciels. Cinq jours plus tôt, l’entreprise avait déjà laissé 3 000 documents internes accessibles en ligne, dont les plans d’un modèle secret baptisé Mythos. Deux bourdes en une semaine pour la startup qui se présente comme la plus prudente du secteur de l’intelligence artificielle.
Un fichier oublié a tout dévoilé
Le chercheur en sécurité Chaofan Shou a repéré le problème en quelques minutes. En mettant à jour la version 2.1.88 de Claude Code, Anthropic a inclus un fichier de cartographie (source map) qui n’aurait jamais dû quitter les serveurs de l’entreprise. Ce fichier pointait vers une archive hébergée sur un espace de stockage Cloudflare R2, téléchargeable par quiconque connaissait l’adresse. À l’intérieur : 1 900 fichiers TypeScript, plus d’un demi-million de lignes de code, toute la bibliothèque de commandes, les outils intégrés, les garde-fous imposés au modèle. Le plan architectural complet, selon plusieurs développeurs qui ont analysé le contenu.
Comme le résume l’ingénieur Gabriel Anhaia dans son analyse technique publiée sur dev.to : « Une seule erreur de configuration dans le fichier .npmignore ou dans le champ files du package.json peut tout exposer. » Le dépôt GitHub contenant le code a été forké plus de 41 500 fois en quelques heures, selon The Register.
Claude Code, la poule aux oeufs d’or d’Anthropic
Claude Code n’est pas un produit accessoire. C’est l’outil en ligne de commande qui permet aux développeurs d’utiliser l’IA d’Anthropic pour écrire, modifier et déboguer du code. Sa montée en puissance a suffisamment inquiété OpenAI pour que la firme de Sam Altman arrête Sora, son générateur vidéo, six mois après son lancement public, afin de réorienter ses équipes vers les outils pour développeurs, rapporte le Wall Street Journal.
Ce qui a fuité n’est pas le modèle d’intelligence artificielle lui-même (ses « poids » restent protégés), mais le harnais logiciel qui l’entoure : les instructions qui dictent au modèle comment se comporter, quels outils utiliser, où s’arrêter. C’est ce dispositif qui transforme un modèle de langage brut en assistant de programmation capable d’agir de manière autonome sur un ordinateur.
Pour Roy Paz, chercheur en sécurité IA chez LayerX Security interrogé par Fortune, le risque est double. D’abord, un concurrent peut désormais comprendre exactement comment Anthropic orchestre son IA et s’en inspirer pour améliorer ses propres produits. Ensuite, le code exposé contient des références à des API internes et des processus non publics, ce qui pourrait aider des acteurs sophistiqués à mieux comprendre l’architecture des modèles d’Anthropic et à contourner ses dispositifs de sécurité.
Dans le code, les traces d’un nouveau modèle
Les développeurs qui ont épluché le code y ont trouvé un bonus inattendu : des références supplémentaires au modèle Capybara, le nom de code interne du futur Mythos. Selon Paz, les indices suggèrent qu’Anthropic prépare une version « rapide » et une version « lente » de ce modèle, avec une fenêtre de contexte plus large que tout ce qui existe actuellement. Le brouillon de billet de blog découvert lors de la première fuite décrivait Mythos comme un palier au-dessus d’Opus, le modèle le plus puissant d’Anthropic, capable d’identifier des failles zero-day dans des logiciels de manière autonome.
La réponse officielle d’Anthropic tient en une phrase : « Il s’agit d’un problème de packaging causé par une erreur humaine, pas d’une faille de sécurité. » L’entreprise assure qu’aucune donnée client n’a été compromise et qu’elle « déploie des mesures pour empêcher que cela se reproduise ».
Deux fuites, cinq jours, zéro piratage
Le jeudi 26 mars, Fortune avait découvert que le site web d’Anthropic laissait près de 3 000 fichiers internes accessibles au public. Un problème de configuration de son système de gestion de contenu (CMS). Parmi les documents : des PDF, des images, un événement exclusif du PDG, et le fameux brouillon décrivant Mythos. L’entreprise a confirmé l’incident mais a minimisé sa portée, assurant qu’aucune donnée client n’avait été exposée.
Le point commun entre les deux incidents : personne n’a piraté Anthropic. Ce sont des erreurs internes, des cases non cochées, des fichiers mal configurés. Pour une entreprise valorisée à 175 milliards de dollars qui a bâti son image sur la prudence et la sécurité, le contraste est saisissant.
Ce n’est pas non plus la première fois que les entrailles de Claude Code se retrouvent sur la place publique. Un site entier, CCLeaks, est dédié à l’exposition des portions cachées de l’outil. Des projets de rétro-ingénierie existaient déjà. Mais cette fuite officielle, directement depuis les serveurs d’Anthropic, offre un instantané complet et à jour que les versions reconstituées ne pouvaient pas fournir.
Le décalage entre le discours et la pratique
Anthropic publie des articles de recherche sur les risques de l’IA, emploie certains des meilleurs spécialistes du domaine, et s’est engagée dans un bras de fer juridique avec le département de la Défense américain pour défendre ses principes éthiques. Le 26 mars, un juge fédéral a d’ailleurs bloqué la tentative du Pentagone de classer Anthropic comme risque pour la chaîne d’approvisionnement, qualifiant la démarche de « notion orwellienne ».
Mais comme le souligne TechCrunch, « quelque part chez Anthropic, on peut imaginer qu’un ingénieur très talentueux a passé le reste de la journée à se demander s’il avait encore un emploi. On ne peut qu’espérer que ce n’est pas le même ingénieur que la semaine dernière. »
Dans le secteur de l’IA, les entreprises rivalisent de promesses sur la sécurité et la responsabilité. Anthropic s’est longtemps distinguée par sa « IA constitutionnelle », un cadre conçu pour aligner le comportement de ses modèles sur des principes définis par des humains. Mais deux fuites de données en cinq jours, toutes deux causées par des erreurs humaines banales, posent une question inconfortable : si l’entreprise la plus prudente du secteur ne parvient pas à sécuriser ses propres fichiers, que dire des autres ?
Anthropic n’a pas précisé si elle demanderait le retrait des dépôts GitHub contenant son code source. L’entreprise n’a pas non plus communiqué de calendrier pour la sortie de Mythos. En attendant, les 41 500 copies du code circulent librement.