512 000 lignes de code. C’est ce qu’un simple fichier de débogage oublié dans une mise à jour a rendu accessible à n’importe qui, le 31 mars. Le code source complet de Claude Code, l’outil de programmation assistée par IA d’Anthropic, s’est retrouvé en libre-service sur internet. En quelques heures, plus de 8 000 copies circulaient déjà sur GitHub.

Un fichier oublié dans la mise à jour

Tout est parti de la version 2.1.88 du paquet npm de Claude Code. Un ingénieur a accidentellement inclus un fichier « source map » dans la mise à jour de routine. Ce fichier pointait vers une archive stockée sur les serveurs cloud d’Anthropic, contenant l’intégralité du code TypeScript de l’application : près de 2 000 fichiers, plus d’un demi-million de lignes.

Le chercheur en sécurité Chaofan Shou a été le premier à signaler publiquement la fuite. Son post sur X a dépassé les 28 millions de vues. Anthropic a réagi rapidement, retirant la version concernée de npm et confirmant l’incident : « Aucune donnée client ni identifiant n’a été exposé. Il s’agit d’un problème d’empaquetage causé par une erreur humaine, pas d’une faille de sécurité. »

Trop tard. Le code avait déjà été téléchargé, analysé et redistribué. Un développeur l’avait même réécrit dans plusieurs langages de programmation pour contourner d’éventuelles suppressions.

La tentative de nettoyage tourne au fiasco

Anthropic a déposé une demande de retrait DMCA (la loi américaine sur le droit d’auteur numérique) auprès de GitHub pour faire supprimer les dépôts contenant le code fuité. Le résultat : 8 100 dépôts touchés. Le problème, c’est que la requête a aussi frappé des copies parfaitement légitimes du dépôt public officiel de Claude Code, que n’importe qui pouvait « forker » (dupliquer) librement.

Des développeurs qui n’avaient rien à voir avec la fuite se sont retrouvés avec un avis de violation de copyright sur leur compte GitHub. La colère a grondé sur les réseaux sociaux. Boris Cherny, responsable de Claude Code chez Anthropic, a reconnu l’erreur : « Ce n’était pas intentionnel, nous travaillons avec GitHub pour corriger ça. » L’entreprise a finalement restreint sa demande à un seul dépôt et 96 forks contenant effectivement le code fuité.

Selon les registres publics DMCA de GitHub, la notice initiale visait bien 8 100 dépôts, un volume inhabituel pour ce type de requête. Pour les développeurs touchés par erreur, la procédure de restauration a pris plusieurs heures, période durant laquelle leur travail est resté inaccessible.

Ce que le code a révélé sur les coulisses d’Anthropic

Au-delà du fiasco logistique, le contenu du code fuité a offert un aperçu rare de la stratégie produit d’Anthropic. Les développeurs qui l’ont analysé y ont trouvé les noms de code internes des prochains modèles d’IA de l’entreprise. « Capybara » désignerait une variante de Claude 4.6, « Fennec » correspondrait à Opus 4.6, et « Numbat » serait un modèle encore en phase de test.

Le code contenait aussi des mentions répétées d’un système baptisé « KAIROS », un mode autonome permettant à Claude Code de fonctionner en arrière-plan comme un agent permanent, consolidant la mémoire et exécutant des tâches pendant que l’utilisateur ne s’en sert pas. En clair : Anthropic travaille à transformer son assistant de programmation en un outil qui ne dort jamais.

Pour les concurrents (OpenAI, Google, Cursor), c’est un accès direct aux techniques qu’Anthropic utilise pour piloter ses modèles d’IA en tant qu’agents de programmation. Ce « harnais » logiciel, la couche qui transforme un modèle de langage brut en outil productif, représente un avantage compétitif considérable. Il circule désormais librement.

380 milliards de valorisation et un calendrier catastrophique

Le timing de cet incident ne pouvait pas être pire. En février, Anthropic a bouclé une levée de fonds de 30 milliards de dollars, portant sa valorisation à 380 milliards, selon Reuters et AP News. Le tour de table, mené par le fonds souverain singapourien GIC et le fonds émirati MGX, faisait d’Anthropic l’une des startups privées les mieux valorisées au monde, au même niveau qu’OpenAI et SpaceX.

Selon Bloomberg, l’entreprise envisageait une introduction en bourse (IPO) dès octobre 2026, une opération qui pourrait lever plus de 60 milliards de dollars d’après The Information. Or, une IPO exige précisément le type de rigueur opérationnelle que cette fuite met en question. Le chiffre d’affaires annualisé de Claude Code dépasse les 2,5 milliards de dollars (il a doublé depuis début 2026, selon le communiqué officiel d’Anthropic). Exposer le code source de ce produit phare revient à publier le plan d’une poule aux oeufs d’or.

L’incident n’est pas isolé. Quelques jours plus tôt, des informations sur « Claude Mythos », un nouveau modèle aux performances décrites comme très supérieures aux versions précédentes, avaient déjà fuité via le système de gestion de contenu interne d’Anthropic. Deux fuites en une semaine, toutes deux attribuées à des erreurs humaines.

Quand l’IA accélère ses propres fuites

Ce que cet épisode illustre dépasse le cas d’Anthropic. Dans un monde où les outils d’IA permettent de réécrire du code dans n’importe quel langage en quelques minutes, une fuite de code source devient pratiquement impossible à contenir. Un développeur a utilisé l’IA pour transcrire le code TypeScript fuité en Python, Go et Rust, rendant les notices DMCA inopérantes. Le dépôt d’origine a dépassé les 84 000 « stars » (favoris) sur GitHub, et des projets dérivés comme OpenCode ont émergé dans la foulée.

Pour les entreprises d’IA qui misent sur le secret industriel plutôt que sur les brevets, la leçon est brutale. La prochaine mise à jour majeure de Claude Code est attendue dans les semaines qui viennent. Reste à savoir si Anthropic y intégrera un nouveau système de vérification des publications, ou si la pression de la vitesse continuera de primer sur la prudence.