Des milliers de failles de sécurité. Certaines planquées depuis 27 ans dans des systèmes réputés inviolables. Claude Mythos, la dernière IA d’Anthropic, les a toutes dénichées. Et c’est précisément pour ça que son créateur refuse de la rendre publique.

OpenBSD, forteresse réputée imprenable, cachait un secret depuis 1999

OpenBSD, c’est le système d’exploitation que les experts en sécurité citent en exemple. Conçu dès l’origine pour résister aux attaques, audité par des centaines de développeurs, scruté ligne par ligne depuis plus de deux décennies. Une faille y dormait pourtant depuis 1999. Vingt-sept ans. Elle se nichait dans l’implémentation du protocole TCP SACK et permettait à n’importe quel attaquant de planter un serveur à distance, simplement en s’y connectant.

Claude Mythos l’a repérée en quelques heures. Le cas est loin d’être isolé. L’IA a aussi mis le doigt sur un bug vieux de 16 ans dans FFmpeg, le logiciel open source qui décode les vidéos sur des milliards d’appareils, des smartphones aux téléviseurs connectés. Ce bug avait été « touché » cinq millions de fois par des outils de test automatisés sans jamais être identifié, selon le billet officiel d’Anthropic. Dans le noyau Linux, Mythos a enchaîné plusieurs vulnérabilités pour démontrer comment un attaquant pouvait prendre le contrôle total d’une machine, du compte utilisateur lambda jusqu’aux privilèges administrateur.

Au total, l’IA a identifié des milliers de vulnérabilités zero-day (ces failles inconnues des éditeurs et donc sans correctif) dans chaque grand système d’exploitation et chaque navigateur web majeur du marché.

12 géants de la tech, 100 millions de dollars, un seul objectif

Face à cette puissance de détection, Anthropic a choisi de verrouiller l’accès. « Nous ne prévoyons pas de rendre Claude Mythos Preview accessible au grand public », a déclaré l’entreprise le 7 avril en lançant le Project Glasswing, baptisé d’après le papillon aux ailes transparentes (Greta oto), symbole de la transparence que l’initiative prétend incarner.

Le principe : donner accès au modèle à un cercle restreint de partenaires capables de colmater les brèches avant que des IA similaires ne tombent entre de mauvaises mains. La liste des membres fondateurs ressemble au bottin de la Silicon Valley : Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Fondation Linux, Microsoft, Nvidia et Palo Alto Networks. Quarante autres organisations qui maintiennent des logiciels critiques ont aussi reçu un accès.

Anthropic y injecte 100 millions de dollars en crédits d’utilisation pour Mythos, auxquels s’ajoutent 2,5 millions versés à la Linux Foundation (via les projets Alpha-Omega et OpenSSF) et 1,5 million pour la fondation Apache. L’objectif affiché : scanner le code open source dont dépend une bonne partie de l’infrastructure numérique mondiale et corriger ce qui peut l’être avant que la prochaine génération de modèles ne rende ces failles exploitables par le premier venu.

Un modèle qui surpasse (presque) tous les humains

Les benchmarks publiés par Anthropic donnent le vertige. Sur CyberGym, un test de reproduction de vulnérabilités, Mythos atteint 83,1 %, contre 66,6 % pour Claude Opus 4.6, le modèle phare actuel de l’entreprise. Sur SWE-bench Verified, référence en résolution de bugs logiciels, le score grimpe à 93,9 % contre 80,8 %. L’IA « surpasse tous les humains sauf les plus qualifiés » en matière de détection et d’exploitation de failles, reconnaît Anthropic.

Et c’est bien ce qui pose problème. Mythos ne se contente pas de signaler une faille : elle sait construire un exploit fonctionnel, enchaîner plusieurs vulnérabilités et automatiser l’ensemble sans intervention humaine. Un outil rêvé pour les défenseurs. Un cauchemar potentiel si un acteur malveillant développe ou obtient un modèle équivalent.

Le paradoxe du bouclier qui peut devenir une arme

Anthropic ne cache pas le risque. L’entreprise a prévenu des responsables du gouvernement américain que Mythos rendait les cyberattaques à grande échelle « significativement plus probables cette année », rapporte Fortune. « Vu le rythme des progrès en IA, il ne faudra pas longtemps avant que ces capacités se diffusent, potentiellement vers des acteurs qui ne s’engagent pas à les déployer de manière responsable », écrit l’entreprise dans son billet de blog.

Le contexte amplifie l’urgence. Selon le Google Threat Intelligence Group, 90 vulnérabilités zero-day ont été exploitées « dans la nature » en 2025, contre 78 l’année précédente. Les systèmes d’exploitation concentraient 44 % de ces attaques. D’après le rapport IBM Cost of a Data Breach 2025, chaque faille non corrigée à temps représente un surcoût moyen de 518 000 dollars pour l’organisation touchée.

L’existence même de Mythos avait fuité par accident en mars, quand des chercheurs en sécurité avaient découvert environ 3 000 documents non publiés dans un système de gestion de contenu accessible au public, selon Fortune. Le modèle portait alors le nom de code interne « Capybara ». L’ironie n’a échappé à personne : un modèle censé renforcer la sécurité informatique a été révélé par une faille de sécurité humaine.

90 jours pour colmater, puis le grand test

Le Project Glasswing se fixe un premier horizon de 90 jours. D’ici là, les partenaires devront scanner leurs systèmes, patcher les failles découvertes et publier un premier rapport sur les vulnérabilités corrigées. Anthropic prévoit aussi de formuler des recommandations concrètes sur les processus de divulgation responsable, la sécurité de la chaîne logicielle open source et l’automatisation des correctifs.

Quand Mythos sortira de son accès restreint, il sera facturé 25 dollars par million de tokens en entrée et 125 en sortie, accessible via l’API Claude, Amazon Bedrock, Google Cloud Vertex AI et Microsoft Foundry. À titre de comparaison, Claude Opus 4.6 coûte 15 et 75 dollars respectivement.

Le calendrier du Congrès américain pourrait accélérer les choses. Plusieurs législateurs ont demandé des auditions sur les capacités offensives des modèles d’IA avancés. Anthropic est en discussion avec les autorités, et les conclusions de Glasswing pourraient servir de base aux futures régulations. Le compte à rebours est lancé : dans 90 jours, on saura si les géants de la tech ont su réparer ce que 27 ans de vigilance humaine n’avaient pas suffi à détecter.