Fin janvier, Claude pointait à la 131e position dans les applis gratuites de l’App Store américain. Samedi soir, l’assistante vocale d’Anthropic a dépassé ChatGPT pour décrocher la première place. Entre les deux, pas un partenariat publicitaire, pas un grand lancement produit : une désignation officielle comme « menace pour la chaîne d’approvisionnement nationale » par le secrétaire à la Défense Pete Hegseth. Les équipes marketing d’Anthropic n’auraient pas pu inventer meilleure campagne.
Du rang 131 à la première place en cinq semaines
Les données de la société d’analyse Sensor Tower racontent une ascension méthodique, puis une accélération brutale. Claude passe janvier dans le flou : 131e le 30 du mois, il navigue entre la 10e et la 20e position durant la majeure partie de février. Puis la controverse avec le Pentagone éclate en fin de semaine dernière. Mercredi, Claude est 6e. Jeudi, 4e. Samedi soir, il dépasse OpenAI et s’installe en première position, selon les données rapportées par CNBC et TechCrunch.
ChatGPT, qui détenait la première place depuis des semaines, se retrouve relégué au deuxième rang. Google Gemini suit en quatrième position.
La ligne que Dario Amodei a refusé de franchir
Le conflit remonte aux négociations entre Anthropic et le Département de la Défense américain. La startup d’intelligence artificielle, qui fournissait ses modèles via le contrat Palantir, avait posé des conditions à leur utilisation : interdiction de les employer pour de la surveillance domestique de masse ou pour des systèmes d’armement entièrement autonomes, sans intervention humaine.
C’est ce cadre que Pete Hegseth a jugé inacceptable. Le secrétaire à la Défense a demandé qu’Anthropic soit officiellement cataloguée comme risque pour la chaîne d’approvisionnement de la sécurité nationale, ce qui revient concrètement à interdire à tous les contractants de défense de faire appel à ses outils.
Donald Trump a commenté la situation vendredi sur Truth Social, qualifiant les dirigeants d’Anthropic de « cinglés gauchistes » qui auraient commis une « erreur désastreuse » en essayant d' »imposer leurs conditions de service au lieu de la Constitution. »
Dario Amodei, PDG d’Anthropic, a répondu sobrement. « C’est la prérogative du ministère de choisir les prestataires les mieux alignés avec leur vision. Mais compte tenu de la valeur substantielle que la technologie d’Anthropic apporte à nos forces armées, nous espérons qu’ils reconsidèreront », a-t-il déclaré dans un communiqué cité par CNBC.
À lire aussi
L’effet Streisand à grande vitesse
Ce que les analystes appellent « l’effet Streisand » repose sur un principe simple : tenter de supprimer une information ou de sanctionner un acteur amplifie son exposition au-delà de toute proportion. Ici, la sanction fédérale a fait exactement ça, transformant une startup de San Francisco en symbole de résistance éthique pour une frange significative de l’opinion publique américaine.
Le phénomène s’est accéléré avec des relais inattendus. La chanteuse Katy Perry a publié sur les réseaux sociaux une capture d’écran de son abonnement Claude Pro, agrémentée d’un coeur. Ce geste, rapporté par TechCrunch, a encore amplifié la visibilité de l’application auprès d’audiences bien au-delà des cercles tech habituels.
L’effet est mesurable : les inscriptions quotidiennes d’utilisateurs battent un record absolu chaque jour de cette semaine. Les utilisateurs gratuits ont augmenté de plus de 60% depuis janvier, les signups ont triplé depuis novembre. Les abonnés payants ont plus que doublé depuis le début de l’année, selon les chiffres communiqués par la porte-parole d’Anthropic à la presse.
OpenAI joue la carte de l’accord
Pendant qu’Anthropic récoltait une publicité involontaire, son concurrent principal choisissait une stratégie inverse. Sam Altman, PDG d’OpenAI, a annoncé vendredi soir un accord avec le Pentagone. L’accord inclurait, selon lui, des garanties relatives à la surveillance domestique et aux armes autonomes : exactement les lignes rouges qu’Anthropic refusait de céder.
Sam Altman a lui-même reconnu que les délais étaient serrés. « L’accord a été définitivement conclu rapidement, et les optics ne sont pas bons », a-t-il déclaré dans une formulation rapportée par TechCrunch, sans préciser si les garanties mentionnées étaient contraignantes ou symboliques.
ChatGPT dépasse 900 millions d’utilisateurs hebdomadaires selon les derniers chiffres d’OpenAI. L’avance commerciale de la startup reste considérable malgré la progression d’Anthropic. Mais l’écart entre les deux modèles sur les classements App Store s’est réduit comme jamais cette semaine.
Anthropic, une startup bâtie pour résister
Anthropic a été fondée en 2021 par Dario Amodei, sa soeur Daniela et une dizaine d’anciens d’OpenAI, dont certains avaient quitté le navire pour des raisons éthiques. La société a construit son positionnement autour de la notion de « sécurité de l’IA » : ses publications académiques sur l’alignement et son cadre « Constitutional AI » visent à rendre ses modèles moins susceptibles d’être détournés à des fins nuisibles.
Ce positionnement, souvent perçu comme un frein commercial par rapport à des concurrents moins contraignants, se révèle soudainement être un atout de réputation dans un contexte de tensions politiques. Les utilisateurs qui s’inscrivent cette semaine ne viennent pas tous chercher un chatbot plus puissant. Beaucoup expriment un soutien à une entreprise qui a dit non.
Le Parlement européen, qui examine actuellement un cadre réglementaire sur l’usage militaire des systèmes d’IA, suit l’affaire avec attention. La Commission européenne a indiqué qu’elle pourrait solliciter des clarifications auprès des autorités américaines sur les critères ayant conduit à la désignation d’Anthropic comme risque sécurité, un précédent qui pourrait peser sur les relations commerciales transatlantiques dans le secteur.