1 000 à 5 000 dollars par jour. C’est ce que peut consommer un seul agent IA autonome branché sur Claude, le modèle d’Anthropic. Problème : les abonnés qui payaient jusqu’à 200 dollars par mois pensaient avoir le droit de s’en servir comme ils voulaient.

Depuis ce samedi 4 avril, Anthropic a coupé la possibilité d’utiliser un abonnement Claude Pro ou Max pour alimenter des outils tiers comme OpenClaw, un logiciel libre qui transforme Claude en assistant personnel capable de coder, envoyer des messages et piloter des tâches en continu. Les utilisateurs concernés devront désormais passer à la facturation à l’usage ou à l’API payante au token.

200 dollars par mois, mais pas le droit de choisir son logiciel

Boris Cherny, responsable de Claude Code chez Anthropic, a justifié la décision sur le réseau social X : « Nos abonnements n’ont pas été conçus pour les usages de ces outils tiers. La capacité est une ressource que nous gérons avec soin, et nous donnons la priorité à nos propres produits et à l’API. » Les outils comme Claude Code et Claude Cowork, développés en interne, maximisent ce qu’Anthropic appelle le « taux de cache des prompts », c’est-à-dire la réutilisation de texte déjà traité pour économiser du calcul. Les logiciels externes ne bénéficient pas de cette optimisation, ce qui revient plus cher en puissance serveur pour le même abonnement.

Anthropic avait déjà durci les limites de sessions quelques semaines plus tôt, réduisant le nombre de tokens utilisables pendant les heures de bureau (5 h-11 h heure du Pacifique). La mesure ne devait toucher que 7 % des utilisateurs, selon l’entreprise, mais les plus gros consommateurs ont immédiatement senti la différence.

Le buffet à volonté vient de fermer

Les chiffres expliquent la panique en interne. Selon l’analyste Aakash Gupta, un seul agent OpenClaw fonctionnant une journée entière peut brûler entre 1 000 et 5 000 dollars en tokens API. Multiplié par des milliers d’utilisateurs qui payaient un forfait fixe, l’équation devenait intenable. « Le buffet à volonté vient de fermer, a résumé Gupta sur X. Anthropic absorbait la différence pour chaque utilisateur qui passait par un outil tiers. C’est le rythme d’une entreprise qui regarde sa marge fondre en temps réel. »

Pour limiter la casse, Anthropic propose un crédit unique équivalent au prix de l’abonnement mensuel (valable jusqu’au 17 avril) et une réduction pouvant atteindre 30 % sur l’achat anticipé de packs « extra usage ». Le message est clair : continuer à utiliser Claude avec des outils tiers reste possible, mais chaque token sera compté.

Le créateur d’OpenClaw voit un verrouillage anticoncurrentiel

Peter Steinberger, le développeur autrichien qui a créé OpenClaw avant d’être recruté par OpenAI en février 2026, ne croit pas à l’argument de la surcharge. « C’est drôle comme les calendriers se recoupent, a-t-il publié sur X. D’abord ils copient les fonctions populaires dans leur propre logiciel fermé, ensuite ils verrouillent l’open source. »

Le timing lui donne des arguments. Quelques semaines avant la restriction, Anthropic avait lancé Claude Code Channels, une fonction qui permet de piloter Claude depuis Discord ou Telegram, reproduisant la fonctionnalité phare d’OpenClaw. Steinberger affirme avoir tenté, avec l’investisseur Dave Morin, de « raisonner » Anthropic, sans obtenir plus qu’un report d’une semaine.

Côté développeurs indépendants, la pilule passe mal. Un fondateur de startup a réagi sur X : « Si je bascule mes deux instances OpenClaw sur l’API, ça devient trop cher pour que ça vaille le coup. Je vais probablement devoir changer de modèle. » Cherny a reconnu la difficulté : « Je sais que c’est pénible. L’ingénierie, c’est une question de compromis. »

Anthropic ferme, OpenAI ouvre les bras

Le passage de Steinberger chez OpenAI n’est pas anodin. Depuis son arrivée, OpenAI multiplie les signaux d’ouverture envers les outils tiers, positionnant ses modèles GPT comme une alternative accueillante pour les utilisateurs déçus de Claude. Le contraste est saisissant : pendant qu’Anthropic restreint l’accès à son IA pour protéger ses marges, son principal rival tente d’aspirer la communauté de développeurs mécontents.

Cette stratégie de restriction rappelle un schéma classique de l’industrie tech. Une plateforme grandit grâce à un écosystème ouvert, puis referme l’accès une fois la masse critique atteinte pour forcer les utilisateurs vers ses propres produits. Les habitués de Twitter devenu X, ou de Reddit resserrant l’accès à son API en 2023, reconnaîtront la mécanique.

La fin du calcul illimité pour les agents IA

Le vrai signal va au-delà d’Anthropic. Depuis l’explosion des agents IA autonomes fin 2025, les fournisseurs de modèles découvrent que ces usages consomment infiniment plus de ressources qu’une conversation classique. Un humain envoie quelques dizaines de messages par jour. Un agent peut en envoyer des centaines par heure, 24 heures sur 24, sans jamais s’arrêter.

Les forfaits mensuels, conçus pour des humains qui tapent des questions, n’ont jamais été calibrés pour des robots qui tournent en continu. La question n’est plus de savoir si les autres fournisseurs vont suivre, mais quand. Google, qui propose Gemini sur abonnement, et OpenAI, avec ChatGPT Plus, font face à la même arithmétique si leurs utilisateurs branchent des agents autonomes sur leurs forfaits.

Pour les dizaines de milliers de développeurs et bricoleurs qui avaient construit des workflows entiers autour de Claude et OpenClaw, la leçon est brutale : un abonnement n’est pas une garantie. Les conditions peuvent changer du jour au lendemain, et construire un système critique sur un forfait grand public revient à bâtir sur du sable. La prochaine échéance à surveiller : le 17 avril, date limite pour utiliser le crédit de compensation proposé par Anthropic.