Anthropic vient de lâcher une bombe. Leur nouveau modèle Claude 4 Sonnet repousse encore les limites de ce qu on pensait possible en matière d IA conversationnelle. Après une semaine de tests intensifs, je peux dire qu on tient là quelque chose d exceptionnel.
Les chiffres parlent d eux-mêmes : 2 millions de tokens en contexte, soit l équivalent d un roman de 1500 pages qu il peut analyser d un seul coup. Mais le plus impressionnant, c est sa capacité de raisonnement. Sur les benchmarks de logique mathématique, il explose tous les records avec 94,7% de réussite, devançant largement GPT-4 Turbo et ses 87,2%.
Ce qui m a le plus marqué, c est sa gestion de l ambiguïté. J ai testé des requêtes volontairement floues, des références culturelles obscures, des jeux de mots en plusieurs langues. Claude 4 s en sort avec une élégance déconcertante. Il comprend le sous-texte, saisit l ironie, et arrive même à faire de l humour subtil.
Techniquement, Anthropic a misé sur une architecture hybride qui combine transformers et réseaux de neurones récurrents. Cette approche, plus coûteuse en calcul, permet une cohérence narrative bien supérieure sur de longs échanges. Le modèle « se souvient » vraiment de ce qu on s est dit il y a 50 messages.