Début février, l’agent IA interne d’Amazon a provoqué des pannes en cascade chez AWS. 1 500 employés ont signé une pétition pour réclamer un autre outil. Le problème n’est pas nouveau : les agents IA, ces programmes censés agir seuls, déraillent régulièrement. Mais au fait, c’est quoi exactement un agent IA ? Et pourquoi est-ce si compliqué de les faire fonctionner ?
Un programme qui ne se contente plus de répondre
Un chatbot classique, type ChatGPT dans sa version de base, attend votre question et y répond. Point. Il ne fait rien de lui-même, ne prend aucune initiative.
Un agent IA, c’est un cran au-dessus. Selon IBM, qui documente le sujet depuis 2024, un agent est un programme capable de percevoir son environnement, de raisonner, puis d’agir, le tout en boucle. On appelle ça le cycle « percevoir-raisonner-agir ». Concrètement, l’agent reçoit des données (un email, un ticket client, un tableau de bord), analyse la situation avec un modèle de langage, décide quoi faire, exécute l’action, puis observe le résultat pour ajuster le tir.
La différence avec un simple chatbot ? L’autonomie. Un agent peut enchaîner 15 actions d’affilée sans intervention humaine. Réserver un vol, modifier une base de données, envoyer un mail de confirmation, tout ça dans la foulée.
Le cerveau derrière : comment ça raisonne
Au coeur de chaque agent, il y a un LLM (large language model), un modèle comme GPT-4, Claude ou Gemini. C’est lui qui fait office de « cerveau ». Mais un cerveau seul ne suffit pas. D’après les chercheurs de Stanford qui ont publié en 2023 une étude pionnière sur les agents génératifs, l’architecture typique comprend trois couches.
La mémoire d’abord. L’agent stocke ce qu’il a fait, ce qu’il a observé, les erreurs passées. Sans mémoire, il répéterait les mêmes bêtises en boucle.
À lire aussi
La planification ensuite. Face à une tâche complexe (« organise mon voyage à Tokyo »), l’agent découpe le problème en sous-tâches. Trouver les vols, comparer les prix, vérifier les disponibilités hôtelières, croiser avec l’agenda.
Et les outils enfin. Un agent seul ne peut rien faire dans le monde réel. Il a besoin d’accéder à des API, des bases de données, des services web. C’est ce qu’OpenAI appelle le « tool use » dans ses recommandations sur la gouvernance des systèmes agentiques, publiées début 2024.
Quatre familles d’agents (du plus bête au plus malin)
Tous les agents ne se valent pas. Les manuels d’IA, comme celui de Russell et Norvig qui fait référence depuis 1995, distinguent quatre grandes catégories.
Les agents réflexes simples réagissent à un stimulus précis. « Si la température dépasse 25°C, allume la clim. » Pas de mémoire, pas de contexte. Un thermostat, en gros.
Les agents basés sur un modèle gardent une représentation interne du monde. Ils savent que la clim tourne déjà, que la fenêtre est ouverte, que la météo annonce une baisse en soirée. Du coup, ils prennent de meilleures décisions.
Les agents orientés objectifs ne se contentent pas de réagir, ils poursuivent un but. « Maintenir le bureau à 22°C tout en minimisant la conso d’énergie. » Ils planifient.
Et tout en haut, les agents apprenants. Ceux-là tirent des leçons de leurs erreurs. Ils s’améliorent avec le temps. C’est cette dernière catégorie qui intéresse le plus les géants tech en 2026.
Pourquoi ça plante (et ça plante souvent)
Le cas Amazon est parlant, mais il est loin d’être isolé. D’après le Financial Times, plusieurs grandes entreprises ont dû suspendre leurs déploiements d’agents IA en 2025 après des incidents similaires. Alors pourquoi ces systèmes déraillent-ils aussi facilement ?
Premier problème : l’effet boule de neige. Quand un agent enchaîne 20 actions, une petite erreur à l’étape 3 se propage et s’amplifie. À l’étape 15, le résultat n’a plus rien à voir avec ce qu’on attendait. Les chercheurs appellent ça le « compounding error ». Plus la chaîne est longue, plus le risque explose.
Deuxième souci : les hallucinations. Le LLM au coeur de l’agent invente parfois des informations. Quand c’est dans une conversation, on s’en aperçoit vite. Quand c’est un agent qui exécute des actions en autonomie, personne ne vérifie en temps réel. L’agent peut modifier une base de données avec des données inventées avant que quiconque s’en rende compte.
Troisième piège : le manque de « bon sens ». Un humain sait instinctivement qu’envoyer 10 000 emails identiques à un client, c’est une mauvaise idée. Un agent, lui, voit juste une tâche à accomplir. Sans garde-fous explicites, il fonce.
Le vrai défi : la confiance
La question qui obsède le secteur, c’est celle de la supervision. Faut-il laisser les agents agir seuls ou garder un humain dans la boucle ? OpenAI et Anthropic recommandent tous les deux un modèle progressif. On commence par des agents très encadrés (un humain valide chaque action), puis on desserre la laisse à mesure que la fiabilité augmente.
Selon le cabinet Gartner, qui suit les tendances tech depuis des décennies, moins de 10% des entreprises faisaient tourner des agents IA en production fin 2025. Le chiffre devrait grimper à 33% d’ici 2028. Mais la route est encore longue.
Le problème de fond, c’est que les LLM actuels n’ont pas été conçus pour l’action. Ils ont été entraînés à générer du texte plausible, pas à prendre des décisions fiables dans le monde réel. Transformer un générateur de texte en décideur autonome, c’est un peu comme demander à un romancier de piloter un avion. Il connaît les mots, mais pas forcément les gestes.
Les agents IA ne vont pas disparaître, bien au contraire. Google, Microsoft, OpenAI, Anthropic : tous misent des milliards dessus. La promesse est trop séduisante, un programme qui bosse pour vous 24h/24 sans se plaindre. Mais entre la promesse et la réalité, il y a un gouffre que l’industrie commence à peine à mesurer. Les prochains mois diront si les agents tiennent leurs promesses ou restent, pour un moment encore, de brillants prototypes qui plantent au pire moment.