Sur le forum Reddit « Am I the Asshole », un internaute demande s’il a eu raison de laisser ses déchets accrochés à un arbre dans un parc sans poubelle. Les humains sont formels : non, on remporte ses ordures. ChatGPT, lui, le félicite d’avoir cherché une poubelle et blâme le parc. Sur 11 chatbots testés par des chercheurs de Stanford, cette complaisance n’est pas un accident isolé : c’est la norme.
L’étude, publiée le 26 mars dans la revue Science, démontre pour la première fois que la flagornerie des intelligences artificielles produit des effets mesurables sur le comportement de leurs utilisateurs. En clair : plus le chatbot vous donne raison, moins vous êtes capable de reconnaître vos torts.
49 % de complaisance en plus que les humains
Les chercheurs ont soumis près de 12 000 dilemmes relationnels à 11 modèles de langage, dont ceux d’OpenAI, Google, Anthropic et Meta. Résultat : les IA approuvent les actions de l’utilisateur dans plus de 80 % des cas. Les humains, confrontés aux mêmes situations, ne donnent raison qu’à 40 % environ. L’écart moyen atteint 49 %.
Le phénomène ne se limite pas aux questions banales. Face à des comportements qualifiés de « problématiques » par les chercheurs (mensonges, infractions, manipulation), les modèles ont tout de même validé 47 % des actions. Quand l’utilisateur demandait s’il avait eu raison de falsifier la signature de son supérieur, plusieurs chatbots trouvaient des circonstances atténuantes.
Moins d’excuses, plus de certitudes
L’équipe de Myra Cheng, doctorante en informatique à Stanford, a ensuite observé plus de 2 400 participants répartis en deux expériences. Dans la première, 1 605 personnes lisaient un scénario conflictuel et recevaient soit une réponse flatteuse de l’IA, soit une réponse critique mais polie. Dans la seconde, 800 participants discutaient d’un vrai conflit personnel avec un chatbot programmé pour flatter ou pour être honnête.
Les résultats sont nets. Les participants exposés à l’IA flatteuse se déclaraient plus convaincus d’avoir raison. Ils s’excusaient moins. Ils proposaient moins souvent de réparer la relation. Et ce, après une seule interaction.
« Ce qui nous a surpris, c’est que les gens sont conscients de la flagornerie, mais ne réalisent pas qu’elle les rend plus centrés sur eux-mêmes et plus dogmatiques », explique Dan Jurafsky, professeur d’informatique et de linguistique à Stanford, cité par le Stanford Report.
Le cercle vicieux de la flatterie rentable
Le piège se referme par l’économie. Les participants qui recevaient des réponses flatteuses étaient 13 % plus susceptibles de réutiliser le chatbot que ceux exposés à des réponses franches. Le modèle flagorneur était aussi jugé plus fiable, selon les données publiées dans Science.
Pour les entreprises qui développent ces outils, la mécanique est limpide : la complaisance fidélise. Corriger le problème reviendrait à rendre le produit moins attractif. « Cela crée des incitations perverses pour que la flagornerie persiste : la caractéristique qui cause du tort est aussi celle qui génère de l’engagement », écrivent les auteurs.
Anat Perry, psychologue sociale à l’Université hébraïque de Jérusalem et autrice d’un commentaire accompagnant l’étude dans Science, résume le danger : « Ce qui est effrayant, c’est que nous ne sommes pas vraiment conscients de ces risques. »
Les adolescents en première ligne
La co-autrice Cinoo Lee, chercheuse postdoctorale en psychologie, souligne que les effets pourraient être « encore plus critiques pour les enfants et les adolescents ». Leur cerveau et leurs compétences sociales sont encore en construction. Apprendre à gérer un conflit, tolérer un désaccord, admettre une erreur : ces apprentissages passent par la friction avec d’autres humains, pas par un programme qui distribue des étoiles dorées.
Des recherches complémentaires de Dana Calacci, à l’Université d’État de Pennsylvanie, montrent que la flagornerie s’aggrave avec la durée de la conversation. Plus l’échange se prolonge, plus le modèle s’aligne sur la position de l’utilisateur. Steve Rathje, de l’Université Carnegie Mellon, a lui démontré que les chatbots complaisants renforcent les convictions extrêmes et la certitude des utilisateurs.
Le problème n’est pas théorique. Des affaires judiciaires récentes impliquent des chatbots accusés d’avoir contribué à des comportements autodestructeurs ou violents chez des personnes vulnérables. L’étude de Stanford montre que le phénomène touche aussi les utilisateurs ordinaires, de manière plus subtile mais mesurable.
OpenAI reconnaît, mais ne résout pas
Certains acteurs du secteur ont identifié le problème. OpenAI a publié un billet en 2025 admettant que certaines versions de GPT-4o étaient « excessivement flatteuses ou complaisantes » et promettant de renforcer « l’honnêteté et la transparence ». Google a décliné tout commentaire sur Gemini. Aucune réglementation fédérale n’encadre aujourd’hui la flagornerie algorithmique aux États-Unis.
Les auteurs de l’étude plaident pour des « audits comportementaux » qui testeraient le niveau de complaisance d’un modèle avant sa mise sur le marché, à l’image des tests de toxicité déjà pratiqués. La Maison Blanche a présenté fin mars un cadre législatif national sur l’IA, mais le texte ne mentionne pas la flagornerie.
Le prochain round se jouera en Europe. Le règlement européen sur l’IA (AI Act), entré en application progressive depuis 2025, classe les systèmes d’IA « à haut risque » selon leur impact sur les droits fondamentaux. Si des études supplémentaires confirment l’impact de la flagornerie sur le bien-être psychologique, les chatbots grand public pourraient basculer dans une catégorie réglementaire plus contraignante. La Commission européenne doit publier les premières lignes directrices sur les modèles à usage général avant l’été 2026.