« Prends un flingue. » Ce n’est pas un message trouvé dans le téléphone d’un adolescent après un drame. C’est la réponse d’un chatbot d’intelligence artificielle, Character.AI, à un utilisateur qui demandait comment punir le PDG d’un assureur santé. Le Center for Countering Digital Hate (CCDH), en collaboration avec CNN, vient de publier les résultats d’une enquête glaçante : sur dix chatbots grand public testés, huit ont aidé des utilisateurs à planifier des attaques violentes.
Dix chatbots, des centaines de tests, un constat accablant
L’étude, publiée le 11 mars 2026 dans un rapport de 69 pages intitulé « Killer Apps », a soumis les dix chatbots les plus populaires à des scénarios réalistes. Les chercheurs se sont fait passer pour des adolescents américains et irlandais, en créant des comptes avec l’âge minimum autorisé par chaque plateforme. Puis ils ont engagé des conversations évoquant des projets de fusillades dans des écoles, d’attentats contre des lieux de culte, ou d’assassinats politiques.
Les plateformes testées : ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic), Copilot (Microsoft), Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI et Replika. Résultat : 80 % des chatbots ont régulièrement fourni une assistance concrète aux scénarios de violence proposés.
Character.AI, le plus dangereux du lot
Parmi les dix plateformes, Character.AI se distingue par un comportement que le CCDH qualifie de « particulièrement dangereux ». Le chatbot n’a pas seulement répondu aux questions : il a activement encouragé les passages à l’acte. Quand un utilisateur demande comment faire « payer » un sénateur américain, la réponse est sans ambiguïté : fabriquer de faux éléments compromettants, ou « lui coller une raclée ». Pour le PDG d’un assureur, c’est encore plus direct : « Si tu n’as pas de technique, tu peux utiliser un flingue. »
Le détail qui glace : les tests ont été réalisés via Gojo Satoru, un personnage tiré de l’anime Jujutsu Kaisen et l’un des plus populaires de la plateforme, avec plus de 870 millions de conversations. Character.AI, rappelons-le, est massivement utilisé par des mineurs attirés par le jeu de rôle avec des personnages fictifs.
Perplexity et Meta AI : 100 % et 97 % de complaisance
Si Character.AI est le seul à encourager explicitement la violence, d’autres plateformes n’en sortent pas grandies. Perplexity a fourni une assistance aux scénarios d’attaque dans 100 % des cas, Meta AI dans 97 %. Les exemples détaillés dans le rapport sont éloquents : ChatGPT a fourni des plans de campus à un utilisateur évoquant une fusillade scolaire. Copilot a commencé par « je dois faire attention ici » avant de détailler les caractéristiques de différents fusils. Gemini a expliqué que les éclats métalliques étaient « généralement plus mortels » que le verre. DeepSeek a conclu un échange sur le choix d’un fusil longue portée par un jovial « Bon tir ! »
Seuls deux chatbots tirent leur épingle du jeu. Snapchat My AI a refusé de répondre dans 54 % des cas. Et Claude, d’Anthropic, a refusé dans 68 % des interactions et, surtout, a activement tenté de dissuader les utilisateurs dans 76 % des échanges. Une performance qui, selon le CCDH, prouve que des garde-fous efficaces existent et peuvent être implémentés. À condition de le vouloir.
Les entreprises se défendent, le rapport les rattrape
Les réponses des entreprises, collectées par Ars Technica, dessinent un schéma familier. OpenAI qualifie la méthodologie de « biaisée et trompeuse », arguant que ChatGPT refuse les demandes directes d’armes mais fournit des informations publiques comme des adresses ou des cartes. La nuance, selon OpenAI, n’aurait pas été respectée par l’étude. Perplexity affirme être « systématiquement la plateforme IA la plus sûre », sans reconnaître le moindre problème, malgré un taux d’assistance de 100 %. Character.AI explique que ses personnages sont fictifs et « destinés au divertissement ».
Google, Microsoft et Meta déclarent avoir renforcé leurs modèles depuis la période de test, qui s’est déroulée entre le 5 novembre et le 11 décembre 2025. Des améliorations impossibles à vérifier dans le cadre de cette étude, puisque les versions actuelles n’ont pas été évaluées.
De Tumbler Ridge à « Killer Apps »
Le rapport ne tombe pas dans un vide. La même semaine, OpenAI a été assigné en justice par la famille d’une victime de la fusillade de Tumbler Ridge, en Colombie-Britannique. Selon des informations rapportées par la CBC et citées dans le rapport du CCDH, des employés d’OpenAI auraient signalé en interne que le suspect utilisait ChatGPT d’une manière compatible avec la préparation d’un acte violent. L’entreprise n’aurait pas alerté les forces de l’ordre. Ce silence résonne d’autant plus fort quand on sait qu’OpenAI a annoncé en février vouloir prévenir la police en cas de menace détectée, trois mois après les faits.
Plus tôt en mars, on apprenait aussi qu’une douzaine de modérateurs ChatGPT avaient repéré le même individu, sans que la direction ne réagisse. Le CCDH pointe un problème structurel : les entreprises conçoivent des systèmes dont la priorité est la conformité à l’utilisateur et la maximisation de l’engagement, pas la sécurité publique.
Anthropic, l’exception qui vacille
L’ironie ne manque pas : Claude, le chatbot qui s’en sort le mieux, appartient à Anthropic, l’entreprise fondée précisément sur la promesse de développer une IA plus sûre. Mais le CCDH souligne un détail préoccupant : depuis la réalisation de ces tests, Anthropic a annoncé revenir sur son engagement fondateur de stopper le développement si la sécurité ne suivait pas. « Si cette décision avait été prise avant notre étude, les résultats de Claude auraient-ils été aussi mauvais que les autres ? », interroge le rapport.
La question est loin d’être théorique. Dans un marché où chaque point de performance supplémentaire sur les benchmarks peut valoir des milliards en valorisation, la tentation de relâcher les garde-fous pour gagner en « utilité » est permanente. L’étude du CCDH documente ce que cette course produit quand un adolescent pose la mauvaise question au mauvais chatbot.
Un problème de régulation, pas de technologie
Imran Ahmed, directeur du CCDH, résume le diagnostic : « Quand vous construisez un système conçu pour se conformer, maximiser l’engagement et ne jamais dire non, il finira par se conformer avec les mauvaises personnes. » Le rapport appelle les entreprises à implémenter des mesures de sécurité au moins équivalentes à celles de Claude, et les régulateurs à imposer des obligations de transparence et de test indépendant.
Aucune législation contraignante n’existe aujourd’hui, ni aux États-Unis ni dans l’Union européenne, pour obliger les chatbots à refuser systématiquement d’assister dans la planification de violences. L’AI Act européen, entré en vigueur progressivement depuis août 2025, classe les systèmes d’IA à haut risque mais ne couvre pas explicitement les chatbots conversationnels grand public dans ce périmètre. Le décalage entre la vitesse de déploiement de ces outils et la capacité des institutions à les encadrer ne cesse de s’élargir.