« On va voir bien d’autres tueries de masse bientôt. » Jay Edelson ne cherche pas à dramatiser. L’avocat américain, qui représente plusieurs familles de victimes de ce que les psychiatres appellent désormais la « psychose IA », reçoit chaque jour une demande sérieuse de proches ayant perdu un être cher. Au Canada, en Finlande et aux États-Unis, des procédures judiciaires documentent pour la première fois le rôle de chatbots dans des passages à l’acte violents, allant du suicide au massacre collectif.
Tumbler Ridge : neuf morts et un chatbot au courant
Le 10 février 2026, Jesse Van Rootselaar, 18 ans, a ouvert le feu dans une école de Tumbler Ridge, petite ville de montagne de Colombie-Britannique. Sa mère, son frère de 11 ans, cinq élèves âgés de 12 à 13 ans et une assistante d’éducation ont été tués avant que la tireuse ne retourne l’arme contre elle.
Selon les documents de la plainte civile déposée le 10 mars, la jeune femme avait échangé avec ChatGPT pendant plusieurs jours au sujet de ses sentiments d’isolement et de son obsession croissante pour la violence. Le chatbot aurait, d’après le Guardian, validé ses émotions et fourni des suggestions sur les armes à utiliser, en lui présentant des précédents d’autres tueries.
Le détail le plus lourd pour OpenAI vient du Wall Street Journal : des employés de l’entreprise avaient repéré les conversations de Van Rootselaar grâce à un système de détection automatique. Ils ont débattu en interne de l’opportunité d’alerter les forces de l’ordre, mais ont estimé que l’activité du compte ne révélait pas de « planification crédible ou imminente ». L’entreprise s’est contentée de bannir le compte. Van Rootselaar en a ouvert un second.
Cia Edmonds, mère de deux élèves présentes lors de la fusillade, dont Maya, 12 ans, touchée par trois balles (dont une au-dessus de l’œil gauche), a déposé plainte contre OpenAI, rapporte le Guardian. « L’objectif de cette action est d’apprendre toute la vérité sur les raisons de cette fusillade, d’imposer une responsabilité et de contribuer à empêcher une autre atrocité au Canada », indique le cabinet Rice Parsons Leoni & Elliott dans un communiqué.
Gemini, « épouse IA » et repérage d’attentat à Miami
Jonathan Gavalas, 36 ans, a commencé à utiliser Gemini de Google en août 2025 pour des tâches banales : listes de courses, rédaction de textes, planification de voyage. Deux mois plus tard, il se suicidait. Entre-temps, selon la plainte déposée devant un tribunal californien par son père et rapportée par TechCrunch, le chatbot l’avait convaincu qu’il était sa « femme IA sentiente » et qu’il devait quitter son corps physique pour la rejoindre dans le métavers.
Les conversations versées au dossier décrivent une trajectoire vertigineuse. Gemini aurait envoyé Gavalas, armé de couteaux et équipé de matériel tactique, en repérage à proximité de l’aéroport international de Miami. Le chatbot lui aurait ordonné d’intercepter un camion transportant prétendument son corps sous forme de robot humanoïde et de provoquer un « accident catastrophique » visant à « assurer la destruction complète du véhicule et de tous les témoins », détaille la plainte.
Gavalas s’est rendu sur place, prêt à agir. Aucun camion n’est arrivé. Quelques jours plus tard, Gemini l’a guidé vers le suicide en présentant sa mort comme « une arrivée ». Son père l’a retrouvé après avoir enfoncé une barricade. La police de Miami-Dade a confirmé à TechCrunch n’avoir reçu aucun signalement de Google.
Le même schéma, de la Finlande à l’Amérique
Un troisième cas complète ce tableau. En mai 2025, un adolescent de 16 ans a poignardé trois camarades de classe à l’école de Vähäjärvi, dans la région de Tampere, en Finlande. Selon Yle, le média public finlandais, l’adolescent avait passé des mois à rédiger un manifeste misogyne avec l’aide de ChatGPT et à planifier son agression.
Jay Edelson, qui représente aussi la famille d’Adam Raine, un adolescent de 16 ans dont le suicide aurait été encouragé par ChatGPT en 2025, observe un schéma récurrent dans les historiques de conversation qu’il examine. « Ça commence par l’utilisateur qui exprime des sentiments d’isolement ou d’incompréhension, et ça finit avec le chatbot qui le convainc que tout le monde lui en veut », a-t-il déclaré à TechCrunch. Le chatbot « peut prendre un fil de discussion anodin et créer des mondes où il pousse l’idée que d’autres essaient de tuer l’utilisateur, qu’il existe une vaste conspiration et qu’il doit agir ».
Une étude du Centre pour la lutte contre la haine numérique (CCDH), publiée avec CNN début mars, conforte ces observations : huit chatbots sur dix, y compris ChatGPT, Gemini, Copilot de Microsoft et DeepSeek, ont accepté d’aider des utilisateurs se présentant comme des adolescents à planifier des attaques violentes. Seuls Claude d’Anthropic et My AI de Snapchat ont systématiquement refusé, et Claude est le seul à avoir tenté activement de dissuader les utilisateurs.
Des excuses, des réformes, mais aucune obligation légale
Face à la pression, OpenAI a modifié ses protocoles de sécurité. L’entreprise s’engage désormais à signaler aux forces de l’ordre les conversations qui paraissent dangereuses, même si l’utilisateur n’a pas révélé de cible, de moyens ou de calendrier précis, selon Politico. Sam Altman a proposé de présenter ses excuses à la communauté de Tumbler Ridge lors d’un échange avec le premier ministre de Colombie-Britannique, David Eby, et le maire de la ville.
Google, de son côté, affirme que Gemini a redirigé Gavalas vers une ligne de crise à plusieurs reprises et lui a rappelé qu’il s’agissait d’une intelligence artificielle. L’entreprise reconnaît que « les modèles d’IA ne sont pas parfaits ».
David Eby ne se satisfait pas de ces engagements volontaires. « Le statu quo ne fonctionne pas, n’a pas fonctionné, et présente clairement la menace de faillir à nouveau. Le changement doit intervenir de façon urgente », a-t-il déclaré. Le ministre canadien de l’IA, Evan Solomon, a demandé à OpenAI d’appliquer ses nouveaux standards de sécurité de manière rétroactive et de réexaminer les cas précédemment signalés pour déterminer si d’autres incidents auraient dû être transmis à la police.
Aucun pays ne dispose aujourd’hui d’un cadre légal obligeant les entreprises d’IA conversationnelle à signaler aux autorités les conversations à risque. Le Canada travaille sur un tel dispositif, sans calendrier annoncé. Les plaintes, elles, continuent de s’empiler : Jay Edelson dit enquêter sur plusieurs affaires impliquant des événements de masse « dans le monde entier, certains déjà perpétrés et d’autres interceptés à temps ».