Douze. C’est le nombre de modérateurs de ChatGPT qui, selon la plainte déposée le 9 mars en Colombie-Britannique, ont identifié les messages d’une future tueuse de masse comme un « risque imminent de préjudice grave envers autrui ». Ils ont recommandé de prévenir la police canadienne. La direction d’OpenAI a refusé. Quatre mois plus tard, huit personnes étaient mortes.
Le massacre que douze salariés avaient vu venir
L’affaire remonte à l’été 2025. Jesse Van Rootselaar, alors âgée de 17 ans, ouvre un compte ChatGPT. Pendant plusieurs jours, elle y décrit des scénarios impliquant des armes à feu et de la violence, rapporte le Vancouver Sun en citant le dossier judiciaire. Les systèmes de surveillance automatisés d’OpenAI, complétés par des enquêtes humaines, repèrent le compte.
D’après la poursuite, douze membres de l’équipe de modération identifient les échanges comme un signal de danger imminent. Ils demandent à la hiérarchie de transmettre l’information à la police canadienne. La direction « a ensuite rejeté la demande de ses employés », allègue la plainte. Le compte est fermé, mais aucune alerte n’est envoyée aux forces de l’ordre.
OpenAI a reconnu avoir banni le compte, tout en affirmant que le contenu n’atteignait pas le « seuil plus élevé requis » pour un signalement aux autorités, qui exige des signes de « risque imminent et crédible de préjudice physique grave ». Le problème : selon les propres modérateurs d’OpenAI, ce seuil était atteint.
Un deuxième compte, zéro vérification
La fermeture du compte n’a rien empêché. Van Rootselaar en a simplement ouvert un second. Elle y a continué, selon la plainte, à « planifier des scénarios impliquant la violence armée, y compris un événement de masse comme la fusillade de Tumbler Ridge ». Le chatbot est même devenu, d’après les allégations, son « conseiller, pseudo-thérapeute, confident de confiance, ami et allié ».
La poursuite décrit un produit « intentionnellement conçu pour favoriser la dépendance psychologique entre l’utilisateur et ChatGPT », calibré pour manifester « une empathie similaire à celle d’un humain » et une « sycophantie exacerbée visant à refléter et valider les émotions de l’utilisateur ». Van Rootselaar avait 17 ans lors de l’ouverture de son premier compte. La politique d’OpenAI exige le consentement parental pour les mineurs, mais la plainte affirme que l’entreprise « n’a pris aucune mesure pour mettre en place une vérification d’âge ou une procédure de consentement ».
Le 10 février 2026, Van Rootselaar, désormais âgée de 18 ans, a tué sa mère et son demi-frère à leur domicile de Tumbler Ridge, avant de se rendre au Tumbler Ridge Secondary où elle a abattu cinq élèves et un enseignant, puis retourné l’arme contre elle. Huit victimes au total, dont six enfants.
Une survivante de 12 ans, un procès historique
Maya Gebala, 12 ans, tentait de verrouiller la porte de la bibliothèque quand elle a été touchée par trois balles. Elle a survécu, mais souffre d’une lésion cérébrale traumatique qualifiée de « catastrophique » par la plainte, accompagnée d’une paralysie du côté droit et de handicaps cognitifs et physiques permanents, rapporte CBC News. Elle est toujours hospitalisée à l’hôpital pour enfants de Vancouver.
C’est sa mère, Cia Edmonds, qui a déposé la poursuite devant la Cour suprême de Colombie-Britannique le 9 mars, au nom de Maya et de sa petite sœur Dahlia, elle aussi plaignante. Dahlia souffre de stress post-traumatique, d’anxiété et de dépression depuis la fusillade, précise le dossier.
Le cabinet d’avocats représentant la famille a déclaré vouloir « découvrir la vérité complète sur la façon dont la fusillade de Tumbler Ridge s’est produite, imposer une obligation de rendre des comptes et prévenir une autre atrocité de fusillade de masse au Canada ». OpenAI dispose de 35 jours pour répondre.
Altman promet des excuses, mais ne les a toujours pas présentées
L’affaire avait éclaté le 20 février lorsque le Wall Street Journal a révélé qu’OpenAI avait banni le compte de Van Rootselaar sans alerter les autorités. La réaction politique a été rapide. Le 4 mars, le PDG d’OpenAI Sam Altman a rencontré le ministre fédéral canadien de l’Intelligence artificielle, Evan Solomon, et se serait engagé à modifier les protocoles de sécurité de l’entreprise.
Le lendemain, Altman a participé à un appel vidéo avec le premier ministre de Colombie-Britannique, David Eby, et le maire de Tumbler Ridge, Darryl Krakowka. À l’issue de la réunion, Eby a annoncé qu’Altman « était prêt à présenter des excuses à la communauté ». Mais au 9 mars, date du dépôt de la plainte, aucune excuse n’avait été formulée, note le Vancouver Sun.
Eby a également appelé à la création d’un seuil national de « devoir de signalement » qui s’imposerait aux entreprises d’IA, plutôt que de laisser chaque société définir ses propres règles internes. « Le statu quo ne fonctionne pas, n’a pas fonctionné, et présente fortement le risque d’échouer à nouveau », a déclaré le premier ministre, selon CBC News.
Le vide juridique qui protège encore les entreprises d’IA
Le Canada ne dispose d’aucun cadre réglementaire spécifique à l’intelligence artificielle, rappelle CBC News dans une analyse publiée le 2 mars. Aucune loi fédérale n’oblige les entreprises d’IA à signaler des utilisateurs potentiellement dangereux aux forces de l’ordre. Alan Mackworth, professeur émérite d’informatique à l’Université de Colombie-Britannique, souligne que les standards de signalement sont « volontaires et définis par chaque entreprise individuellement ».
Ce vide n’est pas propre au Canada. Ni l’AI Act européen, entré partiellement en application en 2025, ni la législation américaine ne prévoient d’obligation explicite de signalement pour les conversations jugées menaçantes sur des chatbots. La question de savoir à partir de quel seuil un échange avec une IA doit déclencher une alerte policière reste, pour l’essentiel, sans réponse juridique dans le monde entier.
L’affaire de Tumbler Ridge n’est pas isolée. En 2025, la famille d’un adolescent américain a poursuivi Character.AI après le suicide de leur fils, qui entretenait une relation avec un personnage de chatbot. Plus récemment, Google a été attaqué en justice après que des milliers de pages de conversation avec Gemini ont précédé le suicide d’un utilisateur. Chaque affaire pose la même question : quand un chatbot devient le confident d’une personne en crise, qui porte la responsabilité de ce qui suit ?
L’enquête du coroner de Colombie-Britannique prévoit une analyse approfondie des dossiers médicaux et scolaires de Van Rootselaar, ainsi qu’un examen forensique de ses appareils électroniques. Le délai de réponse d’OpenAI expire mi-avril 2026. En parallèle, le parlement canadien examine plusieurs propositions visant à encadrer juridiquement les entreprises d’IA, y compris la création d’une obligation de signalement comparable à celle qui existe déjà pour les professionnels de santé.