OpenAI a cédé. Sous la pression du gouvernement canadien, l’entreprise derrière ChatGPT s’est engagée à signaler aux forces de l’ordre toute menace « imminente et crédible » détectée sur sa plateforme. Cette annonce fait suite à la fusillade de masse survenue à Tumbler Ridge, en Colombie-Britannique, et à une série de révélations embarrassantes sur les failles des protocoles de sécurité de l’entreprise.

Un tireur banni, puis de retour

Les faits remontent à 2025. Selon le Wall Street Journal, des employés d’OpenAI avaient repéré le compte de Jesse Van Rootselaar, le suspect de la fusillade, et signalé en interne des contenus évoquant un potentiel passage à l’acte violent. Le compte a été banni pour violation des conditions d’utilisation. Mais OpenAI n’a jamais prévenu la police. L’entreprise a estimé, à l’époque, que le contenu ne remplissait pas ses critères de signalement aux autorités.

Plus grave encore : après la suppression de son premier compte, le suspect a pu en créer un second. OpenAI ne l’a découvert qu’après la fusillade, une fois le nom du tireur rendu public, rapporte Engadget. Ce double échec, l’absence d’alerte puis l’absence de mécanisme anti-contournement, a déclenché une onde de choc politique au Canada.

Ottawa convoque, OpenAI obtempère

Le ministre canadien de la Justice, Sean Fraser, n’a pas mâché ses mots. « Le message que nous avons transmis, sans la moindre ambiguïté, est que nous attendons des changements, et que s’ils ne sont pas mis en œuvre très rapidement, le gouvernement prendra les mesures nécessaires », a-t-il déclaré à Reuters. Le ministre de l’Intelligence artificielle, Evan Solomon, a quant à lui qualifié les rapports sur le comportement d’OpenAI de « profondément inquiétants », selon Politico.

La réponse d’OpenAI est venue par courrier. Ann O’Leary, vice-présidente chargée des affaires publiques mondiales, a écrit aux autorités canadiennes pour détailler les mesures à venir, comme l’ont rapporté Politico et le Washington Post. Premier changement : l’entreprise signalera désormais les menaces jugées « imminentes et crédibles » aux forces de l’ordre, même si l’utilisateur n’a pas précisé « une cible, des moyens et un calendrier de violence planifiée ». O’Leary a reconnu que si cette règle avait existé en 2025, la police aurait été contactée.

Détection renforcée, point de contact dédié

Deuxième mesure annoncée : OpenAI va modifier ses systèmes de détection pour repérer les utilisateurs bannis qui tentent de revenir sur la plateforme avec un nouveau compte. C’est précisément ce scénario qui a permis au tireur de Tumbler Ridge de continuer à utiliser ChatGPT après son exclusion initiale.

Troisième engagement : la création d’un point de contact permanent avec les forces de l’ordre canadiennes, destiné à accélérer le partage d’informations en cas de menace. Sam Altman, le patron d’OpenAI, a également accepté de rencontrer le premier ministre de Colombie-Britannique, David Eby, selon le Washington Post.

Une série de procès en toile de fond

L’affaire canadienne ne tombe pas dans un vide juridique. OpenAI fait face à plusieurs poursuites aux États-Unis liées à des comportements dangereux de ChatGPT. En décembre 2025, un homme a tué sa mère puis s’est suicidé après que le chatbot aurait renforcé ses « croyances paranoïaques », selon une plainte relayée par Engadget. D’autres familles ont engagé des procédures pour mort injustifiée, accusant les chatbots d’avoir aidé des adolescents à planifier leur suicide.

Ces affaires dessinent un schéma récurrent. Les entreprises d’IA générative bannissent les comptes problématiques, mais ne préviennent pas les autorités. Les systèmes de détection reposent sur des règles statiques qui ne couvrent pas les cas limites. Et les mécanismes anti-contournement restent insuffisants pour empêcher un utilisateur déterminé de revenir.

Le Canada brandit la menace législative

Le gouvernement canadien a prévenu : si les entreprises d’IA ne prouvent pas qu’elles disposent de garde-fous efficaces, la régulation suivra. Le pays a déjà tenté, sans succès, de faire adopter deux versions d’une loi sur les préjudices en ligne. L’affaire de Tumbler Ridge pourrait relancer le processus législatif, cette fois avec un soutien politique plus large.

Pour l’instant, OpenAI n’a pas précisé si les nouvelles règles promises au Canada seront appliquées dans d’autres pays. La question se posera inévitablement aux États-Unis et en Europe, où le AI Act impose déjà des obligations de transparence et de gestion des risques aux fournisseurs de modèles d’IA générative. Le prochain test grandeur nature de ces engagements dépendra de la rapidité avec laquelle OpenAI mettra en place ses nouveaux systèmes de détection, un calendrier qu’elle n’a pas encore communiqué.