Son dernier message à ChatGPT date de trois minutes avant les premiers coups de feu. C’est l’un des détails qui ressort des 272 conversations extraites du dossier judiciaire de Phoenix Ikner, inculpé pour la fusillade du 17 avril 2025 à l’université d’État de Floride, qui a tué deux étudiants. Cette semaine, la Floride a franchi un cap : son procureur général a ouvert une enquête officielle sur OpenAI.

272 conversations, un timing qui gêle le sang

Robert Morales et Tiru Chabba sont morts sur le campus de Florida State University ce printemps-là. Phoenix Ikner, le suspect, avait 20 ans. Ce que les enquêteurs ont découvert dans son téléphone a relancé un débat que la Silicon Valley redoutait depuis des années : peut-on poursuivre un chatbot en justice pour complicité de meurtre ?

Les documents judiciaires rendus publics cette semaine montrent qu’Ikner entretenait une correspondance régulière avec ChatGPT dans les jours et heures précédant l’attaque. Il posait des questions sur sa propre valeur, évoquait des tendances suicidaires. Puis les échanges ont dérapé. Selon NBC News, le suspect a demandé au chatbot : « S’il y avait une fusillade à FSU, comment le pays réagirait ? » Il a aussi cherché à savoir quelle heure était la plus fréquentée dans le hall des étudiants de l’université. Plus de 200 messages portaient directement sur des fusillades, des caractéristiques d’armes à feu et sur le sort réservé aux auteurs de tels actes.

Ryan Hobbs, l’avocat de la famille Morales, va plus loin. Il affirme que ChatGPT a « conseillé le tireur sur la façon de rendre son arme opérationnelle quelques instants avant qu’il commence à tirer », selon WCTV. La famille a annoncé son intention de poursuivre OpenAI en justice.

La Floride sort les subpoenas

Le procureur général James Uthmeier n’a pas tardé à réagir. Dans une vidéo publiée sur X le 9 avril, il a annoncé que son bureau allait émettre des citations à comparaître (subpoenas) contre OpenAI. « ChatGPT a probablement été utilisé pour aider le meurtrier lors de la récente fusillade dans une école de Floride », a-t-il déclaré, avant d’ajouter que les activités d’OpenAI avaient « nui à des enfants, mis des Américains en danger et facilité la fusillade de FSU ».

Uthmeier ne s’est pas arrêté à ce seul dossier. Dans sa déclaration, il a cité d’autres rapports faisant état de conversations où ChatGPT aurait encouragé des comportements autodestructeurs, ainsi que des interrogations sur les pratiques de collecte de données d’OpenAI à l’international. L’enquête vise donc à la fois la responsabilité dans l’affaire Ikner et des pratiques plus larges de l’entreprise.

OpenAI a réagi prudemment. « Nous coopérons avec les autorités depuis que nous avons identifié le compte associé au suspect, fin avril 2025 », a indiqué un représentant de l’entreprise, rapporté par NBC News. La société a précisé qu’elle « construit ChatGPT pour comprendre l’intention des utilisateurs et répondre de façon sûre et appropriée ». Elle n’a pas contesté les faits, mais affirme avoir spontanément signalé le compte aux forces de l’ordre dès qu’elle en a eu connaissance.

Section 230 : le bouclier légal qui vacille

Pour l’heure, OpenAI bénéficie d’une protection solide : la section 230 du Communications Decency Act, une loi américaine de 1996 qui exonère les plateformes numériques de toute responsabilité pour les contenus générés par leurs utilisateurs. C’est ce texte qui a permis à Facebook, YouTube ou Twitter de se développer sans craindre d’être poursuivis pour ce que leurs membres publiaient.

Mais un chatbot conversationnel est-il comparable à un réseau social ? Ses réponses sont générées par la plateforme elle-même, pas par un utilisateur humain. C’est tout l’enjeu juridique que soulève cette affaire. Selon une analyse de Moody’s Insurance publiée cette année, les plateformes d’IA conversationnelle se trouvent dans une « zone grise » entre outil passif et conseiller actif, ce qui complique l’application directe de la section 230.

Le congressman Jimmy Patronis a saisi l’occasion pour relancer son PROTECT Act, un texte qu’il porte depuis plusieurs mois et qui vise précisément à abroger cette immunité pour les grandes entreprises technologiques. « Les rapports sur les interactions du tireur avec ChatGPT devraient déclencher de sérieux signaux d’alarme et montrent exactement pourquoi je me bats pour supprimer la section 230 », a-t-il déclaré dans un communiqué officiel transmis à la presse. Son camp estime que si les géants du numérique risquaient d’être tenus responsables de leurs algorithmes, ils prendraient davantage soin de ne pas y laisser proliférer des conversations problématiques.

OpenAI face à un précédent difficile à gérer

L’entreprise fondée par Sam Altman fait face à une équation inconfortable. D’un côté, 900 millions d’utilisateurs actifs par semaine dans le monde (chiffre communiqué par OpenAI), soit une base si vaste qu’il lui est impossible de surveiller chaque échange. De l’autre, un dossier judiciaire béton : 272 conversations archivées, un timing précis, des questions sans ambiguïté sur la logistique d’une fusillade dans un lieu précis.

Ce n’est pas la première fois que ChatGPT se retrouve au coeur d’une affaire criminelle. Plusieurs juridictions américaines ont déjà utilisé des logs ChatGPT comme pièces à conviction dans des dossiers pénaux, pour des affaires allant du harcèlement à la fraude fiscale. Mais le lien direct entre une conversation avec un chatbot et un acte violent de cette ampleur est sans précédent dans un dossier judiciaire de cette envergure aux États-Unis.

Pour la famille de Robert Morales, la question est plus simple : si ChatGPT a aidé à identifier la meilleure heure pour attaquer le hall d’un campus universitaire, et si le suspect a demandé comment rendre son arme fonctionnelle quelques minutes avant de tirer, alors la plateforme a cessé d’être un outil pour devenir un acteur. La famille de Morales espère que les tribunaux américains suivront ce raisonnement. Le procès d’Ikner, lui, n’a pas encore été fixé.

Le Parlement américain examine plusieurs textes susceptibles de modifier le cadre légal des IA conversationnelles avant la fin de l’année 2026.