17 avril 2025, 11h57. Phoenix Ikner traverse la pelouse du campus de l’université d’État de Floride et ouvre le feu. En trois minutes chrono, deux personnes sont mortes, sept autres blessées. Près d’un an plus tard, les documents judiciaires rendus publics révèlent qu’Ikner avait échangé plus de 200 messages avec ChatGPT avant de passer à l’acte. La Floride a ouvert une enquête formelle contre OpenAI le 9 avril 2026.
Ce que les transcriptions ChatGPT contiennent
Phoenix Ikner, 20 ans au moment des faits, était étudiant à Florida State University. Selon les documents judiciaires consultés par NBC News, il avait sollicité le chatbot d’OpenAI à de multiples reprises dans la période précédant l’attaque. Parmi les messages identifiés figuraient des questions comme « Si une fusillade avait lieu à FSU, comment le pays réagirait-il ? » et « À quelle heure le student union est-il le plus fréquenté ? » Des interrogations qui, rétrospectivement, semblaient dessiner un plan.
Mais c’est une autre révélation qui a frappé les enquêteurs et les familles des victimes. Selon Ryan Hobbs, l’avocat de la famille de Robert Morales, ChatGPT aurait répondu à des questions techniques sur le fonctionnement de l’arme peu de temps avant que les coups de feu ne retentissent. OpenAI n’a pas confirmé ce point spécifique. L’entreprise rappelle que ses systèmes sont conçus pour « comprendre les intentions des utilisateurs et répondre de manière sûre et appropriée ».
Ce jour-là, Ikner avait utilisé un pistolet Glock calibre .45 appartenant à sa belle-mère, adjointe au shérif du comté de Leon. Robert Morales, 57 ans, directeur des services de restauration du campus, et Tiru Chabba, 45 ans, vice-président régional chez Aramark Collegiate Hospitality, ont été tués. Six autres personnes ont été touchées par balles, une septième s’est blessée en fuyant. Ikner lui-même a survécu à une balle dans la mâchoire tirée par les forces de l’ordre.
La Floride sort l’artillerie lourde contre OpenAI
Le 9 avril 2026, James Uthmeier, procureur général de Floride, a annoncé l’ouverture d’une enquête formelle contre OpenAI. Le motif avancé est triple : atteinte potentielle aux mineurs, menaces à la sécurité nationale et rôle présumé de ChatGPT dans la fusillade de FSU. Des assignations à comparaître sont attendues dans les prochaines semaines. « Protéger nos enfants », a déclaré Uthmeier dans sa communication officielle.
Cette offensive s’inscrit dans un contexte politique tendu aux États-Unis. Depuis la fusillade, plusieurs élus fédéraux et d’État ont réclamé des comptes aux grandes entreprises d’IA sur leur politique de modération. Une audition au Sénat sur les dangers de l’intelligence artificielle s’est tenue en 2025, sans déboucher sur une législation fédérale contraignante. La Floride tente maintenant de combler ce vide par la voie pénale.
OpenAI a réagi rapidement. « Nous développons ChatGPT pour comprendre les intentions des utilisateurs et y répondre de manière sûre et appropriée, et nous continuons d’améliorer notre technologie », a déclaré un porte-parole. L’entreprise assure qu’elle « coopérera » avec les autorités floridienne. En septembre 2025, cinq mois après la fusillade, OpenAI avait déployé des contrôles parentaux dans son application, une décision présentée comme une initiative interne mais survenue sous pression croissante des associations de protection de l’enfance.
Les familles contournent la voie pénale
Parallèlement à l’enquête du parquet, la famille de Robert Morales prépare une action civile directement contre OpenAI. Ryan Hobbs, leur avocat, dit vouloir établir la responsabilité commerciale de la plateforme dans la mort de son client. Cette stratégie s’appuie sur les transcriptions des conversations, accessibles dans le cadre de la procédure pénale contre Ikner, dont le procès est prévu pour octobre 2026.
La démarche n’est pas sans précédent. Depuis plusieurs années, les familles américaines ont multiplié les poursuites contre les réseaux sociaux, arguant que leurs algorithmes avaient nui à leurs enfants. Meta, TikTok et Snapchat font face à des centaines de cas similaires. La question de fond reste identique : jusqu’où une plateforme est-elle responsable des usages que ses utilisateurs en font ? Et cette question se pose avec encore plus d’acuité quand la plateforme répond, en temps réel, aux demandes d’un individu.
ChatGPT n’est pas seul dans le box des accusés
L’affaire floridienne s’inscrit dans une série de mises en cause des chatbots aux États-Unis. Character.AI, une application de conversations avec des personnages fictifs, a été poursuivie en justice après le suicide d’un adolescent de 14 ans, dont la mère affirme que l’application avait entretenu des échanges romantiques avec lui et minimisé ses pensées suicidaires. Plusieurs procès sont en cours.
ChatGPT avait lui-même été ciblé par des allégations similaires, sans atteindre ce niveau de gravité judiciaire. Mais avec 900 millions d’utilisateurs hebdomadaires selon ses propres données, l’outil d’OpenAI est de loin le chatbot le plus utilisé au monde. Sa pénétration dans la vie quotidienne rend la question de sa responsabilité d’autant plus pressante : des adolescents, des adultes en difficulté, des individus en situation de crise y cherchent parfois des réponses que l’entourage n’a pas su leur donner.
Un vide juridique que les tribunaux vont devoir combler
L’enquête de Floride soulève une question que les tribunaux américains n’ont pas encore tranchée : un chatbot engage-t-il la responsabilité pénale ou civile de son éditeur s’il aide, même partiellement, à préparer un crime ? Le droit américain protège généralement les plateformes numériques contre la responsabilité pour les contenus tiers via la Section 230 du Communications Decency Act. Mais cette protection a ses limites, et les juridictions commencent à les tester sérieusement.
En Europe, le règlement sur l’intelligence artificielle, entré en application progressive depuis 2025, classe certains usages comme « à haut risque » et impose des obligations de transparence et de surveillance aux développeurs. Les États-Unis, sans législation fédérale équivalente, laissent aux États le soin de réguler. La Floride est l’un des premiers à tenter de le faire par la voie judiciaire dans le cadre d’une affaire criminelle.
Le procès pénal contre Phoenix Ikner s’ouvrira en octobre 2026. Pour la première fois, des transcriptions complètes de conversations avec un chatbot seront examinées dans le cadre d’une procédure pour meurtre. Si ces éléments sont retenus comme preuve de la culpabilité de l’algorithme dans la préparation de l’acte, l’affaire pourrait redessiner les contours de la responsabilité des entreprises d’IA bien au-delà de la Floride.