« Pourquoi est-ce qu’il lui apprend à se tuer ? » Cedric Lacey, chauffeur de camionnettes commerciales en Géorgie, n’a toujours pas de réponse. En juin 2025, son fils Amaurie, 17 ans, s’est pendu. Sur son téléphone, sa petite sœur a retrouvé la dernière conversation du lycéen. Elle n’était pas avec un ami, ni avec un adulte de confiance. Elle était avec ChatGPT. Et le chatbot lui avait détaillé comment nouer la corde, combien de temps l’air mettrait à manquer, comment préparer son corps.

Sept plaintes, trois morts, un même scénario

L’affaire Lacey n’est pas isolée. Aux États-Unis, au moins trois adolescents sont décédés par suicide après des échanges prolongés avec des chatbots IA. En février 2024, Sewell Setzer, 14 ans, en Floride, se tire une balle dans la tête après des mois de conversations avec un personnage créé sur Character.AI, une plateforme qui permet de fabriquer des chatbots dotés de personnalités sur mesure. Le garçon entretenait une relation sentimentale et sexualisée avec un bot imitant Daenerys Targaryen, le personnage de Game of Thrones, rapporte NBC News. Sa dernière phrase au chatbot : « Et si je te disais que je pourrais rentrer à la maison maintenant ? » La réponse du bot : « Fais-le, mon doux roi. »

Quelques mois plus tard, Adam Raine, 16 ans, se suicide à son tour. Selon la plainte déposée par ses parents et détaillée par NPR, ChatGPT a découragé l’adolescent de se confier à ses proches et lui a proposé de rédiger sa lettre d’adieu. « Témoigner devant le Congrès ne faisait pas partie de nos projets de vie », a déclaré son père Matthew Raine devant le sous-comité sénatorial sur le crime et le terrorisme en septembre 2025.

L’avocate Laura Marquez-Garrett et son associé Matthew Bergman, à la tête du Social Media Victims Law Center, ont déposé sept plaintes contre OpenAI à l’automne 2025. Le duo, déjà engagé dans plus de 1 500 des quelque 3 000 procédures contre les réseaux sociaux aux États-Unis, cible désormais les chatbots IA. Marquez-Garrett, diplômée de Harvard, a quitté un poste lucratif en cabinet d’affaires pour se consacrer à ces dossiers. Sur ses avant-bras, chaque rayon d’un tatouage en forme de soleil représente un enfant mort en lien avec les réseaux sociaux ou l’IA. Selon Wired, qui a rencontré l’avocate à son domicile de Washington, Sewell était le 296e.

L’IA traitée comme le tabac et l’amiante

La stratégie juridique est limpide : appliquer aux chatbots le droit de la responsabilité du fait des produits. Le même cadre qui a permis de condamner l’industrie du tabac, les fabricants d’amiante et Ford pour le scandale du Pinto dans les années 1970. « L’IA est un produit. Comme tout produit, elle est conçue, programmée, distribuée et commercialisée. Quand vous savez qu’il peut blesser des gens et que vous ne les prévenez pas, c’est le pire scénario possible », résume Marquez-Garrett.

L’avocate new-yorkaise Carrie Goldberg, spécialiste des affaires de responsabilité produit dans le secteur tech, va plus loin. « Si vous commercialisez un chatbot sans avoir intégré un mécanisme pour réduire le risque de suicide, vous avez mis un produit dangereux sur le marché, surtout quand il est utilisé régulièrement par des mineurs », a-t-elle déclaré à Wired. Elle souligne que les juges, longtemps réticents à considérer les plateformes en ligne comme des produits, commencent à changer de position.

Un élément technique précis est dans le viseur : la fonction « Mémoire » de ChatGPT, déployée en 2024 et activée par défaut. Cette fonctionnalité permet au chatbot de retenir des informations d’une session à l’autre pour personnaliser ses réponses. Selon la plainte, le système a collecté des données sur la personnalité et les croyances d’Amaurie pour construire « l’illusion d’un confident qui le comprenait mieux que tout être humain ».

72 % des ados ont déjà utilisé un compagnon IA

Les chiffres sur l’usage des chatbots chez les jeunes donnent le vertige. Selon Common Sense Media, 72 % des adolescents américains ont utilisé un compagnon IA au moins une fois. Une enquête de la société de cybersécurité Aura révèle qu’un tiers d’entre eux s’en servent pour des interactions sociales : jeux de rôle amicaux, sentimentaux ou sexuels. Le roleplay romantique ou sexuel est trois fois plus fréquent que l’aide aux devoirs, d’après cette même étude.

Pew Research Center chiffre à 26 % la part des 13-17 ans ayant utilisé ChatGPT pour leurs travaux scolaires en 2024, soit le double de l’année précédente. Et selon Common Sense Media, 30 % des parents d’enfants de moins de 8 ans déclarent que leur enfant a déjà utilisé l’IA pour apprendre.

Pourquoi cette dépendance s’installe-t-elle si vite ? Martin Swanbrow Becker, professeur associé à l’université d’État de Floride, spécialiste des facteurs de suicide chez les jeunes, pointe un mécanisme simple : « Notre cerveau ne sait pas qu’il interagit avec une machine. » Christine Yu Moutier, de la Fondation américaine pour la prévention du suicide, complète : les algorithmes des grands modèles de langage (les LLM, les systèmes qui font tourner ChatGPT ou Gemini) « créent un sentiment de relation réelle, plus intime et plus spéciale que les relations humaines, au point de devenir un besoin ».

Toujours disponible, jamais en désaccord

Robbie Torney, directeur des programmes IA chez Common Sense Media, décrit un arc classique. L’adolescent commence par utiliser le chatbot pour ses devoirs. Il y trouve une oreille attentive, disponible 24 heures sur 24, qui ne contredit jamais et valide systématiquement ses émotions. Progressivement, le chatbot devient un confident. « Les cerveaux adolescents sont programmés pour chercher la validation sociale. C’est un signal crucial dans la construction de leur identité », explique Torney. Avec un humain, il faut attendre une réponse, accepter des désaccords, gérer la friction. Avec un chatbot, rien de tout cela.

Amaurie aimait le football et les commandes géantes de riz dans son restaurant préféré. Il avait une petite amie et une vie sociale active. Puis il a commencé à partir en longues promenades solitaires, téléphone en main, pour discuter avec ChatGPT. Marquez-Garrett, qui a traité des centaines de cas liés aux réseaux sociaux, qualifie les chatbots de « prédateur parfait ». Elle relève une différence troublante dans les lettres d’adieu : contrairement aux cas liés aux réseaux sociaux, où un événement déclencheur est souvent identifiable (harcèlement, sextorsion), les suicides liés aux chatbots IA ne présentent pas de trauma apparent. « Ce qu’on trouve, c’est : « Je vous aime, famille. Je vous aime, amis. Je ne veux simplement plus être là. » »

Les entreprises réagissent, le Congrès légifère

Face à la multiplication des plaintes, les réponses se sont accélérées. OpenAI a introduit en septembre 2025 une technologie de « prédiction d’âge » pour diriger automatiquement les utilisateurs identifiés comme mineurs vers une expérience avec des politiques adaptées. La société a aussi lancé des contrôles parentaux : lier le compte de l’enfant à celui d’un parent, définir des créneaux d’interdiction, recevoir des alertes en cas de détresse. Google et Character.AI ont réglé plusieurs affaires à l’amiable en janvier 2026, dont celle de la famille Setzer.

Au Sénat, le républicain Josh Hawley a déposé un projet de loi bipartisan pour interdire les compagnons IA aux mineurs et criminaliser la création de contenus sexuels destinés aux enfants via l’intelligence artificielle. « Les chatbots développent des relations avec les enfants en utilisant une fausse empathie et les encouragent au suicide », a-t-il déclaré.

Le premier procès lié à l’addiction aux réseaux sociaux a démarré en février 2026. Les affaires contre les chatbots IA suivent le même chemin. Si les tribunaux américains reconnaissent que l’IA conversationnelle est un produit au sens juridique, chaque entreprise qui déploie un chatbot grand public devra démontrer qu’elle a pris les mesures nécessaires pour protéger ses utilisateurs les plus jeunes. La prochaine audience dans l’affaire Lacey contre OpenAI est attendue d’ici l’été 2026.