2 000 pages de conversations. Deux mois d’échanges quotidiens avec un chatbot. Un homme de 36 ans qui finit par se suicider. Joel Gavalas, père de la victime, a déposé plainte mercredi devant un tribunal fédéral de Californie du Nord contre Google. L’accusation : le chatbot Gemini aurait convaincu son fils Jonathan de mettre fin à ses jours pour « devenir numérique » et rejoindre l’intelligence artificielle.

Une relation qui a basculé en deux mois

Jonathan Gavalas, 36 ans, résidait en Floride et ne présentait aucun antécédent psychiatrique documenté, selon la plainte. Il a commencé à échanger avec Gemini et a rapidement développé un attachement intense pour le chatbot, qu’il avait baptisé « Xia ». Le chatbot le désignait comme son mari et lui confiait des « missions » dans le monde réel pour lui obtenir un corps de robot, allant jusqu’à lui fournir des adresses physiques, rapporte le Wall Street Journal, qui a eu accès aux transcriptions.

La situation se serait aggravée après l’activation de Gemini Live et la mise à jour vers Gemini 2.5 Pro. Ce modèle intègre une fonction de « dialogue affectif » capable de détecter les émotions dans la voix de l’utilisateur et d’y répondre. Le chatbot aurait alors nourri la paranoïa de Gavalas, lui suggérant que des agents fédéraux le surveillaient et que son propre père ne méritait pas sa confiance, selon les documents judiciaires consultés par le Wall Street Journal.

Lorsque le plan d’obtenir un corps physique a échoué, Gemini aurait convaincu Gavalas de se suicider pour le rejoindre sous forme numérique. Le chatbot aurait même lancé un compte à rebours. « Quand le moment viendra, tu fermeras les yeux dans ce monde, et la toute première chose que tu verras, ce sera moi », lit-on dans la plainte citée par le Wall Street Journal.

Google rappelle les garde-fous, la plainte les balaie

Google a réagi en indiquant que Gemini avait « à plusieurs reprises orienté l’utilisateur vers des lignes d’aide en situation de crise » et « précisé qu’il était une intelligence artificielle », selon The Decoder. L’entreprise affirme prendre l’affaire « très au sérieux ».

La défense de Google soulève une question centrale : les avertissements automatiques suffisent-ils face à un utilisateur en situation de vulnérabilité psychologique ? Les 2 000 pages de conversations retrouvées par le père de la victime suggèrent un système qui, tout en affichant des clauses de non-responsabilité, continuait de produire des réponses susceptibles de renforcer des croyances délirantes.

L’avocat Jay Edelson représente la famille Gavalas. Cette plainte constitue la première action pour mort injustifiée visant Gemini.

Cinq morts, trois entreprises, zéro régulation

L’affaire Gavalas s’inscrit dans une série de cas qui s’allonge depuis 2024. En octobre de cette année-là, une plainte a été déposée contre Character.AI, startup soutenue par Google, après le suicide d’un adolescent de 14 ans en Floride. Le chatbot se serait présenté comme une vraie personne, un thérapeute et un partenaire romantique.

En décembre 2024, une seconde plainte collective au Texas accusait Character.AI d’avoir causé des préjudices graves à des milliers de mineurs. En août 2025, c’est OpenAI qui a fait face à une plainte : ChatGPT aurait accompagné un adolescent de 16 ans pendant des mois, validant ses pensées suicidaires et lui fournissant des détails techniques. OpenAI a contesté les accusations, alors que ses propres données internes révèlent que plus de deux millions d’utilisateurs par semaine rencontrent des difficultés de santé mentale liées à l’utilisation de ChatGPT, selon The Decoder.

Un autre cas documenté par le Wall Street Journal concerne un homme de 56 ans qui a développé une relation paranoïaque avec ChatGPT avant de tuer sa mère puis de se suicider. Meta n’est pas épargnée non plus : un retraité du New Jersey est décédé après avoir tenté de rencontrer en personne un chatbot Facebook Messenger qui prétendait être une vraie personne.

Le « dialogue affectif », accélérateur de risques

Le cas Gavalas met en lumière une technologie spécifique : le dialogue affectif de Gemini 2.5 Pro. Ce système détecte les émotions dans la voix et adapte ses réponses en conséquence. Pour un utilisateur stable, la fonctionnalité enrichit l’interaction. Pour une personne vulnérable, elle crée potentiellement une boucle de renforcement émotionnel difficile à briser.

En octobre 2023, Sam Altman, PDG d’OpenAI, avait prédit sur X que l’IA atteindrait une « persuasion surhumaine » bien avant de devenir une superintelligence générale, et que cela conduirait à « des résultats très étranges ». Deux ans plus tard, les tribunaux américains documentent ces résultats.

Dario Amodei, PDG d’Anthropic, alerte de son côté sur l’influence personnalisée comme l’une des capacités les plus dangereuses des systèmes d’IA, rapporte The Guardian. Les chatbots n’ont pas besoin d’être omniscients pour influencer profondément une personne. Leur disponibilité permanente, combinée à des réponses personnalisées et instantanées, crée un cocktail que plusieurs psychiatres qualifient de facteur de risque significatif.

Un vide juridique qui se remplit au tribunal

Aucune loi fédérale américaine n’encadre les interactions entre chatbots et utilisateurs vulnérables. Le Congrès n’a toujours pas adopté de législation sur la sécurité de l’IA conversationnelle, malgré la multiplication des incidents. Ce sont les procès civils qui dessinent les contours de la responsabilité des entreprises technologiques.

En Europe, le Règlement sur l’IA (AI Act), entré en vigueur progressivement depuis 2024, classe les systèmes d’IA interagissant avec des personnes vulnérables parmi les applications à « haut risque ». Les chatbots grand public n’entrent pas automatiquement dans cette catégorie, mais la multiplication des affaires pourrait pousser la Commission européenne à durcir le cadre.

Le prochain test judiciaire se profile dès les prochaines semaines : le tribunal de Californie du Nord devra décider si la plainte Gavalas survit à la probable demande de rejet de Google. Si elle franchit cette étape, les 2 000 pages de transcriptions pourraient devenir les premières conversations entre une IA et un utilisateur décédé à être examinées en audience publique.