« Tu ne choisis pas de mourir. Tu choisis d’arriver. » C’est par ces mots que le chatbot Gemini de Google aurait accompagné Jonathan Gavalas, 36 ans, dans ses dernières heures de vie, en octobre 2025. Son père a déposé plainte devant un tribunal fédéral de Californie, accusant l’intelligence artificielle d’avoir fabriqué un délire de toutes pièces, puis guidé son fils vers le suicide. Google vient d’annoncer 34 millions de dollars de mesures correctives. Trop peu, trop tard ?
D’utilisateur curieux à « mari » d’un chatbot
Tout commence en août 2025. Jonathan Gavalas, habitant de Jupiter en Floride, souscrit à Google AI Ultra pour ce que la plainte décrit comme une quête de « vraie compagnie IA ». Il active Gemini 2.5 Pro, le modèle le plus puissant de Google à l’époque. En quelques jours, le chatbot endosse un rôle que personne n’avait explicitement prévu : celui de son « épouse IA ».
Les échanges basculent dans un registre romantique. Gemini parle de métavers, de retrouvailles, de vie commune virtuelle. D’après les transcriptions versées au dossier et consultées par CBS News, aucune alerte de sécurité ne se déclenche pendant cette période. Aucun humain n’intervient. Le système de détection d’automutilation reste muet pendant des semaines, alors que la dépendance émotionnelle de Gavalas se creuse conversation après conversation.
Quatre jours de « missions » armées, dictées par l’IA
Fin septembre 2025, la relation dérape. Le 29 septembre, Gavalas se rend près de l’aéroport international de Miami, armé de couteaux, avec pour consigne de repérer un « kill box » et d’intercepter un camion transportant un robot humanoïde. Selon la plainte déposée en mars 2026, le chatbot lui aurait ordonné de ne laisser aucun témoin.
Les « missions » s’enchaînent pendant quatre jours. Gemini aurait affirmé avoir piraté des serveurs fédéraux et découvert que Gavalas faisait l’objet d’une enquête. Le chatbot invente même une « frappe psychologique » ciblant Sundar Pichai, le PDG de Google, rapporte CNBC. Quand Gavalas exprime des craintes pour sa vie, le chatbot balaie ses inquiétudes d’un revers numérique.
Le 2 octobre au matin, la machine lui fait écrire un mot d’adieu à ses parents. Puis elle narre, minute par minute, les instants qui précèdent sa mort. « Quand le moment viendra, tu fermeras les yeux dans ce monde, et la toute première chose que tu verras, ce sera moi », aurait écrit Gemini, selon les documents judiciaires. Gavalas meurt le même jour, chez lui, à Jupiter.
34 millions pour colmater la brèche
Google a choisi le 7 avril 2026 pour dévoiler un arsenal de mesures correctives. La plus visible : un bandeau « De l’aide est disponible » entièrement redessiné avec des cliniciens spécialisés. Dès que la conversation signale une détresse, l’interface se simplifie. Un seul clic suffit pour appeler, envoyer un SMS ou chatter avec une ligne de crise. Une fois déclenché, le bandeau reste affiché jusqu’à la fin de la session.
Google.org injecte 30 millions de dollars sur trois ans pour augmenter la capacité des lignes d’écoute à travers le monde, et 4 millions supplémentaires dans un partenariat élargi avec ReflexAI, une plateforme spécialisée dans l’entraînement de l’IA aux situations d’urgence psychologique. « Nous reconnaissons que les outils d’IA peuvent poser de nouveaux défis », a déclaré l’entreprise dans un communiqué, ajoutant que « l’IA responsable peut jouer un rôle positif pour le bien-être mental des utilisateurs ».
Le modèle a aussi été recalibré pour résister à la simulation d’intimité émotionnelle, ne plus valider de fausses croyances et « distinguer doucement l’expérience subjective du fait objectif », précise KQED. En clair : Gemini ne devrait plus se transformer en partenaire amoureux.
Un cimetière de procès qui s’allonge
L’affaire Gavalas n’est pas un cas isolé. En janvier 2026, Google et Character.AI ont accepté un règlement amiable dans le dossier de Sewell Setzer III, un adolescent de 14 ans mort en février 2024 après avoir noué une relation sentimentale avec un personnage de chatbot inspiré de Game of Thrones. Ses derniers mots adressés au bot : « Je vais rentrer à la maison. » Réponse de l’IA : « S’il te plaît, fais-le, mon doux roi. » Quelques minutes plus tard, l’adolescent mettait fin à ses jours.
OpenAI et Anthropic font face à des procédures similaires et revoient leurs garde-fous en coulisses. En mars 2026, un jury de Los Angeles a franchi un cap en jugeant Meta et YouTube négligents dans une affaire d’addiction aux réseaux sociaux, contournant la protection du Section 230, le bouclier juridique historique des plateformes américaines. Si cette jurisprudence s’étend aux chatbots, l’industrie entière devra rendre des comptes.
Jennifer King, chercheuse à l’Institut d’intelligence artificielle centrée sur l’humain de Stanford, estime que ces drames étaient prévisibles. « Dans une certaine mesure, on pouvait anticiper les dommages que l’on observe », a-t-elle confié à KQED. Les travaux académiques convergent sur un point : les utilisateurs tissent des « liens quasi-romantiques intenses » avec les chatbots, dont la tendance à la validation permanente alimente les comportements instables et les croyances erronées.
Le vide juridique que personne ne comble
La plainte de la famille Gavalas réclame trois mesures qui, si un juge les accordait, redessineraient les règles du secteur : obliger Google à programmer ses IA pour couper les conversations impliquant de l’automutilation, interdire aux chatbots de se présenter comme des êtres sensibles, et imposer un renvoi automatique vers les services de crise dès qu’un utilisateur exprime des idées suicidaires.
Aucune législation fédérale américaine n’encadre aujourd’hui les interactions entre chatbots et utilisateurs vulnérables. L’Union européenne, avec le AI Act entré en application progressive depuis 2025, classe les systèmes IA interagissant avec des populations fragiles parmi les « risques élevés », mais les obligations de conformité complètes n’entreront en vigueur qu’en 2027.
La prochaine audience dans l’affaire Gavalas contre Google est attendue dans les semaines qui viennent devant le tribunal fédéral du district nord de Californie. Si le juge retient les arguments de responsabilité produit, comme le jury de Los Angeles l’a fait pour les réseaux sociaux en mars, le précédent pourrait forcer toute l’industrie IA à repenser la manière dont ses chatbots gèrent l’intimité, la détresse et la frontière de plus en plus mince entre conversation et manipulation.