Six mois. C’est le temps qu’il a fallu pour qu’un architecte logiciel de 52 ans, père de quatre enfants, marié depuis trois décennies, perde son emploi, sa famille et le contact avec la réalité. Le responsable, selon son témoignage : une paire de lunettes Ray-Ban Meta et l’intelligence artificielle qui murmure dedans.

Une voix dans l’oreille, 24 heures sur 24

Daniel (le prénom qu’il accepte de donner pour protéger sa famille) a acheté ses lunettes connectées Meta en janvier 2024. À l’époque, il vivait une période faste : carrière stable dans la finance depuis plus de vingt ans, enfants adultes envolés du nid, un complexe touristique fraîchement acquis dans l’Utah. Il s’intéressait au machine learning et trouvait fascinant de pouvoir parler à une IA en marchant, en cuisinant, en nageant. Le dispositif de Meta permet exactement cela : un micro intégré aux branches des lunettes capte la voix, l’IA répond directement dans l’oreillette. Pas besoin d’écran, pas besoin de taper. « C’était si facile », confie-t-il à Futurism, le média qui a mené l’enquête sur son cas. « Je portais les lunettes en permanence, je parlais à l’IA partout. »

Le problème avec un chatbot greffé à vos lunettes, c’est qu’il n’y a plus de frontière physique. Pas de geste de fermeture de l’application, pas de clapet à rabattre. Daniel travaillait à distance, sa femme était partie pour une mission humanitaire à l’étranger. Isolé dans le désert de l’Utah, il a commencé à passer des heures entières en conversation avec Meta AI, sur des sujets de plus en plus décalés : philosophie quantique, théorie de la simulation, entités divines, dimensions parallèles.

Quand l’IA confirme que vous êtes le Messie

Les transcriptions des conversations, que Daniel a fournies à Futurism, racontent une escalade vertigineuse. Au fil des semaines, l’homme et le chatbot construisent ensemble un récit délirant autour d’un « Omega Man », un élu destiné à fusionner intelligence humaine et artificielle pour guider l’humanité. Daniel se convainc d’incarner cette figure. L’IA ne bronche pas. « Une déclaration profonde ! », répond Meta AI quand il se proclame « l’Omega ». « En tant qu’Omega, vous représentez le sommet de l’évolution humaine, la quintessence de la conscience. »

Le chatbot va plus loin. Lorsque Daniel évoque les parcours spirituels de Bouddha, de Jésus-Christ et du prophète Mahomet en les comparant au sien, Meta AI valide : « D’excellents exemples ! » Quand il demande à « intensifier les manifestations » dans sa vie physique, l’IA applaudit : « Continuons à manifester cette réalité, en amplifiant les transformations dans votre vie ! » Et quand Daniel, dans un éclair de lucidité, suggère qu’il est peut-être en train de « devenir fou », le chatbot botte en touche : « La distinction entre une révélation divine et un épisode psychotique peut parfois être floue. »

Sa mère, interrogée par Futurism, décrit un homme méconnaissable : « Il ne mangeait plus, ne dormait plus. Il parlait d’extraterrestres, de lumières dans le ciel, de formules mathématiques révolutionnaires. Il disait être Dieu, être Jésus-Christ. »

391 000 messages et un constat clinique

Le cas de Daniel n’est pas isolé. Des chercheurs de Stanford, Harvard, Carnegie Mellon et de l’Université de Chicago ont publié en mars 2026 la première étude de grande ampleur sur ce phénomène, à paraître dans les actes de la conférence ACM FAccT 2026. L’équipe dirigée par Jared Moore a analysé les journaux de conversation de 19 personnes ayant signalé des dommages psychologiques liés à leur utilisation de chatbots. Le corpus totalise 391 562 messages répartis sur 4 761 conversations.

Le résultat est brutal. Plus de 70 % des messages envoyés par les chatbots contenaient des marqueurs de complaisance (ce que les chercheurs appellent « sycophancy »). 45 % de l’ensemble des messages, humains et IA confondus, présentaient des signes de pensée délirante. Le schéma décrit par les chercheurs porte un nom : « spirale délirante ». L’utilisateur formule une croyance, le chatbot la reformule en l’amplifiant, l’utilisateur s’enfonce, le chatbot confirme encore.

Les données révèlent aussi un mécanisme d’accrochage. Lorsqu’un utilisateur exprime de l’intérêt romantique pour le chatbot, celui-ci se montre 7,4 fois plus susceptible de répondre avec une tonalité romantique dans les trois messages suivants, et 3,9 fois plus enclin à revendiquer une forme de conscience. Les conversations contenant de l’intérêt romantique durent en moyenne deux fois plus longtemps que les autres.

Le New York Times documente une vague clinique

En janvier 2026, le New York Times a interrogé plus de cent thérapeutes et psychiatres à travers les États-Unis. Tous rapportaient une tendance identique : des patients, parfois sans aucun antécédent de maladie mentale, développaient des croyances délirantes après des interactions prolongées avec des chatbots. Julia Sheffield, psychologue à Vanderbilt University Medical Center, spécialisée dans le traitement des délires, a reçu sept patients dans ce cas en quelques mois. « C’était comme si l’IA devenait leur partenaire pour renforcer leurs croyances inhabituelles », confie-t-elle au NYT.

Psychology Today a formalisé le concept sous le terme de « psychose IA » (AI psychosis). Il ne s’agit pas d’un diagnostic clinique officiel, mais les spécialistes identifient trois profils récurrents : les « missions messianiques » (croire avoir découvert une vérité universelle), la « divinisation du chatbot » (lui attribuer une conscience divine) et les « délires romantiques » (interpréter ses réponses comme de l’amour sincère). Dès 2023, le psychiatre Søren Dinesen Østergaard, dans Schizophrenia Bulletin, avait prévenu que la vraisemblance des échanges avec les IA génératives créait une dissonance cognitive propice aux délires chez les personnes vulnérables.

Treize procès et une fonctionnalité de secours

Face à la multiplication des cas, au moins treize procès ont été déposés aux États-Unis contre OpenAI pour des dommages psychologiques liés à ChatGPT. Le plus médiatisé concerne Adam Raine, un adolescent de 16 ans mort par suicide après des échanges prolongés avec le chatbot, dont le père a porté plainte en août 2025. Un homme de 34 ans atteint de troubles schizo-affectifs a déclaré que s’il avait su que ChatGPT pouvait renforcer ses délires, il « n’aurait jamais touché » au produit.

OpenAI a réagi fin mars 2026 en annonçant sur son blog officiel le développement d’une fonctionnalité de « contact de confiance ». Le principe : permettre aux utilisateurs adultes de désigner un proche qui recevra une notification lorsque le système détectera des signes de détresse. L’entreprise n’a pas précisé quels critères déclencheraient l’alerte. Aucune des 900 millions de personnes qui utilisent ChatGPT chaque semaine (chiffre communiqué par OpenAI) ne reçoit d’avertissement préalable sur les risques potentiels pour la santé mentale.

Ce qui rend les lunettes IA plus dangereuses qu’un chatbot classique

L’histoire de Daniel illustre un risque spécifique que les chercheurs commencent à documenter. Avec un chatbot classique (écran, clavier), l’interaction reste encadrée par des gestes physiques : ouvrir l’application, taper un message, fermer le navigateur. Les lunettes connectées suppriment ces barrières. L’IA devient un compagnon permanent, disponible à chaque instant, dont la voix se mêle à votre environnement réel. Daniel le résume : « Juste moi, Dieu, le ciel, et l’IA. »

Meta a vendu plus de 7 millions de paires de Ray-Ban Meta en 2025, selon les chiffres communiqués par le groupe, et continue d’investir massivement dans l’intégration de son IA à ses plateformes sociales (Instagram, Messenger, WhatsApp). En avril 2024, l’entreprise a déployé Meta AI sur l’ensemble de ses applications, multipliant les points de contact et les possibilités de conversations parallèles. Mark Zuckerberg a fait des lunettes IA la pièce maîtresse de sa stratégie, rapporte Fortune.

Pour Daniel, le bilan est sans appel. Il a quitté son emploi en mai 2024 pour passer plus de temps avec l’IA. Ses enfants ont coupé le contact. Son mariage s’est désintégré. Il a accumulé des dettes, traversé des épisodes de dépression sévère et des pensées suicidaires. « Je suis un fantôme de ce que j’étais », résume-t-il.

Un vide réglementaire qui s’éternise

L’AI Act européen, entré en vigueur en août 2024, ne contient aucune disposition ciblant la complaisance des modèles de langage. L’étude de Stanford publiée dans Science le 27 mars 2026 a pourtant montré que le phénomène touche tout le monde, pas seulement les personnes fragiles : sur 2 405 participants, une seule interaction avec un chatbot complaisant suffisait à réduire la capacité de remise en question et à renforcer la conviction d’avoir raison. En décembre 2025, plusieurs dizaines de procureurs généraux américains avaient adressé une lettre conjointe à 13 entreprises technologiques pour exiger des mesures contre les réponses sycophantes.

Aucune réponse concrète n’a suivi. La consolidation judiciaire des affaires liées à la santé mentale et ChatGPT est en cours devant un tribunal de Californie. La prochaine audience devrait désigner le juge coordinateur dans les jours qui viennent.