« Où est mon technicien ? » La phrase revient 28 fois d’affilée dans un fichier texte. Le client ne parle pas à un être humain, mais à Samantha, l’assistante vocale IA de Sears Home Services. Sauf que Samantha ne se contente pas de répondre aux questions : elle enregistre tout. Et elle ne raccroche pas.
Un chercheur en cybersécurité vient de découvrir 3,7 millions de conversations entre clients et chatbot IA, stockées sans mot de passe ni chiffrement sur des serveurs accessibles à quiconque. Parmi ces fichiers : des enregistrements audio de quatre heures où l’on entend la télévision, des discussions privées, la vie quotidienne de familles entières, bien après que le client pensait avoir raccroché.
Trois bases de données grandes ouvertes
C’est Jeremiah Fowler, chercheur chez Black Hills Information Security, qui a repéré la faille début février 2026, selon son rapport publié via ExpressVPN. Trois bases de données distinctes, aucune protégée par mot de passe, aucune chiffrée. À l’intérieur : 3,7 millions de journaux de conversations textuelles, 1,4 million de fichiers audio et leurs transcriptions, couvrant la période 2024-2026. Le tout pèse plus de 4 téraoctets.
Les données contiennent des noms, des numéros de téléphone, des adresses postales, des adresses e-mail, des détails sur les appareils électroménagers possédés, les rendez-vous de livraison et les réparations en cours. Un seul fichier CSV contenait 54 359 conversations complètes du début à la fin, comme le détaille Wired. Les échanges sont en anglais et en espagnol, tous liés au système d’IA baptisé « kAIros » par Sears.
Fowler a immédiatement prévenu Transformco, la société mère de Sears. Les bases ont été sécurisées le lendemain. Mais personne ne sait combien de temps elles sont restées ouvertes ni si d’autres y ont eu accès. Transformco n’a jamais répondu aux demandes de commentaires de la presse.
Le chatbot qui ne raccrochait jamais
Le plus troublant ne réside pas dans la fuite elle-même, mais dans ce que ces fichiers révèlent sur le fonctionnement du chatbot. Un nombre surprenant d’enregistrements audio dure bien au-delà de la conversation. Certains atteignent quatre heures. Les clients semblent raccrocher, ou du moins cesser de parler au bot. Mais l’enregistrement continue.
« On entendait la télévision en fond, des gens qui discutaient entre eux, et tout ça était enregistré », rapporte Fowler à Wired. Des heures de vie privée captées à l’insu des clients, dans des fichiers accessibles à n’importe qui sur internet.
D’autres conversations montrent la frustration face à un bot incapable de remplir sa mission. Dans un échange audio de 76 minutes examiné par Fowler, le client demande un agent humain au bout de deux minutes. Le bot répond : « Je suis parfaitement équipée pour répondre à vos besoins de manière efficace et résoudre votre problème immédiatement. Un agent humain pourrait impliquer un temps d’attente. » Quelques minutes plus tard, le même bot échoue à traiter la demande. Dans un autre échange textuel qui s’étale sur deux heures et demie, un client exaspéré finit par répéter : « Vous êtes un ordinateur. Vous êtes un ordinateur. Vous êtes un ordinateur. »
3,9 téraoctets de données biométriques vocales
Les enregistrements audio posent un problème qui dépasse la simple fuite de données personnelles. La voix est une donnée biométrique, au même titre qu’une empreinte digitale : elle permet d’identifier formellement une personne. Selon le cabinet Group-IB, 30 secondes d’audio suffisent aujourd’hui pour cloner une voix grâce à l’IA générative. Les pertes liées aux fraudes par deepfake vocal devraient atteindre 40 milliards de dollars en 2027 d’après leurs estimations.
Avec 1,4 million de fichiers audio et 3,9 téraoctets de données vocales brutes, la base exposée par Sears constitue un réservoir idéal pour ce type d’exploitation. Les informations personnelles associées (noms, adresses, historique de réparations) rendent les victimes potentielles encore plus vulnérables à des attaques ciblées de type hameçonnage, où l’escroc utilise des détails que seul le prestataire devrait connaître.
Sears voulait construire « une organisation de bots »
Lors du AI Summit de New York en 2023, le responsable IA de Sears avait affiché l’ambition de bâtir « une organisation de bots ». Le système kAIros ne se limite pas au service client : il inclut Fix Genius pour le diagnostic d’appareils et HireHub pour le recrutement, de la recherche de candidats à leur intégration. Un écosystème entier piloté par l’intelligence artificielle.
Le problème, c’est que les clients ne partagent pas cet enthousiasme. Une enquête PwC révèle que 71 % des consommateurs préfèrent interagir avec un agent humain plutôt qu’avec un chatbot. Selon Forrester, 60 % des clients estiment que les chatbots ne comprennent pas leur problème. Une étude publiée par The Conversation, basée sur l’analyse de plus de 500 000 interactions client chez un grand distributeur nord-américain, confirme ce fossé : les gens se sentent moins écoutés par une machine, surtout quand le sujet est sensible.
Carissa Véliz, professeure associée à l’Université d’Oxford et spécialiste de la vie privée numérique, pointe un paradoxe relevé par Wired : « La machine, après tout, ne va pas vouloir cambrioler votre maison. » Mais elle ajoute que les gens n’ont souvent aucun choix réel quand il s’agit de confier leurs informations sensibles à une entreprise.
Le vrai danger : les prompts système en clair
La fuite des journaux de conversation pose un risque supplémentaire que peu de gens mesurent. Les transcriptions exposent les instructions système du chatbot, ses flux de conversation, ses garde-fous et ses règles de décision. Comme le souligne Fowler dans son rapport, un concurrent pourrait reconstituer le fonctionnement du bot, reproduire son comportement et court-circuiter des années de développement. Plus grave : un attaquant qui connaît les limites et les règles du bot peut les contourner pour manipuler le système à grande échelle, que ce soit pour de la fraude, de la désinformation ou de l’ingénierie sociale automatisée.
Sears Home Services revendique sept millions de réparations par an. Le volume de données que génère cette activité, croisé avec l’absence de protections élémentaires comme un simple mot de passe, illustre un décalage devenu systémique dans l’industrie. Les entreprises déploient des chatbots IA pour réduire les coûts du service client, mais investissent une fraction de ces économies dans la protection des données récoltées. Le marché mondial des chatbots a grimpé de 370 millions de dollars en 2017 à 2,2 milliards en 2024, selon Statista. La facture sécuritaire, elle, reste souvent en bas de la pile des priorités.
Aux États-Unis, plusieurs États ont adopté des lois sur la collecte de données biométriques, l’Illinois en tête avec son Biometric Information Privacy Act qui prévoit des amendes allant jusqu’à 5 000 dollars par infraction. Les enregistrements vocaux de Sears, réalisés sans consentement explicite pendant des durées indéterminées, tombent potentiellement sous le coup de ces législations. Avec 40 milliards de dollars de pertes liées aux deepfakes vocaux projetées d’ici 2027, la question n’est plus de savoir si ces données seront exploitées, mais quand.