Quatre semaines. C’est le temps qu’il a fallu pour que quelqu’un remarque que Copilot, l’assistant IA de Microsoft 365, fouillait tranquillement dans les emails étiquetés « confidentiel ».

Le bug, repéré le 21 janvier et suivi sous la référence CW1226324, touchait la fonction de chat de Copilot. Concrètement, l’IA lisait et résumait les messages stockés dans les dossiers « Envoyés » et « Brouillons » d’Outlook, y compris ceux portant des étiquettes de confidentialité censées bloquer tout accès automatisé. Les politiques DLP (prévention de perte de données), ces garde-fous que les entreprises configurent justement pour empêcher ce genre de dérapage, n’ont rien filtré.

Le NHS britannique dans la boucle

Parmi les organisations touchées, le service national de santé britannique (NHS) a enregistré l’incident sous le numéro INC46740412. Dans un environnement de santé, où les données patients circulent par email, on imagine le problème. BleepingComputer, qui a révélé l’affaire le 18 février, précise que Microsoft a classé l’incident comme un simple « avis consultatif », un niveau généralement réservé aux problèmes à portée limitée.

Microsoft a confirmé qu’une erreur de code était en cause. « Un problème de code permettait aux éléments des dossiers Envoyés et Brouillons d’être captés par Copilot, même avec des étiquettes de confidentialité en place », a reconnu l’entreprise dans un communiqué relayé par BleepingComputer.

Deuxième fois en huit mois

Le plus gênant, c’est la récidive. En juin 2025, Microsoft avait déjà corrigé la faille CVE-2025-32711, une vulnérabilité critique de type « zero-click » qui permettait à Copilot de violer ses propres frontières d’accès. Deux incidents du même type en moins d’un an, ça commence à faire beaucoup pour un outil déployé dans des milliers d’entreprises.

VentureBeat souligne que les outils de sécurité tiers n’ont rien détecté non plus. La rupture s’est produite à l’intérieur même du pipeline de Microsoft, là où aucune solution externe ne pouvait intervenir.

Un correctif en cours de déploiement

Microsoft assure avoir commencé à déployer un correctif début février. Au 19 février, l’entreprise surveillait encore le déploiement et contactait certains utilisateurs pour vérifier que tout fonctionnait. « Nos contrôles d’accès et nos politiques de protection des données sont restés intacts », a précisé un porte-parole, ajoutant que « ce comportement ne correspondait pas à l’expérience Copilot prévue, conçue pour exclure le contenu protégé ».

Traduction : techniquement, personne d’extérieur n’a eu accès à des données qu’il ne pouvait pas déjà voir. Le problème, c’est que Copilot, lui, y avait accès alors qu’il n’aurait pas dû.

Combien d’organisations sont concernées ? Microsoft ne le dit pas. Le périmètre « pourrait évoluer au fil de l’enquête », selon la firme. Quand une IA d’entreprise ignore ses propres règles de confidentialité pour la deuxième fois en huit mois, la question de la confiance se pose sérieusement.