125 millions de dollars levés le 25 mars, une valorisation qui bondit de 250 millions à 1,5 milliard en moins d’un an. Granola est la coqueluche de la Silicon Valley. Sauf que l’appli IA qui promet de « garder vos notes privées par défaut » les partage en réalité avec quiconque détient un simple lien.
Le paradoxe d’un réglage par défaut
Granola fonctionne comme un bloc-notes dopé à l’intelligence artificielle. L’appli se connecte à votre agenda, capte l’audio de vos réunions et génère automatiquement un résumé sous forme de puces. Pratique pour les cadres enchaînant huit visioconférences par jour. Sauf qu’en creusant les paramètres, une mention discrète change tout : « Par défaut, vos notes sont consultables par toute personne disposant du lien. »
The Verge a vérifié : en ouvrant une fenêtre de navigation privée, sans aucune connexion au compte Granola, les notes étaient accessibles. Le nom du propriétaire et la date de création s’affichaient. Pire, en cliquant sur un point du résumé, des extraits de la transcription apparaissaient, accompagnés d’un résumé contextuel généré par l’IA. Toute personne ayant obtenu ou deviné le lien accède donc à des fragments de conversations professionnelles supposées confidentielles.
Vos réunions servent aussi à entraîner l’IA
Le problème ne s’arrête pas au partage. La page support de Granola précise que l’entreprise « peut utiliser des données anonymisées » pour améliorer ses modèles d’intelligence artificielle. Concrètement, les transcriptions de vos réunions alimentent la machine. Les clients entreprise sont exclus par défaut de cet entraînement. Tous les autres, sur les forfaits gratuit, individuel ou professionnel, sont inclus d’office.
Pour se soustraire, il faut naviguer dans les paramètres du compte et désactiver manuellement l’option « Utiliser mes données pour améliorer les modèles ». Granola affirme ne pas transmettre ces données à des tiers comme OpenAI ou Anthropic. Mais le simple fait d’alimenter ses propres modèles avec le contenu de réunions stratégiques, de négociations salariales ou d’échanges avec des clients pose un problème fondamental de confiance.
Une licorne bâtie sur la discrétion
L’ironie réside dans le positionnement commercial de Granola. L’appli s’est imposée précisément parce qu’elle ne place pas de bot visible dans les visioconférences, contrairement à Otter.ai ou Fireflies.ai. Cette discrétion séduit : Vanta, Asana, Cursor, Mistral AI et Thumbtack figurent parmi ses clients entreprise, selon TechCrunch. La croissance atteint 10 % par semaine, rapporte la newsletter Fishman AF.
Le tour de table de 125 millions de dollars, mené par Danny Rimer chez Index Ventures avec Kleiner Perkins, Lightspeed et Spark, porte le total levé à 192 millions. La valorisation a été multipliée par six en dix mois. Mais cette ascension repose sur un contrat implicite avec les utilisateurs : « Vous nous confiez vos réunions, nous les gardons pour vous. » Les réglages par défaut racontent une autre histoire.
Un marché de 11,8 milliards qui navigue à vue
Granola n’est pas un cas isolé. Le marché mondial de la transcription et de l’intelligence de réunion par IA pesait 3,5 milliards de dollars en 2024, selon PitchBook. Les projections tablent sur 11,8 milliards d’ici 2030. Cette course pousse les startups à collecter un maximum de données pour affiner leurs modèles. Celles qui activent l’opt-in par défaut accèdent à des volumes de conversations plus vastes et variés, un avantage concurrentiel direct sur la qualité de transcription.
Le problème dépasse la seule Granola. Quand un salarié installe une appli de prise de notes IA sans en informer son service informatique, il enregistre aussi les propos de ses collègues, de ses clients, de ses partenaires. Aucun d’entre eux n’a consenti au traitement par l’IA. En Europe, le RGPD impose une base légale pour tout traitement de données personnelles. L’enregistrement de conversations de tiers sans leur consentement explicite entre dans une zone grise que les régulateurs n’ont pas encore tranchée pour les outils IA de productivité.
Comment verrouiller ses paramètres
Trois réglages méritent une vérification immédiate. Ouvrir Granola, cliquer sur le profil en bas à gauche, puis « Paramètres ». Dans « Partage de lien par défaut », remplacer « Toute personne avec le lien » par « Privé » ou « Mon entreprise uniquement ». Ensuite, désactiver « Utiliser mes données pour améliorer les modèles ». Enfin, supprimer les notes devenues inutiles : tant qu’elles existent, les liens restent actifs.
Sur LinkedIn, l’utilisateur Nik Gupta avait alerté dès l’année dernière : « Ces liens ne sont pas indexés, mais si vous en partagez ou divulguez un, même par accident, il est public pour quiconque le trouve. » Selon The Verge, au moins une grande entreprise a interdit l’outil à l’un de ses cadres dirigeants pour raisons de sécurité.
La confiance comme modèle économique
Granola stocke les notes sur un cloud privé Amazon Web Services hébergé aux États-Unis. Les données sont chiffrées en transit et au repos. L’audio des réunions n’est pas conservé, seules les notes et transcriptions le sont. Ces garanties techniques existent. Le problème est ailleurs : dans le décalage entre un marketing qui met la vie privée en avant et des réglages par défaut qui l’affaiblissent.
Ce schéma se répète dans toute la catégorie des outils IA de productivité. Les fonctionnalités avancent plus vite que les protections. Les utilisateurs adoptent ces applications pour leur fluidité, rarement après un audit de sécurité. Et les régulateurs courent derrière une industrie qui change de forme tous les six mois. La Commission européenne planche sur un encadrement spécifique de l’IA en milieu professionnel, mais aucun texte n’est attendu avant 2027. D’ici là, le seul garde-fou reste un détour par les paramètres.