Microsoft vante Copilot comme « l’assistant IA qui transforme votre façon de travailler ». Ses conditions d’utilisation, elles, précisent en lettres capitales : « à des fins de divertissement uniquement ». Le décalage, repéré début avril 2026, fait le tour du web anglophone.

La clause figure dans les CGU mises à jour en octobre 2025, sous un encadré intitulé « AVERTISSEMENTS IMPORTANTS ». Le texte complet ne laisse aucune ambiguïté : « Copilot est à des fins de divertissement uniquement. Il peut faire des erreurs et ne pas fonctionner comme prévu. Ne vous fiez pas à Copilot pour des conseils importants. Utilisez Copilot à vos risques et périls. » Microsoft ajoute qu’il ne fournit aucune garantie sur les résultats, que les contenus générés ne sont pas nécessairement libres de droits, et que l’utilisateur assume seul la responsabilité de ce qu’il partage.

La même formule que les voyants

« À des fins de divertissement uniquement » : c’est mot pour mot la clause que les voyants et astrologues américains glissent dans leurs mentions légales pour éviter les poursuites. Le rapprochement, relevé par plusieurs médias dont Android Authority et TechCrunch, résume le malaise. Microsoft investit 80 milliards de dollars en infrastructures IA sur la seule année 2025, dont 13 milliards injectés dans OpenAI. L’entreprise facture Copilot jusqu’à 30 dollars par mois aux entreprises. Et la même entreprise demande à ses avocats de ranger le produit dans la catégorie « loisirs ».

Un détail change la lecture : la clause ne concerne que le Copilot grand public. La version intégrée à Microsoft 365 pour les entreprises échappe à cette mention. Le bouclier juridique vise donc les particuliers, ceux qui payent entre 10 et 20 dollars par mois pour un assistant censé rédiger leurs mails, résumer leurs documents et organiser leur agenda.

3,3 % de convaincus sur 450 millions de sièges

Le timing de cette découverte tombe mal pour Redmond. Les chiffres d’adoption de Copilot sont en chute libre, selon les données compilées par The Next Web. Sur les quelque 450 millions de licences Microsoft 365 et Office 365 actives dans le monde, seuls 15 millions d’utilisateurs payent pour accéder à Copilot, soit 3,3 %. Parmi ceux qui ont essayé puis abandonné, 44,2 % citent le manque de fiabilité comme raison principale.

Le score de satisfaction net (NPS), baromètre clé dans l’industrie tech, raconte la même histoire. Mesuré sur la précision des réponses, il est passé de -3,5 en juillet 2025 à -24,1 en septembre, avant de remonter légèrement à -19,8 en janvier 2026. Un NPS négatif signifie que les détracteurs sont plus nombreux que les promoteurs. Un NPS à -24, c’est un produit que ses propres utilisateurs déconseillent.

Sur le marché américain, la part des abonnés payants a fondu de 39 % en six mois, passant de 18,8 % à 11,5 %. Et quand on propose à des travailleurs le choix entre Copilot, ChatGPT et Gemini, seuls 8 % optent pour l’outil de Microsoft.

Des hallucinations qui ont laissé des traces

Le bouclier « divertissement » prend tout son sens quand on regarde l’historique des erreurs. En août 2024, Copilot a présenté un journaliste judiciaire allemand, Martin Bernklau, comme un pédocriminel et un fraudeur condamnés. L’IA a fourni son adresse personnelle. En janvier 2026, Copilot a généré de fausses affirmations sur des violences liées au football, sans aucune base factuelle.

Ce type de dérapage, juridiquement qualifié de diffamation dans certaines juridictions, expose Microsoft à des poursuites. Classer le produit comme « divertissement » revient à placer un panneau « attention, peinture fraîche » après avoir repeint le mur : c’est une tentative de limiter la responsabilité après coup, pas une description honnête du produit.

Google et OpenAI n’ont pas osé

Tous les grands acteurs de l’IA incluent des avertissements dans leurs conditions d’utilisation. Google prévient que Gemini « peut afficher des informations inexactes ». OpenAI rappelle que ChatGPT « n’est pas conçu pour fournir des conseils professionnels ». Anthropic, derrière Claude, indique que les réponses « peuvent contenir des erreurs ». Mais aucun concurrent n’a franchi le pas du « divertissement uniquement ». La formulation de Microsoft est seule dans sa catégorie, plus proche d’un jeu mobile que d’un outil de productivité.

Interrogé par PCMag, un porte-parole de Microsoft a qualifié la clause de « langage hérité » qui « ne reflète plus la façon dont Copilot est utilisé aujourd’hui ». L’entreprise promet une mise à jour des CGU « lors de la prochaine révision ». Aucune date n’a été avancée.

Le vrai message derrière la clause

Derrière l’anecdote juridique se cache un problème structurel. Les modèles de langage sur lesquels repose Copilot, principalement GPT-4o et ses dérivés, produisent des réponses convaincantes mais invérifiables en temps réel. Aucun mécanisme interne ne distingue un fait avéré d’une fabrication plausible. Microsoft le sait. Google le sait. OpenAI aussi. Mais Microsoft est le seul à avoir traduit ce constat en termes juridiques aussi brutaux.

Satya Nadella, PDG de Microsoft, décrivait Copilot comme « une habitude quotidienne » lors de la conférence Ignite 2025. Les CGU, elles, disent : ne comptez pas dessus. Les deux messages coexistent sur le même site, à quelques clics d’écart. Pour les 15 millions d’abonnés qui payent chaque mois, la question mérite d’être posée : si le fabricant lui-même classe son produit comme un divertissement, pourquoi le traiter autrement ?

La prochaine révision des CGU dira si Microsoft assume enfin la vocation professionnelle de Copilot, ou si l’entreprise préfère garder son filet de sécurité juridique. En attendant, la clause reste en ligne, accessible à quiconque prend la peine de lire les petits caractères.