« Les LLM ont une fiabilité limitée, une compréhension limitée, une portée limitée, et nécessitent donc une supervision humaine. » Quand Michael Osborne, professeur de machine learning à Oxford, résume le problème en une phrase, il ne parle pas d’un obscur outil de niche. Il parle de ChatGPT, Gemini, Claude, et de tout ce que l’industrie tech présente comme l’avenir de l’écriture. Wikipédia vient de tirer la même conclusion, mais en actes : l’encyclopédie en ligne interdit désormais l’utilisation de l’intelligence artificielle pour rédiger ou réécrire ses articles.
La plus grande encyclopédie du monde ferme la porte à l’IA
La nouvelle politique, adoptée après des mois de débats internes, est entrée en vigueur sur la version anglophone de Wikipédia. Le texte est sans ambiguïté : « L’utilisation de grands modèles de langage pour générer ou réécrire du contenu d’article est interdite. » Deux exceptions subsistent : les contributeurs peuvent utiliser un LLM pour peaufiner leur propre rédaction (comme un correcteur grammatical avancé), et pour assister une traduction d’article, à condition de maîtriser les deux langues et de vérifier chaque phrase.
L’administrateur Chaotic Enby, à l’origine de la proposition, a expliqué sur Mastodon que les tentatives précédentes avaient échoué parce qu’elles visaient trop large d’un coup. Cette fois, le consensus s’est construit étape par étape. « Mon espoir sincère est que cela puisse déclencher un changement plus large, a écrit l’administrateur. Donner le pouvoir aux communautés sur d’autres plateformes, et voir ça devenir un mouvement de base où les utilisateurs décident si l’IA est bienvenue dans leurs communautés, et dans quelle mesure. » Un mot revient dans son message : « enshittification », ce concept popularisé par Cory Doctorow qui décrit la dégradation progressive des plateformes numériques au profit des annonceurs et au détriment des utilisateurs.
Références inventées, biais amplifiés, diffamation potentielle
La page de politique interne de Wikipédia détaille pourquoi les LLM posent un problème structurel pour une encyclopédie. Premier risque : les hallucinations. Les modèles de langage génèrent du texte en prédisant le mot le plus probable après le précédent. Ce mécanisme produit régulièrement des affirmations fausses présentées avec aplomb, accompagnées de références bibliographiques qui n’existent tout simplement pas. Sur Wikipédia, où chaque information doit être sourcée par une publication fiable, c’est rédhibitoire.
Le problème va plus loin. Les LLM reproduisent les biais présents dans leurs données d’entraînement, ce qui entre en contradiction directe avec la politique de neutralité de l’encyclopédie. Ils peuvent aussi générer du contenu diffamatoire sur des personnes vivantes, ou violer des droits d’auteur sans que le contributeur s’en aperçoive. Comme le souligne la page de politique interne citant le MIT Sloan School of Management : « Les hallucinations et les biais dans les sorties de l’IA générative résultent de la nature de leurs données d’entraînement, de leur conception centrée sur la génération de contenu basée sur des patterns, et des limites inhérentes de la technologie. »
Des bénévoles traquent le « slop » mot par mot
Interdire l’IA sur le papier est une chose. La détecter en est une autre. Wikipédia a mis en place un dispositif de nettoyage remarquable : le WikiProject AI Cleanup, un groupe de bénévoles qui passe les articles au peigne fin pour repérer le contenu généré par machine. Leur guide interne, accessible publiquement, constitue un véritable manuel de détection du texte artificiel.
Les signes révélateurs sont nombreux et parfois surprenants. Certains mots trahissent immédiatement une rédaction par IA : « delve » (approfondir), « stands as a testament » (témoigne de), ou encore « pivotal » (crucial) reviennent avec une fréquence anormale dans les textes générés. Le guide recommande de chercher ces marqueurs directement dans le moteur de recherche interne de Wikipédia, parfois en combinant plusieurs termes suspects pour réduire les faux positifs.
Les bénévoles utilisent aussi des recherches par expressions régulières (regex) pour repérer des structures syntaxiques typiques de l’IA. Par exemple, le pattern « virgule suivie d’un gérondif + pronom possessif » apparaît bien plus souvent dans le texte généré que dans l’écriture humaine. Chaque modification suspecte doit être datée : si elle remonte à avant 2023, elle n’est presque certainement pas d’origine artificielle.
Même les experts se trompent une fois sur dix
Le guide du WikiProject AI Cleanup contient un avertissement lucide. Une étude de 2025 montre que les utilisateurs réguliers de LLM identifient correctement un texte généré par IA environ 90 % du temps. Autrement dit, sur dix pages signalées par un expert, une accusation est probablement fausse. Pour les personnes qui n’utilisent pas régulièrement ces outils, le taux de détection n’est guère meilleur que le hasard.
Quant aux logiciels de détection automatique comme GPTZero, Wikipédia les juge insuffisants. Leur taux d’erreur reste significatif, et ils peuvent être trompés par des modifications mineures du texte : paraphrases, changements de mise en forme, ou utilisation de modèles plus récents que ceux sur lesquels le détecteur a été entraîné. La plateforme mise donc sur le jugement humain, encadré par des critères précis, plutôt que sur des outils automatiques.
L’Espagne va encore plus loin
La politique adoptée par Wikipédia anglophone laisse deux portes entrouvertes : la correction stylistique et la traduction assistée. Wikipédia en espagnol a choisi une approche plus radicale. La version hispanophone interdit purement et simplement l’usage des LLM pour créer de nouveaux articles ou enrichir les existants, sans aucune exception pour la traduction ou la retouche rédactionnelle, rapporte How-To Geek.
Cette divergence illustre un point souvent oublié : Wikipédia n’est pas une entité monolithique. Chaque version linguistique dispose de sa propre communauté d’éditeurs, de ses propres règles, et de sa propre gouvernance. Certaines pourraient choisir d’accueillir l’IA. D’autres pourraient durcir encore leur position. Mais la décision de la version anglophone, de loin la plus consultée avec plus de 6,8 millions d’articles, fixe un précédent que les autres communautés ne pourront pas ignorer.
Le web humain contre-attaque
Le timing de cette interdiction n’est pas anodin. Google, Microsoft, Meta et les autres géants du numérique injectent de l’IA générative dans tous leurs produits, souvent sans demander leur avis aux utilisateurs. Google vient de déployer Search Live, sa recherche par caméra alimentée par Gemini, dans plus de 200 pays. OpenAI pousse ChatGPT comme outil de rédaction universel. Dans ce contexte, Wikipédia prend le contre-pied exact : la plus grande base de connaissances collaboratives au monde affirme que le texte écrit par des humains, vérifié par des humains, reste irremplaçable.
La démarche dépasse la simple question de qualité rédactionnelle. Les LLM, par leur fonctionnement statistique, tendent à « lisser » l’information. Un fait précis et nuancé devient une généralité pompeuse. Comme le décrit la page interne de Wikipédia : « L’inventeur du premier dispositif d’attelage ferroviaire » se transforme en « un titan révolutionnaire de l’industrie ». Le sujet devient simultanément moins spécifique et plus exagéré. Pour une encyclopédie dont la valeur repose sur la précision factuelle, cette tendance est destructrice.
Reste une question pratique : Wikipédia peut-elle réellement faire respecter cette interdiction à l’échelle de ses dizaines de milliers de contributeurs actifs ? Les pages les moins surveillées continueront probablement à accueillir du contenu généré non détecté. Mais le signal envoyé par cette décision va au-delà de l’encyclopédie elle-même. Reddit, Stack Overflow et d’autres plateformes communautaires ont déjà pris des mesures similaires. La résistance du web collaboratif face au contenu artificiel s’organise, un article à la fois.