Un étudiant espagnol en doctorat se force à laisser des fautes d’orthographe dans ses devoirs. Une étudiante en travail social abandonne son université après trois zéros injustifiés. Leur point commun : tous les deux ont été accusés d’avoir triché avec l’IA, alors qu’ils n’avaient rien fait.

Sur les campus américains, une guerre absurde oppose désormais détecteurs d’intelligence artificielle, logiciels « humaniseurs » et étudiants pris entre les deux feux. NBC News a interrogé dix étudiants et enseignants pris dans cette spirale. Le constat est vertigineux : pour prouver qu’ils sont humains, des milliers de jeunes se tournent vers… encore plus d’IA.

Accusés à tort, punis quand même

Brittany Carr étudiait le travail social à distance à Liberty University, en Virginie. Trois de ses devoirs ont été signalés par un détecteur d’IA et sanctionnés par un zéro. Pour l’un d’eux, elle avait rédigé un premier brouillon à la main dans un carnet. Le sujet parlait de son diagnostic de cancer et de sa dépression. « Comment l’IA pourrait-elle inventer tout ça ? », a-t-elle écrit à ses professeurs dans un courriel consulté par NBC News.

Sa défense n’a rien changé. L’université lui a demandé de suivre un cours intitulé « Rédiger avec intégrité » et de signer une lettre d’excuses pour avoir utilisé l’IA. Carr, dont l’aide financière du département des Anciens combattants dépendait de son dossier, a préféré quitter l’établissement.

Son cas n’est pas isolé. Plusieurs étudiants ont porté plainte contre leur université, de Yale à Adelphi en passant par le Minnesota. Leur reproche : des sanctions automatiques fondées sur des logiciels dont la fiabilité reste contestée.

61,3 % de faux positifs chez les non-anglophones

Turnitin, le leader du marché, revendique 98 % de précision sur les textes intégralement générés par IA et moins de 1 % de faux positifs. Des tests indépendants racontent une autre histoire. Selon les données compilées par HumanizeDraft à partir de plusieurs études, le taux de faux positifs grimpe à 61,3 % pour les rédacteurs dont l’anglais n’est pas la langue maternelle. L’université Vanderbilt a jugé le risque suffisant pour désactiver le détecteur.

Des chercheurs de l’université de Chicago, Brian Jabarian et Alex Imas, ont testé les principaux outils de détection utilisés dans les écoles et les entreprises, selon Forbes. Résultat : la précision chute drastiquement dès qu’un texte a été retouché, reformulé ou traduit.

Aldan Creo, doctorant espagnol à l’UC San Diego spécialisé dans la détection IA, en a fait l’expérience. Un assistant l’a accusé de triche parce que ses raisonnements étaient trop bien structurés, étape par étape, exactement comme le ferait ChatGPT. Depuis, il laisse volontairement des tournures calquées sur l’espagnol dans ses copies, ou des coquilles, pour paraître plus « humain ». « Je dois faire tout ce que je peux pour montrer que j’écris mes devoirs moi-même », confie-t-il à NBC News.

20 dollars par mois pour prouver son humanité

Face à la menace des faux positifs, un nouveau marché a émergé : les « humaniseurs ». Ces outils, gratuits ou facturés autour de 20 dollars par mois, analysent un texte et suggèrent des modifications pour que les détecteurs IA ne le signalent pas. BypassGPT, Quillbot, Sidekicker : l’offre explose.

Le problème, c’est que les tricheurs et les innocents utilisent les mêmes logiciels. Un étudiant qui a rédigé son devoir seul passe son texte dans un humaniseur par précaution. Un autre, qui a tout généré avec ChatGPT, fait exactement la même chose. Résultat : les détecteurs ne peuvent plus distinguer l’un de l’autre.

En réponse, Turnitin et GPTZero ont mis à jour leurs algorithmes pour repérer les textes passés par un humaniseur. Ils ont aussi lancé des applications qui enregistrent l’historique de navigation ou les frappes au clavier d’un étudiant, afin de prouver qu’il a bien tapé son texte. Certains humaniseurs contournent déjà cette parade en simulant des frappes au clavier pour un texte copié-collé.

« Les étudiants essaient maintenant de prouver qu’ils sont humains, même s’ils n’ont jamais touché à l’IA », résume Erin Ramirez, professeure associée d’éducation à la California State University de Monterey Bay. « On est dans une spirale qui ne s’arrêtera jamais. »

Le Pew Research confirme l’ampleur du phénomène

L’enquête du Pew Research Center publiée fin février 2026 pose le cadre : plus de la moitié des adolescents américains déclarent avoir utilisé un chatbot pour leurs devoirs. 12 % disent y avoir cherché un soutien émotionnel. L’IA n’est plus un outil marginal sur les campus, c’est un réflexe quotidien.

Le sondage Quinnipiac publié le 30 mars confirme la tendance chez les adultes : 27 % des Américains utilisent l’IA pour des projets scolaires ou professionnels, contre 24 % un an plus tôt. Et 64 % pensent que l’IA fera plus de mal que de bien dans l’éducation, un bond de 10 points en un an.

Eric Wang, vice-président recherche chez Quillbot (qui commercialise à la fois un détecteur et un humaniseur), reconnaît le cercle vicieux. Selon lui, la solution passe par un changement de méthode : arrêter de retirer automatiquement des points et engager le dialogue avec l’étudiant sur son usage de l’IA. « Cela nous rapproche d’un monde où l’on demande comment on utilise cette technologie sans perdre notre sens de la créativité », déclare-t-il à NBC News.

« J’écris juste pour ne pas déclencher le détecteur »

Le dommage collatéral le plus insidieux est peut-être pédagogique. Brittany Carr, avant de quitter Liberty University, avait trouvé une parade : elle passait systématiquement ses textes dans le détecteur IA de Grammarly et modifiait chaque passage signalé, phrase après phrase, jusqu’à obtenir un score de 100 % humain. « Mais j’ai l’impression que ce que j’écris ne dit plus rien. J’écris juste pour ne pas déclencher les détecteurs d’IA », confie-t-elle.

Le paradoxe est total : un outil censé protéger l’intégrité académique pousse les étudiants à écrire moins bien, à censurer leur propre style, à sacrifier la profondeur de leur réflexion pour satisfaire un algorithme.

« Si nous écrivons correctement, on nous accuse d’être des IA. C’est absolument ridicule », résume Aldan Creo. « À long terme, je pense que ça va devenir un gros problème. »

Aux États-Unis, plusieurs universités ont déjà tiré le signal d’alarme. Vanderbilt a désactivé Turnitin. D’autres réfléchissent à remplacer les dissertations classiques par des examens oraux ou des projets en présentiel. En France, où 95 % des étudiants britanniques déclaraient utiliser l’IA en 2025 selon une étude relayée par la presse spécialisée, le débat reste embryonnaire. Les mêmes outils de détection sont pourtant déployés dans les universités francophones, avec les mêmes biais linguistiques potentiels.

La prochaine étape se dessine déjà : les étudiants qui attaquent en justice pourraient obtenir des décisions qui redéfinissent ce que « tricher » signifie à l’ère de l’IA générative. Les audiences sont en cours à Yale et dans le Minnesota. Leurs verdicts pourraient forcer des centaines d’universités à revoir leurs règlements d’un coup.