« Je n’utilise plus mon cerveau du tout. » Ce n’est pas une blague de fin de soirée, c’est la confession d’un étudiant britannique interrogé dans le cadre de la plus grande enquête sur l’IA dans les universités du Royaume-Uni. En face, un autre étudiant assure que l’intelligence artificielle l’a aidé à « se concentrer sur l’analyse critique et la compréhension profonde » en « éliminant des heures de travail fastidieux ». Même génération, même campus, deux réalités opposées.
L’enquête annuelle du Higher Education Policy Institute (HEPI), publiée en mars 2026, dresse un portrait saisissant. En deux ans, la proportion d’étudiants de premier cycle utilisant l’IA générative est passée de 66 % à 95 %. Sur les 1 054 étudiants interrogés en décembre 2025, la quasi-totalité a intégré ces outils dans ses études. La question n’est plus de savoir si les étudiants utilisent l’IA. C’est de comprendre ce que ça leur fait.
Résumer, expliquer, tricher : ce que font les étudiants avec l’IA
Les usages les plus répandus relèvent de l’aide à la compréhension. 61 % des étudiants demandent à l’IA de leur expliquer des concepts, 49 % s’en servent pour résumer des articles, 40 % pour générer des idées de recherche. Jusque-là, rien de scandaleux. C’est la suite qui inquiète les universités.
La proportion d’étudiants qui insèrent directement du texte généré par l’IA dans leurs travaux notés a quadruplé : de 3 % en 2024 à 12 % en 2026, selon le rapport HEPI (Report 199). Près de deux tiers des étudiants déclarent que les formats d’examens ont significativement changé. Et dans les réponses libres du questionnaire, un thème revient avec insistance : la peur d’être faussement accusé de triche.
« Je m’inquiète en permanence que mon travail déclenche la détection IA, alors que je n’ai jamais utilisé l’IA pour rédiger un devoir », écrit un étudiant. Le paradoxe est cruel : pendant que certains trichent sans conséquences, d’autres vivent dans l’angoisse d’être punis pour un travail honnête. Les outils de détection, notoirement peu fiables, alimentent cette spirale de méfiance.
Le fossé entre ceux qui apprennent mieux et ceux qui décrochent
Le rapport HEPI révèle un corps étudiant profondément divisé. Un peu moins de la moitié estime que l’IA a amélioré leur expérience universitaire. L’autre moitié s’inquiète de l’équité, de la perte de compétences propres, et de ce que l’IA signifie pour le marché de l’emploi. Certains estiment que les matières créatives sont dévalorisées.
Sur la question des sources de travail, les étudiants se répartissent en trois groupes à peu près égaux : ceux qui s’appuient sur les sources traditionnelles (livres, articles, bases de données), ceux qui privilégient l’IA, et ceux qui combinent les deux. Le chiffre qui alerte : près d’un étudiant sur dix ne consulte presque plus de sources traditionnelles. Leur bibliothèque universitaire, c’est ChatGPT.
L’utilisation de ChatGPT lui-même recule légèrement, note le rapport. Non pas parce que les étudiants utilisent moins l’IA, mais parce qu’ils migrent vers des outils plus spécialisés. Le marché se fragmente, et les universités peinent à suivre.
Nuls mais confiants : le piège de l’IA sans supervision
Le résultat le plus frappant de l’enquête vient d’une étude de cas menée à la Queen Mary University of London. Le professeur Rakesh Patel a suivi des étudiants en médecine lors d’exercices cliniques, en les répartissant selon leur mode de travail.
Ceux qui n’utilisaient que l’IA, sans retour humain, ont obtenu les pires résultats du groupe. Mais ils affichaient le niveau de confiance le plus élevé dans leurs propres compétences. Ils se croyaient meilleurs que les autres, alors qu’ils étaient derniers. Le professeur Patel compare ce phénomène à « donner une voiture de sport à quelqu’un qui n’a pas encore appris à conduire ».
Ce décalage entre confiance et compétence n’est pas anodin dans le domaine médical. Un étudiant en médecine qui se croit compétent sans l’être représente un risque direct pour les patients. Mais le phénomène dépasse la médecine : il pose la question de ce que signifie « savoir » quand une machine fournit les réponses. Si l’étudiant obtient la bonne réponse via l’IA mais ne comprend pas le raisonnement, a-t-il appris quelque chose ?
L’IA comme compagnon contre la solitude
L’enquête HEPI met en lumière un usage inattendu : 15 % des étudiants utilisent l’IA pour des conseils personnels, de la compagnie, ou pour lutter contre la solitude. Certains se tournent vers des services de thérapie entièrement pilotés par l’IA.
« C’est comme avoir un ami à portée de main », explique un étudiant dans le rapport. Un autre résume son expérience d’un mot : « Isolement. » Quatre étudiants sur dix déclarent que l’IA affecte leur sentiment de solitude, les effets positifs et négatifs s’équilibrant à peu près.
Le constat rejoint des préoccupations plus larges sur la santé mentale étudiante. Quand un chatbot devient le premier interlocuteur d’un étudiant en détresse, la qualité de l’accompagnement dépend entièrement d’un modèle statistique entraîné sur des données génériques. Ni empathie réelle, ni responsabilité clinique. Le rapport recommande des recherches ciblées sur l’impact de l’IA sur la solitude et le bien-être mental des étudiants.
Un fossé social que l’IA creuse au lieu de combler
L’accès à l’IA n’est pas égalitaire. Les étudiants issus de familles aisées utilisent l’IA plus fréquemment, selon l’enquête HEPI. Les étudiants masculins arrivent avec plus d’expérience préalable. Un tiers des étudiants débarque à l’université sans aucune expérience de l’IA.
Les disparités se retrouvent aussi par discipline. Les étudiants en sciences humaines se montrent nettement plus sceptiques et se sentent particulièrement mal accompagnés. Plus de deux tiers des étudiants considèrent les compétences en IA comme indispensables, mais moins de la moitié se sentent soutenus par leurs enseignants. Seul un tiers déclare que son université les encourage activement à utiliser l’IA.
Autre frein, plus inattendu : l’empreinte écologique. Près d’un quart des étudiants affirment que l’impact environnemental de l’IA les dissuade de l’utiliser. Une préoccupation qui tranche avec l’image d’une génération Z uniformément technophile, rapporte The Decoder.
Deux modèles, deux résultats
Face à ces constats, deux universités illustrent des approches opposées. À Queen Mary, l’IA sans encadrement a produit des étudiants confiants mais incompétents. À Aston University, la direction a pris le problème à l’envers : dès 2023, la formation à l’IA est devenue obligatoire dans tous les cursus, et l’ensemble du personnel a reçu des outils dédiés.
Le rapport HEPI recommande d’introduire l’IA de manière structurée dès la première année, de créer des formats d’examen clairs distinguant les épreuves avec et sans IA, de fournir des outils à tous les étudiants pour réduire le fossé social, et de mener des recherches spécifiques sur les effets de l’IA sur la santé mentale.
Les universités du Russell Group, qui accusaient un retard en 2025, sont désormais les plus enclines à encourager l’utilisation de l’IA, note l’enquête. Le virage est amorcé. Reste à voir si les universités françaises, où le débat sur l’IA dans l’enseignement supérieur n’en est qu’à ses débuts, tireront les leçons de l’expérience britannique avant de reproduire les mêmes erreurs.