Un documentaire sur l’esclavage de femmes juives pendant la Shoah. Une base de données de journaux afro-américains remontant au XIXe siècle. Les archives d’un général britannique de la Révolution américaine. Trois projets culturels que ChatGPT a classés comme « relatifs au DEI », déclenchant leur annulation. Le New York Times a révélé vendredi que deux employés du Department of Government Efficiency (DOGE) avaient utilisé un chatbot pour décider du sort de milliers de subventions accordées par la National Endowment for the Humanities (NEH), l’agence fédérale chargée depuis 1965 de financer la culture et la recherche aux États-Unis.

Oui ou non, en moins de 120 caractères

La méthode était d’une simplicité désarmante. Les deux agents récupéraient les résumés des projets subventionnés sur internet, les collaient dans ChatGPT, puis lançaient à chaque fois le même prompt : « Does the following relate at all to D.E.I.? Respond factually in less than 120 characters. Begin with « Yes » or « No ». »

Un oui ou un non, en moins de 120 caractères. C’est avec cette consigne que le sort de projets universitaires et culturels, certains en cours depuis des années, a été tranché. Le New York Times, qui a obtenu les documents internes, qualifie les résultats de « massifs et parfois bizarres ».

La Shoah, la musique et un général dans le même panier

Les exemples documentés sont édifiants. Un film sur le travail forcé imposé aux femmes juives pendant la Shoah a été jugé comme « contribuant au DEI en amplifiant des voix marginalisées ». Le sujet portait sur des femmes, et cela a suffi pour que le modèle déclenche l’alerte.

Un programme de longue date visant à numériser des journaux afro-américains historiques pour les intégrer à une base de données de recherche a reçu le même verdict. Idem pour une série éditoriale de 40 volumes consacrée à l’histoire de la musique américaine, un chantier universitaire de plusieurs décennies.

Plus inattendu encore : un projet de catalogage des archives du général Thomas Gage, officier britannique du XVIIIe siècle, a été signalé comme « promouvant l’inclusivité et la diversité dans la recherche historique ». Et des travaux de rénovation dans un centre d’archivage de langues autochtones en Alaska risquaient, selon le chatbot, de « promouvoir l’inclusion et les perspectives diverses ».

Le biais de la question trop ouverte

ChatGPT est conçu pour traiter du texte, pas pour évaluer la pertinence politique ou culturelle d’un projet de recherche. Quand on lui demande si quelque chose « relate at all » à un concept aussi large que le DEI, le modèle a tendance à trouver des connexions là où il n’y en a pas. Un projet qui mentionne des femmes, une minorité ethnique, une langue autochtone ou n’importe quel groupe identifiable risque d’être classé positif, quel que soit son contenu réel.

C’est un travers connu des modèles de langage. Face à une question binaire formulée de manière très large, ils penchent vers la réponse affirmative. Posez à ChatGPT la question « est-ce que ce texte a un rapport, même lointain, avec tel sujet ? », et il trouvera presque toujours un lien, aussi ténu soit-il. Les chercheurs en IA parlent de « sycophancy bias » : le modèle préfère répondre oui plutôt que de contredire l’intention perçue de l’utilisateur.

170 millions de dollars et 60 ans d’histoire

La NEH, créée en 1965 sous Lyndon Johnson, disposait d’un budget annuel d’environ 170 millions de dollars. L’agence finançait des projets allant de la conservation d’archives à la production de documentaires, en passant par des bourses de recherche universitaire et des programmes éducatifs locaux. La grande majorité de ces projets n’avait aucun lien avec les politiques de diversité et d’inclusion au sens où l’entend l’administration actuelle.

L’épisode illustre un problème plus large que la politique américaine. En Europe, le règlement sur l’intelligence artificielle (AI Act), entré en application en août 2025, classe les systèmes d’IA utilisés pour évaluer l’éligibilité à des prestations publiques parmi les applications « à haut risque ». Ces systèmes sont soumis à des obligations renforcées de transparence, de documentation et de supervision humaine. En France, la CNIL avait publié dès 2024 des recommandations encadrant l’usage de l’IA dans les décisions administratives, insistant sur la nécessité d’une intervention humaine « significative », et non pas cosmétique.

Aux États-Unis, le Congrès examine plusieurs propositions visant à encadrer l’usage de l’IA dans les agences fédérales, selon The Verge qui suit le dossier. Le Government AI Act, déposé en 2025, exigerait un inventaire des systèmes d’IA utilisés par chaque administration et une évaluation de leurs risques. Pour les subventions de la NEH, cette supervision arriverait trop tard. Mais le cas pourrait bien servir d’argument aux législateurs qui réclament des garde-fous avant de confier des décisions budgétaires à un chatbot.