Une IA qui refuse de répondre à une question sensible, c’est agaçant. Pour le gouvernement américain, c’est devenu inacceptable. Une nouvelle clause, déposée le 6 mars par la General Services Administration (GSA), veut interdire aux systèmes d’intelligence artificielle de dire non dans le cadre des contrats fédéraux. L’industrie tech, d’OpenAI à Microsoft en passant par l’Electronic Frontier Foundation, tire la sonnette d’alarme.

Une clause de quatre mots qui change tout

Le texte porte un nom bureaucratique : GSAR 552.239-7001, « Basic Safeguarding of Artificial Intelligence Systems ». Derrière ce titre anodin se cache une obligation explosive. Les entreprises qui vendent des outils d’IA au gouvernement fédéral devront garantir que leurs systèmes « ne refusent pas de produire des données ou de mener des analyses en raison de politiques discrétionnaires du fournisseur ». Traduction : les garde-fous que ChatGPT, Claude ou Gemini utilisent pour éviter les dérapages devront sauter dès qu’un contrat public est en jeu.

La clause va plus loin. Elle exige que les IA soient mises à disposition de l’État pour « tout usage légal », sans restriction. Les entreprises devront également déclarer sous 30 jours tous les systèmes d’IA mobilisés, préciser s’ils ont été modifiés pour se conformer à une réglementation étrangère, et céder au gouvernement la propriété de tout développement sur mesure. La date limite de commentaire public sur ce texte était fixée au 3 avril 2026.

OpenAI, Microsoft et IBM montent au créneau

La Business Software Alliance (BSA), qui regroupe des poids lourds comme OpenAI, Microsoft, IBM et Palo Alto Networks, a publié un avis cinglant. Le lobby demande à la GSA d’opérer des « changements significatifs » au texte. Selon la BSA, la clause fragiliserait la propriété intellectuelle des entreprises, créerait des obligations de conformité quasi impossibles à respecter pour les entreprises de taille moyenne, et exposerait les fournisseurs au False Claims Act, une loi qui permet au gouvernement de poursuivre les prestataires pour fausses déclarations.

Le problème touche la chaîne de production en cascade. Un intégrateur qui utilise l’API d’OpenAI dans un produit vendu à l’armée deviendrait juridiquement responsable du respect de la clause par OpenAI elle-même, alors qu’il n’a aucun levier contractuel sur l’éditeur du modèle. L’analyse juridique publiée par Lawfare qualifie ce mécanisme de « gouvernance au marteau-pilon ».

Profilage psychologique et surveillance : les scénarios qui inquiètent

Americans for Responsible Innovation, une organisation à but non lucratif spécialisée dans la régulation de l’IA, a formulé les craintes les plus précises. Parmi les usages que la clause rendrait possibles : le profilage psychologique de demandeurs d’allocations, l’analyse de comportements à des fins de surveillance, ou encore le filtrage de la « loyauté » des fonctionnaires fédéraux. L’organisation ne mâche pas ses mots : « Autoriser « tout usage légal » supprime l’un des derniers garde-fous publics contre la tyrannie. »

L’Electronic Frontier Foundation (EFF), dans un courrier cosigné avec le Center for Democracy and Technology, l’Electronic Privacy Information Center et Protect Democracy Project, rappelle un fait souvent oublié. Le gouvernement américain a un historique documenté d’espionnage illégal de ses propres citoyens, de la NSA aux programmes de surveillance post-11 Septembre. Confier des IA sans filtre à ces mêmes institutions, arguent les signataires, revient à fournir un outil de surveillance plus performant que tout ce qui existait avant.

Le paradoxe « anti-woke » qui rend le texte incohérent

La clause contient une autre exigence : les systèmes d’IA devront produire des résultats « véridiques, fiables et neutres ». Le principe paraît raisonnable. Sauf que cette neutralité est définie en référence au décret présidentiel 14319, baptisé « Preventing Woke AI in the Federal Government ». La directive exclut explicitement les principes de diversité, d’équité et d’inclusion du champ de la « neutralité ».

L’ironie n’échappe pas aux juristes. Comme le relève Lawfare, « l’arbitre de la neutralité de l’IA est le même gouvernement qui a intitulé son décret « empêcher l’IA woke » ». La contradiction est technique autant que philosophique. Certaines IA refusent de répondre à des questions médicales ou juridiques non pas par « idéologie » mais parce que leurs développeurs jugent les réponses potentiellement dangereuses. Supprimer ces refus pour satisfaire la clause anti-refus pourrait violer la clause de véracité du même texte.

Anthropic et le Pentagone, le précédent qui éclaire tout

Cette clause ne tombe pas du ciel. Début 2026, le département de la Défense a tenté d’obtenir un accès sans restriction à Claude, le modèle d’Anthropic. L’entreprise a refusé, invoquant ses propres règles d’utilisation qui interdisent les applications de surveillance et les armes autonomes. Le Pentagone a riposté en plaçant Anthropic sur une liste de risque fournisseur, déclenchant une bataille juridique qui s’est retrouvée devant un tribunal fédéral. Le contentieux, qui porte sur un contrat de 200 millions de dollars, reste ouvert.

La clause de la GSA peut se lire comme une tentative de couper court à ce type de refus. Si « aucun refus n’est autorisé » devient la norme dans les contrats fédéraux, les entreprises n’auront plus de base légale pour résister aux demandes de l’État.

L’Europe prend le chemin inverse

Pendant que Washington tente de desserrer les brides, Bruxelles les resserre. L’AI Act européen, dont les premières obligations s’appliquent progressivement en 2026, impose aux développeurs d’IA des exigences de transparence, de traçabilité et de gestion des risques, en particulier pour les systèmes « à haut risque » utilisés dans l’emploi, la santé ou la justice. Les deux plus grandes économies du monde avancent dans des directions diamétralement opposées sur la manière de contrôler l’intelligence artificielle.

La GSA n’a pas encore publié la version finale de la clause. Compte tenu de l’ampleur des critiques reçues avant la date limite du 3 avril, des modifications sont probables. La prochaine mise à jour du programme Schedule, initialement prévue pour mars, a déjà été repoussée. Reste à savoir si le gouvernement américain acceptera de laisser les IA conserver leur droit de refus, ou si « obéir sans broncher » deviendra la condition d’accès aux contrats les plus lucratifs de la planète.