Google et OpenAI en rêvaient depuis des mois. La Maison-Blanche vient de leur offrir exactement ce qu’ils demandaient : un cadre national qui empêcherait les 50 États américains de légiférer sur l’intelligence artificielle. Le document, publié vendredi 20 mars, propose au Congrès sept recommandations législatives qui redessinent les rapports de force entre Washington, les capitales des États et la Silicon Valley.

Un cadre fédéral pour remplacer le « patchwork » des États

Le texte s’intitule « National Policy Framework for Artificial Intelligence » et prend la forme de recommandations législatives destinées au Congrès. Son message central : les lois étatiques sur l’IA créent un « patchwork fragmenté » qui nuit à la compétitivité américaine. La solution proposée consiste à instaurer une norme fédérale unique qui remplacerait la majorité des régulations locales.

Concrètement, le cadre prévoit que les États ne pourraient plus réguler le développement de l’IA, qualifié de « phénomène intrinsèquement inter-étatique avec des implications clés en politique étrangère et en sécurité nationale ». Ils ne pourraient pas non plus imposer des règles rendant plus difficile l’utilisation de l’IA pour des activités qui seraient légales sans elle. Plus notable encore : les développeurs d’IA ne pourraient pas être tenus responsables de l’utilisation illégale de leurs modèles par des tiers.

Quelques exceptions subsisteraient. Les États conserveraient le droit d’appliquer leurs lois générales existantes contre la fraude, la protection des consommateurs et la sécurité des enfants. Ils garderaient aussi leur autorité sur le zonage des infrastructures IA et sur l’encadrement de l’usage public de l’IA par leurs propres administrations, notamment dans les forces de l’ordre et l’éducation.

Les sept piliers du plan Trump

Le document couvre sept domaines. Sur la protection des mineurs, le Congrès devrait donner aux parents davantage de contrôle sur les plateformes utilisant l’IA et introduire une vérification de l’âge. En matière d’énergie, le texte stipule que les clients des compagnies d’électricité ne devraient pas supporter le coût des nouveaux datacenters IA, et que les autorisations d’infrastructure devraient être accélérées.

Sur le droit d’auteur, sujet brûlant depuis que les plaintes contre OpenAI et les autres se multiplient devant les tribunaux, l’administration préfère laisser les juges trancher au cas par cas la question de savoir si l’entraînement sur du contenu protégé constitue un usage loyal. Pas de loi spécifique prévue, ce qui arrange considérablement les entreprises d’IA qui redoutaient un texte restrictif.

Autre point remarquable : plutôt que de créer une nouvelle agence de régulation de l’IA, le cadre s’appuie sur les organismes de supervision existants et sur les normes industrielles. Selon The Decoder, qui a analysé le document en détail, cette approche allégée correspond précisément aux demandes formulées par les géants technologiques lors de réunions de lobbying au cours des derniers mois.

Google et OpenAI réclamaient exactement ce texte

Depuis au moins un an, les principales entreprises d’IA font pression pour obtenir des règles fédérales uniformes qui remplaceraient les initiatives étatiques. Google, OpenAI et d’autres acteurs ont publiquement plaidé pour cette approche, arguant qu’elle favorise l’innovation. En coulisses, leurs lobbyistes ont intensifié leurs efforts à Washington après l’échec du SB 1047 en Californie, un projet de loi ambitieux que le gouverneur Gavin Newsom avait finalement mis son veto en septembre 2024.

Le cadre de la Maison-Blanche leur donne satisfaction sur presque tous les fronts : pas de nouvelle agence, pas de responsabilité pour les usages tiers, pas de loi fédérale sur le copyright qui pourrait restreindre l’entraînement de modèles, et surtout une préemption qui neutraliserait les dizaines d’initiatives législatives en cours dans les États. Selon le National Conference of State Legislatures, plus de 45 États avaient introduit des projets de loi liés à l’IA en 2025.

Le paradoxe de la « liberté d’expression » algorithmique

Un passage du document attire particulièrement l’attention des observateurs. Le cadre propose d’interdire au gouvernement fédéral de faire pression sur les fournisseurs d’IA pour « bannir, imposer ou altérer du contenu en fonction d’agendas partisans ou idéologiques ». La formulation semble viser la censure politique au sens large.

Mais plusieurs analystes, dont ceux de The Decoder, soulignent une contradiction évidente. L’administration Trump mène depuis des mois une campagne contre ce qu’elle qualifie d’« IA woke », reprochant aux modèles comme Claude ou Gemini de refuser certaines requêtes pour des raisons éthiques. Cette pression gouvernementale pour rendre les IA moins restrictives constitue elle-même une forme d’ingérence dans les choix éditoriaux des développeurs.

La tension est d’autant plus palpable que le conflit entre l’administration et Anthropic, désigné « risque pour la chaîne d’approvisionnement » par le Pentagone précisément en raison de ses garde-fous éthiques, illustre concrètement ce que cette clause pourrait signifier dans la pratique. La Maison-Blanche veut interdire la censure politique de l’IA tout en combattant activement les modèles qu’elle juge trop prudents.

Un texte sans force de loi, pour l’instant

Le cadre n’est qu’un ensemble de recommandations. Il revient au Congrès de légiférer, et rien ne garantit que ces propositions seront adoptées telles quelles. L’administration Trump avait déjà tenté de bloquer les lois étatiques par décret exécutif, sans succès jusqu’ici, comme le rappelle The Decoder dans son analyse.

Les critiques ne se sont pas fait attendre. Plusieurs voix, notamment parmi les législateurs étatiques et les associations de défense des droits numériques, dénoncent une centralisation du pouvoir sur une technologie potentiellement transformatrice entre les mains d’une administration fédérale qui entretient des liens étroits avec les entreprises qu’elle prétend encadrer.

Le timing du document n’est pas anodin. Il arrive alors que l’Union européenne applique depuis un an son AI Act, le premier cadre juridique contraignant au monde sur l’IA, et que la Chine a déjà imposé des règles sur les modèles génératifs. Les États-Unis restent le seul grand pôle technologique mondial sans législation fédérale sur l’intelligence artificielle. Ce plan pourrait finalement en fournir une, mais à condition que le Congrès suive. Et les midterms de novembre 2026 pourraient bien redistribuer les cartes avant que le moindre texte soit voté.