Plus de 100 lois contre l’IA votées dans les États américains, et un président qui veut toutes les supprimer. Face au bras de fer, la Californie vient de signer un décret qui force les entreprises d’intelligence artificielle à prouver la sécurité de leurs modèles avant de décrocher le moindre contrat public. Un pari risqué : l’État abrite 33 des 50 plus grandes entreprises d’IA privées au monde.
Un décret taillé pour contrer Washington
Le 30 mars 2026, le gouverneur Gavin Newsom a signé le décret N-5-26, qualifié de « premier du genre » par son administration. Le texte donne 120 jours aux agences californiennes pour développer de nouvelles règles de passation de marchés publics, avec une exigence centrale : toute entreprise d’IA qui veut vendre ses services à l’État devra certifier que ses modèles intègrent des garde-fous contre les contenus illicites, les biais discriminatoires et les atteintes aux libertés civiles.
Concrètement, les entreprises devront démontrer que leurs technologies empêchent la génération et la diffusion de pédopornographie, qu’elles corrigent les biais algorithmiques et qu’elles ne facilitent pas la surveillance illégale. Le décret impose aussi l’élaboration de bonnes pratiques pour le tatouage numérique (watermarking) des images et vidéos générées ou manipulées par IA.
« La Californie a toujours été le berceau de l’innovation. Mais nous comprenons aussi le revers de la médaille : entre de mauvaises mains, l’innovation peut mettre les gens en danger », a déclaré Newsom dans un communiqué officiel.
Trump veut étouffer la régulation, la Californie résiste
Le timing est tout sauf anodin. En décembre 2025, la Maison-Blanche a publié un cadre national pour l’IA qui décourage explicitement les États de légiférer sur le sujet. « Pour gagner, les entreprises américaines d’IA doivent être libres d’innover sans régulation pesante », écrit le décret fédéral. Trump a même ordonné au ministère de la Justice de créer un groupe de travail chargé de contester devant les tribunaux les lois étatiques sur l’IA.
La Californie fait le choix inverse. Mieux : le décret N-5-26 prévoit de « séparer le processus d’autorisation d’achat de l’État de celui du gouvernement fédéral si nécessaire ». En d’autres termes, la Californie se réserve le droit de fixer ses propres règles de certification, indépendamment de Washington.
Comme le rapporte le New York Times, les États américains ont déjà adopté plus de 100 lois pour protéger les enfants des chatbots ou empêcher les entreprises d’IA de piller du contenu protégé par le droit d’auteur. La Californie n’est pas seule dans cette bataille, mais son poids économique lui donne un levier que les autres États n’ont pas.
La 4e économie mondiale dicte ses conditions
Si la Californie était un pays, elle serait la quatrième puissance économique mondiale, devant l’Inde. Cet État concentre 25 % de tous les brevets, publications et entreprises liées à l’IA aux États-Unis, selon le Stanford AI Index 2025. Entre le troisième trimestre 2024 et le deuxième trimestre 2025, la baie de San Francisco a capté 51 % de l’ensemble des fonds de capital-risque investis dans les startups d’IA américaines.
Ce poids donne à la Californie un pouvoir de marché considérable. Quand l’État exige une certification pour ses marchés publics, les entreprises n’ont pas vraiment le choix de l’ignorer. Google, Apple, Nvidia, OpenAI, Anthropic : tous sont basés en Californie. Aucune de ces entreprises ne peut se permettre de perdre l’accès au plus gros marché public de l’État le plus riche du pays.
L’analyste juridique Airia souligne que le décret n’impose rien aujourd’hui aux entreprises. Il lance un compte à rebours de 120 jours. Fin juillet 2026, les nouveaux critères de certification deviendront officiels. D’ici là, les entreprises ont quatre mois pour adapter leurs pratiques, ou renoncer à travailler avec l’État.
L’IA au service des fonctionnaires, pas contre eux
Le décret ne se limite pas aux restrictions. Newsom ordonne aussi l’expansion de l’utilisation de l’IA dans les services publics de l’État. Un outil basé sur l’IA générative permettra bientôt aux Californiens de naviguer parmi les programmes d’aide disponibles selon leur situation : création d’entreprise, recherche d’emploi, ou accès à des prestations sociales.
Le gouverneur lance aussi la première consultation citoyenne à l’échelle de l’État via « Engaged California », une plateforme de démocratie participative numérique testée d’abord lors de la reconstruction après les incendies de Los Angeles. L’objectif : permettre aux habitants de donner leur avis sur l’impact de l’IA sur l’emploi et orienter les politiques publiques en conséquence.
Ce volet « IA utile » est un calcul politique. Newsom veut éviter d’apparaître comme un frein à l’innovation dans un État qui vit de la tech. Il le répète : la Californie régule l’IA, mais elle l’adopte aussi. D’après son administration, l’État travaille déjà avec Nvidia, Google, Adobe, IBM et Microsoft pour former deux millions d’étudiants et enseignants à l’IA dans les universités et lycées publics.
Une guerre juridique prévisible
Le bras de fer entre Washington et Sacramento ne fait que commencer. Le groupe de travail du ministère de la Justice fédéral, créé en décembre, a pour mission explicite de contester les lois étatiques jugées « excessives » en matière d’IA. La Californie est la cible la plus évidente.
La question juridique est inédite : un État peut-il imposer des normes de sécurité IA à des entreprises quand le gouvernement fédéral interdit explicitement aux États de le faire ? Aucun tribunal n’a encore tranché. Les premiers recours pourraient arriver dès que les nouvelles règles de passation de marchés entreront en vigueur, fin juillet.
Pour les entreprises d’IA, la situation crée une incertitude opérationnelle concrète. D’un côté, le gouvernement fédéral leur promet un cadre permissif. De l’autre, leur État d’origine leur impose des certifications. À terme, si la Californie l’emporte, ses standards pourraient devenir la norme nationale de facto, comme c’est déjà le cas pour les normes antipollution automobiles. L’IA pourrait suivre le même chemin que le pot catalytique.