Aux États-Unis, six juges sur dix utilisent déjà l’intelligence artificielle pour préparer leurs audiences. L’un d’eux, un magistrat fédéral du Texas, commence chaque audience en soumettant les pièces du dossier à un chatbot pour obtenir une chronologie de l’affaire. Le problème : personne ne vérifie ce que la machine écrit, et les premiers dérapages ont déjà eu des conséquences judiciaires réelles.
Des décisions truffées de parties fictives et de citations inventées
En juillet 2025, le juge fédéral Henry T. Wingate, basé dans le Mississippi, a rendu une ordonnance suspendant une loi de l’État sur les programmes de diversité dans les écoles publiques. La défense, représentée par le procureur général du Mississippi, a rapidement pointé des anomalies graves : des noms de parties qui n’existaient pas dans le dossier, des lois d’État mal citées, des affirmations factuelles sans aucun appui dans les pièces, et quatre individus mentionnés qui n’avaient aucun lien avec l’affaire. Le juge Wingate a remplacé son ordonnance par une version « corrigée » antidatée, retiré l’originale du registre public et qualifié les erreurs de « cléricales », sans davantage d’explication.
Trois jours plus tard, un autre juge fédéral, Julien Xavier Neals, dans le New Jersey, retirait à son tour une décision dans une affaire de valeurs mobilières pharmaceutiques. Ses avocats avaient découvert des citations attribuées aux défendeurs qui n’avaient jamais été prononcées, des références à des décisions de justice dont les conclusions étaient inversées (des requêtes prétendument rejetées avaient en réalité été accordées), et des jurisprudences qui n’existaient tout simplement pas. Selon Reuters, un « assistant temporaire » du cabinet du juge Neals avait utilisé une plateforme d’IA pour rédiger la décision, publiée avant que le processus de relecture ne puisse intercepter les erreurs.
Le Sénat entre dans la danse
Ces deux affaires ont poussé Chuck Grassley, président de la commission judiciaire du Sénat, à envoyer des courriers officiels aux deux magistrats. Grassley leur demande de préciser si eux-mêmes, leurs greffiers ou tout membre de leur personnel ont utilisé l’IA générative pour rédiger leurs décisions, et s’ils ont introduit des informations confidentielles du dossier dans ces outils. Le sénateur exige aussi que les ordonnances originales soient rétablies dans le registre public, au nom de la transparence.
« Les juges fédéraux devraient être tenus à un standard plus élevé encore que les avocats qui plaident devant eux, compte tenu de la force contraignante de leurs décisions », a écrit Grassley dans sa lettre, consultable sur le site du Sénat américain.
60 % des juges fédéraux utilisent l’IA, mais sans formation ni cadre
L’étude qui a mis le feu aux poudres vient de Northwestern University. Publiée par la Sedona Conference fin mars 2026, elle repose sur un échantillon aléatoire de 502 juges fédéraux (tribunaux de faillite, magistrats, cours de district et cours d’appel). Sur les 112 qui ont répondu entre le 2 et le 19 décembre 2025, plus de 60 % déclarent utiliser au moins un outil d’IA dans leur travail judiciaire. Près d’un juge sur quatre (22,4 %) s’en sert chaque semaine, voire chaque jour.
Les usages les plus fréquents : la recherche juridique (30 %) et l’examen de documents (15,5 %). Les juges préfèrent les outils juridiques spécialisés (CoCounsel de Thomson Reuters, Westlaw AI, Lexis+ AI, Harvey) aux chatbots grand public comme ChatGPT ou Claude. Mais la corrélation entre usage personnel et professionnel est forte : un juge qui utilise l’IA dans sa vie privée a beaucoup plus de chances de l’utiliser au tribunal.
Le plus préoccupant dans les résultats : 45,5 % des juges affirment que l’administration judiciaire ne leur propose aucune formation à l’IA. Seuls 7,4 % travaillent dans un environnement qui encourage activement l’utilisation de ces outils. À l’autre bout du spectre, 20 % des juges interdisent formellement l’IA dans leur cabinet, et 24,1 % n’ont tout simplement aucune politique sur le sujet.
Los Angeles teste « Learned Hand », le sous-chef du juge
Pendant que le Sénat enquête, la Californie accélère. Depuis février 2026, six juges du tribunal civil du comté de Los Angeles ont accès à un logiciel d’IA baptisé Learned Hand (du nom d’un célèbre juge américain du XXe siècle). Le programme résume des requêtes de centaines de pages, analyse les arguments des parties, s’adapte au style rédactionnel de chaque juge et peut rédiger des projets de décisions provisoires. Coût du contrat pilote : un peu plus de 300 000 dollars, jusqu’à début 2027.
Shlomo Klapper, le fondateur de Learned Hand, décrit son outil comme un « sous-chef judiciaire » et assure que 10 États l’utilisent déjà, y compris la Cour suprême du Michigan. Son système intègre un processus de vérification baptisé « Deep Verify », qui interroge chaque phrase générée pour s’assurer qu’elle correspond aux sources citées. « Nous ne demandons pas aux juges de nous faire confiance. Nous leur disons : vous pouvez vérifier vous-même, avec des liens vers les sources originales », a-t-il déclaré au Los Angeles Times.
Mais le procureur du comté de Los Angeles, Nathan Hochman, voit un risque psychologique. Même si le juge ne retient pas la proposition de l’IA, le simple fait de lire une décision provisoire générée par la machine « devient le point de référence, et toute décision prise ensuite peut en découler », alerte-t-il. Un juge du comté, interrogé anonymement, partage cette inquiétude : l’IA crée un « ancrage cognitif » avant même que le magistrat n’ait formé son propre raisonnement.
Juger sans le dire
Autre problème de taille : les juges californiens n’ont aucune obligation de révéler qu’ils ont utilisé l’IA pour préparer une décision. David Slayton, directeur du tribunal supérieur de Los Angeles, reconnaît que les règles de l’État « invitent » les juges à envisager la divulgation, sans jamais l’imposer. Un justiciable dont le sort dépend d’un algorithme peut donc ne jamais le savoir.
La situation est d’autant plus paradoxale que les avocats, eux, subissent des sanctions croissantes pour usage d’IA mal maîtrisé. L’an dernier, un avocat de Los Angeles a été condamné à une amende pour avoir soumis un mémoire bourré de jurisprudences inventées par ChatGPT. Un procureur fédéral de Caroline du Nord a démissionné le mois dernier après un incident similaire. Les juges, eux, corrigent discrètement et passent à l’affaire suivante.
Daniel Linna, directeur des initiatives Droit et Technologie à Northwestern et co-auteur de l’étude, résume la tension : « L’IA est là, elle ne partira pas. Nous avons besoin de formations, de bonnes pratiques et de politiques claires sur la manière dont cette technologie est déployée dans les tribunaux. »
Le prochain test sera politique autant que technologique. Si le programme pilote de Los Angeles donne des résultats concluants d’ici début 2027, il pourrait s’étendre aux juridictions pénales, où les enjeux de liberté individuelle rendent toute erreur infiniment plus lourde.