Printemps 2024, dans les Midlands anglais. Un septuagénaire meurt deux jours après une chirurgie cardiaque complexe. L’hôpital saisit le coroner, comme le protocole l’exige pour les décès inexpliqués. L’avocat chargé de représenter la famille du défunt, Anthony Searle, demande une expertise médicale indépendante. Le coroner refuse. Alors Searle ouvre ChatGPT.

« Mon usage de ChatGPT a permis que mes questions soient plus ciblées sur les aspects techniques de l’opération », raconte le barrister de 35 ans au Financial Times. Ce n’est plus un coup d’essai isolé. C’est le quotidien d’une profession qui bascule, entre fascination pour les gains de productivité et panique face aux dérapages déjà constatés.

Un avocat sur deux, mais personne aux commandes

Les chiffres parlent vite. Selon un sondage LexisNexis publié en janvier 2026, 50 % des barristers britanniques déclarent utiliser l’intelligence artificielle dans leur travail juridique. En 2024, ils n’étaient que 25 %. Le doublement a pris moins de deux ans.

Le hic : seulement 2 % affirment avoir intégré l’IA dans leur stratégie et leurs processus internes. Le reste bricole. Des avocats testent ChatGPT en solo pour accélérer leurs recherches, résumer des pièces, préparer des arguments, parfois sans que leurs associés le sachent. L’adoption est fulgurante, mais l’encadrement, lui, n’a pas suivi.

18 faux jugements glissés dans un dossier

La High Court de Londres a posé un coup d’arrêt brutal. En juin 2025, les juges ont rendu une décision cinglante après avoir découvert deux affaires dans lesquelles des avocats avaient soumis des conclusions générées, au moins en partie, par l’IA. Dans l’un des dossiers, 18 citations de jurisprudence étaient purement inventées par le modèle de langage.

« L’intelligence artificielle est un outil qui comporte des risques autant que des opportunités », ont écrit les juges, pointant les « conséquences graves pour l’administration de la justice et la confiance du public ». Le scandale n’est pas limité au Royaume-Uni. En 2023, un avocat new-yorkais avait déjà été sanctionné dans l’affaire Mata contre Avianca pour avoir déposé un mémoire truffé de décisions halluccinées par ChatGPT. Depuis, une trentaine de juridictions fédérales américaines imposent aux avocats de déclarer tout recours à l’IA générative dans leurs écritures.

Le gouvernement britannique mise tout sur l’IA judiciaire

Malgré les scandales, l’État pousse à l’accélération. Le Royaume-Uni prépare ce que le gouvernement qualifie de plus grande réforme de la justice pénale de l’ère moderne. L’IA y occupe une place centrale : gestion automatisée des audiences, traduction en temps réel, transcription des débats par des algorithmes.

En février 2026, le vice-Premier ministre et secrétaire à la Justice David Lammy a choisi un événement Microsoft consacré à l’intelligence artificielle pour détailler cette feuille de route. Le cadre aurait paru incongru il y a cinq ans. Sarah Sackman, ministre déléguée aux tribunaux, a qualifié les expérimentations en cours de « révolutionnaires ».

L’empressement s’explique par une crise de moyens. Le système judiciaire britannique, sous-financé depuis des années, croule sous un arriéré d’affaires qui ne cesse de gonfler. L’IA est vendue comme la solution pour faire plus avec des budgets en berne : automatiser le tri des dossiers, réduire les délais de transcription, accélérer les procédures administratives qui engorgent les greffes.

Un million de requêtes Copilot et des licenciements préventifs

Les grands cabinets n’ont pas attendu l’État pour agir. Shoosmiths, cabinet britannique de premier plan, a gonflé sa cagnotte de primes d’un million de livres (1,3 million d’euros) après que ses équipes ont cumulé un million de requêtes sur Microsoft Copilot. Ropes & Gray, mastodonte américain, demande à ses jeunes associés de consacrer un cinquième de leurs heures facturables à l’expérimentation avec l’IA, pour la recherche comme pour la rédaction de contrats. Clifford Chance, poids lourd de la City londonienne, a taillé 10 % dans ses effectifs administratifs fin 2025, en partie par anticipation de l’automatisation.

Des plateformes spécialisées comme Harvey ou Legora se positionnent sur l’analyse contractuelle et la rédaction assistée. Chaque semaine apporte son lot de partenariats et d’annonces pilotes.

Mais un « grand ménage » dans les rangs des avocats reste un scénario lointain. La confidentialité des dossiers et le respect du secret professionnel empêchent de soumettre la plupart des documents sensibles à des modèles de langage hébergés dans le cloud. « Comment des dirigeants de cabinets peuvent-ils s’engager sur quelque chose d’aussi non prouvé et aux conséquences aussi lourdes ? », interroge Bruce MacEwen, président du cabinet de conseil Adam Smith Esq à New York, cité par le Financial Times. « Personne ne sait où ça mène. »

L’IA ne sait pas le droit, mais elle comprend la chirurgie

Anthony Searle a trouvé un usage que peu d’observateurs avaient anticipé. L’IA ne lui sert pas à chercher des précédents juridiques, le risque d’hallucination est trop élevé. Elle l’aide à décortiquer des dossiers médicaux. Son quotidien d’avocat spécialisé en négligence clinique consiste à plonger dans des protocoles chirurgicaux, des résultats d’analyse, des rapports d’autopsie.

« Quand la profession parle des risques de l’IA, c’est toujours dans le contexte de la recherche juridique », observe-t-il. « Mais l’essentiel de mon travail ne porte pas sur le droit. Le droit est établi. Ce qui compte, c’est la médecine et les arguments qu’on peut construire autour d’un diagnostic ou d’une intervention. » Il utilise des outils comme PubMed intégré à Claude d’Anthropic pour fouiller la littérature scientifique. Depuis qu’il a adopté ces assistants, il a créé une application de calcul des indemnités qui croise les tables actuarielles des tribunaux anglais avec des variables individuelles : âge, espérance de vie, cotisations retraite perdues. Un outil sur mesure que les juridictions n’ont jamais eu.

L’Europe avance prudemment, les États-Unis improvisent

Si le Royaume-Uni fait figure de laboratoire, la France reste en observation. Le Conseil national des barreaux a publié des recommandations sur l’usage de l’IA par les avocats, mais sans cadre contraignant. L’AI Act européen, adopté en mars 2024, classe les systèmes d’IA utilisés dans l’administration de la justice parmi les usages « à haut risque », ce qui impose des obligations de transparence, de supervision humaine et de documentation technique à tout fournisseur visant ce secteur.

Aux États-Unis, chaque juridiction improvise ses propres règles. Certains juges exigent une déclaration sur l’honneur, d’autres un audit complet des outils utilisés. Aucun cadre fédéral unifié n’a émergé.

Searle, lui, revient aux fondamentaux : « Le système juridique repose sur des êtres humains. Il faut encore cette part d’empathie et de jugement pour prendre la décision finale. » Les réformes britanniques sont attendues devant le Parlement de Westminster avant l’été 2026. Si elles passent, le Royaume-Uni deviendra le premier pays occidental à intégrer l’IA dans le fonctionnement quotidien de ses tribunaux pénaux.