Un ingénieur d’origine bangladaise a passé près de dix heures menotté dans un commissariat britannique pour un cambriolage commis à plus de 160 kilomètres de chez lui. Le problème : la reconnaissance faciale de la police l’a confondu avec le vrai suspect. Et quand on regarde les photos des deux hommes, la ressemblance est à peu près nulle.
L’affaire, révélée par le Guardian ce 26 février, met en lumière un dysfonctionnement qui n’a rien d’anecdotique. L’homme, dont le nom n’a pas été rendu public, a été interpellé sur la base d’une correspondance automatique entre son visage et celui d’un individu recherché pour effraction. Sauf que les deux hommes ne se ressemblaient pas, selon les documents consultés par le quotidien britannique.
Dix heures. C’est le temps qu’il a fallu pour que la police réalise son erreur et libère l’ingénieur. Entre-temps : menottage, placement en garde à vue, interrogatoire. Le tout pour un algorithme qui s’est planté.
Un problème documenté, mais ignoré
Ce n’est pas la première bavure du genre au Royaume-Uni. En février 2024, Shaun Thompson, 39 ans, avait été intercepté par la Metropolitan Police près de la station London Bridge après une fausse alerte de reconnaissance faciale en direct. Il avait dû montrer une photo de son passeport pour prouver qu’il n’était pas la personne recherchée, rapporte la BBC. Thompson a porté l’affaire devant la Haute Cour.
Et les chiffres confirment le malaise. L’Association des commissaires à la police et à la criminalité a publié une étude révélant un « biais intégré » dans la technologie de reconnaissance faciale rétrospective. Selon ce rapport, relayé par la BBC, le système est « plus susceptible d’identifier incorrectement les personnes noires et asiatiques que leurs homologues blancs ».
Malgré tout, le gouvernement britannique continue d’investir massivement. En 2024, 12,6 millions de livres sterling ont été consacrés à la reconnaissance faciale, dont 2,8 millions pour la reconnaissance en direct. Un nouveau service national de correspondance faciale, piloté par le Home Office, doit être testé courant 2026. Il pourrait contenir des millions d’images, selon la BBC.
Pourquoi la police ne lâche pas l’affaire
Le bilan avancé par la Metropolitan Police a de quoi faire taire les critiques, du moins en apparence. Plus de 1 700 interpellations de « criminels dangereux » depuis début 2024, dont des personnes recherchées pour viol ou violences sur mineurs. Le programme pilote de Croydon, lancé en octobre dernier, revendique 103 arrestations en trois mois et une baisse de 12 % de la criminalité locale, rapporte la BBC.
Mais Silkie Carlo, directrice de l’ONG Big Brother Watch, ne décolère pas. Elle estime que « la surveillance par reconnaissance faciale est hors de contrôle » et que le pays « fonce vers un État de surveillance autoritaire ». L’organisme britannique d’égalité et des droits humains (EHRC) est allé encore plus loin en déclarant que l’utilisation de cette technologie par la Met violait le droit relatif aux droits de l’homme.
Et maintenant ?
Le nouveau cas d’arrestation abusive tombe au pire moment pour les défenseurs de la technologie. La Haute Cour doit examiner prochainement le recours de Shaun Thompson, et le gouvernement a lancé une consultation publique sur l’encadrement législatif de la reconnaissance faciale. Dix heures de menottes pour un algorithme qui n’a pas su distinguer deux visages. Le débat sur la proportionnalité de cet outil ne fait que commencer.