Un ingénieur britannique arrêté dix heures pour un cambriolage qu’il n’a pas commis. Le coupable ? Un algorithme de reconnaissance faciale qui l’a confondu avec le vrai suspect. Ce genre d’erreur n’est pas rare, et pour comprendre pourquoi, il faut d’abord savoir comment cette technologie fonctionne sous le capot.
Votre visage, traduit en chiffres
Le principe de base tient en trois étapes. D’abord, le système détecte qu’il y a un visage dans l’image. Ça, c’est la partie facile : les algorithmes repèrent les zones de contraste qui correspondent à des yeux, un nez, une bouche. Rien de magique.
Ensuite vient l’étape clé : l’extraction des caractéristiques. Le logiciel mesure des dizaines de distances entre les points du visage. L’écart entre vos yeux, la largeur de votre mâchoire, la distance nez-lèvres, la forme de vos pommettes. Tout ça produit ce qu’on appelle un « vecteur facial », une sorte de code-barres mathématique unique à votre tête. Les systèmes modernes utilisent des réseaux de neurones profonds pour générer ces vecteurs, avec parfois 128 ou 512 dimensions.
Dernière étape : la comparaison. Le système prend votre vecteur facial et le compare à ceux stockés dans une base de données. Si la distance mathématique entre deux vecteurs est inférieure à un certain seuil, le système déclare : « C’est la même personne. »
Et c’est là que tout se complique.
Deux façons de se planter
Les erreurs de reconnaissance faciale se classent en deux catégories. Le faux positif : le système affirme que deux personnes différentes sont la même. Le faux négatif : il ne reconnaît pas quelqu’un qui figure pourtant dans sa base.
Le NIST (National Institute of Standards and Technology), l’organisme américain qui teste les algorithmes de reconnaissance faciale depuis les années 1990, a évalué 189 logiciels de 99 développeurs différents dans son programme FRVT (Face Recognition Vendor Test). Résultat : la majorité des algorithmes présentent des « différentiels démographiques ». En clair, ils ne se trompent pas de la même manière selon la couleur de peau, l’âge ou le sexe de la personne.
Patrick Grother, informaticien au NIST et auteur principal du rapport, le dit sans détour : « Nous avons trouvé des preuves empiriques de l’existence de différentiels démographiques dans la majorité des algorithmes étudiés. » Pour certains logiciels, le taux de faux positifs était 10 à 100 fois plus élevé sur des visages de personnes noires ou asiatiques que sur des visages blancs.
Pourquoi les biais existent
La réponse tient en un mot : les données. Un algorithme apprend à reconnaître des visages en s’entraînant sur des millions de photos. Si 80 % de ces photos montrent des visages blancs masculins entre 20 et 40 ans, le système sera mécaniquement meilleur pour reconnaître ce profil. C’est comme un médecin qui n’aurait vu que des patients d’un seul type pendant ses études : face à un cas différent, il hésite.
Les chercheurs du MIT Media Lab avaient déjà mis le doigt dessus en 2018. Joy Buolamwini et Timnit Gebru ont testé trois systèmes commerciaux de reconnaissance faciale (IBM, Microsoft, Face++) et découvert des taux d’erreur allant jusqu’à 34,7 % pour les femmes à peau foncée, contre 0,8 % pour les hommes à peau claire. L’écart est massif.
Et le problème ne se limite pas aux données d’entraînement. L’éclairage joue un rôle énorme. Les peaux foncées reflètent moins la lumière, ce qui rend la détection des points du visage plus difficile pour les capteurs. Les conditions de prise de vue (angle, distance, résolution de la caméra) ajoutent des couches d’incertitude.
Vérification vs identification : deux usages, deux risques
Quand vous déverrouillez votre iPhone avec Face ID, le système fait de la vérification « un contre un ». Il compare votre visage à celui enregistré dans le téléphone. Le risque d’erreur est faible parce que la comparaison est limitée, la photo de référence est de bonne qualité, et le capteur est à 30 centimètres de votre nez.
Quand la police scanne une foule avec des caméras pour repérer un suspect, c’est de l’identification « un contre plusieurs ». Le système compare un visage capté à distance, souvent flou, en mouvement, mal éclairé, à une base de données qui peut contenir des millions de photos. Le risque de faux positif explose.
C’est exactement ce qui s’est passé au Royaume-Uni. La Metropolitan Police londonienne revendique plus de 1 700 arrestations grâce à la reconnaissance faciale depuis 2024, rapporte la BBC. Mais l’Association des commissaires à la police britannique a elle-même reconnu un « biais intégré » dans la technologie de reconnaissance faciale rétrospective, le système étant « plus susceptible d’identifier incorrectement les personnes noires et asiatiques », selon la BBC.
Un cadre légal qui court après la techno
En Europe, le Règlement IA (AI Act) entré en vigueur en 2024 encadre strictement la reconnaissance faciale en temps réel dans l’espace public. Interdiction de principe, avec des exceptions pour les menaces terroristes ou la recherche de victimes. Mais chaque pays interprète les exceptions à sa manière.
Le Royaume-Uni, post-Brexit, n’est pas soumis au texte européen. La police britannique a investi 12,6 millions de livres en 2024 dans la reconnaissance faciale, dont 2,8 millions pour les systèmes en direct, selon le Guardian. Un nouveau service national de correspondance faciale, piloté par le Home Office, doit être testé courant 2026. Il pourrait contenir des millions d’images.
Aux États-Unis, plusieurs villes (San Francisco, Boston, Minneapolis) ont carrément interdit l’usage de la reconnaissance faciale par les forces de l’ordre. IBM a renoncé à vendre cette technologie. Meta a supprimé les données de reconnaissance faciale d’un milliard d’utilisateurs Facebook en 2021.
Et concrètement, on fait quoi ?
La technologie s’améliore. Les meilleurs algorithmes testés par le NIST atteignent des taux de précision supérieurs à 99 % dans des conditions contrôlées (bonne lumière, photo nette, visage de face). Mais « conditions contrôlées », c’est le labo. Pas la rue, pas le métro, pas une foule un soir de match.
Silkie Carlo, directrice de l’ONG Big Brother Watch, estime que « la surveillance par reconnaissance faciale est hors de contrôle ». L’organisme britannique d’égalité des droits humains (EHRC) va plus loin en déclarant que l’utilisation de cette technologie par la Met violerait le droit relatif aux droits de l’homme.
Le vrai enjeu n’est peut-être pas la précision de l’algorithme. C’est ce qu’on en fait quand il se trompe. Dix heures de menottes pour un faux positif, ça laisse des traces que le taux d’erreur ne mesure pas.