La reconnaissance faciale est une technologie qui s'améliore très rapidement. À partir de simples images, il est désormais possible de détecter âge, genre et même émotions des personnes filmées. Il est aussi très simple de déterminer si elles se trouvent dans une base de données.
Amazon en tête
Dans le domaine, c'est Rekognition, un logiciel développé par Amazon, qui fait le plus parler de lui. Car en plus d'être réputé très performant, Amazon démarche les agences de renseignement et de police de tous les États-Unis pour leur vendre son système.
Afin d'illustrer les dangers d'un tel logiciel, l'Union américaine pour les libertés civiles (ACLU) l'a utilisé pour comparer le visage de 120 élu·es californien·nes avec les mugshots de 25.000 personnes arrêtées par la police. Résultat: vingt-six de ces élu·es ont été reconnu·es à tort comme faisant partie de la base de données criminelle.
Matt Cagle, un avocat de l'ACLU a expliqué lors d'une conférence de presse que le logiciel avait été réglé sur ses paramètres par défaut, c'est-à-dire qu'une correspondance est établie lorsque la machine estime sa probabilité à 80%.
La technique n'est pas le seul problème
Ce n'est pas la première fois que l'ACLU effectue ce genre d'opération. En juillet dernier, l'organisation avait comparé des individus figurant sur des mugshots aux membres du congrès américain. Vingt-huit d'entre eux avaient alors été incorrectement reconnus. Par ailleurs, alors que 20% des membres du congrès étaient racisés, 39% de ceux identifiés comme des criminels l'étaient.
Cette opération fait partie d'une campagne de l'ACLU baptisée «One false match is one too many» («Une identification à tort est déjà une de trop»). Elle fait la promotion d'une loi qui vise à interdire l'utilisation de la reconnaissance faciale dans les caméras-piétons fixées sur le torse des agent·es de police.
L'ACLU précise: elle ne réclame pas uniquement une reconnaissance plus fiable. Même sans faille, la technologie continuerait à se révéler problématique. La loi qu'elle promeut indique par exemple que la présence de ces caméras-piétons «découragerait les victimes sans-papiers, avec des dettes ou des antécédents judiciaires, de demander de l'aide à la police».
«Ce n'est pas le genre de problème que l'on règle en modifiant un algorithme, insiste Matt Cagle, c'est le genre de problème qui doit être réglé par une loi dès maintenant.»