Un policier français fait la démonstration d'une caméra piéton. | Jacques Demarthon / AFP
Un policier français fait la démonstration d'une caméra piéton. | Jacques Demarthon / AFP

Rekognition: le jeu des 26 erreurs du système de reconnaissance faciale d'Amazon

Lors d'un test de l'Union américaine pour les libertés civiles, le logiciel a confondu 26 élu·es avec des criminel·les.

La reconnaissance faciale est une technologie qui s'améliore très rapidement. À partir de simples images, il est désormais possible de détecter âge, genre et même émotions des personnes filmées. Il est aussi très simple de déterminer si elles se trouvent dans une base de données.

Amazon en tête

Dans le domaine, c'est Rekognition, un logiciel développé par Amazon, qui fait le plus parler de lui. Car en plus d'être réputé très performant, Amazon démarche les agences de renseignement et de police de tous les États-Unis pour leur vendre son système.

Afin d'illustrer les dangers d'un tel logiciel, l'Union américaine pour les libertés civiles (ACLU) l'a utilisé pour comparer le visage de 120 élu·es californien·nes avec les mugshots de 25.000 personnes arrêtées par la police. Résultat: vingt-six de ces élu·es ont été reconnu·es à tort comme faisant partie de la base de données criminelle.

Matt Cagle, un avocat de l'ACLU a expliqué lors d'une conférence de presse que le logiciel avait été réglé sur ses paramètres par défaut, c'est-à-dire qu'une correspondance est établie lorsque la machine estime sa probabilité à 80%.

La technique n'est pas le seul problème

Ce n'est pas la première fois que l'ACLU effectue ce genre d'opération. En juillet dernier, l'organisation avait comparé des individus figurant sur des mugshots aux membres du congrès américain. Vingt-huit d'entre eux avaient alors été incorrectement reconnus. Par ailleurs, alors que 20% des membres du congrès étaient racisés, 39% de ceux identifiés comme des criminels l'étaient.

Cette opération fait partie d'une campagne de l'ACLU baptisée «One false match is one too many» («Une identification à tort est déjà une de trop»). Elle fait la promotion d'une loi qui vise à interdire l'utilisation de la reconnaissance faciale dans les caméras-piétons fixées sur le torse des agent·es de police.

L'ACLU précise: elle ne réclame pas uniquement une reconnaissance plus fiable. Même sans faille, la technologie continuerait à se révéler problématique. La loi qu'elle promeut indique par exemple que la présence de ces caméras-piétons «découragerait les victimes sans-papiers, avec des dettes ou des antécédents judiciaires, de demander de l'aide à la police».

«Ce n'est pas le genre de problème que l'on règle en modifiant un algorithme, insiste Matt Cagle, c'est le genre de problème qui doit être réglé par une loi dès maintenant.»

En ce moment

La plus grosse arnaque de la Silicon Valley, la gentrification vue de Google Maps, le hacking des DAB, une semaine sur korii.

Et Cætera

La plus grosse arnaque de la Silicon Valley, la gentrification vue de Google Maps, le hacking des DAB, une semaine sur korii.

Retour sur une riche semaine.

Des trottinettes télécommandées, Alicem en question, l'espionnage low cost, à lire sur korii.

Et Cætera

Des trottinettes télécommandées, Alicem en question, l'espionnage low cost, à lire sur korii.

Le récap' du jour.

Les personnes en surpoids plus susceptibles d'être censurées par Instagram

Et Cætera

Les personnes en surpoids plus susceptibles d'être censurées par Instagram

L'algorithme de la plateforme signalerait davantage leurs photos dénudées que celles des personnes minces.