Un policier français fait la démonstration d'une caméra piéton. | Jacques Demarthon / AFP
Un policier français fait la démonstration d'une caméra piéton. | Jacques Demarthon / AFP

Rekognition: le jeu des 26 erreurs du système de reconnaissance faciale d'Amazon

Lors d'un test de l'Union américaine pour les libertés civiles, le logiciel a confondu 26 élu·es avec des criminel·les.

La reconnaissance faciale est une technologie qui s'améliore très rapidement. À partir de simples images, il est désormais possible de détecter âge, genre et même émotions des personnes filmées. Il est aussi très simple de déterminer si elles se trouvent dans une base de données.

Amazon en tête

Dans le domaine, c'est Rekognition, un logiciel développé par Amazon, qui fait le plus parler de lui. Car en plus d'être réputé très performant, Amazon démarche les agences de renseignement et de police de tous les États-Unis pour leur vendre son système.

Afin d'illustrer les dangers d'un tel logiciel, l'Union américaine pour les libertés civiles (ACLU) l'a utilisé pour comparer le visage de 120 élu·es californien·nes avec les mugshots de 25.000 personnes arrêtées par la police. Résultat: vingt-six de ces élu·es ont été reconnu·es à tort comme faisant partie de la base de données criminelle.

Matt Cagle, un avocat de l'ACLU a expliqué lors d'une conférence de presse que le logiciel avait été réglé sur ses paramètres par défaut, c'est-à-dire qu'une correspondance est établie lorsque la machine estime sa probabilité à 80%.

La technique n'est pas le seul problème

Ce n'est pas la première fois que l'ACLU effectue ce genre d'opération. En juillet dernier, l'organisation avait comparé des individus figurant sur des mugshots aux membres du congrès américain. Vingt-huit d'entre eux avaient alors été incorrectement reconnus. Par ailleurs, alors que 20% des membres du congrès étaient racisés, 39% de ceux identifiés comme des criminels l'étaient.

Cette opération fait partie d'une campagne de l'ACLU baptisée «One false match is one too many» («Une identification à tort est déjà une de trop»). Elle fait la promotion d'une loi qui vise à interdire l'utilisation de la reconnaissance faciale dans les caméras-piétons fixées sur le torse des agent·es de police.

L'ACLU précise: elle ne réclame pas uniquement une reconnaissance plus fiable. Même sans faille, la technologie continuerait à se révéler problématique. La loi qu'elle promeut indique par exemple que la présence de ces caméras-piétons «découragerait les victimes sans-papiers, avec des dettes ou des antécédents judiciaires, de demander de l'aide à la police».

«Ce n'est pas le genre de problème que l'on règle en modifiant un algorithme, insiste Matt Cagle, c'est le genre de problème qui doit être réglé par une loi dès maintenant.»

En ce moment

Comment JPMorgan s'est fait chouraver une fortune en nickel

Biz

Comment JPMorgan s'est fait chouraver une fortune en nickel

Et ce, dans un entrepôt contrôlé par le supposé très sûr London Metal Exchange. Panique à bord.

L'électricité pompée par TikTok empêche un géant des munitions de produire plus

Tech

L'électricité pompée par TikTok empêche un géant des munitions de produire plus

Entre les mèmes et la mort, faut-il choisir?

Contre la Russie, l'Ukraine utilise des drones (littéralement) en carton

Tech

Contre la Russie, l'Ukraine utilise des drones (littéralement) en carton

Australien, le Corvo «Precision Payload Delivery System» est la quintessence de la guerre low cost.