La «boîte noire» des algorithmes et les biais qu'elle suppose peuvent-ils s'immiscer dans la justice humaine? | Jeff Pachoud / AFP
La «boîte noire» des algorithmes et les biais qu'elle suppose peuvent-ils s'immiscer dans la justice humaine? | Jeff Pachoud / AFP

À Lyon, la reconnaissance faciale en procès

Une première en France: un prévenu a été condamné sur la foi des algorithmes de reconnaissance faciale.

«Au départ, c'est une affaire banale.» À la fin d'un après-midi de comparutions immédiates, le président du tribunal de Lyon esquisse un sourire et s'enfonce dans son fauteuil pour écouter la plaidoirie de Maître Hervé Banbanaste. L'affaire n'a en effet rien d'extraordinaire. A priori.

Le 5 septembre dernier à Corbas, dans la périphérie de Lyon, un camion Mercedes à frigo disparaît d'un entrepôt, pour un préjudice de 68.000 euros. Un simple vol. Ce 31 octobre sur le banc des accusés, deux personnes sont présentées au tribunal: Monsieur C., salarié de l'entreprise qui aurait permis l'intrusion, et Monsieur H. qui aurait dérobé le camion.

Jugement algorithmique

«Le seul recours à la reconnaissance faciale a permis l'identification de Monsieur H.», s'emporte son avocat. Et c'est là tout le nœud de ce procès qui représente une première en France: le 17 septembre en comparution immédiate, Maître Banbanaste avait évoqué l'exception de nullité –demander l'annulation d'une pièce de la procédure, ici le procès-verbal évoquant l'utilisation d'un logiciel de reconnaissance faciale, avant même d'évoquer le fond de l'affaire– provoquant le renvoi de l'audience.

C'est vertigineux! S'il n'y avait pas eu la reconnaissance faciale, mon client n'aurait jamais été déféré devant le tribunal.
Maître Hervé Banbanaste, avocat de Monsieur H.

Deux écoles s'affrontent: celle de Maître Banbanaste, selon lequel il est dangereux de laisser le soin à un logiciel de désigner un individu; celle de la procureure, selon laquelle c'est l'enquêteur, aidé de la reconnaissance faciale, et non la machine seule, qui a confondu le suspect.

Pour Hervé Banbanaste, «c'est vertigineux! S'il n'y avait pas eu la reconnaissance faciale, mon client n'aurait jamais été déféré devant le tribunal». Car au dossier, ni ADN, ni empreintes digitales. Ce n'est qu'à la quatrième audience que le salarié de l'entreprise déclare reconnaître Monsieur H.

Ce 31 octobre, la justice a tranché: le moyen de la preuve a été validé par le tribunal et Monsieur H. condamné à dix-huit mois de prison. Le logiciel de reconnaissance faciale n'est donc pas reconnu comme une preuve en soi, mais comme un outil de rapprochement ayant permis aux enquêteurs de travailler et de remonter jusqu'au suspect.

De son côté, Monsieur C., le salarié de l'entreprise, a été disculpé, par... manque de preuve. Quant à la troisième personne visible sur les captures d'écran de vidéosurveillance, la justice ne sait pas de qui il s'agit.

Aux sources du TAJ

Pour comprendre pourquoi, sur trois personnes visibles sur la vidéosurveillance, une seule est inculpée, il faut revenir à l'usage que font la police et la justice de la reconnaissance faciale.

Un décret de 2012 crée le TAJ (Traitement des antécédents judiciaires) en fusionnant les fichiers de police et de gendarmerie, le STIC (Système de traitement des infractions constatées) et le JUDEX (système judiciaire de documentation et d'exploitation de la gendarmerie).

À tout ceci s'ajoute la possibilité d'intégrer les photos de GASPARD (Gestion automatisée des signalements et des photo anthropométriques répertoriées et distribuables), qui prend en compte les clichés issus de gardes à vue, de vidéosurveillances ou ceux saisis durant une enquête.

Après le vol du camion le 5 septembre à Corbas, une capture d'écran de la vidéosurveillance de l'entrepôt a été soumise au TAJ. Si le nom de Monsieur H. est sorti, c'est que cette image a matché avec une photo figurant déjà dans la base de données TAJ.

«Ce fichier compte 7 à 8 millions de photos de face, et a priori sans doublon», précise Arthur Messaud, juriste à La Quadrature du net, une association de défense des droits et des libertés des citoyen·nes sur internet.

Pour Maître Banbanaste, «cette technologie est un moyen de preuve illicite» puisque le nom du logiciel, qui fait correspondre la photo issue de la vidéosurveillance à celle présente dans le fichier de police, reste inconnu, tout comme les critères utilisés. «Quid de l'autre personne visible sur les captures d'écran?», interroge Maître Banbanaste. «A-t-elle été reconnue par le logiciel puis exclue ou n'a-t-elle pas été reconnue du tout?»

Derrière l'algorithme, il y a des choix et des hommes, mais on ne sait pas lesquels. C'est un ordinateur qui accuse!
Maître Hervé Banbanaste, avocat de Monsieur H.

Balayant la question de ce suspect toujours dans la nature, la procureure estime de son côté que pour confondre Monsieur H., le logiciel a peut-être sorti 200 photos du TAJ accompagnées d'un taux de probabilité. «Ce n'est pas un humain qui fait le travail!» Sous-entendu, c'est l'algorithme qui mouline pour effectuer cette première sélection.

Problème: pour fonctionner, un algorithme est programmé et nourri par un être humain. «Derrière l'algorithme, il y a des choix et des hommes, mais on ne sait pas lesquels», renchérit Hervé Banbanaste selon lequel on a ici «un ordinateur qui accuse!»

Avec la reconnaissance faciale, les exemples de biais et d'erreurs s'accumulent. En octobre, la Californie a voté une loi pour interdire son utilisation sur les caméras-piétons, ces systèmes de vidéosurveillance embarqués sur les uniformes des forces de l'ordre.

À l'origine de cette interdiction, Phil Ting, élu de la ville de San Francisco qui avait été par erreur identifié comme un délinquant lors d'un test grandeur nature mené au Parlement de l'État. Les photos de 120 parlementaires avaient été confrontées à 25.000 clichés de contrevenant·es grâce au logiciel de reconnaissance faciale d'Amazon. 26 avaient matché par erreur avec la photo d'un délinquant.

Pour la procureure, aucun problème. La présélection est faite par un algorithme, «c'est ensuite l'enquêteur qui observe les clichés issus de ce premier tri pour parvenir à Monsieur H.» Le dernier mot revient à l'être humain. «C'est un outil d'enquête qui s'inscrit dans un cadre légal», conclue la procureure.

L'avocat de l'accusé remet en question une enquête précise, basée uniquement sur la reconnaissance faciale. «A-t-on cherché l'ADN dans ce dossier? On a le camion, pourquoi ne fait-on pas d'analyses?»

Légal veut-il dire recevable?

Oui, il est possible d'utiliser la reconnaissance faciale depuis le décret de 2012. Mais est-ce pour autant recevable? Arthur Messaud, de La Quadrature du net, soulève plusieurs problèmes. «Avec le TAJ, les citoyens ne savent souvent pas s'ils sont fichés.» Jusqu'à ce qu'ils soient arrêtés ou qu'on leur refuse un poste dans l'administration ou le renouvellement d'une carte de séjour. Un élément également avancé par Hervé Banbanaste, qui dénonce un problème de liberté individuelle en citant l'article 8 de la Convention européenne des droits de l'homme.

«La question ici est celle de la recevabilité de la preuve», souligne Arthur Messaud. «À partir des deux photos, c'est au juge de dire s'il s'agit de la même personne.» Pour le membre de La Quadrature du net, le Règlement européen sur la protection des données (RGPD) indique bien que, par défaut, l'utilisation des données biométriques n'est pas autorisée. Et si elle l'est, il faut que son usage soit proportionné.

Si la CNIL ne s'exprime pas sur l'affaire de Corbas, elle vient de rendre un avis intéressant sur l'utilisation de la reconnaissance faciale: saisie par la région PACA sur l'expérimentation de portiques de contrôle d'accès par reconnaissance faciale à l'entrée de deux lycées, la commission nationale estime que «le dispositif n'apparaît ni nécessaire, ni proportionné».

En effet, le gendarme du numérique a considéré que «le dispositif est contraire aux grands principes de proportionnalité». De plus, la CNIL estime que «les dispositifs de reconnaissance faciale sont particulièrement intrusifs et présentent des risques majeurs d'atteinte à la vie privée et aux libertés individuelles des personnes concernées.»

Un argumentaire mis en avant par Maître Banbanaste. Mais ce qui fonctionne pour des lycéen·nes n'a pas fonctionné pour Monsieur H. qui comparaissait pour la dix-septième fois. Son avocat compte faire appel, toujours dans l'idée de remettre en question l'absence de transparence d'un logiciel de reconnaissance faciale dont le mécanisme demeure opaque.

En ce moment

Les Japonaises interdites de lunettes, xHamster mieux que Facebook, sécuriser son iPhone, aujourd'hui sur korii.

Et Cætera

Les Japonaises interdites de lunettes, xHamster mieux que Facebook, sécuriser son iPhone, aujourd'hui sur korii.

Le récap' du jour.

Google aspire les données médicales de millions de personnes à leur insu

Et Cætera

Google aspire les données médicales de millions de personnes à leur insu

Dans le cadre du «Projet Nightingale», des hôpitaux lui transmettent leurs données sans en informer les patient·es.

Les entreprises japonaises interdisent à leurs employées de porter des lunettes

Et Cætera

Les entreprises japonaises interdisent à leurs employées de porter des lunettes

La mesure n'est que l'une des nombreuses contraintes que les Japonaises doivent respecter au travail.