Biais, prophéties autoréalisatrices, données inexactes: l'algorithme utilisé pour prédire les crimes est un danger pour les libertés civiles. | David Von Diermar via Unsplash
Biais, prophéties autoréalisatrices, données inexactes: l'algorithme utilisé pour prédire les crimes est un danger pour les libertés civiles. | David Von Diermar via Unsplash

Le modèle de «Minority Report» est devenu réalité, et c'est un problème

La police américaine utilise un logiciel modelé sur les prévisions sismiques. Des universitaires estiment qu'il est truffé d’erreurs.

D’après un document distribué dans les bureaux de police et que Motherboard a réussi à se procurer, PredPol se présente comme une technologie de pointe qui a nécessité «près de sept ans de recherches» et dont la logique peut se résumer ainsi: en analysant les lieux et les dates où ont été commis des crimes passés, on peut prédire où et quand les futurs forfaits auront lieu.

Prédire un crime comme on prédit un séisme

L’algorithme utilisé par PredPol dans de nombreux états dont le Kansas, la Californie ou le Michigan, reprend la méthode utilisée pour détecter les tremblements de terre et affirme qu’à l’instar des séismes, les crimes sont susceptibles d’apparaître en des lieux similaires.

Une analyse loin de convaincre Suresh Venkatasubramanian, professeur d’informatique à l’université de l’Utah et membre de l’Union américaine pour les libertés civiles, pour lequel on ne peut comparer les deux phénomènes. Si, grâce aux sismographes, il est possible de savoir où se déroulent tous les tremblements de terre, quand il s’agit de crimes les données à traiter requièrent un algorithme un peu plus complexe.

On sait par exemple que toutes les communautés américaines ne sont pas enclines à appeler la police, et que certains crimes ont tendance à être moins signalés que d’autres. Enfin, on ne peut pas ignorer la personnalité propre à chaque officier de police et qui pèse dans sa décision d’arrêter ou non quelqu’un.

Prévoir les actes policiers et non les actes criminels

Lorsque PredPol indique à la police où aller, il influence les données criminelles en créant une sorte de boucle autoprophétique. Si ce logiciel permet de déployer les forces de l’ordre à des endroits très précis, il induit aussi un biais: certains quartiers seront, de facto, ignorés par ces mêmes forces de l’ordre. Pour Suresh Venkatasubramanian, cela prouve que «le terme de police prédictive est parfaitement trouvé: il s’agit bien de prédire les actes de la police et non des criminels.»

Un logiciel comme PredPol aurait éventuellement la capacité d'anticiper le futur si tous les crimes étaient signalés pour être ensuite traités de la même manière. Mais, compte tenu des biais et des stéréotypes racistes toujours en vigueur au sein de la police américaine, cela semble devoir relever encore de la science-fiction.

En ce moment

L'avenir incertain du smartphone, une Tesla drôlement bricolée, nos os face à la technologie, c'était aujourd'hui sur korii.

Et Cætera

L'avenir incertain du smartphone, une Tesla drôlement bricolée, nos os face à la technologie, c'était aujourd'hui sur korii.

(Et plein d'autres choses aussii.)

La Tesla pick-up arrive (et Elon Musk n'y est pour rien)

Et Cætera

La Tesla pick-up arrive (et Elon Musk n'y est pour rien)

Avec un peu d'huile de coude et beaucoup d'humour, la YouTubeuse Simone Giertz a métamorphosé une Tesla Model 3.

Bientôt un lieu dédié aux personnes en situation de handicap dans un complexe e-sportif français

Et Cætera

Bientôt un lieu dédié aux personnes en situation de handicap dans un complexe e-sportif français

Pour la première fois dans l'Hexagone, le projet toulousain Icone consacrera un espace aux joueurs et joueuses non valides.