Une femme se promène au milieu de portraits dans un musée imaculé. | Sylvie Tittel via Unsplash
Une femme se promène au milieu de portraits dans un musée imaculé. | Sylvie Tittel via Unsplash

Avez-vous réfléchi à deux fois avant de participer au «10 Years Challenge»?

Votre participation à ce mème sur les réseaux sociaux pourrait nourrir le «Big Brother» de la reconnaissance faciale.

Le principe du «10 Years Challenge», mème internet impossible à éviter si l'on traîne un peu ces jours-ci sur Instagram, Twitter ou Facebook? Poster une photo de soi il y a dix ans, et une autre prise le jour même.

Le fonctionnement d’un algorithme de reconnaissance faciale? Ingèrer et digèrer une masse de photographies de personnes de tous âges, pour comprendre la manière dont les corps vieillissent et reconnaître à qui ils appartiennent.

Il serait très facile pour une entreprise possédant ces images, ainsi que les données leur étant associées –le nom de la personne qui les a postées, des termes tels que «Moi il y a dix ans et moi aujourd’hui»– d’utiliser cette somme inespérée de données pour entraîner une intelligence artificielle dont vous n’aviez sans doute pas idée en vous amusant de vos nouvelles rides ou de vos vieilles coupes ringardes.

Et si ce «10 Years Challenge» servait à nourrir le Big Brother qui commence à tant nous inquiéter? Il y a quelques années, seuls quelques lanceurs d’alerte se posaient ce type de question –souvent dans le désert. Mais quiconque a participé à un jeu-sondage stupide sur Facebook pour ensuite découvrir, sidéré, que sa petite minute de fun avait potentiellement pu servir à truquer le référendum sur le Brexit ou la dernière élection présidentielle américaine peut désormais légitimement se la poser, comme le fait Kate O’Neil dans Wired.

O’Neil ne crie pas au loup. Elle explique en revanche que la mise au jour des pratiques contestables de firmes ayant accès à nos données personnelles nous impose de réfléchir différemment à ce qu’on leur offre à longueur de journée. Et ce, qu'elles utilisent ou non ces données, ou quelle que soit la manière dont elles s'en servent.

Ces algorithmes peuvent permettre aux publicitaires de mieux vous cibler, ils peuvent vous aider à classer vos photos, ils peuvent assister les forces de police pour retrouver des personnes disparues ou surveiller les passagers d’un tramway à Nice, il peuvent servir à des régimes pas franchement libéraux à noter et trier leurs «bonnes» ou «mauvaises» citoyennes et citoyens. «Si c’est gratuit, c’est vous le produit», affirme le dicton: attention à ce que le produit ne se retourne pas contre lui-même.

En ce moment

Les «objets cathartiques», des robots conçus pour subir vos violences, insultes et colères

Et Cætera

Les «objets cathartiques», des robots conçus pour subir vos violences, insultes et colères

Michel Luria a imaginé une série d’objets-défouloirs, faits pour être tabassés et pour imiter des réponses à la douleur.

La consommation éthique, une bénédiction pour votre pouvoir d'achat

Biz

La consommation éthique, une bénédiction pour votre pouvoir d'achat

S'efforcer de faire attention à ce que nous achetons nous rend plus confiants dans nos finances.

Personne n'arrêtera les armes imprimées en 3D

Et Cætera

Personne n'arrêtera les armes imprimées en 3D

Les plans de fabrication autrefois échangés publiquement sur les réseaux sociaux le sont désormais sous le manteau.