Les biais humains comme technologiques sont au cœur des questions de censure ciblée. | Zackary Drucker via Broadly's Gender Spectrum Collection
Les biais humains comme technologiques sont au cœur des questions de censure ciblée. | Zackary Drucker via Broadly's Gender Spectrum Collection

Les personnes en surpoids plus susceptibles d'être censurées par Instagram

L'algorithme de la plateforme signalerait davantage leurs photos dénudées que celles des personnes minces.

Des algorithmes déterminent ce que nous voyons, la portée de ce que nous postons et modèrent (en partie) le contenu des réseaux sociaux. Mais comment fonctionnent-il? Sur quels critères s'appuient-ils pour prendre leurs décisions?

Il est difficile de le savoir: qu'il s'agisse de Facebook (ou d'Instagram), de TikTok, de Google (ou de YouTube), les entreprises gardent jalousement leurs ingrédients secrets.

Pourtant, leur impact est majeur. Les influenceurs et influenceuses, qui gagnent leur vie grâce à leurs communautés et au nombre de personnes atteintes sur les réseaux, sont obligé·es d'inspecter à la loupe tous les indices susceptibles de leur montrer comment mieux se placer dans les résultats de recherche, ou augmenter les chances de viraliser les contenus partagés.

Processus opaque et censures en série

Jennifer Allbaugh, vice-présidente de l'Adult Performers Actors Guild (APAG), a notamment remarqué que l'algorithme d'Instagram semble plus souvent détecter les photos dénudées de personnes en surpoids que de personnes minces.

«Est-il vrai que vous utilisez des programmes pour mesurer la quantité de peau visible sur une image, puis décidez qu'il s'agit probablement de nudité?», a-t-elle demandé à une équipe d'Instagram venue discuter les possibles discriminations et biais de l'algorithme avec l'APAG.

«Nous utilisons effectivement le machine learning pour essayer d'identifier de manière proactive des contenus qui pourraient violer [nos règles]», lui a répondu Karine Newton, l'une des cadres d'Instagram présent·es à la réunion. «Oui, on peut dire que le machine learning identifie un “pourcentage” de peau, bien que la réalité soit un peu plus nuancée et compliquée. Mais oui, nous utilisons bien [l'intelligence artificielle] pour détecter des violations possibles de nos conditions concernant la nudité.»

Un signalement éventuel est ensuite laissé aux bons soins d'un être humain, qui jugera s'il vaut mieux censurer l'image ou la laisser en ligne, certains comptes pouvant être fortement touchés par des signalements répétés.

Ce processus algorithmique et humain serait opaque et biaisé selon certain·es, comme Carina Shero, une instagrameuse qui pose nue sur ses photos. «Le même contenu peut être vu sur une personne en surpoids et une personne mince, mais ce qui est considéré comme pornographique sur une personne en surpoids est permis sur une personne mince.»

Dans un article de Fast Company, Jessica Richman, la fondatrice de The Visible Collective –qui vise à lancer le dialogue sur les biais et la grossophobie– ouvre la réflexion sur les conséquences d'une discrimination humano-algorithmique.

Il ne s'agit pas tant de savoir si Instagram n'aime pas les gros·ses , il s'agit de déterminer si les entreprises privées et les communautés sont ouvertes au dialogue, et peuvent travailler ensemble à diminuer les nombreux biais de la technologie, des personnes qui les créent comme de celles qui les emploient.

En ce moment

Les Japonaises interdites de lunettes, xHamster mieux que Facebook, sécuriser son iPhone, aujourd'hui sur korii.

Et Cætera

Les Japonaises interdites de lunettes, xHamster mieux que Facebook, sécuriser son iPhone, aujourd'hui sur korii.

Le récap' du jour.

Google aspire les données médicales de millions de personnes à leur insu

Et Cætera

Google aspire les données médicales de millions de personnes à leur insu

Dans le cadre du «Projet Nightingale», des hôpitaux lui transmettent leurs données sans en informer les patient·es.

Les entreprises japonaises interdisent à leurs employées de porter des lunettes

Et Cætera

Les entreprises japonaises interdisent à leurs employées de porter des lunettes

La mesure n'est que l'une des nombreuses contraintes que les Japonaises doivent respecter au travail.