Les biais humains comme technologiques sont au cœur des questions de censure ciblée. | Zackary Drucker via Broadly's Gender Spectrum Collection
Les biais humains comme technologiques sont au cœur des questions de censure ciblée. | Zackary Drucker via Broadly's Gender Spectrum Collection

Les personnes en surpoids plus susceptibles d'être censurées par Instagram

L'algorithme de la plateforme signalerait davantage leurs photos dénudées que celles des personnes minces.

Des algorithmes déterminent ce que nous voyons, la portée de ce que nous postons et modèrent (en partie) le contenu des réseaux sociaux. Mais comment fonctionnent-il? Sur quels critères s'appuient-ils pour prendre leurs décisions?

Il est difficile de le savoir: qu'il s'agisse de Facebook (ou d'Instagram), de TikTok, de Google (ou de YouTube), les entreprises gardent jalousement leurs ingrédients secrets.

Pourtant, leur impact est majeur. Les influenceurs et influenceuses, qui gagnent leur vie grâce à leurs communautés et au nombre de personnes atteintes sur les réseaux, sont obligé·es d'inspecter à la loupe tous les indices susceptibles de leur montrer comment mieux se placer dans les résultats de recherche, ou augmenter les chances de viraliser les contenus partagés.

Processus opaque et censures en série

Jennifer Allbaugh, vice-présidente de l'Adult Performers Actors Guild (APAG), a notamment remarqué que l'algorithme d'Instagram semble plus souvent détecter les photos dénudées de personnes en surpoids que de personnes minces.

«Est-il vrai que vous utilisez des programmes pour mesurer la quantité de peau visible sur une image, puis décidez qu'il s'agit probablement de nudité?», a-t-elle demandé à une équipe d'Instagram venue discuter les possibles discriminations et biais de l'algorithme avec l'APAG.

«Nous utilisons effectivement le machine learning pour essayer d'identifier de manière proactive des contenus qui pourraient violer [nos règles]», lui a répondu Karine Newton, l'une des cadres d'Instagram présent·es à la réunion. «Oui, on peut dire que le machine learning identifie un “pourcentage” de peau, bien que la réalité soit un peu plus nuancée et compliquée. Mais oui, nous utilisons bien [l'intelligence artificielle] pour détecter des violations possibles de nos conditions concernant la nudité.»

Un signalement éventuel est ensuite laissé aux bons soins d'un être humain, qui jugera s'il vaut mieux censurer l'image ou la laisser en ligne, certains comptes pouvant être fortement touchés par des signalements répétés.

Ce processus algorithmique et humain serait opaque et biaisé selon certain·es, comme Carina Shero, une instagrameuse qui pose nue sur ses photos. «Le même contenu peut être vu sur une personne en surpoids et une personne mince, mais ce qui est considéré comme pornographique sur une personne en surpoids est permis sur une personne mince.»

Dans un article de Fast Company, Jessica Richman, la fondatrice de The Visible Collective –qui vise à lancer le dialogue sur les biais et la grossophobie– ouvre la réflexion sur les conséquences d'une discrimination humano-algorithmique.

Il ne s'agit pas tant de savoir si Instagram n'aime pas les gros·ses , il s'agit de déterminer si les entreprises privées et les communautés sont ouvertes au dialogue, et peuvent travailler ensemble à diminuer les nombreux biais de la technologie, des personnes qui les créent comme de celles qui les emploient.

En ce moment

Un PowerPoint mortel, les magouilles de Jeff Koons et Kanye West, un bouclier contre la haine, une journée sur korii.

Et Cætera

Un PowerPoint mortel, les magouilles de Jeff Koons et Kanye West, un bouclier contre la haine, une journée sur korii.

Le récap' du jour.

EskootR, la F1 de la trottinette électrique, sera lancé en 2021

Tech

EskootR, la F1 de la trottinette électrique, sera lancé en 2021

Des engins surpuissants s'affronteront sur les circuits de ce nouveau championnat de sport mécanique.

Bodyguard, l'app qui protège parlementaires et YouTubeurs

Biz

Bodyguard, l'app qui protège parlementaires et YouTubeurs

Avec son bouclier contre la haine et les insultes, la start-up française souhaite enrayer le harcèlement sur les réseaux sociaux.