Des algorithmes déterminent ce que nous voyons, la portée de ce que nous postons et modèrent (en partie) le contenu des réseaux sociaux. Mais comment fonctionnent-il? Sur quels critères s'appuient-ils pour prendre leurs décisions?
Il est difficile de le savoir: qu'il s'agisse de Facebook (ou d'Instagram), de TikTok, de Google (ou de YouTube), les entreprises gardent jalousement leurs ingrédients secrets.
Pourtant, leur impact est majeur. Les influenceurs et influenceuses, qui gagnent leur vie grâce à leurs communautés et au nombre de personnes atteintes sur les réseaux, sont obligé·es d'inspecter à la loupe tous les indices susceptibles de leur montrer comment mieux se placer dans les résultats de recherche, ou augmenter les chances de viraliser les contenus partagés.
Processus opaque et censures en série
Jennifer Allbaugh, vice-présidente de l'Adult Performers Actors Guild (APAG), a notamment remarqué que l'algorithme d'Instagram semble plus souvent détecter les photos dénudées de personnes en surpoids que de personnes minces.
«Est-il vrai que vous utilisez des programmes pour mesurer la quantité de peau visible sur une image, puis décidez qu'il s'agit probablement de nudité?», a-t-elle demandé à une équipe d'Instagram venue discuter les possibles discriminations et biais de l'algorithme avec l'APAG.
«Nous utilisons effectivement le machine learning pour essayer d'identifier de manière proactive des contenus qui pourraient violer [nos règles]», lui a répondu Karine Newton, l'une des cadres d'Instagram présent·es à la réunion. «Oui, on peut dire que le machine learning identifie un “pourcentage” de peau, bien que la réalité soit un peu plus nuancée et compliquée. Mais oui, nous utilisons bien [l'intelligence artificielle] pour détecter des violations possibles de nos conditions concernant la nudité.»
Un signalement éventuel est ensuite laissé aux bons soins d'un être humain, qui jugera s'il vaut mieux censurer l'image ou la laisser en ligne, certains comptes pouvant être fortement touchés par des signalements répétés.
Ce processus algorithmique et humain serait opaque et biaisé selon certain·es, comme Carina Shero, une instagrameuse qui pose nue sur ses photos. «Le même contenu peut être vu sur une personne en surpoids et une personne mince, mais ce qui est considéré comme pornographique sur une personne en surpoids est permis sur une personne mince.»
Dans un article de Fast Company, Jessica Richman, la fondatrice de The Visible Collective –qui vise à lancer le dialogue sur les biais et la grossophobie– ouvre la réflexion sur les conséquences d'une discrimination humano-algorithmique.
Il ne s'agit pas tant de savoir si Instagram n'aime pas les gros·ses , il s'agit de déterminer si les entreprises privées et les communautés sont ouvertes au dialogue, et peuvent travailler ensemble à diminuer les nombreux biais de la technologie, des personnes qui les créent comme de celles qui les emploient.