La plateforme a notamment banni les images de scarification. | Clem Onojeghuo via Unsplash
La plateforme a notamment banni les images de scarification. | Clem Onojeghuo via Unsplash

Facebook s'engage davantage dans la lutte contre le suicide

Le réseau social a décidé de modifier sa politique de modération des contenus portant sur le suicide ou l'automutilation.

Dans un post de blog daté du 10 septembre, Facebook a annoncé avoir étudié les questions du suicide et de l'automutilation avec plusieurs spécialistes et adapté sa politique.

Les images de scarification ne seront plus autorisées, même lorsqu'elles sont accompagnées d'un appel à l'aide, et un filtre «image sensible» sera apposé sur les blessures cicatrisées.

Il sera dorénavant plus difficile de rechercher du contenu sur le sujet, tout en «laissant la possibilité pour les contacts entre personnes qui s'entraident dans leur rétablissement», promet Facebook.

Ces problématiques ne sont pas une nouveauté pour les réseaux sociaux. Les plateformes hésitent à mettre en place une modération radicale, car ce genre de posts peuvent contenir des appels à l'aide ou des témoignages.

Autoriser les mots-clés relatifs à ces thématiques permet certes de rejoindre des groupes de soutien, mais peut aussi faire peser le danger d'une spirale négative. Facebook, pour sa part, a préféré prendre le risque d'un excès de modération plutôt que de faire preuve de laxisme.

Viralité plutôt qu'intimité

Le problème des réseaux sociaux tient au fait que leur architecture n'est pas conçue pour créer des communautés d'entraide ou pour partager son témoignage à ses amis: elle est pensée pour rendre du contenu viral et le propager au maximum.

En mai 2019, une étude portant sur un échantillon de 729 jeunes adultes ayant regardé du contenu relatif à l'automutilation indiquait que seuls 20% avaient consulté ces posts de manière intentionnelle; la majorité affirmait y avoir été confrontée par accident. La même étude observait pourtant que l'exposition à ces messages pouvait pousser au passage à l'acte.

Un autre travail de recherche publié en 2018 avait déjà montré que les posts Instagram évoquant le suicide ou l'automutilation recevaient davantage d'engagement que les autres. L'équipe de recherche constatait également que les institutions de santé publique négligaient le réseau social et n'y étaient que peu présentes.

En l'absence de personnes formées à ces questions, les recommandations de l'OMS quant à la manière d'aborder le suicide sans influencer négativement les personnes aux idées noires ne sont malheureusement que peu suivies sur la plateforme.

En plus du renforcement de sa modération, Facebook compte engager un·e responsable de «la santé et du bien-être» chargé·e de superviser les actions de l'entreprise en la matière.

Le réseau social rendra en outre ses données accessibles à un panel de scientifiques, dans le but d'établir de meilleures politiques de prévention.

Si vous êtes concerné·e par ces sujets et souhaitez obtenir de l'aide, discuter ou avoir l'écoute de quelqu'un:
> S.O.S Amitié
sos-amitie.com ou 09 72 39 40 50
> Suicide écoute
suicide-ecoute.fr ou 01 45 39 40 00

En ce moment

La plus grosse arnaque de la Silicon Valley, la gentrification vue de Google Maps, le hacking des DAB, une semaine sur korii.

Et Cætera

La plus grosse arnaque de la Silicon Valley, la gentrification vue de Google Maps, le hacking des DAB, une semaine sur korii.

Retour sur une riche semaine.

Des trottinettes télécommandées, Alicem en question, l'espionnage low cost, à lire sur korii.

Et Cætera

Des trottinettes télécommandées, Alicem en question, l'espionnage low cost, à lire sur korii.

Le récap' du jour.

Les personnes en surpoids plus susceptibles d'être censurées par Instagram

Et Cætera

Les personnes en surpoids plus susceptibles d'être censurées par Instagram

L'algorithme de la plateforme signalerait davantage leurs photos dénudées que celles des personnes minces.