Les robots modérateurs autonomes ne sont pas pour tout de suite. | Erik Lucatero via Unsplash
Les robots modérateurs autonomes ne sont pas pour tout de suite. | Erik Lucatero via Unsplash

L'IA ne remplacera pas la modération humaine sur les réseaux sociaux

Ou alors pour le pire.

Harcèlement, fake news, propagation d'idéologies violentes... Toutes les grandes plateformes internet ont du mal à gérer la modération des contenus qu'elles hébergent. Comment gérer des centaines de millions de personnes qui postent des centaines de millions de messages en continu?

Pour Mark Zuckerberg, l'intelligence artificielle (IA) est la réponse à tous ces maux. Cuisiné par le Congrès américain en avril 2018, il l'a citée plus de trente fois. Lorsqu'il y a quelques mois, plusieurs reportages ont dévoilé la détresse psychologique des équipes de modération obligées de visionner des centaines de posts violents chaque jour, la solution était une nouvelle fois plus d'automatisation, et idéalement, se passer entièrement des êtres humains.

Dans un podcast du média spécialisé The Verge, Sarah T. Roberts, professeure à l'université de Los Angeles et autrice d'un livre sur la modération, estime que si l'IA peut aider, elle n'aura jamais les compétences humaines nécessaires.

Modération hybride

Elle explique que de nombreuses personnes travaillent à plein temps, non pas pour modérer mais pour entraîner des algorithmes afin qu'ils puissent le faire à leur place et à terme, se passer d'aide humaine grâce au machine learning. Sauf que selon elle, les personnes qui travaillent dans ce secteur «ne voient absolument pas quand les humains pourront être enlevés de l'équation».

Car les machines ne sont pas assez intelligentes pour comprendre toutes les nuances de l'activité humaine en ligne. «Au mieux, nous aurons et continuerons d'avoir un hybride humain/machine», où l'IA n'est qu'un outil qui a sans cesse besoin d'entraînement.

Mais alors, pourquoi tendre absolument vers l'autonomie des IA? Pour Roberts, la volonté de tout confier à des robots ne vient pas uniquement du désir d'une meilleure modération: «Il y a une croyance selon laquelle ces systèmes sont moins biaisés, plus efficaces et en général préférables. Mais il y a beaucoup de non-dits qui sous-tendent cette croyance: les algorithmes ne forment pas de syndicats, ils ne réclament pas de meilleures conditions de travail, ils ne font pas fuiter d'informations aux médias et aux chercheurs.»

Or, ne pas faire de vagues est l'un des objectifs principaux des équipes de modération. En avril, des mails dans lesquels des modérateurs de Facebook hésitaient à supprimer une caricature antisémite postée sur Instagram ont fuité dans la presse. Leur échange montrait que protéger l'entreprise d'un scandale était leur priorité numéro un.

En ce moment

Aux États-Unis, la société pharmaceutique Ferring décroche un monopole sur le caca

Tech

Aux États-Unis, la société pharmaceutique Ferring décroche un monopole sur le caca

Et ce, au détriment des malades.

Le prototype du robot musical de Google est là, et le résultat n'est pas fameux

Tech

Le prototype du robot musical de Google est là, et le résultat n'est pas fameux

Les compositeurs ont encore de beaux jours devant eux.

L'empreinte carbone de Coca-Cola n'est pas due à ce que vous croyez

Tech

L'empreinte carbone de Coca-Cola n'est pas due à ce que vous croyez

Il y a pire pour le climat que les 200.000 véhicules utilisés chaque jour pour transporter les boissons de la marque.