Les robots modérateurs autonomes ne sont pas pour tout de suite. | Erik Lucatero via Unsplash
Les robots modérateurs autonomes ne sont pas pour tout de suite. | Erik Lucatero via Unsplash

L'IA ne remplacera pas la modération humaine sur les réseaux sociaux

Ou alors pour le pire.

Harcèlement, fake news, propagation d'idéologies violentes... Toutes les grandes plateformes internet ont du mal à gérer la modération des contenus qu'elles hébergent. Comment gérer des centaines de millions de personnes qui postent des centaines de millions de messages en continu?

Pour Mark Zuckerberg, l'intelligence artificielle (IA) est la réponse à tous ces maux. Cuisiné par le Congrès américain en avril 2018, il l'a citée plus de trente fois. Lorsqu'il y a quelques mois, plusieurs reportages ont dévoilé la détresse psychologique des équipes de modération obligées de visionner des centaines de posts violents chaque jour, la solution était une nouvelle fois plus d'automatisation, et idéalement, se passer entièrement des êtres humains.

Dans un podcast du média spécialisé The Verge, Sarah T. Roberts, professeure à l'université de Los Angeles et autrice d'un livre sur la modération, estime que si l'IA peut aider, elle n'aura jamais les compétences humaines nécessaires.

Modération hybride

Elle explique que de nombreuses personnes travaillent à plein temps, non pas pour modérer mais pour entraîner des algorithmes afin qu'ils puissent le faire à leur place et à terme, se passer d'aide humaine grâce au machine learning. Sauf que selon elle, les personnes qui travaillent dans ce secteur «ne voient absolument pas quand les humains pourront être enlevés de l'équation».

Car les machines ne sont pas assez intelligentes pour comprendre toutes les nuances de l'activité humaine en ligne. «Au mieux, nous aurons et continuerons d'avoir un hybride humain/machine», où l'IA n'est qu'un outil qui a sans cesse besoin d'entraînement.

Mais alors, pourquoi tendre absolument vers l'autonomie des IA? Pour Roberts, la volonté de tout confier à des robots ne vient pas uniquement du désir d'une meilleure modération: «Il y a une croyance selon laquelle ces systèmes sont moins biaisés, plus efficaces et en général préférables. Mais il y a beaucoup de non-dits qui sous-tendent cette croyance: les algorithmes ne forment pas de syndicats, ils ne réclament pas de meilleures conditions de travail, ils ne font pas fuiter d'informations aux médias et aux chercheurs.»

Or, ne pas faire de vagues est l'un des objectifs principaux des équipes de modération. En avril, des mails dans lesquels des modérateurs de Facebook hésitaient à supprimer une caricature antisémite postée sur Instagram ont fuité dans la presse. Leur échange montrait que protéger l'entreprise d'un scandale était leur priorité numéro un.

En ce moment

La Sibérie, terre promise des cryptomonnaies?

Tech

La Sibérie, terre promise des cryptomonnaies?

La région pourrait devenir un enjeu stratégique pour l'indépendance numérique russe.

Cet été, adonnez-vous au «glamping»

Biz

Cet été, adonnez-vous au «glamping»

La mode est au camping glamour, dont le marché explose à la suite de la crise sanitaire.

Un précurseur du lithium-ion promet des batteries 90% moins chères

Tech

Un précurseur du lithium-ion promet des batteries 90% moins chères

Les piles «tout polymère» de Hideaki Horie seraient aussi simple à produire que de l'acier.