Les robots modérateurs autonomes ne sont pas pour tout de suite. | Erik Lucatero via Unsplash
Les robots modérateurs autonomes ne sont pas pour tout de suite. | Erik Lucatero via Unsplash

L'IA ne remplacera pas la modération humaine sur les réseaux sociaux

Ou alors pour le pire.

Harcèlement, fake news, propagation d'idéologies violentes... Toutes les grandes plateformes internet ont du mal à gérer la modération des contenus qu'elles hébergent. Comment gérer des centaines de millions de personnes qui postent des centaines de millions de messages en continu?

Pour Mark Zuckerberg, l'intelligence artificielle (IA) est la réponse à tous ces maux. Cuisiné par le Congrès américain en avril 2018, il l'a citée plus de trente fois. Lorsqu'il y a quelques mois, plusieurs reportages ont dévoilé la détresse psychologique des équipes de modération obligées de visionner des centaines de posts violents chaque jour, la solution était une nouvelle fois plus d'automatisation, et idéalement, se passer entièrement des êtres humains.

Dans un podcast du média spécialisé The Verge, Sarah T. Roberts, professeure à l'université de Los Angeles et autrice d'un livre sur la modération, estime que si l'IA peut aider, elle n'aura jamais les compétences humaines nécessaires.

Modération hybride

Elle explique que de nombreuses personnes travaillent à plein temps, non pas pour modérer mais pour entraîner des algorithmes afin qu'ils puissent le faire à leur place et à terme, se passer d'aide humaine grâce au machine learning. Sauf que selon elle, les personnes qui travaillent dans ce secteur «ne voient absolument pas quand les humains pourront être enlevés de l'équation».

Car les machines ne sont pas assez intelligentes pour comprendre toutes les nuances de l'activité humaine en ligne. «Au mieux, nous aurons et continuerons d'avoir un hybride humain/machine», où l'IA n'est qu'un outil qui a sans cesse besoin d'entraînement.

Mais alors, pourquoi tendre absolument vers l'autonomie des IA? Pour Roberts, la volonté de tout confier à des robots ne vient pas uniquement du désir d'une meilleure modération: «Il y a une croyance selon laquelle ces systèmes sont moins biaisés, plus efficaces et en général préférables. Mais il y a beaucoup de non-dits qui sous-tendent cette croyance: les algorithmes ne forment pas de syndicats, ils ne réclament pas de meilleures conditions de travail, ils ne font pas fuiter d'informations aux médias et aux chercheurs.»

Or, ne pas faire de vagues est l'un des objectifs principaux des équipes de modération. En avril, des mails dans lesquels des modérateurs de Facebook hésitaient à supprimer une caricature antisémite postée sur Instagram ont fuité dans la presse. Leur échange montrait que protéger l'entreprise d'un scandale était leur priorité numéro un.

En ce moment

Augmenter l'humanité, pourquoi pas? Encore faut-il se poser les bonnes questions

Et Cætera

Augmenter l'humanité, pourquoi pas? Encore faut-il se poser les bonnes questions

Avant de fusionner avec les machines il importe de bien (re)définir ce qui relève de l'être humain.

Le florissant commerce de restes humains sur Instagram

Et Cætera

Le florissant commerce de restes humains sur Instagram

Cantonné à eBay jusqu'à son interdiction, l'achat-vente de squelettes décorés se réfugie dans le flou juridique du réseau social.

La big data en santé, une mine d'or de 12 milliards d'euros pour la Grande-Bretagne

Biz

La big data en santé, une mine d'or de 12 milliards d'euros pour la Grande-Bretagne

La NHS est assise sur un trésor convoité par l'industrie pharmaceutique.