Harcèlement, fake news, propagation d'idéologies violentes... Toutes les grandes plateformes internet ont du mal à gérer la modération des contenus qu'elles hébergent. Comment gérer des centaines de millions de personnes qui postent des centaines de millions de messages en continu?
Pour Mark Zuckerberg, l'intelligence artificielle (IA) est la réponse à tous ces maux. Cuisiné par le Congrès américain en avril 2018, il l'a citée plus de trente fois. Lorsqu'il y a quelques mois, plusieurs reportages ont dévoilé la détresse psychologique des équipes de modération obligées de visionner des centaines de posts violents chaque jour, la solution était une nouvelle fois plus d'automatisation, et idéalement, se passer entièrement des êtres humains.
Dans un podcast du média spécialisé The Verge, Sarah T. Roberts, professeure à l'université de Los Angeles et autrice d'un livre sur la modération, estime que si l'IA peut aider, elle n'aura jamais les compétences humaines nécessaires.
Modération hybride
Elle explique que de nombreuses personnes travaillent à plein temps, non pas pour modérer mais pour entraîner des algorithmes afin qu'ils puissent le faire à leur place et à terme, se passer d'aide humaine grâce au machine learning. Sauf que selon elle, les personnes qui travaillent dans ce secteur «ne voient absolument pas quand les humains pourront être enlevés de l'équation».
Car les machines ne sont pas assez intelligentes pour comprendre toutes les nuances de l'activité humaine en ligne. «Au mieux, nous aurons et continuerons d'avoir un hybride humain/machine», où l'IA n'est qu'un outil qui a sans cesse besoin d'entraînement.
Mais alors, pourquoi tendre absolument vers l'autonomie des IA? Pour Roberts, la volonté de tout confier à des robots ne vient pas uniquement du désir d'une meilleure modération: «Il y a une croyance selon laquelle ces systèmes sont moins biaisés, plus efficaces et en général préférables. Mais il y a beaucoup de non-dits qui sous-tendent cette croyance: les algorithmes ne forment pas de syndicats, ils ne réclament pas de meilleures conditions de travail, ils ne font pas fuiter d'informations aux médias et aux chercheurs.»
Or, ne pas faire de vagues est l'un des objectifs principaux des équipes de modération. En avril, des mails dans lesquels des modérateurs de Facebook hésitaient à supprimer une caricature antisémite postée sur Instagram ont fuité dans la presse. Leur échange montrait que protéger l'entreprise d'un scandale était leur priorité numéro un.