Peppa Pig et les vaccins: le genre de vidéo problématique que les choix conscients de YouTube ont longtemps fait prospérer. | Capture
Peppa Pig et les vaccins: le genre de vidéo problématique que les choix conscients de YouTube ont longtemps fait prospérer. | Capture

YouTube a sciemment laissé prospérer les contenus toxiques

Dans une enquête minutieuse, Bloomberg explique comment la plateforme a étouffé les critiques internes, privilégiant le profit au détriment de la modération.

C'est une enquête très fouillée sur la politique de modération au sein des élites de YouTube et de la maison-mère Google que propose Bloomberg pour comprendre pourquoi la plateforme de vidéos est devenue, en un peu plus d'une décennie, l'un des principaux pivots de la désinformation, des fake news, de l'extrêmisme politique, des pseudo-sciences et du complotisme.

Les alertes des cadres ignorées

Le site américain a pu interroger de nombreux executives de l'empire américain. Tous et toutes sont formelles: les alertes n'ont pas été écoutées. En interne, les efforts que certaines ou certains appelaient de leurs vœux pour modérer plus sévèrement les contenus problématiques publiés par les «créateurs» sont restés lettre morte. Au fil des années, des solutions ont été imaginées, des preuves de la toxicité véhiculée par certaines vidéos ont été réunies par des cadres –auxquelles et auxquels on a clairement stipulé de ne pas faire de vague, que ce soit par avocates ou conseils interposés ou frontalement de manière verbale, en tout cas sur un ton menaçant.

Bloomberg explique que Susan Wojcicki, patronne du géant de la vidéo, avait lors d'une conférence au festival South By Southwest décrit son entreprise comme une «bibliothèque», plutôt que comme une chaîne de télévision. «Et il y a toujours eu des controverses, si l'on regarde l'histoire des bibliothèques», poursuivait-elle pour se dédouaner de tout manquement.

Mais, dans son enquête, Bloomberg montre que ce qui importe n'est pas tant la controverse, ni la question du free speech (parfois soulevée par Google), mais un problème d'une autre gravité: si YouTube a laissé fleurir les complotistes et les charlatans, l'alt-right et les chaînes plus que troublantes pour les enfants, c'est en toute conscience, parce que ce choix mûrement réfléchi répond à de purs objectifs financiers et de croissance.

L'engagement rapporte plus que la vérité

La véracité ou la qualité de l'information, la responsabilité sociale, morale, intellectuelle ou scientifique importent peu à YouTube: son alpha et son oméga sont l'engagement de ses utilisateurs et utilisatrices, soit le temps passé à regarder ou commenter des vidéos, le plus souvent en se laissant porter par les recommandations que produit l'algorithme maison. Les cadres de l'entreprise, entièrement tendus vers l'objectif faramineux posé par ses dirigeants, se devaient de remplir leur mission: atteindre le milliard d'heures de visionnage par jour.

Le prix de cet objectif? Fermer les yeux sur les débordements. Feindre d'ignorer les excès des vingt chaînes antivaxx dont les vidéos ont été vues plus de 120 millions de fois, et qui sont mises en cause dans l'explosion récente des cas de rougeole, aux États-Unis et ailleurs. Laisser diffuser les vidéos d'Infowars du complotiste en chef Alex Jones, comme celles de Breitbard News, ce terreau de l'alt-right qui a aidé Donald Trump à se faire élire. Ne pas modérer les vidéos pour le moins perturbantes, sinon absolument choquantes, que certaines chaînes vicieuses faisaient bouffer en série à des enfants perturbés. N'exercer aucun contrôle sur la vidéo devenue virale qui expliquait en quoi les victimes s'exprimant après la fusillade du lycée de Parkland (Floride) étaient des «acteurs de crise». Minimiser l'impact de celles qui faisaient état des liens présumés entre Hilary Clinton et le satanisme –vieille rengaine qui revient depuis la rumeur folle du «pizzagate». Laisser dire celles qui expliquent que la terre est plate ou qu'aucun être humain, jamais, n'a posé le pied sur la Lune.

Le site américain met également le doigt sur une chose que beaucoup –médias, entreprises, politiques– savent plus ou moins consciemment et mettent à leur profit: «outrage means attention», soit «l'indignation crée de l'attention». Pas un hasard, donc, si ces contenus connaissent un tel succès.

Un succès que renforce et alimente le «neural network» de YouTube, l'algorithme de recommandation maison: il se concentre sur la prédiction de ce que peut désirer regarder l’utilisateur ou l’utilisatrice, mais la question de la désinformation, du complotisme ou de l’extrêmisme ne s’est jamais posée lorsqu'il a été mis en place. Très critique, le chercheur en informatique Francis Irving parle d'une «machine d'addiction» à propos de cette intelligence artificielle qui diffuse les contenus problématiques par capilarité pour enfermer les spectateurs et spectatrices dans une bulle thématique.

Bloomberg interroge un ancien membre des équipes de YouTube, Micah Schaffe. Il explique avoir beaucoup œuvré, au milieu des années 2000, pour éradiquer de la plateforme les vidéos prônant l'anorexie, qui s'y multipliaient. «Nous étions peut-être en pleine hémorragie financière à l'époque, explique-t-il. Mais un chien sur un skate n'a jamais tué personne.»

Des mesures (trop) tardives

Des porte-parole de l'entreprise expliquent que YouTube a mis en place des mécanismes pour essayer de juguler ces phénomènes, dont on ne mesure sans doute pas encore tout à fait l'impact sur nos sociétés. Certaines vidéos «limites» sont désormais exclues des recommandations, d'autres sont accompagnées d'un lien Wikipedia offrant un contrepoint a priori crédible, des investissements ont été faits dans la production de vidéos de qualité, certains médias «sûrs» sont mieux mis en avant, l'algorithme a été légèrement modifié, des modérateurs et modératrices ont été embauchées en masse.

Mais qu'elle soit suffisante ou qu'elle ne soit qu'un petit coup d'épée dans l'eau très croupie de la désinformation sur internet, la réaction intervient très tardivement. Et le mal, notamment sur la relation du public à l'information, à l'opinion et aux faits, est sans doute déjà fait.

Mise à jour: voici une réponse officielle, envoyée par un porte-parole de Google à korii. suite à la parution de cet article.

«Nous avons eu pour objectif principal au cours des deux dernières années de nous attaquer à des défis extrêmement complexes relatifs aux contenus sur notre plateforme, en tenant compte des commentaires et des préoccupations des utilisateurs, des créateurs, des annonceurs, des experts et des employés. Nous avons pris un certain nombre de mesures importantes, comme notamment la mise à jour de notre système de recommandations pour empêcher la propagation de fausses informations nuisibles; l'amélioration de la diffusion d'informations en provenance de médias sur YouTube; le fait d'atteindre le nombre de 10 000 personnes travaillant sur les problématiques de retrait de contenu chez Google; l'investissement dans l'apprentissage automatique afin de pouvoir trouver et supprimer encore plus rapidement les contenus non autorisés ainsi que la révision et la mise à jour de nos Règles de la communauté - nous avons réalisé plus de de 30 mises à jour en 2018. Et ce n'est pas fini, être responsable reste notre priorité numéro un.»

En ce moment

Les utilisateurs saoudiens de Snapchat se voient rappeler qu'insulter le régime est un crime

Et Cætera

Les utilisateurs saoudiens de Snapchat se voient rappeler qu'insulter le régime est un crime

Vive la liberté d'expression.

Ces aides «inattendues» et pourtant très utiles à l'Ukraine

Et Cætera

Ces aides «inattendues» et pourtant très utiles à l'Ukraine

Canon personnalisé, meubles Ikea... Les dons sont divers et variés.

Le mois des fiertés LGBT+, ou quand les entreprises chassent le «pink dollar»

Biz

Le mois des fiertés LGBT+, ou quand les entreprises chassent le «pink dollar»

Pour mériter cet argent, un seul mot: cohérence.