YouTube permet la diffusion de contenus qu'il reconnaît être de l'incitation à la haine. | Sara Kurfess via Unsplash
YouTube permet la diffusion de contenus qu'il reconnaît être de l'incitation à la haine. | Sara Kurfess via Unsplash

YouTube protège mieux ses annonceurs d'un bad buzz que le public de contenus toxiques

Des règles de modération à la géométrie variable et aux conséquences étranges.

Sur YouTube, les règles qui peuvent faire perdre la monétisation d'une vidéo et celles qui peuvent la faire supprimer ne sont pas les mêmes.

Souvent, cette distinction est logique. Par exemple, il est permis de traiter de thèmes violents ou sexuels sur YouTube, mais les entreprises sont frileuses à l'idée que leur image soit associée à ce genre de sujets.

Mais dans d'autres cas, il est difficile de comprendre pourquoi les règles de la plateforme sont plus sévères quant à la monétisation des vidéos que quant à leur diffusion tout court.

La catégorie «incitation à la haine» n'est ainsi pas identique dans les deux situations. La plateforme explique qu'une vidéo «incitant les autres à croire qu'un individu ou un groupe ne fait pas partie de l'espèce humaine, est inférieur ou mérite d'être haï» ne pourra pas être monétisée. Cette règle, assez floue, comprend donc les sous-entendus ou l'incitation indirecte.

Néanmoins, dans les règles que les vidéos ne doivent pas enfreindre sous peine d'être complètement supprimées, les limites sont plus claires et tous les exemples cités sont des discriminations très explicites. Conséquence logique mais étrange: des vidéos peuvent être démonétisées pour incitation à la haine mais tout de même rester en ligne.

Incitation à la haine et fake news

Autre exemple: les informations médicales mensongères et dangereuses. Les contenus liés à des «mouvements anti-vaccination ou de déni du sida, traitements non médicaux promettant de guérir des maladies incurables et contenus insinuant que des pathologies graves n'existent pas ou sont une supercherie» ne peuvent ainsi pas être monétisés.

En revanche, la seule chose qui peut justifier la suppression d'une vidéo pour information médicale mensongère est la «promotion de remèdes dangereux» –il est uniquement précisé que la liste de règles n'est pas exhaustive.

Pour YouTube, cela revient à reconnaître à demi-mot que certains contenus qu'elle diffuse incitent à la haine ou propagent des informations dangereuses, que les algorithmes de la plateforme sont tout à fait capables de les reconnaître, mais que leur diffusion reste autorisée.

Interrogé par Quartz, son porte-parole assume le fait que la modération du site comporte «un biais en ce qui concerne la liberté d'expression». Autrement dit, il préfère laisser une vidéo qui flirte avec du contenu interdit qu'en supprimer une qui n'aurait pas dû l'être. Quitte à laisser prospérer incitation à la haine et fausses informations.

En ce moment

Les camions fantômes de Nikola, la bourde d'Intel, les pénuries du vaccin anti-Covid, l'hebdo de korii.

Et Cætera

Les camions fantômes de Nikola, la bourde d'Intel, les pénuries du vaccin anti-Covid, l'hebdo de korii.

Dix articles pour mieux profiter de votre dimanche.

Entre SF et propagande: la conquête spatiale soviétique en images

Et Cætera

Entre SF et propagande: la conquête spatiale soviétique en images

Un livre retrace les décennies du magazine Teknika Molodezhi et ses illustrations futuristes qui ont marqué des générations de Russes.

La mort au bout du ransomware

Et Cætera

La mort au bout du ransomware

Une cyberattaque mal ciblée a paralysé un hôpital allemand et peut-être causé la mort d'une femme.