Vingt-neuf minutes: c’est le temps qu’il a fallu, le 15 mars 2019, pour que la diffusion en direct de la tuerie de Christchurch soit signalée à Facebook. Régulièrement pointée du doigt pour ses manquements déontologiques ou les conditions de travail de son personnel, la modération du réseau social pourrait être bien plus efficace.
Reconnaissance programmée
C’est ce qu’a démontré Motherboard en conduisant une expérience sur le live de l’attaque qui a meurtri la Nouvelle-Zélande. En soumettant des images de l’assaillant à la détection automatique du logiciel d'Amazon Rekognition, ce dernier a été en mesure de repérer armes et fusils avec un taux de certitude de 90%.
Le test a été réalisé sur des captures d’écran et non un live, mais Rekognition est également capable d’identifier des personnes, des visages et des objets sur des vidéos.
En théorie, l'utilisation d'un tel outil accélérerait nettement le signalement d’un contenu à l'équipe de modération, qui n’aurait plus qu’à décider ou non de sa suppression.
Fiction ou réalité?
À la suite de son enquête, Motherboard a contacté Facebook, qui a déclaré travailler sur le machine learning. Sa technologie permettrait déjà d’analyser des combinaisons images/textes, mais le géant du web reconnaît qu’elle est encore loin d’être opérationnelle.
Le problème majeur rencontré par Facebook reste la masse exponentielle de contenus publiés chaque jour sur le réseau social, qui compte deux milliards de comptes pour seulement 15.000 personnes dédiées à leur modération à travers le monde.
L’expérience de Motherboard a également démontré que si les armes pouvaient facilement être détectées par Rekognition, leur catégorisation était encore hasardeuse: sur certaines images, le logiciel a analysé l’attaque comme ayant 50% de chances d’être une séquence de Call of Duty, le célèbre jeu vidéo de tir.