Quartier général pour nombre de mouvements aux obscurs desseins, la plateforme de Mark Zuckerberg le sait: dans une atmosphère électrique et à l'issue d'une campagne violente, l'élection présidentielle américaine du 3 novembre pourrait engendrer chienlit et chaos, en particulier si des résultats sans équivoque ne peuvent être annoncés tout de suite.
D'après un article du Wall Street Journal, une fois n'est pas coutume, Facebook semble avoir pris conscience de sa responsabilité en la matière. L'entreprise prépare ainsi un arsenal d'outils avec lesquels elle espère pouvoir calmer le jeu, ou du moins empêcher l'emballement des haines: le pyromane s'essaie à la lutte contre les incendies.
Une partie de ces plans ont déjà été utilisés lors des élections d'autres pays considérées comme à risque –la Birmanie et le Sri Lanka notamment– mais une autre partie de ces idées sont réfléchies spécifiquement pour le cas de l'élection américaine.
Selon les sources du quotidien américain, il pourrait par exemple s'agir du ralentissement, sur l'intégralité de la plateforme, de la vitesse de propagation de certains posts viraux –Facebook peut jouer sur ses algorithmes pour afficher les publications plus rarement dans les fils d'actualité.
Elle pourrait également demander à ses cerbères logiciels d'être plus sévères envers davantage de contenus considérés comme violents ou incitant à la haine.
L'idée est de faire baisser la pression générale, d'exposer moins d'individus à ce qui peut parfois constituer leurs journées habituelles sur Facebook: posts polarisants, appels à la haine à peine voilés, sensationnalisme crasse, désinformation.
De manière plus subtile, peut-être trop subtile étant donné l'urgence et l'état du débat public, Twitter a déjà implémenté des réglages permettant d'ajouter un peu de frictions, quelques grains de sable dans les mécanismes de circulation à haute vitesse de l'information. Le retweet d'un lien s'accompagne ainsi d'une petite fiche incitant à lire l'article avant de le partager, et le commentaire est privilégié en cas de RT.
Responsabilité tardive
«Nous devons faire tout ce qui est en notre pouvoir pour réduire les chances de violences ou de troubles civils», a benoîtement expliqué Mark Zuckerberg à Axios en octobre. Nick Clegg, en charge de la communication, a quant à lui indiqué –sans toutefois les détailler– que la plateforme avait aussi à sa disposition des «outils pour briser la glace» en cas d'urgence absolue.
Difficile de ne pas voir dans ces annonces de dernière minute l'action précipitée d'une firme qui essaie désespérément de se dédouaner a priori d'événements graves qu'elle aura largement participé à faire germer.
Le rôle de Facebook dans la polarisation des débats, dans la croissance de mouvements comme QAnon –auquel elle s'est très tardivement attaquée après lui avoir offert une formidable chambre d'écho– ou dans le chauffage à blanc des esprits peut difficilement être nié.
Elle-même sait pertinemment quels poisons elle peut contribuer à instiller: une étude interne détaillant ces mécanismes de polarisation a été mise entre les mains de ses cadres, qui l'ont simplement ignorée.