Les fake news s'apprêtent à entrer dans une toute nouvelle ère: celle des deepfakes, des vidéos ou fichiers audio modifiés grâce à une intelligence artificielle. Ces hypertrucages permettent de coller le visage de quelqu'un sur une autre personne ou de faire dire ce que l'on veut à un individu.
Au départ surtout utilisée pour apposer la tête d'actrices célèbres sur des vidéos pornographiques (pratique heureusement interdite sur Reddit, Twitter et Pornhub), la technique est désormais utilisée à des fins de manipulation politique.
Pour prendre la température de la désinformation politique en ligne, le compte Twitter du président des États-Unis est toujours un bon indicateur. Fin mai, Donald Trump a partagé la vidéo d'une conférence de Nancy Pelosi ralentie de manière à ce qu'elle ait l'air ivre.
“PELOSI STAMMERS THROUGH NEWS CONFERENCE” pic.twitter.com/1OyCyqRTuk
— Donald J. Trump (@realDonaldTrump) 24 mai 2019
«PELOSI BÉGAYE PENDANT UNE CONFÉRENCE DE PRESSE»
Détection «très en avance»
Ces vidéos sont de plus en plus faciles à réaliser, il suffit désormais d'une seule photo pour créer un fake. Il est donc plus que temps de savoir comment s'en débarrasser, ou du moins les signaler clairement à celles et ceux qui les regardent. Des scientifiques de l'Université de Californie du Sud (USC) ont annoncé avoir créé une méthode permettant de détecter les deepfakes avec une précision de 96%.
Leur logiciel empile toutes les images d'une vidéo. Un réseau neuronal artificiel analyse ensuite certaines parties du visage (paupières, bouche, nez) afin de détecter des mouvements saccadés ou anormaux. Les scientifiques affirment que leur programme est, pour l'instant, «très en avance» sur les deepfakers actuels.
Des systèmes de détection existaient déjà mais devaient laborieusement analyser les vidéos image par image. Le professeur Wael Abd-Almageed et son équipe de l'USC affirment que le leur est plus rapide et moins gourmand en puissance de calcul. Une efficacité qui permettrait à un réseau social comme Facebook de déployer facilement la méthode sur sa plateforme afin de détecter les fakes «en quasi-temps réel».
C'est désormais aux réseaux sociaux de faire un choix. Car pour l'instant, Facebook refuse de bannir les deepfakes. Le réseau a laissé proliférer la vidéo de Nancy Pelosi précédemment citée, vue plusieurs millions de fois, en plaidant la liberté d'expression.
Un autre deepfake de Mark Zuckerberg envoyé sur Instagram n'a pas plus fait infléchir le réseau social aux deux milliards d'inscrit·es. La firme se contente de ne pas envoyer ce genre de posts dans les recommandations et de les déréférencer afin qu'ils n'apparaissent pas automatiquement dans les timelines.
La cause est pourtant urgente. Faite avec intelligence, publiée au bon moment et viralisée avec art auprès des bonnes cibles, l'une de ces tromperies animées pourrait provoquer d'importants dégâts sur la marche démocratique, tant au niveau local que national ou international.