Et si Jim Carrey avait joué dans Shining? Ou Barack Obama insulté Donald Trump? Ces vidéos existent. Elles sont fausses, ça va de soi.
Il n'aura pas fallu longtemps à des groupes criminels pour s'emparer de cette technologie afin d'extorquer des millions de dollars à de grandes entreprises. Leur stratégie se ressemblent. Ils génèrent de faux fichiers audio qui reproduisent la voix du directeur de l'entreprise grâce à une intelligence artificielle entraînée, passent un appel et ordonnent aux employé·es, qui ne soupçonnent même pas que cette pratique existe, d'effectuer un transfert d'argent.
Prémices
Symantec, une grande entreprise de cybersécurité, comptabilise déjà trois cas de ce genre. «Le modèle peut être quasiment parfait», explique à la BBC le Dr Hugh Thompson, chef de la technologie chez Symantec. En pompant des interviews, des vidéos en ligne ou des conférences données par les cadres hauts placé·es dans les entreprises, ces groupes criminels ont accès à des heures de discours qui leur permettent d'alimenter leur base de données et de les imiter. Lorsque certains mots ou certaines syllabes ne sont pas convaincants, des bruits de fond suffiront à les masquer. «Qui ne se ferait pas avoir par ce genre de choses?», ajoute Thompson.
L'inquiétude grimpe car cette pratique est encore balbutiante: les faux fichiers audios et les vidéos fictives deviennent de plus en plus réalistes et, surtout, de plus en plus simples à réaliser. «Je ne pense pas que l'infrastructure des entreprises soit prête pour un monde où vous ne pouvez plus faire confiance à la voix ou à une vidéo de votre collègue», remarque Henry Adjer pour Axios. Il travaille pour Deeptrace, une start-up de détection de deepfakes.
Des outils limités
Il est en outre extrêmement complexe de détecter la falsification. Analyser le contexte ne suffit pas. Le plus souvent on ne peut pas se passer des services coûteux d'entreprises spécialisées car les outils qui permettent de confondre ces montages sont encore rares. Des laboratoires et des entreprises se sont déjà lancées dans la recherche comme Google ou Pindrop (une entreprise américaine qui vend un service d'authentification vocale aux banques et compagnies d'asssurances), mais il est encore impossible de reconnaître automatiquement un deepfake.