Détecter ces nouvelles falsifications nécessite encore de faire appel à des entreprises spécialisées. | ThomasWolter via Pixabay
Détecter ces nouvelles falsifications nécessite encore de faire appel à des entreprises spécialisées. | ThomasWolter via Pixabay

Des millions extorqués aux entreprises grâce aux deepfakes audio

Alors que l'attention se concentre sur les moyens de détecter les fausses vidéos, des groupes criminels imitent la voix de cadres haut placés grâce à l'IA.

Et si Jim Carrey avait joué dans Shining? Ou Barack Obama insulté Donald Trump? Ces vidéos existent. Elles sont fausses, ça va de soi.

Il n'aura pas fallu longtemps à des groupes criminels pour s'emparer de cette technologie afin d'extorquer des millions de dollars à de grandes entreprises. Leur stratégie se ressemblent. Ils génèrent de faux fichiers audio qui reproduisent la voix du directeur de l'entreprise grâce à une intelligence artificielle entraînée, passent un appel et ordonnent aux employé·es, qui ne soupçonnent même pas que cette pratique existe, d'effectuer un transfert d'argent.

Prémices

Symantec, une grande entreprise de cybersécurité, comptabilise déjà trois cas de ce genre. «Le modèle peut être quasiment parfait», explique à la BBC le Dr Hugh Thompson, chef de la technologie chez Symantec. En pompant des interviews, des vidéos en ligne ou des conférences données par les cadres hauts placé·es dans les entreprises, ces groupes criminels ont accès à des heures de discours qui leur permettent d'alimenter leur base de données et de les imiter. Lorsque certains mots ou certaines syllabes ne sont pas convaincants, des bruits de fond suffiront à les masquer. «Qui ne se ferait pas avoir par ce genre de choses?», ajoute Thompson.

L'inquiétude grimpe car cette pratique est encore balbutiante: les faux fichiers audios et les vidéos fictives deviennent de plus en plus réalistes et, surtout, de plus en plus simples à réaliser. «Je ne pense pas que l'infrastructure des entreprises soit prête pour un monde où vous ne pouvez plus faire confiance à la voix ou à une vidéo de votre collègue», remarque Henry Adjer pour Axios. Il travaille pour Deeptrace, une start-up de détection de deepfakes.

Des outils limités

Il est en outre extrêmement complexe de détecter la falsification. Analyser le contexte ne suffit pas. Le plus souvent on ne peut pas se passer des services coûteux d'entreprises spécialisées car les outils qui permettent de confondre ces montages sont encore rares. Des laboratoires et des entreprises se sont déjà lancées dans la recherche comme Google ou Pindrop (une entreprise américaine qui vend un service d'authentification vocale aux banques et compagnies d'asssurances), mais il est encore impossible de reconnaître automatiquement un deepfake.

En ce moment

Le survivalisme des ultra-riches, les miracles du CBD, un open-space de l'enfer, une semaine sur korii

Et Cætera

Le survivalisme des ultra-riches, les miracles du CBD, un open-space de l'enfer, une semaine sur korii

De quoi bien occuper votre dimanche.

Du mieux pour les trottinettes, du rififi dans la vape, les deepfakes pour les nuls, aujourd'hui sur korii.

Et Cætera

Du mieux pour les trottinettes, du rififi dans la vape, les deepfakes pour les nuls, aujourd'hui sur korii.

(Et plein d'autres choses aussii.)

Les deepfakes pour les nuls, c'est pour (très) bientôt

Tech

Les deepfakes pour les nuls, c'est pour (très) bientôt

Des deepfakes open source et prêts à l'emploi, c'est pour demain et ils risquent d'en rajouter dans le chaos existant.