Détecter ces nouvelles falsifications nécessite encore de faire appel à des entreprises spécialisées. | ThomasWolter via Pixabay
Détecter ces nouvelles falsifications nécessite encore de faire appel à des entreprises spécialisées. | ThomasWolter via Pixabay

Des millions extorqués aux entreprises grâce aux deepfakes audio

Alors que l'attention se concentre sur les moyens de détecter les fausses vidéos, des groupes criminels imitent la voix de cadres haut placés grâce à l'IA.

Et si Jim Carrey avait joué dans Shining? Ou Barack Obama insulté Donald Trump? Ces vidéos existent. Elles sont fausses, ça va de soi.

Il n'aura pas fallu longtemps à des groupes criminels pour s'emparer de cette technologie afin d'extorquer des millions de dollars à de grandes entreprises. Leur stratégie se ressemblent. Ils génèrent de faux fichiers audio qui reproduisent la voix du directeur de l'entreprise grâce à une intelligence artificielle entraînée, passent un appel et ordonnent aux employé·es, qui ne soupçonnent même pas que cette pratique existe, d'effectuer un transfert d'argent.

Prémices

Symantec, une grande entreprise de cybersécurité, comptabilise déjà trois cas de ce genre. «Le modèle peut être quasiment parfait», explique à la BBC le Dr Hugh Thompson, chef de la technologie chez Symantec. En pompant des interviews, des vidéos en ligne ou des conférences données par les cadres hauts placé·es dans les entreprises, ces groupes criminels ont accès à des heures de discours qui leur permettent d'alimenter leur base de données et de les imiter. Lorsque certains mots ou certaines syllabes ne sont pas convaincants, des bruits de fond suffiront à les masquer. «Qui ne se ferait pas avoir par ce genre de choses?», ajoute Thompson.

L'inquiétude grimpe car cette pratique est encore balbutiante: les faux fichiers audios et les vidéos fictives deviennent de plus en plus réalistes et, surtout, de plus en plus simples à réaliser. «Je ne pense pas que l'infrastructure des entreprises soit prête pour un monde où vous ne pouvez plus faire confiance à la voix ou à une vidéo de votre collègue», remarque Henry Adjer pour Axios. Il travaille pour Deeptrace, une start-up de détection de deepfakes.

Des outils limités

Il est en outre extrêmement complexe de détecter la falsification. Analyser le contexte ne suffit pas. Le plus souvent on ne peut pas se passer des services coûteux d'entreprises spécialisées car les outils qui permettent de confondre ces montages sont encore rares. Des laboratoires et des entreprises se sont déjà lancées dans la recherche comme Google ou Pindrop (une entreprise américaine qui vend un service d'authentification vocale aux banques et compagnies d'asssurances), mais il est encore impossible de reconnaître automatiquement un deepfake.

En ce moment

Collapse OS, un système d'exploitation pour la fin du monde

Tech

Collapse OS, un système d'exploitation pour la fin du monde

En cas d'effondrement, les déchets technologiques auront besoin d'un logiciel pour fonctionner à nouveau.

Croissance ou récession: et si tout n'était qu'une question d'histoires?

Biz

Croissance ou récession: et si tout n'était qu'une question d'histoires?

Plutôt que de regarder les chiffres, l'économiste Robert Shiller recommande de se pencher sur les histoires pour comprendre les aléas du marché économique.

Comment Tokyo compte sauver ses JO de la canicule

Et Cætera

Comment Tokyo compte sauver ses JO de la canicule

Face aux inquiétudes, la capitale japonaise qui accueillera les Jeux olympiques d'été de 2020 cherche à se rafraîchir.