Détecter ces nouvelles falsifications nécessite encore de faire appel à des entreprises spécialisées. | ThomasWolter via Pixabay
Détecter ces nouvelles falsifications nécessite encore de faire appel à des entreprises spécialisées. | ThomasWolter via Pixabay

Des millions extorqués aux entreprises grâce aux deepfakes audio

Alors que l'attention se concentre sur les moyens de détecter les fausses vidéos, des groupes criminels imitent la voix de cadres haut placés grâce à l'IA.

Et si Jim Carrey avait joué dans Shining? Ou Barack Obama insulté Donald Trump? Ces vidéos existent. Elles sont fausses, ça va de soi.

Il n'aura pas fallu longtemps à des groupes criminels pour s'emparer de cette technologie afin d'extorquer des millions de dollars à de grandes entreprises. Leur stratégie se ressemblent. Ils génèrent de faux fichiers audio qui reproduisent la voix du directeur de l'entreprise grâce à une intelligence artificielle entraînée, passent un appel et ordonnent aux employé·es, qui ne soupçonnent même pas que cette pratique existe, d'effectuer un transfert d'argent.

Prémices

Symantec, une grande entreprise de cybersécurité, comptabilise déjà trois cas de ce genre. «Le modèle peut être quasiment parfait», explique à la BBC le Dr Hugh Thompson, chef de la technologie chez Symantec. En pompant des interviews, des vidéos en ligne ou des conférences données par les cadres hauts placé·es dans les entreprises, ces groupes criminels ont accès à des heures de discours qui leur permettent d'alimenter leur base de données et de les imiter. Lorsque certains mots ou certaines syllabes ne sont pas convaincants, des bruits de fond suffiront à les masquer. «Qui ne se ferait pas avoir par ce genre de choses?», ajoute Thompson.

L'inquiétude grimpe car cette pratique est encore balbutiante: les faux fichiers audios et les vidéos fictives deviennent de plus en plus réalistes et, surtout, de plus en plus simples à réaliser. «Je ne pense pas que l'infrastructure des entreprises soit prête pour un monde où vous ne pouvez plus faire confiance à la voix ou à une vidéo de votre collègue», remarque Henry Adjer pour Axios. Il travaille pour Deeptrace, une start-up de détection de deepfakes.

Des outils limités

Il est en outre extrêmement complexe de détecter la falsification. Analyser le contexte ne suffit pas. Le plus souvent on ne peut pas se passer des services coûteux d'entreprises spécialisées car les outils qui permettent de confondre ces montages sont encore rares. Des laboratoires et des entreprises se sont déjà lancées dans la recherche comme Google ou Pindrop (une entreprise américaine qui vend un service d'authentification vocale aux banques et compagnies d'asssurances), mais il est encore impossible de reconnaître automatiquement un deepfake.

En ce moment

Au Royaume-Uni, le pari de la terre brûlée face à la crise économique

Et Cætera

Au Royaume-Uni, le pari de la terre brûlée face à la crise économique

Le gouvernement assume une hausse massive du chômage afin de permettre à l'économie de se réajuster.

La fausse promesse des hybrides rechargeables

Tech

La fausse promesse des hybrides rechargeables

En conditions réelles, elles émettent beaucoup plus de dioxyde de carbone qu'annoncé.

Combien d'or reste-t-il à miner?

Biz

Combien d'or reste-t-il à miner?

Nous avons déjà extrait 80% de l'or souterrain. Le «peak gold» est-il déjà atteint?