Détecter ces nouvelles falsifications nécessite encore de faire appel à des entreprises spécialisées. | ThomasWolter via Pixabay
Détecter ces nouvelles falsifications nécessite encore de faire appel à des entreprises spécialisées. | ThomasWolter via Pixabay

Des millions extorqués aux entreprises grâce aux deepfakes audio

Alors que l'attention se concentre sur les moyens de détecter les fausses vidéos, des groupes criminels imitent la voix de cadres haut placés grâce à l'IA.

Et si Jim Carrey avait joué dans Shining? Ou Barack Obama insulté Donald Trump? Ces vidéos existent. Elles sont fausses, ça va de soi.

Il n'aura pas fallu longtemps à des groupes criminels pour s'emparer de cette technologie afin d'extorquer des millions de dollars à de grandes entreprises. Leur stratégie se ressemblent. Ils génèrent de faux fichiers audio qui reproduisent la voix du directeur de l'entreprise grâce à une intelligence artificielle entraînée, passent un appel et ordonnent aux employé·es, qui ne soupçonnent même pas que cette pratique existe, d'effectuer un transfert d'argent.

Prémices

Symantec, une grande entreprise de cybersécurité, comptabilise déjà trois cas de ce genre. «Le modèle peut être quasiment parfait», explique à la BBC le Dr Hugh Thompson, chef de la technologie chez Symantec. En pompant des interviews, des vidéos en ligne ou des conférences données par les cadres hauts placé·es dans les entreprises, ces groupes criminels ont accès à des heures de discours qui leur permettent d'alimenter leur base de données et de les imiter. Lorsque certains mots ou certaines syllabes ne sont pas convaincants, des bruits de fond suffiront à les masquer. «Qui ne se ferait pas avoir par ce genre de choses?», ajoute Thompson.

L'inquiétude grimpe car cette pratique est encore balbutiante: les faux fichiers audios et les vidéos fictives deviennent de plus en plus réalistes et, surtout, de plus en plus simples à réaliser. «Je ne pense pas que l'infrastructure des entreprises soit prête pour un monde où vous ne pouvez plus faire confiance à la voix ou à une vidéo de votre collègue», remarque Henry Adjer pour Axios. Il travaille pour Deeptrace, une start-up de détection de deepfakes.

Des outils limités

Il est en outre extrêmement complexe de détecter la falsification. Analyser le contexte ne suffit pas. Le plus souvent on ne peut pas se passer des services coûteux d'entreprises spécialisées car les outils qui permettent de confondre ces montages sont encore rares. Des laboratoires et des entreprises se sont déjà lancées dans la recherche comme Google ou Pindrop (une entreprise américaine qui vend un service d'authentification vocale aux banques et compagnies d'asssurances), mais il est encore impossible de reconnaître automatiquement un deepfake.

En ce moment

Quand la Playstation servait à étudier les trous noirs

Tech

Quand la Playstation servait à étudier les trous noirs

Peu coûteuse et adaptable, cette machine taillée pour le jeu a aussi fait des miracles en sciences.

Le «sale petit secret» d'Uber, la pollution des sacs réutilisables, des bébés génétiquement modifiés, une semaine sur korii.

Et Cætera

Le «sale petit secret» d'Uber, la pollution des sacs réutilisables, des bébés génétiquement modifiés, une semaine sur korii.

De la lecture et des surprises pour votre samedi.

La recherche des seins parfaits, la mafia meilleure que Goldman Sachs, +100% à Wall Street, une journée sur korii.

Et Cætera

La recherche des seins parfaits, la mafia meilleure que Goldman Sachs, +100% à Wall Street, une journée sur korii.

Ce qu'il fallait lire aujourd'huii.