Qui est qui? Qui est réel? Qui ne l'est pas? Ce sera, à l'avenir, de plus en plus difficile à discerner. | Sharon McCutcheon via Unsplash
Qui est qui? Qui est réel? Qui ne l'est pas? Ce sera, à l'avenir, de plus en plus difficile à discerner. | Sharon McCutcheon via Unsplash

Doit-on craindre la commercialisation des «deep fakes»?

Un nombre croissant de start-ups proposent des logiciels pour créer ces vidéos où réalité et mensonge se confondent: la confusion guette le futur.

L’entreprise Topaz Labs a mis au point Gigapixel AI, un logiciel de photographie fondé sur l’intelligence artificielle qui peut permettre un agrandissement de 600% d'une image, même lorsqu’elle est de très basse résolution. Une photo prise par un simple iPhone peut ainsi devenir une affiche de 2 mètres sans perdre en qualité.

Entre de mauvaises mains, un tel outil pourrait servir à la création de «deep fakes», ce qui n’a pas échappé à la direction de Topaz Labs, qui assortit la vente de son produit de précautions d’usage et la concentre sur le marché des photographes professionnels.

Emprunter sa voix

Autre logiciel de transformation du réel, Modulate s’intéresse aux trucages vocaux, en vous permettant d'emprunter celle de quelqu’un d’autre, notamment de célébrités et de responsables politiques. Une technologie qui devrait bouleverser le secteur des jeux vidéo dans lesquels il devient possible de prêter à son avatar la voix de la personnalité de son choix, tandis que celui-ci conservera votre manière de vous exprimer ou vos tics de langages. «Pourquoi parler comme un ado prépubère quand vous pouvez parler comme un perso d’Overwatch?» se demande, à juste titre, le journaliste Mark Wilson.

Pour éviter les risques de fraude, Modulate a introduit un système d’empreinte audio dans tous les enregistrements. Cela n’empêchera pas forcément les trucages malveillants, mais pourra toujours permettre de prouver l’innocence des victimes qui se seraient vues attribuer des propos controversés ou outrageants.

Meo, c'est moi (ou presque)

À partir de vidéos en 2D, la plateforme de la startup Meo peut convertir un visage en avatar 3D. Que vous soyez un dragon, un chaton ou que vous cherchiez à essayer un nouveau maquillage en ligne, l’avatar conserva vos micro-expressions telles que votre façon de sourire ou de plisser des yeux.

Afin de minimiser les risques d’utilisations malveillantes, il reste difficile de créer un modèle 3D à partir d’un visage autre que le sien. Meo a développé un système de score plutôt bluffant. D’un côté votre real score, qui évalue combien le modèle créé diffère de votre vrai visage: si par exemple vous vous contentez de raccourcir votre nez, votre score se rapprochera des 85% mais si vous vieillissez votre avatar de quarante ans, il ne sera plus que de 25%. De l’autre, un live score qui mesure si l’avatar a bien été crée depuis votre propre visage ou à partir d’un visage préenregistré.

L'exemple qui a rendu les «deepfakes» célèbres.

Si le directeur de Meo, Misha Leybovich, reconnaît que toutes les entreprises de la tech partent plutôt du principe que leurs produits ne seront pas utilisés à des fins malveillantes, il réaffirme toutefois la nécessité de bien prévoir et anticiper les risques afin de créer les meilleurs garde-fous possible.

En ce moment

Fraude fiscale aux États-Unis: «Faites ce que je dis, pas ce que je fais»

Biz

Fraude fiscale aux États-Unis: «Faites ce que je dis, pas ce que je fais»

HSBC vient d’être pénalisée de 172 millions d'euros par les États-Unis –un pays plus tendre avec ses propres États.

Environ 45 millions d'euros du denier de Saint-Pierre servirait à équilibrer le budget du Vatican

Biz

Environ 45 millions d'euros du denier de Saint-Pierre servirait à équilibrer le budget du Vatican

Seuls 10% des dons recueillis reviendraient à des causes charitables, selon le Wall Street Journal.

The Pirate Bay tente une percée dans le monde du streaming

Et Cætera

The Pirate Bay tente une percée dans le monde du streaming

Le site de téléchargement illégal serait en train de mettre au point cette nouvelle option.