Comment faire une fausse vidéo profonde : un guide + des avertissements

Par Richard Goodwin •  Actualisé: 09/01/21 • 7 min de lecture

Les fausses vidéos profondes deviennent de plus en plus populaires en ligne. Beaucoup de gens pensent qu'ils sont dangereux. Mais comment faire une fausse vidéo profonde ?


Avant l'IA, nous avions Photoshop. Et pendant la majeure partie des années 2000 et 2010, c'est ainsi que les trucs faux étaient fabriqués. Vous avez modifié des photos pour qu'elles ressemblent à autre chose. Et selon vos compétences Photoshop, ils étaient soit vraiment impressionnants, soit nuls.

Avec l'essor de l'IA, un nouvel outil est désormais disponible pour les personnes souhaitant créer de fausses vidéos. C'est ce qu'on appelle le « deep fake » et vous en avez probablement déjà vu un ou deux - un très populaire est un Tom Cruise profond faux.

D'autres incluent Jon Snow s'excusant pour le Game of Thrones se terminant, et Barack Obama qualifiant Trump de "Dipsh*t".

La VASTE majorité des fausses vidéos profondes sont NSFW dans la nature. Selon un rapport de Deeptrace, plus de 96% de toutes les fausses vidéos profondes sont de nature pornographique – et le nombre a doublé au cours des neuf premiers mois de 2021. 99% des vidéos étaient également des célébrités féminines.

L'histoire de Deep Fake

Comment faire une fausse vidéo profonde
  • Enregistrer

Hollywood repousse les limites de ce qui est possible avec les effets visuels depuis des décennies. Des innovations récentes telles que le vieillissement, qui a été largement utilisé sur The Irishman, rajeunissant Robert De Niro, Al Pacino et Joe Pesci de plusieurs décennies, ne sont qu'un exemple de la façon dont la réalité peut être déformée à l'aide de la technologie informatique.

Hollywood n'est pas derrière la surabondance actuelle de fausses vidéos profondes que vous trouverez en ligne ; au lieu de cela, ce sont des geeks avertis en informatique avec, sans doute, beaucoup trop de temps libre. Les contrefaçons profondes - telles que nous les connaissons - sont nées en 2017 et initialement publiées sur Reddit par un utilisateur appelé Deep Fake.

Ces fausses vidéos profondes étaient, une fois de plus, de nature pornographique et mettaient en vedette des célébrités féminines comme Gal Gadot, Taylor Swift et Scarlett Johansson. C'était ces initiales Vidéos NSFW qui a d'abord apporté le concept de deep fake aux masses. À partir de là, de profondes fausses vidéos ont grandi et grandi, couvrant tout, des parodies à la satire et littéralement tout le reste entre les deux.

Comment faire une fausse vidéo profonde

Les fausses vidéos «professionnelles» les plus populaires en ligne sont le produit de centaines d'heures de travail et d'une énorme puissance de calcul. La plupart des fausses vidéos profondes - du moins les plus convaincantes - sont réalisées de l'une des deux manières suivantes :

Utiliser un encodeur AI

Avec cette méthode, vous alimentez des milliers de photos de deux visages dans un algorithme d'IA appelé encodeur. L'encodeur trouve alors des similitudes entre les deux, des choses qui correspondent efficacement. Il commence alors à compresser les images.

C'est alors que le deuxième algorithme entre en jeu ; cela s'appelle un encodeur. Et le travail de l'encodeur est de récupérer les visages à partir des fichiers compressés. Mais lorsque vous faites des fakes profonds, vous utilisez deux encodeurs et vous en obtenez un pour récupérer une face et l'autre encodeur pour récupérer l'autre.

La magie se produit lorsque vous insérez le mauvais visage dans le mauvais encodeur, donc FACE A est introduit dans l'encodeur B, et FACE B est introduit dans l'encodeur A. L'encodeur reconstruira alors FACE A avec les expressions et les orientations de FACE B. Cela a à faire sur chaque image de la vidéo, cependant, il est donc incroyablement gourmand en CPU.

Utiliser un réseau accusatoire général (GAN)

Faire des contrefaçons profondes à l'aide d'un GAN consiste à opposer deux algorithmes d'IA, d'où le terme d'Adversarial. Dans cette méthode, une IA, appelée générateur, est alimentée en bruit aléatoire qui est transformé en image. Cette « image » : totalement aléatoire au départ, s'ajoute ensuite à un flux d'images réelles – une célébrité dans ce contexte – que l'on appelle le discriminateur.

Initialement, le flux du discriminateur ne ressemblera en rien à la célébrité. Ce sera un gâchis, ayant l'air aléatoire et différent de tout ce qui est humain. Mais après quelques centaines de cycles, l'IA commence à opérer sa magie, et finalement, vous aurez une fausse vidéo profonde crédible et réaliste. Encore une fois, cette méthode est très gourmande en CPU et nécessite beaucoup de connaissances spécialisées et de matériel.

Est-il difficile de faire de fausses vidéos profondes ?

Pour faire de très bonnes vidéos deep fake, oui, c'est incroyablement difficile. Vous avez besoin d'un ordinateur puissant, d'un logiciel complexe, d'une connaissance de l'utilisation de l'IA et de l'apprentissage automatique et de compétences en édition. Toutes ces choses sont nécessaires dans une mesure égale pour faire une fausse vidéo profonde et crédible.

Les meilleures vidéos Deep Fake jamais réalisées

Comme pour la plupart des choses, cependant, il existe une application que vous pouvez exécuter sur votre téléphone pour créer de fausses vidéos profondes – il s'appelle Zao. Avec l'application Zao, vous avez un tas de visages de célébrités préinstallés. Une fois l'application installée, vous pouvez échanger votre visage contre l'une des célébrités.

Vous pouvez même demander à des entreprises de créer de fausses vidéos profondes pour vous également. Ces entreprises ont accès aux meilleurs matériels et logiciels. Mais ce n'est ni bon marché ni conseillé – les fausses vidéos profondes rendent les autorités très nerveuses. Et la raison est simple: ils déforment la réalité et peuvent provoquer la panique, l'hystérie de masse et être utilisés pour diffuser de fausses nouvelles.

Comment repérer un faux profond

Si vous avez vu L'Irlandais, vous comprendrez que même si De Niro et Pacino ont l'air assez réalistes dans le film en tant qu'hommes plus jeunes, il y a toujours quelque chose de « faux » et « anormal » sur leurs visages. Ils ont juste l'air un peu, enfin… synthétiques et/ou artificiels. Et les yeux ne semblent jamais justes.

Et avec de fausses vidéos profondes, c'est à peu près la même chose ; ils ont l'air assez crédibles dans certains cas, mais ils ont tous un air d'irréalité indéniable à leur sujet - ils n'ont tout simplement pas l'air à 100%. C'est le moyen le plus simple de repérer un faux profond.

Est-ce que ça a l'air réel ? Cela vous donne-t-il un sentiment de malaise ? L'esprit humain est incroyablement perspicace, il peut immédiatement repérer les « erreurs » ou les choses qui ne sont pas tout à fait correctes. Cela pourrait être la façon dont il bouge ou les yeux, ou des artefacts à peine discernables.

Quoi qu'il en soit, les contrefaçons profondes ont généralement beaucoup de révélations. Lorsque les deep fakes sont arrivés sur les lieux, il était très facile de les repérer. Ils n'ont pas cligné des yeux, car les images ont été extraites d'images fixes, mais à peine cela a-t-il été noté, des faux profonds avec des yeux clignotants sont apparus. Qu'est-ce que ça veut dire? Simple: les contrefaçons profondes deviendront de plus en plus difficiles à repérer.

Des entreprises technologiques comme Facebook et Microsoft travaillent désormais activement sur des systèmes d'IA capables de détecter instantanément les contrefaçons profondes dès leur publication. Une fois ces nouveaux systèmes d'IA déployés, il deviendra de plus en plus difficile pour les falsificateurs profonds de publier du contenu en ligne.

Cela tuera-t-il complètement les contrefaçons profondes? Non, mais cela rendra la vie plus difficile pour ceux qui utilisent des contrefaçons profondes à des fins néfastes comme la diffusion de fausses informations et/ou la diffamation de célébrités.

Avec des contrefaçons profondes, le génie est bel et bien sorti de la bouteille. Les entreprises technologiques peuvent faire tout ce qu'elles veulent pour essayer de les bloquer, mais quand Hollywood et les partis politiques utilisent la technologie, il y aura toujours des imitateurs et ceux qui utiliseront une technologie contrefaite pour de mauvaises raisons.

La réalité n'a jamais été aussi synthétique, comme l'a dit un chercheur, et les contrefaçons profondes ne feront que devenir de plus en plus courantes. Ils ne vont pas disparaître, en gros, alors autant s'y habituer.

Comment faire une fausse vidéo profonde
  • Enregistrer

Richard Goodwin

Richard Goodwin travaille comme journaliste technique depuis plus de 10 ans. Il est l'éditeur et propriétaire de KnowYourMobile.

Partage via
Copier le lien