Que signifie réellement "Deep Fake" ? Découvrons-le…

Le terme deep fake a fait son apparition partout sur le Web – ainsi que dans les actualités – récemment, mais qu'est-ce que c'est exactement ? Nous allons jeter un coup d'oeil…
La simulation de la réalité par les ordinateurs s'est améliorée au fil du temps. Au lieu des décors et des accessoires authentiques qui étaient historiquement fréquents, le film moderne, par exemple, dépend largement des décors, des décors et des personnes générés par ordinateur, et la plupart du temps, ces séquences sont presque impossibles à distinguer de la réalité.



Ayant récemment passé beaucoup de temps sur les nouvelles pour un certain nombre de raisons - bonnes et mauvaises - les contrefaçons profondes sont l'avancée la plus récente en matière d'images informatiques, produites lorsque l'intelligence artificielle (IA) est formée pour échanger l'apparence d'une personne contre une autre dans un vidéo enregistrée.
Cet article fournira tous les détails dont vous avez besoin pour rattraper votre retard si vous n'êtes pas sûr de ce qu'est une technologie de contrefaçon profonde ou des applications qu'elle peut servir lorsqu'elle est associée à la technologie d'aujourd'hui.
Qu'est-ce qu'un Deep Fake ?
Les deep fakes sont de fausses vidéos produites par des ordinateurs. Ils produisent un contenu original en assemblant des images pour montrer des choses qui ne se sont jamais produites, y compris des remarques ou des actions.
Les résultats peuvent également être assez convaincants et se distinguer des autres formes d'informations trompeuses en ce sens qu'ils sont extrêmement difficiles à identifier.
Les contrefaçons profondes sont du matériel qui prend souvent la forme de vidéo, mais elles peuvent également inclure de l'audio. L'apprentissage en profondeur est utilisé pour les construire, les modifier ou les synthétiser et, par conséquent, il incite les téléspectateurs ou les auditeurs à accepter un faux événement ou message.
Comment fonctionnent les Deep Fakes ?
Deux algorithmes d'IA qui sont en concurrence l'un avec l'autre, le générateur et le discriminateur, sont utilisés pour produire du faux contenu profond. Le discriminateur est chargé de déterminer si le faux matériel multimédia produit par le générateur est authentique ou fabriqué.
Un réseau contradictoire génératif est ce qui est créé lorsque le générateur et le discriminateur travaillent ensemble (GAN). Le discriminateur acquiert des connaissances inestimables sur la façon d'améliorer le prochain deep fake chaque fois qu'il reconnaît correctement le matériel comme étant faux.
Trouver la sortie prévue et produire un ensemble de données de formation pour le générateur sont les premières étapes de la configuration d'un GAN. Des clips vidéo peuvent être fournis au discriminateur après que le générateur a commencé à produire une sortie à un niveau acceptable.
Le discriminateur devient plus apte à reconnaître les faux clips vidéo que le fait le générateur. Le générateur, d'autre part, améliore la production de fausses vidéos comme le fait le discriminateur pour les reconnaître.
À quoi peuvent servir les Deep Fakes ?
Le contenu Deep Fake offre une gamme variée d'utilisations et est souvent associé à du contenu pour adultes et frauduleux. Malgré cette association, le contenu contrefait profond sert également une variété d'objectifs bénéfiques et licites.
Voici une courte liste des nombreux avantages que la société peut tirer de l'utilisation de la technologie deep fake :
Gentil
Le principe principal de réflexion, d'étirement, de torsion et d'appropriation d'événements authentiques dans la comédie ou la parodie peut être réalisé avec précision à l'aide de contrefaçons profondes. Des possibilités extraordinaires dans l'industrie du divertissement peuvent résulter des médias synthétiques générés par l'IA, et nous voyons déjà des producteurs indépendants sur YouTube exploitent ce potentiel en grand nombre.
Une autre excellente utilisation de la parole synthétique est la narration de livres audio. La version audio du livre de l'auteur peut être produite en utilisant la police vocale synthétique de l'auteur. Pour augmenter l'audience de leur matériel, les entreprises peuvent utiliser des voix off synthétiques réalisées par la même personne dans d'autres langues.
Les images et les images générées par l'IA ont le potentiel d'accélérer le développement des jeux vidéo. Un environnement de jeu hybride développé à l'aide de deep fakes a été présenté par Nvidia, et la société s'apprête à le publier prochainement.
Éducation
La technologie Deep Fake ouvre un large éventail de opportunités dans le domaine de l'enseignement. Pendant longtemps, les écoles et les instructeurs ont utilisé l'audio, la vidéo et d'autres formes de médias en classe. Un instructeur peut utiliser des contrefaçons profondes pour donner des leçons convaincantes qui vont au-delà de la portée des formes visuelles et médiatiques conventionnelles.
Afin de créer une salle de classe plus engageante et dynamique, les médias synthétiques générés par l'intelligence artificielle peuvent faire revivre des personnalités historiques. Une voix off et un film d'un personnage historique ou un film synthétique de reconstitutions peuvent avoir plus d'effet, de connexion et d'efficacité en tant qu'outil pédagogique.
Expression
Dans les régimes autoritaires et répressifs, les médias artificiels peuvent aider les journalistes et les défenseurs des droits humains à préserver leur anonymat. Pour les journalistes citoyens et les militants, l'utilisation de la technologie pour rendre compte des crimes sur les médias conventionnels ou sociaux peut être extrêmement puissante. Pour protéger leur vie privée, les voix et les visages peuvent être rendus anonymes à l'aide d'une technologie de contrefaçon profonde.
La technologie Deep Fake est-elle dangereuse ?
Bien que le public n'ait généralement pas une bonne compréhension des deep fakes, de nombreuses personnes commencent à redouter le concept. Il est difficile de croire tout ce que vous voyez ces jours-ci.
Les contrefaçons profondes rendent désormais plus difficile de croire ce que vous voyez. Si jamais nous espérons atténuer les dommages que peuvent causer les deep fakes, les gens doivent être informés de la réalité qui les entoure.
Comme indiqué précédemment, la technologie de contrefaçon profonde est souvent utilisée pour créer du matériel pour adultes. Habituellement, ce contenu pour adultes mettra en vedette le visage d'une célébrité qui, bien sûr, n'a pas autorisé son utilisation, ce qui peut être dévastateur pour la personne concernée.
La capacité d'utiliser ces films pour faire chanter les victimes et la création de "sockpuppets" sont deux problèmes plus graves avec les deepfakes. Si des marionnettes existent, les créateurs peuvent en fournir n'importe quelle preuve vidéo, même si ce n'est pas le cas. Ensuite, sans faire face à aucune répercussion, les abus d'Internet peuvent utiliser ces marionnettes pour faire des ravages en ligne.
Un exemple de base serait si un fraudeur créait une vidéo en utilisant votre image et l'envoyait à vos grands-parents en demandant de l'argent pour vous sortir d'une situation. Vos grands-parents enverront alors de l'argent au fraudeur en croyant qu'il vous aide.