O que "Deep Fake" realmente significa? Vamos descobrir…



O termo deep fake tem surgido em toda a web – assim como nas notícias – recentemente, mas o que exatamente é isso? Vamos dar uma olhada…


A simulação da realidade por computadores tem melhorado ao longo do tempo. Em vez dos cenários e adereços genuínos que eram historicamente frequentes, o cinema moderno, por exemplo, depende amplamente de cenários, cenários e pessoas gerados por computador, e na maioria das vezes essas sequências são quase indistinguíveis da realidade.

O que "Deep Fake" realmente significa? Vamos descobrir…
  • Salvar

Tendo passado muito tempo recentemente nos noticiários por várias razões – boas e ruins – as deep fakes são o avanço mais recente nas imagens de computador, produzidas quando a inteligência artificial (IA) é treinada para trocar a aparência de uma pessoa por outra em um vídeo gravado.

Este artigo fornecerá todos os detalhes de que você precisa para se atualizar se não tiver certeza sobre o que é a tecnologia deep fake ou os aplicativos que ela pode servir quando combinada com a tecnologia atual.

O que é uma falsificação profunda?

Deep fakes são vídeos falsos produzidos por computadores. Eles produzem conteúdo original juntando imagens para mostrar coisas que nunca aconteceram, incluindo comentários ou ações.

Os resultados também podem ser bastante persuasivos e são distintos de outras formas de informações enganosas no sentido de que são extremamente difíceis de identificar.

Deep fakes são materiais que geralmente assumem a forma de vídeo, mas também podem incluir áudio. O aprendizado profundo é usado para construí-los, modificá-los ou sintetizá-los e, como resultado, engana os espectadores ou ouvintes a aceitar um evento ou mensagem falsa.

Como funcionam as falsificações profundas?

Dois algoritmos de IA que competem entre si, o gerador e o discriminador, são usados ​​para produzir conteúdo falso profundo. O discriminador tem a tarefa de determinar se o material multimídia falso produzido pelo gerador é genuíno ou fabricado.

Uma rede adversarial generativa é o que é criado quando o gerador e o discriminador trabalham juntos (GAN). O discriminador ganha um conhecimento inestimável sobre como aprimorar a próxima falsificação profunda cada vez que reconhece corretamente o material como sendo falso.

Encontrar a saída pretendida e produzir um conjunto de dados de treinamento para o gerador são as etapas iniciais na configuração de um GAN. Clipes de vídeo podem ser fornecidos ao discriminador após o gerador começar a produzir saída em um nível aceitável.

O discriminador torna-se mais hábil em reconhecer clipes de vídeo falsos como o gerador faz. O gerador, por outro lado, melhora a produção de vídeos falsos, assim como o discriminador ao reconhecê-los.

Para que podem ser usadas as falsificações profundas?

O conteúdo falso profundo oferece uma gama diversificada de usos e geralmente é associado a conteúdo adulto e fraudulento. Apesar dessa associação, o conteúdo deep fake também atende a uma variedade de objetivos benéficos e legais.

A seguir, uma pequena lista das muitas vantagens que a sociedade pode colher com o uso da tecnologia deep fake:

Arte

O princípio principal de reflexão, alongamento, torção e apropriação de eventos genuínos na comédia ou na paródia pode ser realizado com precisão com a ajuda de falsificações profundas. Possibilidades extraordinárias na indústria do entretenimento podem resultar de mídia sintética gerada por IA, e já estamos vendo produtores independentes em YouTube fazer uso desse potencial em números significativos.

Outro uso excelente para a fala sintética é a narração de audiolivros. A versão em áudio do livro do autor pode ser produzida usando a fonte de voz sintética do autor. Para aumentar o público de seu material, as empresas podem utilizar locuções sintéticas realizadas pela mesma pessoa em outros idiomas.

Imagens e imagens geradas por IA têm o potencial de acelerar o desenvolvimento de videogames. Um ambiente de jogo híbrido desenvolvido usando deep fakes foi mostrado pela Nvidia, e a empresa está se preparando para lançá-lo em breve.

Educação

A tecnologia deep fake abre uma ampla gama de oportunidades na área de ensino. Por muito tempo, escolas e instrutores usaram áudio, vídeo e outras formas de mídia em sala de aula. Um instrutor pode usar deep fakes para dar lições convincentes que vão além do escopo das formas convencionais de mídia e visual.

Para criar uma sala de aula mais envolvente e dinâmica, a mídia sintética gerada por inteligência artificial pode reviver personalidades históricas. Uma locução e filme de um personagem histórico ou um filme sintético de encenações podem ter mais efeito, conexão e eficácia como ferramenta de ensino.

Expressão

Em regimes autoritários e repressivos, a mídia artificial pode ajudar jornalistas e defensores de direitos humanos a manter seu anonimato. Para jornalistas cidadãos e ativistas, usar a tecnologia para relatar crimes em mídias convencionais ou sociais pode ser imensamente poderoso. Para proteger sua privacidade, vozes e rostos podem ser tornados anônimos usando tecnologia deep fake.

A tecnologia Deep Fake é perigosa?

Embora o público geralmente não tenha uma boa compreensão das falsificações profundas, muitas pessoas estão começando a temer o conceito. É difícil acreditar em qualquer coisa que você vê hoje em dia.

As falsificações profundas agora estão tornando mais difícil acreditar no que você vê. Se alguma vez esperamos diminuir os danos que as falsificações profundas podem causar, as pessoas devem se informar sobre a realidade que as cerca.

Como afirmado anteriormente, a tecnologia deep fake é frequentemente usada para criar material adulto. Normalmente, esse conteúdo adulto apresentará o rosto de uma celebridade que, obviamente, não deu permissão para que seja usado, o que pode ser devastador para a pessoa envolvida.

A capacidade de usar esses filmes para chantagear as vítimas e a criação de “sockpuppets” são dois problemas mais sérios dos deepfakes. Se existirem marionetes, os criadores podem fornecer qualquer quantidade de provas em vídeo, mesmo que não existam. Então, sem enfrentar repercussões, os abusadores da internet podem usar esses fantoches para causar estragos online.

Um exemplo básico seria se um fraudador criasse um vídeo usando sua imagem e o enviasse para seus avós pedindo dinheiro para tirá-lo de uma situação. Seus avós enviarão dinheiro para o fraudador acreditando que estão ajudando você.

  • Salvar

Jake McEvoy

Jake é redator profissional, jornalista e fã de tecnologia de longa data. Ele cobre notícias e guias do usuário para KnowYourMobile.
Compartilhar via
Link de cópia
Distribuído por Snap social