Temos a tendência de confiar no conteúdo das gravações de vídeo e áudio. Mas com a IA, o rosto ou a voz de qualquer pessoa podem ser recriados com extrema precisão. O produto é uma falsificação profunda, uma representação que pode ser usada para memes, desinformação ou pornografia.
Uma olhada nos deepfakes de Nicholas Cage ou no PSA deepfake de Jordan Peele deixa claro que estamos lidando com uma tecnologia nova e estranha. Esses exemplos, embora relativamente inofensivos, levantam questões sobre o futuro. Podemos confiar em vídeo e áudio? Podemos responsabilizar as pessoas por suas ações na tela? Estamos prontos para deepfakes?
Índice
Deepfakes são novos, fáceis de fazer e estão crescendo rapidamente
A tecnologia Deepfake tem apenas alguns anos, mas já explodiu em algo que é ao mesmo tempo cativante e perturbador. O termo “deepfake”, que foi cunhado em um tópico do Reddit em 2017, é usado para descrever a recriação da aparência ou voz de um humano por meio da inteligência artificial. Surpreendentemente, quase qualquer pessoa pode criar um deepfake com um PC ruim, algum software e algumas horas de trabalho.
Como acontece com qualquer nova tecnologia, há alguma confusão em torno dos deepfakes. O vídeo do “Pelosi bêbado” é um excelente exemplo dessa confusão. Deepfakes são construídos por IA e são feitos para se passar por pessoas. O vídeo “dunk Pelosi”, que já foi referido como deepfake, é na verdade apenas um vídeo de Nancy Pelosi que foi desacelerado e corrigido para adicionar um efeito de fala arrastada.
Isso também é o que torna deepfakery diferente, digamos, da CGI Carrie Fisher em Star Wars: Rogue One. Enquanto a Disney gastou muito dinheiro estudando o rosto de Carrie Fisher e recriando-o à mão, um nerd com algum software falso pode fazer o mesmo trabalho gratuitamente em um único dia. A IA torna o trabalho incrivelmente simples, barato e convincente.
Como fazer um Deepfake
Como um aluno em uma sala de aula, a IA precisa “aprender” como realizar sua tarefa pretendida. Isso é feito por meio de um processo de tentativa e erro de força bruta, geralmente conhecido como aprendizado de máquina ou aprendizado profundo . Uma IA projetada para completar o primeiro nível de Super Mario Bros, por exemplo, vai jogar o jogo repetidamente até descobrir a melhor maneira de vencer. A pessoa que projeta a IA precisa fornecer alguns dados para dar início às coisas, junto com algumas “regras” quando as coisas dão errado ao longo do caminho. Além disso, a IA faz todo o trabalho.
O mesmo se aplica à recreação facial falsa profunda. Mas, é claro, recriar rostos não é a mesma coisa que vencer um videogame. Se fôssemos criar um deepfake de Nicholas Cage apresentando o programa de Wendy Williams, eis o que precisaríamos:
- Um vídeo de destino : a partir de agora, deepfakes funcionam melhor com vídeos de destino claros e limpos. É por isso que alguns dos deepfakes mais convincentes são de políticos; eles tendem a ficar parados em um pódio sob iluminação consistente. Então, só precisamos de um vídeo de Wendy sentada quieta e conversando.
- Dois conjuntos de dados : para que os movimentos da boca e da cabeça pareçam precisos, precisamos de um conjunto de dados do rosto de Wendy Williams e um conjunto de dados do rosto de Nicholas Cage. Se Wendy olhar para a direita, precisamos de uma foto de Nicholas Cage olhando para a direita. Se Wendy abrir a boca, precisamos de uma imagem de Cage abrindo a boca.
Depois disso, deixamos a IA fazer seu trabalho. Ele tenta criar o deepfake repetidamente, aprendendo com seus erros ao longo do caminho. Simples, certo? Bem, um vídeo do rosto de Cage no corpo de Wendy William não vai enganar ninguém, então como podemos ir um pouco mais longe?
Os deepfakes mais convincentes (e potencialmente prejudiciais) são personificações completas. O popular falso Obama, de Jordan Peele, é um bom exemplo. Então, vamos fazer uma dessas personificações. Vamos criar uma falsificação profunda de Mark Zuckerberg declarando seu ódio às formigas – isso parece convincente, certo? Aqui está o que precisamos:
- Um vídeo de destino : pode ser um vídeo do próprio Zuckerberg ou de um ator que se pareça com Zuckerberg. Se nosso vídeo de destino for de um ator, simplesmente colaremos o rosto de Zuckerberg no ator.
- Dados da foto : precisamos de fotos de Zuckerberg falando, piscando e movendo a cabeça. Se estivermos sobrepondo seu rosto a um ator, também precisaremos de um conjunto de dados dos movimentos faciais do ator.
- A voz do Zuck : Nosso deepfake precisa soar como o Zuck. Podemos fazer isso gravando um imitador ou recriando a voz de Zuckerberg com IA. Para recriar sua voz, simplesmente executamos amostras de áudio de Zuckerberg por meio de uma IA como o Lyrebird e, em seguida, digitamos o que queremos que ele diga.
- Uma IA com sincronização labial : como estamos adicionando a voz do falso Zuckerberg ao nosso vídeo, uma IA com sincronização labial precisa garantir que os movimentos faciais falsos profundos correspondam ao que está sendo dito.
Não estamos tentando minimizar o trabalho e a experiência necessários à falsificação profunda. Mas quando comparado ao trabalho CGI de um milhão de dólares que trouxe Audrey Hepburn de volta dos mortos , os deepfakes são um passeio no parque. E embora ainda não tenhamos caído por um deepfake político ou de celebridades, mesmo os deepfakes mais porcarias e óbvios causaram danos reais.
Deepfakes já causaram danos no mundo real
No momento, a maioria dos deepfakes são apenas memes de Nicholas Cage, anúncios de serviço público e pornografia assustadora com celebridades. Esses canais são relativamente inofensivos e fáceis de identificar, mas, em alguns casos, os deepfakes são usados com sucesso para espalhar informações incorretas e prejudicar a vida de outras pessoas.
Na Índia, deepfakes são empregados por nacionalistas hindus para desacreditar e incitar a violência contra jornalistas. Em 2018, uma jornalista chamada Rana Ayyub foi vítima dessa campanha de desinformação, que incluía um vídeo falso de seu rosto sobreposto a um vídeo pornográfico. Isso levou a outras formas de assédio online e à ameaça de violência física .
Nos Estados Unidos, a tecnologia deepfake é frequentemente usada para criar pornografia de vingança não consensual. Conforme relatado por Vice , muitos usuários no agora banido fórum deepfakes do Reddit perguntaram como criar deepfakes de ex-namoradas, paixões, amigos e colegas de classe (sim, pornografia infantil). O problema é tão grande que a Virgínia agora proíbe todas as formas de pornografia não consensual, incluindo deepfakes .
À medida que os deepfakes se tornam cada vez mais convincentes, a tecnologia sem dúvida será usada para propósitos mais duvidosos. Mas há uma chance de estarmos exagerando, certo? Não é a etapa mais natural após o Photoshop?
Deepfakes são uma extensão natural de imagens manipuladas
Mesmo em seu nível mais básico, os deepfakes são perturbadores. Confiamos nas gravações de vídeo e áudio para capturar as palavras e ações das pessoas sem qualquer preconceito ou desinformação. Mas, de certa forma, a ameaça de deepfakes não é nova. Ele existe desde que começamos a usar a fotografia.
Veja, por exemplo, as poucas fotos que existem de Abraham Lincoln. A maioria dessas fotografias (incluindo os retratos na moeda de um centavo e na nota de cinco dólares) foram manipuladas por um fotógrafo chamado Mathew Brady para melhorar a aparência esguia de Lincoln (especificamente seu pescoço fino). Alguns desses retratos foram editados de uma maneira que lembra falsificações profundas, com a cabeça de Lincoln sobreposta aos corpos de homens “fortes” como Calhoun (o exemplo abaixo é uma gravura, não uma fotografia).
Isso soa como uma publicidade bizarra, mas durante a década de 1860, a fotografia carregava uma certa quantidade de “verdade” que agora reservamos para gravações de vídeo e áudio. Era considerado o pólo oposto da arte – uma ciência . Essas fotos foram adulteradas para desacreditar intencionalmente os jornais que criticaram Lincoln por seu corpo fraco. No final, funcionou. Os americanos ficaram impressionados com a figura de Lincoln, e o próprio Lincoln afirmou que as fotos de Brady ” me tornaram presidente “.
A conexão entre deepfakes e edição de fotos do século 19 é estranhamente reconfortante. Ele nos oferece a narrativa de que, embora essa tecnologia tenha consequências graves, não é algo que está totalmente fora de nosso controle. Mas, infelizmente, essa narrativa pode não durar muito.
Não seremos capazes de detectar falsas profundas para sempre
Estamos acostumados a detectar imagens e vídeos falsos com nossos olhos. É fácil olhar para um retrato de família de Joseph Goebbels e dizer : “há algo estranho com aquele cara atrás”. Uma olhada nas fotos de propaganda norte-coreana torna evidente que, sem os tutoriais do YouTube, as pessoas são péssimas no Photoshop. E por mais impressionantes que sejam os deepfakes, ainda é possível identificá-los à primeira vista.
Mas não seremos capazes de detectar deepfakes por muito mais tempo. A cada ano, deepfakes se tornam mais convincentes e ainda mais fáceis de criar. Você pode fazer um deepfake com uma única foto e pode usar IA como o Lyrebird para clonar vozes em menos de um minuto. Deepfakes de alta tecnologia que mesclam áudio e vídeo falsos são incrivelmente convincentes, mesmo quando feitos para imitar figuras reconhecíveis como Mark Zuckerberg .
No futuro, podemos usar IA, algoritmos e tecnologia de blockchain para lutar contra deepfakes. Teoricamente, a IA poderia escanear vídeos em busca de “ impressões digitais ” deepfake , e a tecnologia de blockchain instalada em sistemas operacionais poderia sinalizar usuários ou arquivos que tocaram em software deepfake.
Se esses métodos anti-deepfake parecem idiotas para você, junte-se ao clube. Mesmo os pesquisadores de IA duvidam que haja uma solução verdadeira para os deepfakes. Conforme o software de detecção fica melhor, o mesmo acontece com os deepfakes. Eventualmente, chegaremos a um ponto em que os deepfakes serão impossíveis de detectar e teremos muito mais com que nos preocupar do que pornografia falsa com celebridades e vídeos de Nicolas Cage.