A internet sempre esteve repleta de desinformação, mas pelo menos não foi difícil separar os fatos da ficção com um pouco de esforço. A ascensão de ferramentas sofisticadas de Inteligência Artificial mudou isso para sempre, tornando o ceticismo mais importante do que nunca.
Índice
Deepfakes
A palavra “ deepfake ” inclui toda uma família de tecnologias que compartilham o uso de redes neurais de aprendizagem profunda para atingir seus objetivos individuais. Deepfakes chamaram a atenção do público quando substituir o rosto de alguém em um vídeo se tornou fácil. Assim, alguém poderia substituir o rosto de um ator pelo do presidente dos EUA ou substituir apenas a boca do presidente e fazê-lo dizer coisas que nunca aconteceram.
Por um tempo, um humano teria que personificar a voz, mas a tecnologia deepfake também pode replicar vozes. A tecnologia Deepfake agora pode ser usada em tempo real, o que abre a possibilidade de um hacker ou outro ator de má-fé se passar por alguém em uma videochamada ou transmissão em tempo real. Qualquer “evidência” de vídeo que você vê na internet deve ser tratada como um potencial deepfake até que seja verificada.
Geração de imagens de IA
Os geradores de imagens de IA causaram agitação na comunidade artística por todas as implicações que têm para aqueles que ganham a vida como artistas e se os artistas comerciais correm o risco de serem substituídos. O que não está causando tanto debate é o potencial de desinformação graças a esta tecnologia.
Os sistemas de geração de imagens de IA podem produzir imagens fotorrealistas completas usando prompts baseados em texto, imagens de exemplo e imagens originais para fins de manipulação. Por exemplo, você pode apagar certas partes de uma imagem original e então usar uma técnica conhecida como “pintura” para que a IA substitua a parte apagada da imagem por qualquer coisa que você desejar. É fácil gerar imagens em seu próprio PC com software como Stable Diffusion .
Se você quiser fazer parecer que alguém está segurando uma arma de verdade em vez de uma de brinquedo, isso é trivial para a IA. Quer criar uma foto escandalosa de uma celebridade? A geração de imagens de IA (e deepfakes) pode ser abusada exatamente desta forma. Você pode até gerar rostos fotorrealistas de pessoas que não existem .
Geração de vídeo de IA
A geração de imagens de IA e deepfakes são apenas o começo. A Meta (empresa controladora do Facebook) já demonstrou a geração de vídeo por IA e, embora apenas alguns segundos de filmagem possam ser gerados ao longo do tempo, esperamos que a duração do vídeo e a quantidade de controle que os usuários terão sobre o que está no vídeo sejam expandir exponencialmente.
Por enquanto, é perfeitamente possível simplesmente fazer com que uma IA gere um clipe granulado de Pé Grande ou Nessie sem que ninguém se fantasiasse ou voasse para a Escócia com uma câmera e um pequeno modelo de madeira. O vídeo sempre foi fácil de manipular antes que a geração de vídeo por IA fosse possível. No entanto, agora você não pode confiar em nenhum vídeo que vê.
Bots de bate-papo com IA
Quando você entra em um bate-papo com o suporte ao cliente, você está falando com uma máquina e não com um ser humano. A tecnologia de IA (e os métodos de programação tradicionais) são bons o suficiente para que as máquinas mantenham conversas sofisticadas conosco, especialmente se for em um domínio restrito, como obter uma substituição em garantia ou se você tiver uma dúvida técnica sobre algo.
O reconhecimento e a síntese de voz também estão em um estado avançado, e se você assistir a demonstrações de sistemas como o Google Duplex , terá uma noção real de onde estamos indo com isso. Depois de libertar bots alimentados por IA nas plataformas de redes sociais, o potencial para campanhas concertadas de desinformação com consequências no mundo real torna-se elevado.
Para ser justo, plataformas de mídia social como o Twitter sempre tiveram problemas com bots, mas em geral esses bots não eram sofisticados. Agora é concebível que você possa criar uma pessoa inventada nas redes sociais que enganará qualquer um. Eles poderiam até usar outras tecnologias nesta lista para criar imagens, áudio e vídeo para “provar” que são reais.
Escritores de IA
Recorremos à Internet em busca de informações para aprender sobre o mundo e saber o que está acontecendo ao redor do globo. Os escritores humanos (somos nós!) São uma fonte importante dessas informações, mas os escritores de IA estão se tornando bons o suficiente para produzir trabalhos de qualidade semelhante.
Tal como acontece com os artistas de IA, há um debate sobre se esse software substituirá as pessoas que ganham a vida escrevendo, mas novamente há um ângulo de desinformação que é amplamente ignorado.
Se você puder criar um rosto original, criar um bot de persona de mídia social, criar vídeo e voz apresentando sua pessoa inventada, será possível criar uma publicação inteira da noite para o dia. Sites de “notícias” duvidosos já são uma fonte de desinformação convincente para muitos usuários da Internet, mas tecnologias de IA como essa podem agravar esse problema.
O problema da detecção
Estas tecnologias não são apenas um problema porque abrem novas vias para abusos, mas também porque pode ser difícil detectar a falsificação. Os deepfakes já estão chegando a um ponto em que até mesmo os especialistas têm dificuldade em dizer o que é falso e o que não é. É por isso que combatem fogo com fogo e usam tecnologia de IA para detectar imagens geradas ou manipuladas , procurando sinais reveladores invisíveis ao olho humano.
Isso funcionará por um tempo, mas também poderá criar uma corrida armamentista involuntária de IA, que poderia, ironicamente, levar tecnologias que criam conteúdo falso a níveis mais elevados de fidelidade. A única estratégia sensata para nós, como seres humanos, é assumir que tudo o que vemos na Internet, a menos que seja de uma fonte verificada com processos e políticas transparentes, deve ser tratado como falso até prova em contrário. (Embora duvidemos que seu tio teórico da conspiração acredite que os vídeos de OVNIs que ele continua enviando para você não são reais.)