A Apple supostamente fará uma varredura em seu iPhone em busca de imagens de abuso infantil

Chikena / Shutterstock.com

De acordo com relatórios confiáveis, a Apple planeja começar a instalar um software em iPhones nos Estados Unidos que irá escanear automaticamente fotos locais em busca de imagens de abuso infantil. A Apple irá escanear apenas fotos enviadas ao iCloud com esta tecnologia – no início, pelo menos.

Atualização: a Apple confirmou grande parte desse relatório em um documento detalhado .

O que a Apple está fazendo?

Os relatórios dos planos da Apple se originaram do The Financial Times e do professor Matthew Green da Johns Hopkins University  , ambos fontes geralmente confiáveis. Obviamente, até que a Apple confirme que este é o caso, sempre há uma chance de que isso não aconteça. A Apple supostamente demonstrou o plano a alguns acadêmicos dos EUA no início desta semana.

De acordo com os relatórios, a Apple usará um sistema que chama de “neuralMatch” para escanear iPhones americanos em busca de imagens de abuso infantil.

Basicamente, um sistema automatizado alertaria uma equipe de revisores humanos se ela acreditar que imagens ilegais foram detectadas. A partir daí, um membro da equipe revisaria as imagens e contataria as autoridades.

Tecnicamente, isso não é nada novo – sistemas de armazenamento de fotos baseados em nuvem e redes sociais já fazem esse tipo de digitalização. A diferença aqui é que a Apple está fazendo isso no nível do dispositivo. De acordo com Matthew Green, inicialmente ele irá escanear apenas fotos carregadas para o iCloud, mas ele estará realizando essa verificação no telefone do usuário. “Inicialmente” é a palavra-chave aqui, já que pode muito bem ser usada para digitalizar todas as fotos localmente em algum momento.

Recomendado:  Como ativar o modo noturno no local de eco

Supõe-se que isso torne o sistema menos invasivo, já que a varredura é feita no telefone e enviada de volta apenas se houver correspondência, o que significa que nem todas as fotos que você carrega estão sujeitas aos olhos de estranhos.

De acordo com os participantes do briefing, cada foto enviada ao iCloud recebe um “voucher de segurança”, dizendo se é suspeita ou não. Quando uma certa quantidade de fotos é marcada como suspeita, a Apple irá descriptografá-las e enviá-las às autoridades se algo envolvendo abuso infantil for encontrado.

Como o sistema diferenciará entre imagens de abuso infantil e outras imagens? De acordo com o relatório, ele foi testado em 200.000 imagens de abuso sexual coletadas pelo Centro Nacional para Crianças Desaparecidas e Exploradas, sem fins lucrativos dos EUA.

As imagens são convertidas em uma sequência de números por meio de hash e, em seguida, comparadas com as imagens no banco de dados.

Depois que tudo isso foi divulgado, a Apple se recusou a comentar ao Financial Times sobre o que está acontecendo. No entanto, presumimos que a empresa está trabalhando em alguma declaração oficial antes que a mensagem a respeito dessa mudança saia do controle.

Isso define um precedente perigoso

Provavelmente não precisamos dizer como isso pode ser assustador. Pessoas que abusam de crianças deveriam ser capturadas e punidas, mas é fácil ver como algo assim pode ser usado para propósitos muito mais invasivos.

Será que uma tecnologia semelhante será lançada em outras plataformas, como Macs, PCs com Windows e telefones Android? Países como a China poderiam usá-lo para detectar imagens subversivas nos telefones de seus cidadãos? Se for amplamente aceito, a indústria de direitos autorais poderia usá-lo para começar a procurar conteúdo pirateado em alguns anos?

Recomendado:  Como limpar seu cache no Windows 11

E, mesmo que funcione como anunciado: pessoas inocentes serão apanhadas no fogo cruzado?

Felizmente, isso não é tão preocupante quanto parece.