A Apple anunciou um novo sistema que fará a varredura de cada iPhone em busca de imagens e materiais de abuso sexual infantil.
O novo sistema foi projetado para detectar imagens de abuso sexual infantil em dispositivos de clientes nos Estados Unidos antes de serem enviadas para o iCloud. Se uma imagem for detectada, um revisor humano analisará a foto para confirmar que é sexual infantil abuso e relatar a descoberta às autoridades policiais e / ou ao National Center for Missing and Exploited Crianças. A conta iCloud da pessoa também será desativada, por Apple, NPR, e a BBC.
A nova tecnologia da Apple, chamada “NeuralHash”, funcionará utilizando fotos existentes de material de abuso sexual infantil do Centro Nacional dos EUA para Crianças Desaparecidas e Exploradas, bem como de outros grupos de segurança infantil. As imagens são transformadas em “hashes”, que são códigos numéricos que podem então ser combinados com imagens de abuso sexual infantil em dispositivos Apple, mesmo se forem editados. NeuralHash encontrará os “hashes” e será capaz de identificar as imagens dessa forma.
A Apple também vai “Verificar as mensagens criptografadas dos usuários em busca de conteúdo sexualmente explícito como medida de segurança infantil”.
Essas medidas, que a Apple diz serem para conter a proliferação de pornografia infantil e imagens sexuais de crianças, foi criticado por especialistas em privacidade porque concede a governos e entidades privadas acesso ao que as pessoas fazem em seus telefones.
Falando com o BBC, O especialista em segurança Matthew Green, da Universidade Johns Hopkins, expressou preocupação. “Independentemente de quais são os planos de longo prazo da Apple, eles enviaram um sinal muito claro”, disse ele. “Na opinião deles (muito influente), é seguro construir sistemas que escaneiam os telefones dos usuários em busca de conteúdo proibido... Se eles estão certos ou errados nesse ponto, pouco importa. Isso vai quebrar a barragem - os governos vão exigir isso de todos ”.
A Apple diz que a tecnologia oferece privacidade na medida em que só aprende sobre as fotos do usuário “se ele tiver uma coleção de imagens conhecidas de abuso sexual infantil” em seu iCloud.
Ainda assim, os especialistas em privacidade estão preocupados que a tecnologia possa ser utilizada para interromper qualquer nível de fala, compartilhamento de informações, compartilhamento de imagens, ou mais que os governos - em particular os autoritários - queiram para esmagar.
O conteúdo proibido, portanto, não poderia significar apenas pornografia infantil. Também pode significar discurso político ou pode ser usado por governos autoritários para esmagar dissidentes, ou usado como uma ferramenta de vigilância em massa.
No Twitter, Green também observou que, como a Apple opera o único serviço de mensagens criptografadas restante na China, “Quando a Apple desenvolve uma tecnologia que é capaz de escanear conteúdo criptografado, você não pode simplesmente dizer,‘ bem, eu me pergunto o que o governo chinês faria com essa tecnologia. Não é teórico. ’”
Em uma série de tweets, Edward Snowden compartilhado um sentimento semelhante, observando que não só a Apple atualizará todos os telefones continuamente para comparar fotos e armazenamento em nuvem para uma lista anterior, mas também dirá "seus pais se você vir um nu em iMessage. ”
Não importa o quão bem intencionado, @Maçã está implementando vigilância em massa para todo o mundo com isso. Não se engane: se eles podem escanear pornografia infantil hoje, poderão escanear qualquer coisa amanhã.
Eles transformaram um trilhão de dólares em dispositivos em iNarcs— * sem pedir. * https://t.co/wIMWijIjJk
- Edward Snowden (@Snowden) 6 de agosto de 2021
“Não importa o quão bem intencionada, a @Apple está implementando vigilância em massa para todo o mundo com isso. Não se engane... eles podem procurar qualquer coisa amanhã ”, Snowden tuitou.
E é isso que preocupa a maioria dos especialistas. Conteúdo proibido, por enquanto, significa pornografia infantil. Mas os especialistas temem que seja usado amplamente ou de maneiras que limitem a privacidade e criminalizem o discurso.
Steven Murdoch, um professor de engenharia de segurança da University College London observou que, quando o Reino Unido criou um sistema para bloquear crianças imagens de abuso, só em alguns anos o sistema também foi usado para reprimir outros crimes, como a venda de falsificações relógios. Embora seja inócuo, é um sinal de que a tecnologia pode ir a qualquer lugar.
Os ISPs do Reino Unido criaram um sistema para bloquear imagens de abuso infantil, mas levou apenas alguns anos para que eles tivessem de bloquear relógios falsificados e similares. Como o tribunal diz, adicionar mais algumas entradas à lista de bloqueio é barato depois de construir o sistema. https://t.co/TFUqTkjgHVhttps://t.co/c5ciiHCpH8pic.twitter.com/yjcxUdhYK8
- Steven Murdoch (@sjmurdoch) 5 de agosto de 2021
“Como diz o tribunal, adicionar mais algumas entradas à lista de bloqueio é barato depois de construir o sistema.”
Apesar do fato de que grupos imploraram à Apple para interromper seus planos, dizendo que a tecnologia efetivamente acaba com a criptografia ponta a ponta, a Apple planeja lançar a tecnologia ainda este ano.
