Apple ha anunciado un nuevo sistema que escaneará todos los iPhone para buscar imágenes y material de abuso sexual infantil.
El nuevo sistema está diseñado para detectar imágenes de abuso sexual infantil en los dispositivos de los clientes en los Estados Unidos antes de que se carguen en iCloud. Si se detecta una imagen, un revisor humano revisará la foto para confirmar que es sexual infantil. abuso e informar el hallazgo a la policía y / o al Centro Nacional para Personas Desaparecidas y Explotadas Niños. La cuenta de iCloud de la persona también se desactivará, según Apple, NPR, y el BBC.
La nueva tecnología de Apple, llamada "NeuralHash", funcionará utilizando fotos existentes de material de abuso sexual infantil del Centro Nacional para Niños Desaparecidos y Explotados de EE. UU., así como de otros grupos de seguridad infantil. Las imágenes se convierten en "hashes", que son códigos numéricos que luego se pueden comparar con imágenes de abuso sexual infantil en dispositivos Apple, incluso si se editan. NeuralHash encontrará los "hashes" y podrá identificar imágenes de esa manera.
Apple también "Escanear los mensajes cifrados de los usuarios en busca de contenido sexualmente explícito como medida de seguridad infantil".
Estos movimientos, que según Apple son para frenar la proliferación de pornografía infantil y imagenes sexuales de niños, ha sido criticado por expertos en privacidad porque otorga a gobiernos y entidades privadas acceso a lo que las personas hacen en sus teléfonos.
Hablando con el BBC, El experto en seguridad Matthew Green de la Universidad Johns Hopkins expresó su preocupación. "Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara", dijo. “En su opinión (muy influyente), es seguro construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido... No importa si resultan tener razón o no en ese punto. Esto romperá la presa, los gobiernos se lo exigirán a todos ”.
Apple dice que la tecnología ofrece privacidad en el sentido de que solo aprende sobre las fotos de un usuario "si tienen una colección de imágenes conocidas de abuso sexual infantil" en su iCloud.
Aún así, a los expertos en privacidad les preocupa que la tecnología pueda utilizarse para detener cualquier nivel de habla, compartir información, compartir imágenes o más que los gobiernos, en particular los autoritarios, desearían aplastar.
El contenido prohibido, entonces, no solo podría significar solo pornografía infantil. También podría significar un discurso político o podría ser utilizado por gobiernos autoritarios para aplastar la disidencia, o utilizado como una herramienta de vigilancia masiva.
En Twitter, Green también señaló que debido a que Apple opera el único servicio de mensajería cifrada que queda en China, "Cuando Apple desarrolla una tecnología que es capaz de escanear contenido encriptado, no se puede simplemente decir," bueno, me pregunto qué haría el gobierno chino con esa tecnología. No es teórico ".
En una serie de tweets, Edward Snowden compartido un sentimiento similar, señalando que no solo Apple actualizará todos los teléfonos continuamente para comparar fotos y almacenamiento en la nube a una lista de fondo, pero también les dirá "tus padres si ves un desnudo en iMessage ".
No importa lo bien intencionado que sea, @Manzana está implementando vigilancia masiva en todo el mundo con esto. No se equivoquen: si pueden escanear en busca de pornografía infantil hoy, pueden escanear en busca de cualquier cosa mañana.
Convirtieron un billón de dólares en dispositivos en iNarcs, * sin preguntar. * https://t.co/wIMWijIjJk
- Edward Snowden (@Snowden) 6 de agosto de 2021
“No importa lo bien intencionado que sea, @Apple está implementando vigilancia masiva en todo el mundo con esto. No se equivoque... pueden escanear cualquier cosa mañana ”, tuiteó Snowden.
Y eso es lo que preocupa a la mayoría de los expertos. El contenido prohibido, por ahora, significa pornografía infantil. Pero los expertos temen que se utilice de forma generalizada o de formas que limiten la privacidad y criminalicen el discurso.
Steven Murdoch, un profesor de ingeniería de seguridad en el University College de Londres señaló que cuando el Reino Unido creó un sistema para bloquear a los niños abuso de imágenes, fue solo en unos años que el sistema también se utilizó para acabar con otros delitos, como la venta de imitaciones relojes. Si bien eso es inocuo, es una señal de que la tecnología puede ir a cualquier parte.
Los ISP del Reino Unido crearon un sistema para bloquear imágenes de abuso infantil, pero solo pasaron unos años antes de que tuvieran que bloquear relojes falsos y similares. Como dice el tribunal, agregar algunas entradas más a la lista de bloqueo es barato una vez que haya construido el sistema. https://t.co/TFUqTkjgHVhttps://t.co/c5ciiHCpH8pic.twitter.com/yjcxUdhYK8
- Steven Murdoch (@sjmurdoch) 5 de agosto de 2021
"Como dice el tribunal, agregar algunas entradas más a la lista de bloqueo es barato una vez que ha construido el sistema".
A pesar de que los grupos le han rogado a Apple que detenga sus planes, diciendo que la tecnología termina efectivamente con el cifrado de extremo a extremo, Apple planea lanzar la tecnología a finales de este año.