Apple анонсировала новую систему, которая будет сканировать каждый iPhone на предмет изображений и материалов сексуального насилия над детьми.
Новая система предназначена для обнаружения изображений сексуального насилия над детьми на устройствах клиентов в США до их загрузки в iCloud. Если изображение будет обнаружено, рецензент просмотрит фотографию, чтобы подтвердить, что она является сексуальной. злоупотребления и сообщить о находке в правоохранительные органы и / или Национальный центр пропавших без вести и эксплуатируемых Дети. Аккаунт iCloud этого человека также будет отключен, согласно Apple, ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР, и BBC.
Новая технология Apple под названием NeuralHash будет работать используя существующие фотографии материалов о сексуальном насилии над детьми из Национального центра США по пропавшим и эксплуатируемым детям, а также из других групп по безопасности детей. Изображения преобразуются в «хэши» - числовые коды, которые затем можно сопоставить с изображениями сексуального насилия над детьми на устройствах Apple, даже если они отредактированы.
Apple также «Сканировать зашифрованные сообщения пользователей на предмет сексуального содержания в качестве меры безопасности для детей».
Эти шаги, которые, по словам Apple, призваны сдержать распространение детская порнография а также сексуальные образы детей, был подвергнут критике со стороны экспертов по конфиденциальности, поскольку он предоставляет правительствам и частным организациям доступ к тому, что люди делают на своих телефонах.
Говоря с BBC, Эксперт по безопасности Мэтью Грин из Университета Джона Хопкинса выразил обеспокоенность. «Независимо от долгосрочных планов Apple, они послали очень четкий сигнал», - сказал он. «По их (очень влиятельному) мнению, можно безопасно создавать системы, которые сканируют телефоны пользователей на предмет запрещенного контента... Правы они или нет в этом вопросе - не имеет значения. Это разрушит плотину - правительства потребуют этого от всех ».
Apple заявляет, что технология обеспечивает конфиденциальность, поскольку она узнает о фотографиях пользователя только «в том случае, если у них есть коллекция известных изображений сексуального насилия над детьми» в их iCloud.
Тем не менее, эксперты по конфиденциальности обеспокоены тем, что эту технологию можно использовать, чтобы остановить любой уровень речи, обмен информацией, обмен изображениями или многое другое, что правительства, в частности авторитарные, захотят раздавить.
Таким образом, запрещенный контент может означать не только детскую порнографию. Это также может означать политическую речь, может использоваться авторитарными правительствами для подавления инакомыслия или использоваться в качестве инструмента массового наблюдения.
В Twitter Грин также отметил, что, поскольку Apple работает единственная оставшаяся служба зашифрованных сообщений в Китае, «Когда Apple разрабатывает технологию, способную сканировать зашифрованный контент, вы не можете просто сказать:« Ну, мне интересно, что правительство Китая будет делать с этой технологией. Это не теоретически ».
В серии твитов Эдвард Сноуден общий аналогичное мнение, отмечая, что Apple будет не только постоянно обновлять каждый телефон для сравнения фотографии и облачное хранилище в список избранных, но он также сообщит «вашим родителям, если вы увидите обнаженное тело в iMessage ».
Независимо от того, насколько благими намерениями, @Яблоко разворачивает массовую слежку по всему миру. Не заблуждайтесь: если они могут сканировать детское порно сегодня, они могут сканировать что угодно завтра.
Они превратили устройства на триллион долларов в iNarcs - * не спрашивая *. https://t.co/wIMWijIjJk
- Эдвард Сноуден (@Snowden) 6 августа 2021 г.
«Какими бы благими ни были намерения, @Apple с его помощью разворачивает массовую слежку по всему миру. Не ошибитесь… завтра они могут сканировать что угодно », - написал Сноуден в Твиттере.
И это то, что беспокоит большинство экспертов. Запрещенный контент на данный момент означает детскую порнографию. Но эксперты опасаются, что он будет использоваться широко или ограничивать конфиденциальность и криминализировать слова.
Стивен Мердок, профессор техники безопасности в Университетском колледже Лондона отметил, что, когда в Соединенном Королевстве была создана система блокировки детей злоупотребления изображениями, только через несколько лет система была использована для пресечения других преступлений, таких как продажа подделок часы. Хотя это безобидно, но это признак того, что технология может пойти куда угодно.
Британские интернет-провайдеры создали систему для блокировки изображений жестокого обращения с детьми, но прошло всего несколько лет, прежде чем им пришлось заблокировать поддельные часы и тому подобное. Как утверждает суд, добавление еще нескольких записей в черный список обходится дешево после того, как вы построили систему. https://t.co/TFUqTkjgHVhttps://t.co/c5ciiHCpH8pic.twitter.com/yjcxUdhYK8
- Стивен Мердок (@sjmurdoch) 5 августа 2021 г.
«Как постановил суд, добавление еще нескольких записей в черный список обходится недорого после того, как вы построите систему».
Несмотря на то, что группы умоляли Apple отказаться от своих планов, заявляя, что эта технология фактически прекращает сквозное шифрование, Apple планирует выпустить технологию в конце этого года.