Apple hat ein neues System angekündigt, das jedes iPhone scannt, um nach Bildern und Materialien von sexuellem Missbrauch von Kindern zu suchen.
Das neue System wurde entwickelt, um Bilder von sexuellem Missbrauch von Kindern auf den Geräten von Kunden in den USA zu erkennen, bevor sie in iCloud hochgeladen werden. Wenn ein Bild erkannt wird, überprüft ein menschlicher Prüfer das Foto, um zu bestätigen, dass es kindersexuell ist missbrauchen und den Fund den Strafverfolgungsbehörden und/oder dem National Center for Missing and Exploited melden Kinder. Das iCloud-Konto der Person wird laut Apple ebenfalls deaktiviert. NPR, und der BBC.
Apples neue Technologie namens „NeuralHash“ wird funktionieren durch die Verwendung vorhandener Fotos von Material über sexuellen Missbrauch von Kindern vom US National Center for Missing and Exploited Children sowie von anderen Kindersicherheitsgruppen. Bilder werden in „Hashes“ umgewandelt, das sind numerische Codes, die dann Bildern von sexuellem Missbrauch von Kindern auf Apple-Geräten zugeordnet werden können, selbst wenn sie bearbeitet wurden.
Apple wird auch „Scannen Sie die verschlüsselten Nachrichten der Benutzer auf sexuell eindeutige Inhalte als Sicherheitsmaßnahme für Kinder.“
Diese Schritte, von denen Apple sagt, sollen die Verbreitung von Kinderpornografie und sexuelle Bilder von Kindern, wurde von Datenschutzexperten kritisiert, weil es Regierungen und privaten Einrichtungen Zugriff auf das gewährt, was Menschen auf ihren Telefonen tun.
Im Gespräch mit dem BBC, Der Sicherheitsexperte Matthew Green von der Johns Hopkins University äußerte sich besorgt. „Unabhängig von den langfristigen Plänen von Apple haben sie ein sehr klares Signal gesendet“, sagte er. „Ihrer (sehr einflussreichen) Meinung nach ist es sicher, Systeme zu bauen, die die Telefone der Benutzer auf verbotene Inhalte scannen … Ob sie sich in diesem Punkt als richtig oder falsch herausstellen, spielt keine Rolle. Das wird den Damm brechen – die Regierungen werden es von jedem fordern.“
Apple sagt, dass die Technologie Privatsphäre bietet, da sie nur von den Fotos eines Benutzers erfährt, "wenn er eine Sammlung bekannter Bilder von sexuellem Missbrauch von Kindern" in seiner iCloud hat.
Dennoch befürchten Datenschutzexperten, dass die Technologie verwendet werden kann, um jede Sprachstufe zu stoppen. Informationsaustausch, Bilderaustausch oder mehr, was Regierungen – insbesondere autoritäre – wünschen würden zu quetschen.
Verbotene Inhalte können also nicht nur Kinderpornografie bedeuten. Es könnte auch eine politische Rede bedeuten oder von autoritären Regierungen verwendet werden, um abweichende Meinungen zu zerschlagen, oder als Instrument zur Massenüberwachung verwendet werden.
Auf Twitter stellte Green auch fest, dass Apple operiert der einzige verbleibende verschlüsselte Messaging-Dienst in China, „Wenn Apple eine Technologie entwickelt, die verschlüsselte Inhalte scannen kann, kann man nicht einfach sagen: ‚Nun, ich frage mich, was die chinesische Regierung mit dieser Technologie machen würde. Es ist nicht theoretisch.’“
In einer Reihe von Tweets hat Edward Snowden geteilt ein ähnliches Gefühl und stellt fest, dass Apple nicht nur jedes Telefon kontinuierlich aktualisiert, um es zu vergleichen Fotos und Cloud-Speicher zu einer Backlist hinzufügen, aber es wird auch "Ihren Eltern mitgeteilt, wenn Sie einen Akt in iMessage.“
Egal wie gut gemeint ist, @Apfel rollt damit die Massenüberwachung auf die ganze Welt aus. Machen Sie keinen Fehler: Wenn sie heute nach Kinderpornos scannen können, können sie morgen nach allem scannen.
Sie haben eine Billion Dollar an Geräten in iNarcs verwandelt – *ohne zu fragen.* https://t.co/wIMWijIjJk
– Edward Snowden (@Snowden) 6. August 2021
„Egal wie gut gemeint ist, @Apple führt damit die Massenüberwachung auf die ganze Welt aus. Machen Sie keinen Fehler … sie können morgen nach allem scannen“, twitterte Snowden.
Und das ist es, was die meisten Experten beunruhigt. Verbotene Inhalte sind vorerst Kinderpornografie. Experten befürchten jedoch, dass es allgemein oder in einer Weise verwendet wird, die die Privatsphäre einschränkt und die Sprache kriminalisiert.
Steven Murdoch, ein Professor für Sicherheitstechnik am University College London stellte fest, dass das Vereinigte Königreich ein System zur Blockierung von Kindern einführte Missbrauchsbildern, wurde das System erst innerhalb von Jahren verwendet, um auch andere Straftaten wie den Verkauf von Nachahmungen zu unterbinden Uhren. Das ist zwar harmlos, aber ein Zeichen dafür, dass die Technologie überall hingehen kann.
Britische ISPs haben ein System entwickelt, um Bilder von Kindesmissbrauch zu blockieren, aber es dauerte nur wenige Jahre, bis sie auch Nachahmungsuhren und ähnliches blockieren mussten. Wie das Gericht sagt, ist das Hinzufügen weiterer Einträge zur Sperrliste billig, wenn Sie das System erstellt haben. https://t.co/TFUqTkjgHVhttps://t.co/c5ciiHCpH8pic.twitter.com/yjcxUdhYK8
– Steven Murdoch (@sjmurdoch) 5. August 2021
„Wie das Gericht sagt, ist das Hinzufügen weiterer Einträge zur Sperrliste billig, wenn Sie das System aufgebaut haben.“
Trotz der Tatsache, dass Gruppen Apple angefleht haben, ihre Pläne zu stoppen und zu sagen, dass die Technologie die Ende-zu-Ende-Verschlüsselung effektiv beendet, plant Apple, die Technologie noch in diesem Jahr freizugeben.