Apple a annoncé un nouveau système qui analysera chaque iPhone pour rechercher des images et du matériel d'abus sexuels sur des enfants.
Le nouveau système est conçu pour détecter les images d'abus sexuels sur des enfants sur les appareils des clients aux États-Unis avant qu'elles ne soient téléchargées sur iCloud. Si une image est détectée, un examinateur humain examinera la photo pour confirmer qu'elle est à caractère pédosexuel abus et signaler la découverte aux forces de l'ordre et/ou au Centre national des personnes disparues et exploitées Enfants. Le compte iCloud de la personne sera également désactivé, par Apple, RADIO NATIONALE PUBLIQUE, et le BBC.
La nouvelle technologie d'Apple, appelée "NeuralHash", fonctionnera en utilisant des photos existantes de matériel pédopornographique du Centre national américain pour les enfants disparus et exploités ainsi que d'autres groupes de sécurité des enfants. Les images sont transformées en « hachages », qui sont des codes numériques qui peuvent ensuite être associés à des images d'abus sexuels sur des enfants sur des appareils Apple, même si elles sont modifiées.
Apple va également « scanner les messages cryptés des utilisateurs à la recherche de contenu sexuellement explicite en tant que mesure de sécurité pour les enfants ».
Ces mesures, qui, selon Apple, visent à freiner la prolifération des pornographie enfantine et images sexuelles d'enfants, a été critiqué par les experts en protection de la vie privée car il permet aux gouvernements et aux entités privées d'accéder à ce que les gens font sur leur téléphone.
S'adressant au BBC, L'expert en sécurité Matthew Green de l'Université Johns Hopkins a exprimé son inquiétude. « Quels que soient les plans à long terme d'Apple, ils ont envoyé un signal très clair », a-t-il déclaré. « À leur avis (très influent), il est prudent de créer des systèmes qui analysent les téléphones des utilisateurs à la recherche de contenu interdit… Qu'ils aient raison ou tort sur ce point importe peu. Cela brisera le barrage – les gouvernements l'exigeront de tout le monde. »
Apple affirme que la technologie offre la confidentialité en ce sens qu'elle n'apprend les photos d'un utilisateur que "s'il a une collection d'images connues d'abus sexuels sur des enfants" dans son iCloud.
Pourtant, les experts en confidentialité craignent que la technologie puisse être utilisée pour arrêter n'importe quel niveau de parole, partage d'informations, partage d'images ou plus que les gouvernements - en particulier les gouvernements autoritaires - voudraient Squash.
Le contenu interdit, alors, ne pouvait pas seulement signifier de la pornographie enfantine. Cela pourrait également signifier un discours politique ou pourrait être utilisé par des gouvernements autoritaires pour écraser la dissidence, ou utilisé comme un outil de surveillance de masse.
Sur Twitter, Green a également noté que parce qu'Apple opère le seul service de messagerie crypté restant en Chine, "quand Apple développe une technologie capable de scanner du contenu crypté, vous ne pouvez pas simplement dire:" eh bien, je me demande ce que le gouvernement chinois ferait avec cette technologie. Ce n'est pas théorique.
Dans une série de tweets, Edward Snowden partagé un sentiment similaire, notant que non seulement Apple mettra à jour chaque téléphone en continu pour comparer photos et stockage en nuage sur une liste arrière, mais il indiquera également «à vos parents si vous regardez un nu dans iMessage.
Peu importe à quel point il est bien intentionné, @Pomme déploie la surveillance de masse dans le monde entier avec cela. Ne vous y trompez pas: s'ils peuvent rechercher du porno pour enfants aujourd'hui, ils peuvent rechercher n'importe quoi demain.
Ils ont transformé un billion de dollars d'appareils en iNarcs—*sans demander.* https://t.co/wIMWijIjJk
– Edward Snowden (@Snowden) 6 août 2021
« Peu importe à quel point les bonnes intentions sont bonnes, @Apple déploie une surveillance de masse dans le monde entier avec cela. Ne vous y trompez pas… ils peuvent rechercher n'importe quoi demain », a tweeté Snowden.
Et c'est ce qui préoccupe la plupart des experts. Le contenu interdit, pour l'instant, signifie la pornographie juvénile. Mais les experts craignent qu'il ne soit utilisé à grande échelle ou d'une manière qui limite la vie privée et criminalise la parole.
Steven Murdoch, un professeur d'ingénierie de la sécurité à l'University College de Londres a noté que lorsque le Royaume-Uni a créé un système pour bloquer les enfants abus d'images, ce n'est qu'en quelques années que le système a également été utilisé pour réprimer d'autres crimes, tels que la vente de contrefaçons montres. Bien que ce soit anodin, c'est un signe que la technologie peut aller n'importe où.
Les FAI britanniques ont créé un système pour bloquer les images d'abus d'enfants, mais cela n'a pris que quelques années avant de devoir bloquer les montres contrefaites et autres. Comme le dit le tribunal, ajouter quelques entrées supplémentaires à la liste de blocage est bon marché une fois que vous avez construit le système. https://t.co/TFUqTkjgHVhttps://t.co/c5ciiHCpH8pic.twitter.com/yjcxUdhYK8
– Steven Murdoch (@sjmurdoch) 5 août 2021
"Comme le dit le tribunal, ajouter quelques entrées supplémentaires à la liste de blocage est bon marché une fois que vous avez construit le système."
Malgré le fait que des groupes aient supplié Apple d'arrêter leurs plans, affirmant que la technologie mettait effectivement fin au cryptage de bout en bout, Apple prévoit de publier la technologie plus tard cette année.