Az Apple egy új rendszert jelentett be, amely minden iPhone-t átvizsgál, hogy gyermekek szexuális zaklatását ábrázoló képeket és anyagokat keressen.
Az új rendszer célja, hogy észlelje a gyermekek szexuális zaklatását ábrázoló képeket az ügyfelek egyesült államokbeli eszközein, még mielőtt feltöltenék őket az iCloudba. Ha a rendszer egy képet észlel, egy emberi ellenőr megvizsgálja a fényképet, hogy megbizonyosodjon arról, hogy az gyermek szexuális jellegű visszaélés, és jelentse a megállapítást a bűnüldöző szerveknek és/vagy az eltűntek és kizsákmányolt személyek nemzeti központjának Gyermekek. Az adott személy iCloud-fiókja is le lesz tiltva, az Apple szerint, NPR, és a BBC.
Az Apple új technológiája, a „NeuralHash” működni fog az Egyesült Államok Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központjától, valamint más gyermekbiztonsági csoportoktól származó, gyermekek szexuális zaklatását ábrázoló anyagokról készült fényképek felhasználásával. A képeket „kivonatokká” alakítják, amelyek olyan numerikus kódok, amelyek azután megfeleltethetők a gyermekek szexuális zaklatását ábrázoló képekkel az Apple-eszközökön, még akkor is, ha azokat szerkesztik.
Az Apple is „Gyermekbiztonsági intézkedésként vizsgálja meg a felhasználók titkosított üzeneteit szexuális tartalmú tartalom után”.
Ezek a lépések, amelyek az Apple szerint a terjedés visszaszorítását szolgálják gyermekpornográfia és gyerekekről készült szexuális képek, adatvédelmi szakértők bírálták, mert hozzáférést biztosít a kormányoknak és a magánszervezeteknek ahhoz, hogy az emberek mit csinálnak a telefonjukon.
Beszélve a BBC, Matthew Green, a Johns Hopkins Egyetem biztonsági szakértője aggodalmának adott hangot. „Az Apple hosszú távú terveitől függetlenül nagyon egyértelmű jelzést küldtek” – mondta. „(Nagyon befolyásos) véleményük szerint biztonságos olyan rendszereket építeni, amelyek tiltott tartalmat keresnek a felhasználók telefonjain… Az, hogy ebben a kérdésben igazuk van-e vagy téved, aligha számít. Ez áttöri a gátat – a kormányok mindenkitől követelni fogják.”
Az Apple azt állítja, hogy a technológia annyiban kínál adatvédelmet, hogy csak akkor ismeri meg a felhasználó fényképeit, „ha van egy gyűjtemény a gyermekek szexuális zaklatását ábrázoló képekről” az iCloudban.
Ennek ellenére az adatvédelmi szakértők attól tartanak, hogy a technológia felhasználható bármilyen szintű beszéd megállítására, információk megosztása, képmegosztás, vagy több, amit a kormányok – különösen a tekintélyelvűek – szeretnének squash.
A tiltott tartalom tehát nemcsak gyermekpornográfiát jelenthet. Jelenthet politikai beszédet is, vagy a tekintélyelvű kormányok használhatják a nézeteltérések leverésére, vagy tömeges megfigyelési eszközként használhatják.
A Twitteren Green azt is megjegyezte, hogy mivel az Apple működik az egyetlen megmaradt titkosított üzenetküldő szolgáltatás KínábanAmikor az Apple kifejleszt egy olyan technológiát, amely képes a titkosított tartalmak szkennelésére, nem lehet csak annyit mondani, hogy 'Nos, kíváncsi vagyok, mit kezdene a kínai kormány ezzel a technológiával. Ez nem elméleti."
Egy sor tweetben Edward Snowden megosztott hasonló érzés, megjegyezve, hogy az Apple nemcsak az összes telefont folyamatosan frissíti, hogy összehasonlíthassa fényképeket és felhőtárhelyet a háttérlistára, de azt is jelzi, hogy „a szüleidnek, ha megnézel egy aktot iMessage.”
Nem számít, milyen jó szándékú, @Alma tömeges megfigyelést terjeszt az egész világra ezzel. Tévedés ne essék: ha ma képesek gyerekpornót keresni, holnap bármit kereshetnek.
Trillió dollárnyi eszközt csináltak iNarcokká – *kérés nélkül.* https://t.co/wIMWijIjJk
- Edward Snowden (@Snowden) 2021. augusztus 6
„Bármilyen jó szándékú is, az @Apple ezzel a tömeges megfigyelést az egész világra kiterjeszti. Tévedés ne essék… holnap bármit kereshetnek” – írta Snowden a Twitteren.
És ez az, ami miatt a legtöbb szakértő aggódik. A tiltott tartalom egyelőre gyermekpornográfiát jelent. A szakértők azonban attól tartanak, hogy széles körben használják, vagy olyan módon használják, hogy korlátozzák a magánélet védelmét és kriminalizálják a beszédet.
Steven Murdoch, a University College London biztonsági mérnök professzora megjegyezte, hogy amikor az Egyesült Királyság létrehozta a gyermekek blokkolására szolgáló rendszert bántalmazó képeket, csak néhány éven belül használták a rendszert más bűncselekmények, mint például a bűncselekmények árusítására is. órákat. Bár ez ártalmatlan, ez annak a jele, hogy a technika bárhová eljuthat.
Az Egyesült Királyság internetszolgáltatói létrehoztak egy rendszert a gyermekbántalmazással kapcsolatos képek blokkolására, de csak néhány évbe telt, mire le kellett tiltaniuk a kopogtató órákat és hasonlókat is. Ahogy a bíróság mondja, a rendszer felépítése után olcsó újabb bejegyzések hozzáadása a tiltólistához. https://t.co/TFUqTkjgHVhttps://t.co/c5ciiHCpH8pic.twitter.com/yjcxUdhYK8
– Steven Murdoch (@sjmurdoch) 2021. augusztus 5
„Ahogy a bíróság mondja, olcsó újabb bejegyzések hozzáadása a tiltólistához, ha már felépítettük a rendszert.”
Annak ellenére, hogy csoportok könyörögtek az Apple-nek, hogy hagyják abba terveiket, mondván, hogy a technológia gyakorlatilag véget vet a végpontok közötti titkosításnak, az Apple azt tervezi, hogy még ebben az évben kiadja a technológiát.