אפל הכריזה על מערכת חדשה שתסרוק כל אייפון כדי לחפש תמונות וחומרים של התעללות מינית בילדים.
המערכת החדשה נועד לזהות תמונות של התעללות מינית בילדים במכשירים של לקוחות בארצות הברית לפני העלאתן ל-iCloud. אם תזוהה תמונה, סוקר אנושי יבדוק את התמונה כדי לאשר שהיא מינית של ילד להתעלל ולדווח על הממצא לרשויות אכיפת החוק ו/או למרכז הלאומי לנעדרים ומנוצלים יְלָדִים. חשבון ה-iCloud של האדם יושבת גם הוא, לפי אפל, NPR, וה BBC.
הטכנולוגיה החדשה של אפל, הנקראת "NeuralHash", תעבוד על ידי שימוש בתמונות קיימות של חומרי התעללות מינית בילדים מהמרכז הלאומי של ארה"ב לילדים נעדרים ומנוצלים וכן מקבוצות אחרות לבטיחות ילדים. תמונות הופכות ל"hashes", שהם קודים מספריים שניתן להתאים לתמונות של התעללות מינית בילדים במכשירי אפל, גם אם הם ערוכים. NeuralHash ימצא את ה"האשים" ויוכל לזהות תמונות כך.
גם אפל תעשה זאת "סרוק הודעות מוצפנות של משתמשים לאיתור תוכן מיני בוטה כאמצעי בטיחות לילדים."
המהלכים האלה, שלטענת אפל הם להפחית את התפשטותם פורנוגרפיית ילדים ו תמונות מיניות של ילדים, זכה לביקורת מצד מומחי פרטיות מכיוון שהוא מעניק לממשלות ולגופים פרטיים גישה למה שאנשים עושים בטלפונים שלהם.
מדבר אל ה BBC, מומחה האבטחה מתיו גרין מאוניברסיטת ג'ונס הופקינס הביע דאגה. "לא משנה מהן התוכניות ארוכות הטווח של אפל, הן שלחו איתות ברור מאוד", אמר. "לדעתם (המשפיעה מאוד), זה בטוח לבנות מערכות שסורקות את הטלפונים של המשתמשים לאיתור תוכן אסור... האם יתברר שהם צודקים או טועים בנקודה זו כמעט לא משנה. זה ישבור את הסכר - ממשלות ידרשו את זה מכולם".
אפל אומרת שהטכנולוגיה מציעה פרטיות בכך שהיא לומדת רק על תמונות של משתמש "אם יש לו אוסף של תמונות ידועות של התעללות מינית בילדים" ב-iCloud שלהם.
ובכל זאת, מומחי פרטיות חוששים שניתן להשתמש בטכנולוגיה כדי לעצור כל רמה של דיבור, שיתוף מידע, שיתוף תמונות או יותר שממשלות - במיוחד סמכותיות - היו רוצות למחוץ.
תוכן אסור, אם כן, לא יכול להיות רק פורנוגרפיית ילדים. זה יכול גם להיות נאום פוליטי או יכול לשמש על ידי ממשלות אוטוריטריות כדי לרסק התנגדות, או לשמש ככלי מעקב המוני.
בטוויטר, גרין ציין גם כי מכיוון שאפל פועלת שירות ההודעות המוצפן היחיד שנותר בסין, "כשאפל מפתחת טכנולוגיה שמסוגלת לסרוק תוכן מוצפן, אתה לא יכול פשוט לומר, 'טוב, אני תוהה מה הממשלה הסינית תעשה עם הטכנולוגיה הזו. זה לא תיאורטי'".
בסדרת ציוצים, אדוארד סנודן מְשׁוּתָף סנטימנט דומה, וציין שלא רק שאפל תעדכן כל טלפון באופן רציף כדי להשוות תמונות ואחסון ענן לרשימה אחורית, אבל זה גם יגיד "ההורים שלך אם אתה צופה בעירום iMessage."
לא משנה כמה כוונות טובות, @תפוח עץ מגלגל מעקב המוני לכל העולם עם זה. אל תטעו: אם הם יכולים לחפש פורנו לילדים היום, הם יכולים לסרוק כל דבר מחר.
הם הפכו טריליון דולר של מכשירים ל-iNarcs -*בלי לשאול.* https://t.co/wIMWijIjJk
- אדוארד סנודן (@Snowden) 6 באוגוסט 2021
"לא משנה כמה כוונות טובות, @Apple מוציאה מעקב המוני לכל העולם עם זה. אל תטעו... הם יכולים לסרוק כל דבר מחר", צייץ סנודן בטוויטר.
וזה מה שרוב המומחים מודאגים ממנו. תוכן אסור, לעת עתה, פירושו פורנוגרפיית ילדים. אבל מומחים חוששים שייעשה בו שימוש נרחב או בדרכים המגבילות את הפרטיות ומפלילות את הדיבור.
סטיבן מרדוק, פרופסור להנדסת אבטחה באוניברסיטת קולג' בלונדון ציין שכאשר בריטניה יצרה מערכת לחסימת ילדים תמונות של התעללות, רק בתוך שנים המערכת שימשה גם להפחתת פשעים אחרים, כמו מכירת נוק-אוף שעונים. למרות שזה לא מזיק, זה סימן שהטכנאי יכול ללכת לכל מקום.
ספקי שירותי אינטרנט בבריטניה יצרו מערכת לחסימת תמונות של התעללות בילדים, אבל עברו רק כמה שנים עד שהם נאלצו לחסום גם שעונים מפוצלים וכדומה. כפי שאומר בית המשפט, הוספת עוד כמה ערכים לרשימת החסימות היא זולה לאחר שבנית את המערכת. https://t.co/TFUqTkjgHVhttps://t.co/c5ciiHCpH8pic.twitter.com/yjcxUdhYK8
- סטיבן מרדוק (@sjmurdoch) 5 באוגוסט 2021
"כפי שאומר בית המשפט, הוספת עוד כמה ערכים לרשימת החסימות היא זולה ברגע שבנית את המערכת."
למרות העובדה שקבוצות התחננו לאפל להפסיק את התוכניות שלהם, ואמרו שהטכנולוגיה מסיימת למעשה את ההצפנה מקצה לקצה, אפל מתכננת לשחרר את הטכנולוגיה בהמשך השנה.