בפברואר, היוטיובר מאט ווטסון פרסם סרטון שחושף את הקלות שבה הוא הצליח להיכנס לסרט שנוצר בצורה אלגוריתמית חור ארנב ולמצוא קהילות הערות של פדופילים המנצלים סרטונים רגילים אחרת של יְלָדִים. לפעמים, אותם מגיבים פרסמו קישורים לסרטונים לא רשומים או פרסמו מידע ליצירת קשר ב-WhatsApp עבור מה שהיה, ככל הנראה, הודעות קבוצתיות ידידותיות לפדופילים, אך לעתים קרובות פרסמו חותמות זמן של ילדים בעמדות מתפשרות סרטונים.
הממצאים של ווטסון שוב עוררו את השיחה סביב המתינות והאחריות של YouTube. רבים מהסרטונים שהוא מצא זכו למונטיזציה פרוגרמטית עם מודעות, כלומר YouTube הרוויח כסף מהתוכן שלמרות שאולי לא הפריע לעצמו, נוצל בלחיצות ובצפיות על ידי מי שהיה נסתר מניעים. הסרטונים עצמם לא היו הבעיה, לרוב. רבים היו ילדים שעושים דברים רגילים לילדים: נאבקים עם אחיהם, מציגים את הצעצוע שלהם אוספים, אבל ההערות והדרכים שבהן נקשרו זה לזה היו חשודים, ובסופו של דבר, מטריד.
השערורייה, שהגיעה שנה בלבד לאחר ש-YouTube הכירה לראשונה בתגובות התגובות הללו ואחריה ילדים ביוטיוב שערוריית ElsaGate#, שבה אנשים מצאו סרטונים מטרידים בפלטפורמה שנעשתה מתוך מחשבה על ילדים ועל בטיחותם, סיבך את יוטיוב בוויכוח שבו רבים שאלו: האם יוטיוב שינה משהו בכלל? ואם כן, מדוע הבעיה התרחבה? האם ניתן לתקן את זה?
יוטיוב הגיבה על ידי השבתת תגובות על מיליוני סרטונים שהיו ממוקדים על ידי טורפים והצביעה על כך שיש להם צוות עמוק של 10,000 עובדים של מנהלי הערות ותוכן אנושיים ומערכת למידת מכונה שתפקידה לנפות סרטונים ולסמן כל דבר פוגעני. אבל האם זה מספיק? האם יש דרך ל-YouTube לתקן עם הורים מודאגים? או שהאלגוריתם של החברה הלך רחוק מדי?
כדי להבין מה, אם בכלל, ניתן לעשות כדי לתקן את הפלטפורמה, אַבהִישוחח עם ג'ונאס קייזר, שותף במרכז ברקמן קליין לאינטרנט וחברה, חוקר עמית במכון אלכסנדר פון הומבולדט לאינטרנט וחברה, ועמית מחקר DFG. קייזר הוא מומחה באלגוריתמים של YouTube וריבוי קהילות מזיקות. דיברנו איתו על האלגוריתם של YouTube, איך נוצרות הבעיות האלה ומה YouTube יכול לעשות כדי להשתפר.
המחקר שלך מתמקד בקמפיינים של טרולים ימני קיצוני ב-YouTube וכיצד קהילות כאלה מתפשטות. האם יש קווי דמיון בין הקהילות הללו לבין הקהילות הפדופיליות החדשות הללו שחולקות קישורים במדורי הערות?
לא הייתי עושה את ההשוואה הזו. עם הימין הקיצוני, יש לנו עוד ניסיונות מאוד גלויים וברורים ליצור קהילה ולהתחבר לערוצים אחרים. הם עוקבים אחר הטרנדים שלהם בנושאים שהם חושבים שהם חשובים וזה לא קורה בערוץ אחד אלא בכמה. זה נעשה בכוונה רבה באמצעות המעשים שלהם. ראשי ימין קיצוני מדברים הולכים זה להופעות של זה ונותנים זה לזה לגיטימציה בולטת.
יחד עם זאת, באמצעות הפעילות ופעילות המשתמשים שלהם, הם גם משפיעים על האלגוריתם של YouTube באופן שבו, על יוטיוב, סרטונים פוליטיים וערוצים פוליטיים, לא משנה באיזו אידיאולוגיה תסתכל, יובילו לרוב לימין קיצוני ערוצים.
אז נראה שהקהילות הפדופיליות הן הרבה יותר מכך שהערוצים והסרטונים לא היו בהכרח הקהילה שם, אלא התגובות המקוונות, שלפי מה שקראתי, יצרו את זה מוזר, בלתי נראה, מטריד מאוד תופעה.
למי שלא מודע, איך מתפקד האלגוריתם של YouTube?
של YouTube אַלגוֹרִיתְם מסתובב סביב הרעיון שזה ישאיר את המשתמשים מעורבים. בהקשר הזה, זה כמובן אומר לצפות בסרטונים, או להגיב, או לעשות לייק, או שיתוף. הישארות על הפלטפורמה היא המטרה החשובה ביותר. כדי להישאר בפלטפורמה, תקבלו המלצות בעמוד הבית שלכם, בדפי הסרטונים ובערוצים עצמם. כל אלה בנויים סביב הרעיון שמשתמשים צריכים להישאר בפלטפורמה. השאלה היא, כמובן, איך יוטיוב יוצר אלגוריתם שעושה זאת?
יש הרבה נקודות נתונים שונות שנכנסות לאלגוריתם הזה. לדוגמא: מה טרנד כרגע בפלטפורמה? על מה הסתכלו אנשים אחרים עם אותם תחומי עניין? על איזה סרטונים לוחצים הכי הרבה? איפה אנשים דומים חופפים בתגובות משתמשים? דברים כאלה. הרעיון המרכזי הוא שהאלגוריתם ילמד מה מושך ומחזיק משתמשים בפלטפורמה.
מבחינת תוכן וניהול תגובות ביוטיוב, איך זה מוגדר? האם אתה חושב שזו תגובה מספקת לאיומים באינטרנט?
רק במידה מסוימת. הבעיה עם מתינות באופן שבו רוב פלטפורמות המדיה החברתיות הגדולות עושות זאת היא שהיא בנויה סביב אנשים המדווחים על תוכן. אז, בעצם, אם אף אחד לא מדווח על זה וזה לא בבירור נגד הכללים שניתן לזהות באמצעות למידת מכונה - כמו מילות קללה, או משהו כזה שניתן לסנן אלגוריתמי - ברור שהרבה יותר קשה לזהות הערות אחרות אז א האדם צריך להסתכל על זה. אבל אם אף אחד לא מדווח על התוכן, YouTube לא יודע שהוא קיים, רק בגלל שיש כל כך הרבה תוכן בפלטפורמה. זה מדגיש את חשיבות המשתמשים. זה שנוי במחלוקת, אם זה דבר טוב או לא, שמשתמשים מוצבים במצב שהם צריכים להתאמץ כדי להדגיש ליוטיוב מה פוגע בהם.
ברמת הווידאו, צורות אחרות [של מתן שליטה] יושמו כעת, כך שיש ירידה בדירוג של תוכן שיכול לכלול חדשות מובילות. אם תחפשו פריטי חדשות, תחילה תקבלו מה ש-YouTube מחשיב כמקורות אמינים יותר. הם התנסו עם תיבות המידע סביב סרטוני קונספירציה מסוימים. כל אלה, בדרך זו או אחרת, צורות של מתן תוכן.
האופן שבו יוטיוב מסתמך על שומרונים טובים כדי לדווח על דברים שעלולים להיות בעייתיים או פוגעניים מרגיש דומה לדרך ש-Reddit נשלטת בעיקר על ידי מנהלי קהילה, אם כי נראה של-Reddit לא יש את הבעיה הזו במקביל סוּלָם.
ההשוואה הגיונית, אבל היא שונה מאוד. כל subreddit הוא קהילה שאומרת בעצם איזו צורת תוכן מותרת. בהקשר של ה-SubReddit המדע, למשל, אתה יכול לראות מתי מנחים מוודאים שהכללים מתקיימים, בעוד ש-subreddits אחרים הם מאוד לא-פייר. לא ניתן להשוות את מספר הפוסטים ב-subreddits למספרי הסרטונים המועלים בכל שעה נתונה ב-YouTube. לחלק מהפורומים הללו יש עניין בשיטור עצמי. העבודה היא בעצם מיקור חוץ למשתמשים וההנחה היא שכל עוד יש אנשים בעלי מוטיבציה מספיקה לעשות את העבודה הזו, זה בסדר, אבל זה לא המקרה ביוטיוב. הפורומים האלה לא קיימים באותו אופן.
במונחים של המגיבים האחרונים והשערוריות האחרונות של YouTube Kids כמו #ElsaGate, שבו טרולים תפרו סרטונים איומים לתוכן של ילדים. האם יש דרך להביא אליהם תשומת לב שאינה מסתמכת רק על הרצון הטוב של משתמש יוטיוב ממוצע?
יוטיוב הלך לאט, לאט מאוד, לכיוון הנכון. הם לא שם, אבל הם מבינים שאנשים יחפשו ביוטיוב חדשות, אז לאצור אילו ערוצים יעלו הגיוני לדעתי.
בעבודה שלי, זה מפתיע אותי שיוטיוב מתייחסת בעצם לתוכן פוליטי כמו שהוא מתייחס למוזיקת פופ. בשבועות האחרונים הם לאט לאט הבינו שיש הבדל.
לדוגמה, עם ה תנועה נגד ואקססינג, הם אמרו שהם לא בהכרח יאפשרו יותר סרטונים מסוימים. אני חושב שזה חשוב. בהקשר פוליטי, הרעיון של 'רק אנשים צופים' הוא לא מה שאתה רוצה. זה מה שאתה רוצה עבור מוזיקה, למשחקים או צורות בידור אחרות, אבל כשזה מגיע למידע.
אני חושב שעבור המלצות וידאו וערוצים, שבהן ההיגיון הזה נמשך, זה בעייתי שיהיו אנשים על הפלטפורמה, לא משנה לאיזו מוטיבציה.
אז אילו פתרונות, אם בכלל, אתה מציע להתמודדות עם שערוריות התגובות האחרונות של YouTube?
ממה שקראתי, הקהילה התקיימה בעיקר דרך התגובות, שהשפיעו אז על המלצות יוטיוב, אז הסרטונים האלה נקשרו, כמובן בצורה די חולנית. אני חושב שזה קצת כמו החלק הבעייתי. איך אתה, כפלטפורמה, מודע? האם אתה מודע לכך שקורה משהו שלא אמור להימשך? וגם, כי ברור שזה לא צריך להיות תלוי במשתמשים מסוימים, פעילים ומודעים כדי להבין את הדברים האלה, אבל למרבה המזל, יש.
השאלה היא: 'איך אלגוריתמים עובדים בהקשר הזה ומאפשרים את זה?' התפיסה שלי היא שיש הבדל בין המשתמשים שהגיבו לבין אנשים שהעלו סרטונים. אני חושב שאולי קל יותר לנתק את זה; אבל אני חושב שהאפשרות הטובה ביותר תהיה להשקיע רבות בבני אדם כדי למתן תוכן חשוד, ורק להיות מודע מאוד לניסיון להבין מה מהווה כחשוד ביחס לאלגוריתמים.
האם יש גרסה של YouTube שקיימת, בעיניך, שאינה חייבת לפעול על האלגוריתמים האלה שעלולים לקשר קהילות שעלולות להיות מסוכנות זו לזו? או שזה מהותי לפלטפורמה עצמה?
אני לא חושב שזה מהותי לפלטפורמה. אני חושב שזה מהותי למודל העסקי. אתה יכול מאוד לחשוב על קהילת סרטונים שאולי דומה ל- Reddit, למשל, שמתמקדת בתוכן מסוים או בנושאים מסוימים, ושבה אתה יכול לפרסם סרטונים בהקשר זה.
זאת הבעיה. אם יוטיוב נוטש את האלגוריתם שמחזיק אנשים בפלטפורמה, אז זו בעיית רווח. YouTube רוצה להמשיך להרוויח כסף.
אני חושב שזה הוגן. הרבה מהדיונים שאנחנו מנהלים כרגע סביב איך פלטפורמות עובדות ומדוע, למשל, תוכן מסויים זוכה ליחס חיובי יותר מאחרים. מדוע, מידע מוטעה או תיאוריות קונספירציה מסוגלות לשגשג, קשור למודל העסקי ולרעיון שכל דבר עם קליקים מתוגמל. יש רעיונות לפלטפורמות שלא בנויות סביב זה. אבל אלה לא ירוויחו כל כך הרבה כסף.