Що може зробити YouTube для безпеки наших дітей?

В лютому, Ютубер Метт Вотсон опублікував відео, яке демонструє легкість, з якою він міг увійти до алгоритмічно створеного кролячу нору та знайдіть спільноти коментуючих педофілів, які експлуатують нормальні відео дітей. Іноді ці самі коментатори публікували посилання на відео, які не є в списку, або публікували контактну інформацію WhatsApp щодо того, що було, імовірно, групові повідомлення, дружні до педофілів, але часто розміщуються позначки часу дітей, які займають компромісні позиції у згаданому відео.

Висновки Уотсона знову розпалили розмову про поміркованість і відповідальність YouTube. Багато відео, які він знайшов, були програмно монетизовані за допомогою реклами, що означає, що YouTube заробляв гроші на вмісті що, хоча й не турбувало само собою, використовувалося в кліках і переглядах тими, хто мав приховані мотиви. Самі відео не були проблемою, здебільшого. Багато дітей займалися звичайними дитячими справами: боролися зі своїми братами і сестрами, демонстрували свою іграшку колекції, але коментарі та те, як вони були пов’язані один з одним, були підозрілими і, зрештою, тривожний.

Скандал, який стався всього через рік після того, як YouTube вперше визнав ці дзвінки коментарів, і після того, як YouTube для дітей Скандал #ElsaGate, під час якого люди знайшли тривожні відео на платформі, зроблені з урахуванням дітей та їх безпеки, втягнув YouTube у дебати, де багато запитали: чи змінив YouTube взагалі щось? І якщо так, то чому проблема поширювалася? Чи можна це виправити?

YouTube у відповідь вимкнув коментарі до мільйонів відео, які були націлені хижаками, і зазначив, що в них працює команда з 10 000 співробітників. людські коментарі та модератори контенту і система машинного навчання, завдання якої — перебирати відео та позначати будь-що образливе. Але чи достатньо? Чи є у YouTube спосіб помиритися з стурбованими батьками? Або алгоритм компанії зайшов занадто далеко?

Щоб зрозуміти, що можна зробити, щоб виправити платформу, Батьківськийпоспілкувався з Йонасом Кайзером, філією Центру Інтернету та суспільства Беркмана Кляйна, дослідником Інституту Інтернету та суспільства імені Олександра фон Гумбольдта та науковим співробітником DFG. Кейзер — експерт з алгоритмів YouTube і поширення шкідливих спільнот. Ми поговорили з ним про алгоритм YouTube, як виникають ці проблеми та що YouTube може зробити, щоб зробити краще.

Ваше дослідження зосереджено на кампаніях ультраправих тролів на Youtube і на тому, як такі спільноти поширюються. Чи є схожість між цими спільнотами та цими новоствореними спільнотами-педофілами, які діляться посиланнями в розділах коментарів?

Я б не став робити це порівняння. З крайніми правими, ми маємо більш помітні та очевидні спроби сформувати спільноту та зв’язатися з іншими каналами. Вони стежать за своїми власними тенденціями щодо тем, які вони вважають важливими, і це відбувається не на одному каналі, а на кількох. Це робиться дуже свідомо через їхні власні дії. Ультраправі, що говорять, ходять один до одного на шоу і надають один одному помітну легітимність.

У той же час через свою активність і активність користувачів вони також впливають на алгоритм YouTube таким чином, що на YouTube, політичні відео та політичні канали, незалежно від того, на яку ідеологію ви дивитесь, часто призводять до ультраправих канали.

Отже, педофілські спільноти, здається, набагато більше, ніж канали та відео не обов’язково були спільнотою там, а радше коментарі в Інтернеті, які, з того, що я прочитав, створили це дивне, невидиме, дуже тривожне явище.

Для тих, хто не знає, як працює алгоритм YouTube?

YouTube алгоритм спирається на ідею, що це зацікавить користувачів. У цьому контексті це, очевидно, означає перегляд відео, коментування, оцінку «подобається» або поширення. Залишатися на платформі є найважливішою метою. Щоб залишатися на платформі, ви отримуватимете рекомендації на своїй домашній сторінці, на сторінках відео та на самих каналах. Усе це побудовано на думці, що користувачі повинні залишатися на платформі. Питання, звичайно, полягає в тому, як YouTube створює алгоритм, який це робить?

Існує багато різних точок даних, які входять до цього алгоритму. Наприклад: що зараз в тренді на платформі? На що дивилися інші люди з такими ж інтересами? На які відео клікають найчастіше? Де схожі люди збігаються в коментарях користувачів? Такі речі. Основна ідея полягає в тому, щоб алгоритм дізнався, що приваблює та утримує користувачів на платформі.

З точки зору модерації вмісту та коментарів на YouTube, як налаштована ця модерація? Ви вважаєте, що це достатня відповідь на загрози в Інтернеті?

Тільки в якійсь мірі. Проблема модерації, як це роблять більшість великих платформ соціальних мереж, полягає в тому, що вона побудована навколо людей, які повідомляють про контент. Тож, по суті, якщо ніхто не повідомляє про це, і це явно не суперечить правилам, які можна визначити за допомогою машинного навчання, наприклад лайливі слова або щось подібне, що можна відфільтрувати за допомогою алгоритму — інші коментарі, очевидно, набагато важче визначити так а людині потрібно дивитися на це. Але якщо ніхто не повідомляє про вміст, YouTube не знає, що він існує, просто тому, що на платформі так багато вмісту. Це підкреслює важливість користувачів. Незалежно від того, добре це чи погано, користувачі мають докласти зусиль, щоб висвітлити YouTube те, що для них образливо.

На рівні відео зараз запроваджено інші форми [модерації], тому відбувається зниження рейтингу вмісту, який може включати головні новини. Якщо ви шукаєте новини, ви отримаєте те, що YouTube вважає більш надійними джерелами. Вони експериментували з інформаційними вікнами навколо певних відео про змову. Це все, так чи інакше, форми модерації контенту.

Те, як YouTube покладається на добрих самаритян, щоб повідомляти про речі, які можуть бути проблематичними або образливими, схоже на те, як що Reddit також значною мірою контролюється модераторами спільноти, хоча Reddit, схоже, не має цієї проблеми водночас масштабу.

Порівняння має сенс, але воно дуже різне. Кожен субреддіт — це спільнота, яка в основному говорить, яка форма вмісту дозволена. У контексті наукового SubReddit, наприклад, ви можете побачити, коли модератори стежать за дотриманням правил, тоді як інші субреддити дуже вільні. Кількість дописів у субредитах не можна порівняти з кількістю відео, які завантажуються в будь-який час на YouTube. Деякі з цих форумів зацікавлені в самополіції. Робота в основному передається користувачам на аутсорсинг, і передбачається, що поки є люди, достатньо мотивовані, щоб виконувати цю роботу, це нормально, але це не так на YouTube. Ці форуми не існують однаково.

З точки зору цих останніх коментаторів і недавніх скандалів YouTube Kids, таких як #ElsaGate, коли тролі вшивали жахливі відео в дитячий вміст. Чи є спосіб привернути до них увагу, який не залежить лише від доброї волі пересічного користувача YouTube?

YouTube повільно, дуже повільно, пішов у правильному напрямку. Їх там немає, але вони розуміють, що люди будуть шукати новини на YouTube, тому, на мою думку, має сенс курувати, які канали з’являться.

У моїй власній роботі мене вражає, що YouTube в основному ставиться до політичного контенту так само, як і до поп-музики. Останніми тижнями вони повільно зрозуміли, що є різниця.

Наприклад, з рух проти ваксингу, вони сказали, що більше не дозволять певні відео. Я думаю, що це важливо. У політичному контексті ідея «просто люди дивляться» — це не те, чого ви хочете. Це те, що вам потрібно для музики, ігор чи інших видів розваг, але коли справа доходить до інформації.

Я думаю, що для рекомендацій відео та каналів, де ця логіка продовжується, є проблематичною метою залучення людей на платформі, незалежно від мотивації.

Отже, які рішення, якщо такі є, ви пропонуєте для вирішення недавніх скандалів з коментарями на YouTube?

З того, що я прочитав, спільнота здебільшого існувала через коментарі, які потім мали великий вплив на рекомендації YouTube, тож ці відео були пов’язані, очевидно, у досить хворий спосіб. Я вважаю, що це як би проблемна частина. Як ви, як платформа, усвідомлюєте? Ви знаєте, що відбувається щось таке, чого не повинно відбуватися? І тому, що, очевидно, це не повинно залежати від певних, активних та обізнаних користувачів, щоб зрозуміти ці речі, але, на щастя, вони є.

Питання таке: «Як алгоритми працюють у цьому контексті та допускають це?» Я вважаю, що існує різниця між користувачами, які коментували, і людьми, які завантажили відео. Я думаю, що це може бути легше від’єднати; але я думаю, що найкращим варіантом було б інвестувати значні кошти в людей, щоб модерувати підозрілий вміст і просто дуже обізнаний у спробах з’ясувати, що є підозрілим щодо алгоритмів.

Чи існує, на вашу думку, версія YouTube, яка не повинна працювати на цих алгоритмах, які можуть зв’язувати потенційно небезпечні спільноти одна з одною? Або це притаманне самій платформі?

Я не думаю, що це властиво платформі. Я думаю, що це невід’ємно від бізнес-моделі. Ви цілком можете подумати про відеоспільноту, яка може бути схожа на Reddit, наприклад, яка зосереджується навколо певного вмісту або певних тем, і де ви можете публікувати відео з цього приводу.

Це проблема. Якщо YouTube відмовляється від алгоритму, який утримує людей на платформі, то це проблема прибутку. YouTube хоче продовжувати заробляти гроші.

Я вважаю, що це справедливо. Багато дискусій, які ми зараз ведемо про те, як працюють платформи та чому, наприклад, до якогось вмісту ставляться прихильніше, ніж до іншого. Чому, дезінформація або теорії змови можуть процвітати, пов’язано з бізнес-моделью та ідеєю, що все, за допомогою кліків, винагороджується. Є ідеї створити платформи, які не будуються на цьому. Але це не заробить стільки грошей.

Огляд: «Кобра Кай» — це захоплююче продовження YouTube «The Karate Kid»

Огляд: «Кобра Кай» — це захоплююче продовження YouTube «The Karate Kid»YoutubeКобра кай

Кобра Кай, 34-річне продовження Малюк карате, був офіційно випущений на YouTube Red минулого тижня, дозволяючи глядачам знову зареєструватися Деніел ЛаРуссо і Джонні Лоуренс як чоловіків середнього...

Читати далі
Джим Геффіган, Ryan's World і YouTubers ніжно пояснюють дітям коронавірус

Джим Геффіган, Ryan's World і YouTubers ніжно пояснюють дітям коронавірусYoutubeКоронавірус

Пояснення дітям про пандемію коронавірусу нелегко. Для дітей все, що відбувається, може бути страшно, напружено, приголомшливо, і заплутано, особливо для дітей молодшого віку, які не можуть зрозумі...

Читати далі
Що може зробити YouTube для безпеки наших дітей?

Що може зробити YouTube для безпеки наших дітей?Інтернетінтернет безпекаYoutubeБезпека в ІнтернетіЕльзагейтдіти Youtube

В лютому, Ютубер Метт Вотсон опублікував відео, яке демонструє легкість, з якою він міг увійти до алгоритмічно створеного кролячу нору та знайдіть спільноти коментуючих педофілів, які експлуатують ...

Читати далі