Что YouTube может сделать, чтобы наши дети были в большей безопасности?

click fraud protection

В феврале, YouTuber Мэтт Уотсон опубликовал видео, демонстрирующее легкость, с которой он смог войти в алгоритмически созданную кроличью нору и найдите комментирующие сообщества педофилов, использующих в остальном нормальные видеоролики дети. Иногда те же самые комментаторы размещали ссылки на частные видео или публиковали контактную информацию в WhatsApp для того, что было, предположительно, групповые сообщения, дружественные к педофилам, но в указанных видео.

Выводы Уотсона снова зажгли дискуссию о модерации и подотчетности YouTube. Многие из найденных им видео были программно монетизированы с помощью рекламы, а это означало, что YouTube зарабатывал деньги на контенте. это, хотя, возможно, и не беспокоило само по себе, использовалось в кликах и просмотрах теми, кто имел скрытые мотивы. Сами видео по большей части не были проблемой. Многие из них были детьми, которые занимались обычными детскими делами: боролись со своими братьями и сестрами, хвастались игрушками. коллекции, но комментарии и способы их связывания были подозрительными и, в конечном итоге, тревожный.

Скандал, разразившийся всего через год после того, как YouTube впервые признал эти комментаторы, и после YouTube для детей Скандал с #ElsaGate, в ходе которого люди находили тревожные видео на платформе, созданные с учетом интересов детей и их безопасности, втянул YouTube в дискуссию, в ходе которой многие спрашивали: изменил ли YouTube что-нибудь вообще? И если да, то почему проблема разрастается? Можно ли это исправить?

В ответ YouTube отключил комментарии к миллионам видео, которые стали мишенью хищников, и указал на то, что у них есть команда из 10 000 сотрудников. человеческие комментарии и модераторы контента и система машинного обучения, задача которой - отсеивать видео и отмечать все оскорбительные. Но достаточно ли этого? Есть ли у YouTube способ помириться с обеспокоенными родителями? Или алгоритм компании зашел слишком далеко?

Чтобы понять, что можно сделать, чтобы починить платформу, Отеческийпоговорил с Йонасом Кейзером, партнером Центра Беркмана Кляйна по Интернету и обществу, младшим научным сотрудником Института Интернета и общества Александра фон Гумбольдта и научным сотрудником DFG. Кейзер - эксперт в алгоритмах YouTube и распространении вредоносных сообществ. Мы поговорили с ним об алгоритме YouTube, о том, как возникают эти проблемы и о том, что YouTube может сделать лучше.

Ваше исследование посвящено кампаниям ультраправых троллей на Youtube и распространению таких сообществ. Есть ли сходства между этими сообществами и этими недавно открытыми сообществами педофилов, которые делятся ссылками в разделах комментариев?

Я бы не стал проводить такое сравнение. С крайним правым, у нас есть более заметные и очевидные попытки сформировать сообщество и установить связь с другими каналами. Они следят за своими собственными тенденциями в отношении тем, которые они считают важными, и это происходит не на одном канале, а на нескольких. Это сделано очень сознательно, их собственными действиями. Ультраправые «говорящие головы» ходят друг на друга на шоу и придают друг другу заметную легитимность.

В то же время, благодаря своей активности и активности пользователей, они также влияют на алгоритм YouTube таким образом, что YouTube, политические видео и политические каналы, независимо от того, на какую идеологию вы смотрите, часто приводят к крайне правым каналы.

Итак, сообщества педофилов кажутся намного больше, чем каналы и видео, не обязательно являющиеся сообществом. есть, а скорее онлайн-комментарии, которые, судя по тому, что я прочитал, создали этот странный, невидимый, очень тревожный явление.

Для тех, кто не знает, как работает алгоритм YouTube?

YouTube алгоритм вращается вокруг идеи, что это будет поддерживать заинтересованность пользователей. В этом контексте это, очевидно, означает просмотр видео, комментирование, лайк или обмен. Оставаться на платформе - самая важная цель. Чтобы оставаться на платформе, вы будете получать рекомендации на своей домашней странице, на страницах с видео и на самих каналах. Все они построены на идее, что пользователи должны оставаться на платформе. Вопрос, конечно, в том, как YouTube создает алгоритм, который это делает?

В этот алгоритм входит много разных точек данных. Например: что сейчас в тренде на платформе? На что смотрели другие люди с такими же интересами? На какие видео нажимают чаще всего? Где похожие люди пересекаются в комментариях пользователей? Такие вещи. Основная идея состоит в том, чтобы алгоритм узнал, что привлекает и удерживает пользователей на платформе.

Что касается модерации контента и комментариев на YouTube, как устроена эта модерация? Как вы думаете, это достаточный ответ на угрозы в Интернете?

Только в некоторой степени. Проблема модерации в том, как это делают большинство крупных социальных сетей, заключается в том, что она построена вокруг людей, сообщающих о контенте. Итак, в основном, если об этом никто не сообщает, и это явно не противоречит правилам, которые можно идентифицировать с помощью машинного обучения, например ругательства или что-то в этом роде, которое может быть отфильтровано алгоритмически - другие комментарии, очевидно, намного сложнее идентифицировать так что человеку нужно смотреть на это. Но если никто не сообщает о контенте, YouTube не знает о его существовании только потому, что на платформе так много контента. Это подчеркивает важность пользователей. Это обсуждается, хорошо это или плохо, но пользователи ставятся в положение, в котором они вынуждены прилагать усилия, чтобы привлечь внимание YouTube к тому, что для них оскорбительно.

На уровне видео теперь реализованы другие формы [модерации], поэтому контент, который может включать главные новости, понижается в рейтинге. Если вы будете искать новости, вы сначала получите то, что YouTube считает более надежным источником. Они экспериментировали с информационными блоками вокруг некоторых видео о заговоре. Все это, так или иначе, формы модерации контента.

То, как YouTube полагается на добрых самаритян, сообщая о проблемных или оскорбительных вещах, похоже на то, как что Reddit также в значительной степени контролируется модераторами сообщества, хотя Reddit, похоже, не имеет этой проблемы. шкала.

Сравнение имеет смысл, но совсем другое. Каждый субреддит - это сообщество, которое в основном говорит, какая форма контента разрешена. В контексте научного SubReddit, например, вы можете видеть, когда модераторы следят за соблюдением правил, в то время как другие subreddit очень свободны. Количество сообщений в субреддитах нельзя сравнивать с количеством видео, загружаемых на YouTube в любой конкретный час. Некоторые из этих форумов заинтересованы в самоконтроле. Работа в основном передается на аутсорсинг пользователям, и предполагается, что пока есть люди, достаточно мотивированные для выполнения этой работы, это нормально, но на YouTube это не так. Эти форумы существуют по-разному.

Что касается этих недавних комментаторов и недавних скандалов с YouTube Kids, таких как #ElsaGate, когда тролли вшивали ужасные видео в детский контент. Есть ли способ привлечь к ним внимание, не полагаясь только на добрую волю обычного пользователя YouTube?

YouTube медленно, очень медленно двигался в правильном направлении. Их там нет, но они понимают, что люди будут искать новости на YouTube, поэтому, на мой взгляд, есть смысл выбирать, какие каналы появятся.

В моей собственной работе меня ошеломляет то, что YouTube в основном относится к политическому контенту так же, как и к поп-музыке. В последние недели они постепенно начали понимать, что есть разница.

Например, с движение против вакцины, они сказали, что больше не будут разрешать определенные видео. Я думаю, это важно. В политическом контексте идея «просто люди смотрят» - это не то, что вам нужно. Это то, что вам нужно для музыки, игр или других развлечений, но когда дело доходит до информации.

Я думаю, что для рекомендаций по видео и каналам, где эта логика продолжается, цель иметь людей на платформе, независимо от их мотивации, проблематична.

Итак, какие решения, если таковые имеются, вы предлагаете для борьбы с недавними скандалами с комментариями на YouTube?

Судя по тому, что я читал, сообщество в основном существовало за счет комментариев, которые затем оказали большое влияние на рекомендации YouTube, поэтому эти видео были связаны, очевидно, довольно болезненным способом. Я думаю, что это что-то вроде проблемной части. Как вы, как платформа, понимаете? Вы знаете, что что-то происходит, чего не должно происходить? И потому, что, очевидно, это не должно зависеть от определенных, активных и осведомленных пользователей, которые должны разбираться в этих вещах, но, к счастью, они есть.

Возникает вопрос: «Как алгоритмы работают в этом контексте и позволяют это?» Я считаю, что есть разница между пользователями, которые комментировали, и людьми, которые загружали видео. Думаю, было бы легче отключиться; но я думаю, что лучшим вариантом было бы вложить значительные средства в людей, чтобы модерировать подозрительный контент, и просто хорошо осознавая, пытаясь выяснить, что является подозрительным в отношении алгоритмов.

Существует ли, по вашему мнению, версия YouTube, которая не должна работать на этих алгоритмах, которые могут связывать потенциально опасные сообщества друг с другом? Или это присуще самой платформе?

Я не думаю, что это присуще платформе. Я думаю, что это неотъемлемая часть бизнес-модели. Вы могли бы очень хорошо подумать о видеосообществе, которое может быть похоже на Reddit, например, которое фокусируется на определенном контенте или определенных темах и где вы можете публиковать видео по этому поводу.

Это проблема. Если YouTube откажется от алгоритма, удерживающего людей на платформе, это станет проблемой для прибыли. YouTube хочет продолжать зарабатывать деньги.

Думаю, это справедливо. В настоящее время мы ведем много дискуссий о том, как работают платформы и почему, например, к одному контенту относятся более благосклонно, чем к другим, и почему дезинформация или теории заговора могут процветать, это связано с бизнес-моделью и идеей, что все, что связано с кликами, вознаграждается. Есть идеи иметь платформы, которые не строятся вокруг этого. Но они не принесут столько денег.

Что YouTube может сделать, чтобы наши дети были в большей безопасности?

Что YouTube может сделать, чтобы наши дети были в большей безопасности?ИнтернетБезопасность в сетиYou Tubeинтернет безопасностьЭльсагейтYoutube дети

В феврале, YouTuber Мэтт Уотсон опубликовал видео, демонстрирующее легкость, с которой он смог войти в алгоритмически созданную кроличью нору и найдите комментирующие сообщества педофилов, использу...

Читать далее
YouTube не позволит детям вести прямые трансляции без родительского надзора

YouTube не позволит детям вести прямые трансляции без родительского надзораYou Tubeскандал на Youtubeинтернет безопасность

В понедельник YouTube объявил, что больше не разрешает несовершеннолетним на YouTube прямая трансляция на Платформа без родительский надзор. Этот шаг последовал вслед за Нью Йорк Таймс отчет опубли...

Читать далее
YouTube обвиняется в сборе данных о миллионах детей-пользователей

YouTube обвиняется в сборе данных о миллионах детей-пользователейYou TubeНовости

YouTube, то Google видеоплатформу, обвиняют в добыче личных данных миллионов маленьких детей, которые пользуются сайтом. Более 20 групп защиты и конфиденциальности объединились, чтобы подать жалобу...

Читать далее