Какво може да направи YouTube, за да защити децата ни?

click fraud protection

През февруари, YouTuber Мат Уотсън публикува видео, разкриващо лекотата, с която е успял да влезе в алгоритмично създаден заешка дупка и намерете коментиращи общности от педофили, експлоатиращи иначе нормални видеоклипове на деца. Понякога същите тези коментатори публикуваха връзки към скрити видеоклипове или публикуваха информация за връзка с WhatsApp за това, което беше, вероятно групови съобщения, подходящи за педофили, но често са публикувани времеви печати на деца в компрометиращи позиции в споменатите видеоклипове.

Констатациите на Уотсън отново разпалиха разговора около модерирането и отчетността на YouTube. Много от видеоклиповете, които намери, бяха програмно осигурени с реклами, което означава, че YouTube печелеше пари от съдържанието че, въпреки че може и да не е смущаващо само по себе си, се използва в кликвания и изгледи от онези, които са имали скрита мотиви. Самите видеоклипове не бяха проблемът в по-голямата си част. Много бяха деца, които се занимаваха с нормални детски неща: бореха се с братята и сестрите си, показваха играчката си колекции, но коментарите и начините, по които бяха свързани един с друг, бяха подозрителни и в крайна сметка, смущаващо.

Скандалът, идващ само година след като YouTube за първи път призна тези коментари и след YouTube за деца Скандалът #ElsaGate, при който хората откриха смущаващи видеоклипове на платформа, създадени с мисъл за децата и тяхната безопасност, замеси YouTube в дебат, в който мнозина попитаха: промени ли YouTube изобщо нещо? И ако е така, защо проблемът се разраства? Може ли да се поправи?

YouTube отговори, като деактивира коментарите за милиони видеоклипове, които са били насочени от хищници, и посочи, че разполагат с екип от 10 000 служители от човешки коментари и модератори на съдържание и система за машинно обучение, чиято работа е да преглежда видеоклипове и да маркира всичко обидно. Но достатъчно ли е? Има ли начин YouTube да се поправи с притеснените родители? Или алгоритъмът на компанията е отишъл твърде далеч?

За да разберете какво, ако има нещо, може да се направи, за да се поправи платформата, Бащинскиразговаря с Йонас Кайзер, филиал в Центъра за интернет и общество Berkman Klein, асоцииран изследовател в Института за интернет и общество Александър фон Хумболт и научен сътрудник на DFG. Кейзер е експерт по алгоритмите на YouTube и разпространението на вредни общности. Говорихме с него за алгоритъма на YouTube, как се създават тези проблеми и какво може да направи YouTube, за да направи по-добре.

Вашето изследване се фокусира върху кампаниите на крайнодесните тролове в Youtube и как се разпространяват такива общности. Има ли прилики между тези общности и тези новооткрити педофилски общности, които споделят връзки в секциите за коментари?

не бих направил това сравнение. С крайната десница, имаме повече много видими и очевидни опити за формиране на общност и за свързване с други канали. Те следват собствените си тенденции по теми, които смятат за важни и това не се случва на един канал, а на няколко. Прави се много съзнателно чрез собствените им действия. Крайнодесни говорещи глави ходят на шоута един на друг и си дават видна легитимност.

В същото време, чрез своята активност и активност на потребителите, те също влияят на алгоритъма на YouTube по начин, който на YouTube, политическите видеоклипове и политическите канали, независимо каква идеология гледате, често водят до крайно десни канали.

Така че педофилските общности изглежда са много повече от това, че каналите и видеоклиповете не са непременно общността там, а по-скоро онлайн коментарите, които, от това, което прочетох, създадоха това странно, невидимо, много обезпокоително явление.

За тези, които не знаят, как функционира алгоритъмът на YouTube?

YouTube алгоритъм се върти около идеята, че ще държи потребителите ангажирани. В този контекст това очевидно означава гледане на видеоклипове, или коментиране, или харесване, или споделяне. Оставането на платформата е най-важната цел. За да останете на платформата, ще получавате препоръки на началната си страница, на видео страниците и в самите канали. Всички те са изградени около идеята, че потребителите трябва да останат на платформата. Въпросът е, разбира се, как YouTube създава алгоритъм, който прави това?

Има много различни точки от данни, които влизат в този алгоритъм. Например: какво е актуално в момента в платформата? Какво са гледали други хора със същите интереси? На кои видеоклипове се кликва най-много? Къде се припокриват подобни хора в коментарите на потребителите? Такива неща. Основната идея е алгоритъмът да научи какво привлича и задържа потребителите на платформата.

По отношение на съдържанието и модерирането на коментарите в YouTube, как е настроено това модериране? Смятате ли, че това е достатъчен отговор на заплахите в интернет?

Само донякъде. Проблемът с модерирането по начина, по който повечето големи социални медийни платформи го правят, е, че е изграден около хора, които съобщават за съдържание. Така че, по принцип, ако никой не докладва за това и не е очевидно против правилата, които могат да бъдат идентифицирани чрез машинно обучение - като ругатни или нещо подобно, което може да се филтрира алгоритмично - други коментари очевидно са много по-трудни за идентифициране така че а човек има нужда да го погледне. Но ако никой не докладва съдържанието, YouTube не знае, че то съществува, само защото има толкова много съдържание на платформата. Той подчертава важността на потребителите. Това е дискутирано, независимо дали това е нещо добро или лошо, че потребителите са поставени в положение, че трябва да положат усилия, за да подчертаят пред YouTube какво е обидно за тях.

На ниво видео сега са внедрени други форми [на модериране], така че има понижаване на съдържанието, което може да включва водещи новини. Ако търсите новини, първо ще получите това, което YouTube счита за по-надеждни източници. Те експериментираха с информационните кутии около определени конспиративни видеоклипове. Всичко това са, по един или друг начин, форми на модериране на съдържанието.

Начинът, по който YouTube разчита на добри самаряни, за да докладват неща, които може да са проблематични или обидни, е подобен на начина че Reddit също се контролира до голяма степен от модераторите на общността, въпреки че Reddit не изглежда да има този проблем едновременно мащаб.

Сравнението има смисъл, но е много различно. Всеки subreddit е общност, която по същество казва каква форма на съдържание е разрешена. В контекста на научния SubReddit, например, можете да видите кога модераторите се уверяват, че правилата се спазват, докато други subreddit са много непринудени. Броят на публикациите в subreddits не може да се сравнява с броя на видеоклиповете, качени в даден час в YouTube. Някои от тези форуми имат интерес към самоконтрол. Работата основно се възлага на потребителите и допускането е, че стига да има достатъчно мотивирани хора да вършат тази работа, това е добре, но това не е така в YouTube. Тези форуми не съществуват по същия начин.

По отношение на тези скорошни коментатори и скорошни скандали в YouTube Kids като #ElsaGate, където троловете зашиват ужасни видеоклипове в детското съдържание. Има ли начин да привлечете вниманието към тях, който не разчита просто на добрата воля на обикновения потребител на YouTube?

YouTube бавно, много бавно тръгна в правилната посока. Те не са там, но разбират, че хората ще търсят новини в YouTube, така че според мен има смисъл да се курират какви канали ще се появят.

В моята собствена работа е изумително за мен, че YouTube основно третира политическото съдържание по същия начин, както и поп музиката. През последните седмици те бавно разбраха, че има разлика.

Например, с анти-ваксинг движение, те казаха, че вече няма да разрешават определени видеоклипове. Мисля, че това е важно. В политически контекст идеята „само хората да гледат“ не е това, което искате. Това е, което искате за музика, за игри или други форми на забавление, но когато става въпрос за информация.

Мисля, че за препоръките за видеоклипове и канали, където тази логика продължава, това е проблематично да има хора в платформата, независимо от каква мотивация.

И така, какви решения, ако има такива, предлагате за справяне с последните скандали с коментари в YouTube?

От това, което прочетох, общността съществуваше най-вече чрез коментарите, които след това имаха толкова голям ефект върху препоръките в YouTube, така че тези видеоклипове бяха свързани, очевидно по доста болен начин. Мисля, че това е нещо като проблемната част. Как вие, като платформа, сте наясно? Наясно ли сте, че се случва нещо, което не трябва да продължава? И тъй като очевидно не трябва да се свежда до определени, активни и осведомени потребители, за да разберат тези неща, но за щастие има.

Въпросът е: „Как работят алгоритмите в този контекст и позволяват това?“ Моето мнение е, че има разлика между потребителите, които коментират, и хората, които са качили видеоклипове. Мисля, че това може да бъде по-лесно за прекъсване; но мисля, че най-добрият вариант би бил да инвестирате сериозно в хора, за да модерирате съдържание, което е подозрително, и просто да сте много наясно да се опитвате да разберете какво представлява подозрителен по отношение на алгоритмите.

Има ли версия на YouTube, която съществува, според вас, която не трябва да работи с тези алгоритми, които биха могли да свържат потенциално опасни общности една с друга? Или е присъщо на самата платформа?

Не мисля, че е присъщо на платформата. Мисля, че това е присъщо на бизнес модела. Много добре бихте могли да помислите за видео общност, която може би е подобна на Reddit, например, която се фокусира около определено съдържание или определени теми и където можете да публикувате видеоклипове в това отношение.

Това е проблема. Ако YouTube изостави алгоритъма, който държи хората на платформата, това е проблем с печалбата. YouTube иска да продължи да прави пари.

Мисля, че това е справедливо. Много от дискусиите, които водим в момента около това как работят платформите и защо, например, някое съдържание се третира по-благоприятно от друго и защо, дезинформацията или теориите на конспирацията са в състояние да процъфтяват, е свързано с бизнес модела и идеята, че всичко с кликвания се възнаграждава. Има идеи да има платформи, които не са изградени около това. Но те няма да направят толкова пари.

Този Nerf Gun крещи, когато го стреляте

Този Nerf Gun крещи, когато го стрелятеYoutubeпистолети Nerf

Някога искал а Нерф пистолет който крещи, когато го стреляш? Е, дори и никога да не сте си представяли тази мисъл или тези думи да са нанизани в ума ви в едно и също изречение, благодарение на ново...

Прочетете още
Видеоклиповете в YouTube не учат децата на нищо, но не са вредни

Видеоклиповете в YouTube не учат децата на нищо, но не са вредниYoutubeВреме на екрана

е не толкова вредно за показване на родителите YouTube видеоклипове на техните малки деца, но официално е глупаво да се мисли, че ще научат нещо от опита. Защото дори малките деца да изглеждат анга...

Прочетете още
Как да изключите автоматичното възпроизвеждане в YouTube, Netlfix, Hulu и Amazon Prime

Как да изключите автоматичното възпроизвеждане в YouTube, Netlfix, Hulu и Amazon PrimeAmazon PrimeТехнологияYoutubeHuluНетфликс

Няколко секунди. Това е цялото време, което имате в края на стрийминг телевизионно предаване или Видео в YouTube за да натиснете стоп, преди следващият епизод да се запали и детето ви да е закачено...

Прочетете още