Co může YouTube udělat pro to, aby byly naše děti v bezpečí?

click fraud protection

V únoru, YouTuber Matt Watson zveřejnil video odhalující snadnost, s jakou byl schopen vstoupit do algoritmicky vytvořeného králičí nora a najít komentující komunity pedofilů využívající jinak normální videa děti. Někdy tito komentátoři zveřejnili odkazy na neuvedená videa nebo zveřejnili kontaktní informace WhatsApp pro to, co bylo, pravděpodobně pedofilně přátelské skupinové zprávy, ale často zveřejňovala časová razítka dětí v kompromitujících pozicích ve zmíněném videa.

Watsonova zjištění opět podnítila konverzaci o umírněnosti a odpovědnosti YouTube. Mnoho videí, které našel, bylo programově zpeněženo pomocí reklam, což znamená, že YouTube na obsahu vydělával peníze který, i když sám o sobě nemusel být znepokojivý, byl zneužíván při kliknutích a zhlédnutích těmi, kteří měli postranní motivy. Videa sama o sobě většinou nebyla problémem. Mnohé byly z dětí, které dělaly normální dětské věci: zápasily se svými sourozenci, předváděly svou hračku sbírek, ale komentáře a způsoby jejich vzájemného propojení byly podezřelé a nakonec rušivý.

Skandál, který přišel pouhý rok poté, co YouTube poprvé uznal tyto kroužky komentářů a poté YouTube pro děti Skandál #ElsaGate, ve kterém lidé našli znepokojivá videa na platformě vytvořená s ohledem na děti a jejich bezpečnost, zatáhl YouTube do debaty, kde se mnozí ptali: Změnil YouTube vůbec něco? A pokud ano, proč se problém množil? Dalo by se to opravit?

YouTube zareagoval tím, že zakázal komentáře u milionů videí, která byla cílem predátorů, a poukázal na to, že má tým 10 000 zaměstnanců. lidské komentáře a moderátoři obsahu a systém strojového učení, jehož úkolem je probírat videa a označovat cokoli urážlivého. Ale stačí to? Existuje nějaký způsob, jak může YouTube napravit ustarané rodiče? Nebo je algoritmus společnosti příliš daleko?

Chcete-li zjistit, co, pokud vůbec něco, lze udělat pro opravu platformy, Otcovskýhovořil s Jonasem Keiserem, přidruženým členem Berkman Klein Center for Internet & Society, přidruženým výzkumným pracovníkem v Institutu Alexandra von Humboldta pro internet a společnost a výzkumným pracovníkem DFG. Keizer je odborníkem na algoritmy YouTube a šíření škodlivých komunit. Hovořili jsme s ním o algoritmu YouTube, o tom, jak tyto problémy vznikají a co může YouTube udělat pro lepší.

Váš výzkum se zaměřuje na kampaně krajně pravicových trollů na Youtube a na to, jak se takové komunity šíří. Existují podobnosti mezi těmito komunitami a těmito nově nalezenými pedofilními komunitami, které sdílejí odkazy v sekcích komentářů?

Já bych to srovnání nedělal. S krajní pravicí, máme více velmi viditelných a zjevných pokusů o vytvoření komunity a spojení s jinými kanály. Sledují své vlastní trendy témat, která považují za důležitá, a to se neděje na jednom kanálu, ale na několika. Dělají to velmi záměrně jejich vlastními činy. Krajně pravicové mluvící hlavy chodí navzájem na vystoupení a dávají si významnou legitimitu.

Zároveň svou aktivitou a aktivitou uživatelů také ovlivňují algoritmus YouTube tak, že na YouTube, politická videa a politické kanály, bez ohledu na to, na jakou ideologii se díváte, často vedou ke krajní pravici kanály.

Zdá se tedy, že pedofilní komunity jsou mnohem víc, než kanály a videa nutně nebyly komunitou tam, ale spíše online komentáře, které podle toho, co jsem četl, vytvořily tento podivný, neviditelný, velmi znepokojivý jev.

Pro ty, kteří to nevědí, jak funguje algoritmus YouTube?

YouTube algoritmus se točí kolem myšlenky, že udrží uživatele v kontaktu. V tomto kontextu to samozřejmě znamená prohlížení videí, komentování, lajkování nebo sdílení. Nejdůležitějším cílem je zůstat na platformě. Chcete-li zůstat na platformě, budete dostávat doporučení na své domovské stránce, na stránkách videa a na samotných kanálech. To vše je založeno na myšlence, že uživatelé by měli zůstat na platformě. Otázkou samozřejmě je, jak YouTube vytváří algoritmus, který to dělá?

Existuje mnoho různých datových bodů, které vstupují do tohoto algoritmu. Například: co je aktuálně na platformě trendy? Na co se dívali ostatní lidé se stejnými zájmy? Na jaká videa se kliká nejvíce? Kde se podobní lidé překrývají v komentářích uživatelů? Takové věci. Hlavní myšlenkou je, aby se algoritmus naučil, co přitahuje a udržuje uživatele na platformě.

Pokud jde o moderování obsahu a komentářů na YouTube, jak je toto moderování nastaveno? Myslíte si, že je to dostatečná reakce na hrozby na internetu?

Jen do určité míry. Problém s moderováním ve způsobu, jakým to dělá většina velkých platforem sociálních médií, je ten, že je postaven na lidech, kteří nahlašují obsah. Takže v zásadě, pokud to nikdo nenahlásí a není to jasně v rozporu s pravidly, která jsou identifikovatelná pomocí strojového učení – jako nadávky nebo něco podobného, ​​co by se dalo odfiltrovat algoritmicky – ostatní komentáře je samozřejmě mnohem těžší identifikovat takže a člověk se na to musí dívat. Pokud ale obsah nikdo nenahlásí, YouTube neví, že existuje, jen proto, že je na platformě tolik obsahu. Zdůrazňuje důležitost uživatelů. Bez ohledu na to, zda je to dobrá nebo špatná věc, se diskutuje o tom, že uživatelé jsou postaveni do pozice, kterou musí vynaložit na to, aby na YouTube upozornili na to, co je pro ně urážlivé.

Na úrovni videa jsou nyní implementovány jiné formy [moderování], takže dochází ke snížení hodnocení obsahu, který by mohl zahrnovat hlavní zprávy. Pokud budete hledat zprávy, nejprve získáte zdroje, které YouTube považuje za spolehlivější. Experimentovali s informačními boxy kolem určitých konspiračních videí. To vše jsou, tak či onak, formy moderování obsahu.

Způsob, jakým se YouTube spoléhá na dobré samaritány, aby hlásili věci, které by mohly být problematické nebo urážlivé, je podobný že Reddit je také z velké části hlídán moderátory komunity, i když se zdá, že Reddit tento problém nemá měřítko.

Srovnání dává smysl, ale je velmi odlišné. Každý subreddit je komunita, která v podstatě říká, jaká forma obsahu je povolena. V kontextu vědeckého SubReddit můžete například vidět, kdy se moderátoři ujišťují, že jsou dodržována pravidla, zatímco ostatní subreddity jsou velmi laissez-faire. Počet příspěvků na subredditech nelze srovnávat s počtem videí nahraných v kteroukoli hodinu na YouTube. Některá z těchto fór se zajímají o sebekontrolu. Práce je v zásadě zadávána uživatelům a předpokládá se, že pokud existují lidé dostatečně motivovaní, aby tuto práci dělali, je to v pořádku, ale na YouTube tomu tak není. Tato fóra neexistují stejným způsobem.

Co se týče těchto nedávných komentátorů a nedávných skandálů YouTube Kids, jako je #ElsaGate, kde trollové všívali strašlivá videa do obsahu pro děti. Existuje způsob, jak na ně upozornit, který se nespoléhá pouze na dobrou vůli průměrného uživatele YouTube?

YouTube se pomalu, velmi pomalu vydal správným směrem. Nejsou tam, ale chápou, že lidé budou na YouTube hledat zprávy, takže výběr kanálů, které se objeví, má podle mého názoru smysl.

V mé vlastní práci je pro mě ohromující, že YouTube v zásadě zachází s politickým obsahem stejně jako s pop music. V posledních týdnech pomalu pochopili, že existuje rozdíl.

Například s anti-vaxxing hnutířekli, že už nebudou nutně povolovat určitá videa. Myslím, že je to důležité. V politickém kontextu není myšlenka ‚jen lidé sledující‘ to, co chcete. To je to, co chcete pro hudbu, hraní her nebo jiné formy zábavy, ale pokud jde o informace.

Myslím, že pro doporučení videí a kanálů, kde tato logika pokračuje, je problematické mít lidi na platformě bez ohledu na to, jakou motivaci mají.

Jaká řešení, pokud vůbec nějaká, tedy navrhujete pro řešení nedávných skandálů s komentáři na YouTube?

Z toho, co jsem četl, komunita většinou existovala prostřednictvím komentářů, které pak měly velký vliv na doporučení YouTube, takže ta videa byla propojena, očividně dost nemocným způsobem. Myslím, že tohle je něco jako ta problematická část. Jak jste si jako platforma vědomi? Uvědomujete si, že se děje něco, co by se nemělo dít? A protože by zjevně nemělo být na určitých, aktivních a vědomých uživatelích, aby na tyto věci přišli, ale naštěstí existují.

Otázka zní: ‚Jak v tomto kontextu fungují algoritmy a umožňují to?‘ Podle mého názoru je rozdíl mezi uživateli, kteří komentovali, a lidmi, kteří nahráli videa. Myslím, že by to mohlo být jednodušší odpojit; ale myslím, že nejlepší možností by bylo hodně investovat do lidí, aby moderovali obsah, který je podezřelý, a být si vědom toho, že se snažíte zjistit, co považuje za podezřelé s ohledem na algoritmy.

Existuje podle vás verze YouTube, která nemusí běžet na těchto algoritmech, které by mohly vzájemně propojovat potenciálně nebezpečné komunity? Nebo je to vlastní platformě samotné?

Nemyslím si, že je to vlastní platformě. Myslím, že je to přirozené pro obchodní model. Můžete si velmi dobře představit videokomunitu, která je možná podobná Redditu, například, která se zaměřuje na určitý obsah nebo určitá témata a kde můžete v tomto ohledu zveřejňovat videa.

To je problém. Pokud YouTube opustí algoritmus, který udržuje lidi na platformě, pak je to problém zisku. YouTube chce dál vydělávat peníze.

Myslím, že je to fér. Mnoho diskusí, které v současné době vedeme, se týká toho, jak platformy fungují a proč se například s některým obsahem zachází příznivěji než s jiným a proč mohou dezinformace nebo konspirační teorie prosperovat, souvisí s obchodním modelem a myšlenkou, že vše s prokliky je odměňováno. Existují nápady, jak mít platformy, které na tom nejsou postaveny. Ale ty by nevydělaly tolik peněz.

7 videí YouTube, které by moje batole mohlo sledovat v nekonečné smyčce

7 videí YouTube, které by moje batole mohlo sledovat v nekonečné smyčceYoutubeBrouciMoanaVideaElmo

Shlédnutí každého videa na YouTube by trvalo odhadem 60 000 let. Pokud jste zaneprázdněný pracující rodič s batoletem, je to asi 59 999 let, kdy nemusíte ztrácet čas hledáním videí, která se vašim ...

Přečtěte si více
Youtube Storybooth umožňuje dětem mluvit o svých nejnáročnějších zážitcích

Youtube Storybooth umožňuje dětem mluvit o svých nejnáročnějších zážitcíchŠikanováníStoryboothYoutubeVelké DítěLgbt

Být dítětem je zvláštní. Vše proplouváte poprvé: přátelství, rvačky, šílené růstové skoky. A i když je to vzrušující, může to být také neuvěřitelně obtížné, zvláště pokud jde o vyjádření vašeho zne...

Přečtěte si více
YouTube vypíná automatické přehrávání pro děti a přidává další bezpečnostní opatření

YouTube vypíná automatické přehrávání pro děti a přidává další bezpečnostní opatřeníYoutubeYoutube Děti

Na YouTube konečně přicházejí nová bezpečnostní opatření pro děti. Tyto změny způsobí YouTube sledování o něco méně otravné pro rodiče a o něco bezpečnější. Má to ale háček – nové funkce jsou zaměř...

Přečtěte si více