Čo môže YouTube urobiť, aby boli naše deti v bezpečí?

click fraud protection

Vo februári, YouTuber Matt Watson zverejnil video odhaľujúce ľahkosť, s akou bol schopný vstúpiť do algoritmicky vytvoreného králičiu noru a nájdite komentujúce komunity pedofilov, ktorí využívajú inak normálne videá z deti. Niekedy tí istí komentátori uverejnili odkazy na neuvedené videá alebo zverejnili kontaktné informácie WhatsApp pre to, čo bolo, pravdepodobne skupinové správy priateľské k pedofilom, ale často zverejňované časové pečiatky detí v kompromitujúcich pozíciách v uvedených videá.

Watsonove zistenia opäť podnietili diskusiu o moderovaní a zodpovednosti YouTube. Mnohé z videí, ktoré našiel, boli programovo speňažené reklamami, čo znamená, že YouTube na obsahu zarábal peniaze ktorá, hoci sama o sebe nemusela byť znepokojujúca, bola využívaná pri kliknutiach a zobrazeniach tými, ktorí mali postranné motívy. Problémom väčšinou neboli ani samotné videá. Mnohé boli z detí, ktoré robili bežné detské veci: zápasili so svojimi súrodencami, predvádzali svoju hračku zbierky, ale komentáre a spôsoby ich vzájomného prepojenia boli podozrivé a v konečnom dôsledku znepokojujúce.

Škandál, ktorý prichádza len rok po tom, čo YouTube prvýkrát uznal tieto komentovacie kruhy a potom YouTube pre deti Škandál #ElsaGate, v ktorom ľudia našli znepokojujúce videá na platforme vytvorené s ohľadom na deti a ich bezpečnosť, zatiahol YouTube do debaty, v ktorej sa mnohí pýtali: Zmenil YouTube vôbec niečo? A ak áno, prečo sa tento problém množil? Dalo by sa to opraviť?

YouTube zareagoval zakázaním komentárov k miliónom videí, ktoré sa stali terčom predátorov, a poukázal na to, že má tím 10 000 zamestnancov. moderátori ľudských komentárov a obsahu a systém strojového učenia, ktorého úlohou je preosiať videá a nahlásiť čokoľvek urážlivé. Ale stačí to? Existuje nejaký spôsob, ako môže YouTube urobiť nápravu so znepokojenými rodičmi? Alebo je algoritmus spoločnosti príliš ďaleko?

Ak chcete zistiť, čo, ak vôbec niečo, možno urobiť na opravu platformy, otcovskýhovoril s Jonasom Keiserom, pridruženým členom Berkman Klein Center for Internet & Society, pridruženým výskumníkom v Inštitúte Alexandra von Humboldta pre internet a spoločnosť a výskumným pracovníkom DFG. Keizer je odborníkom na algoritmy YouTube a šírenie škodlivých komunít. Rozprávali sme sa s ním o algoritme YouTube, o tom, ako tieto problémy vznikajú a čo môže YouTube urobiť, aby sa zlepšil.

Váš výskum sa zameriava na kampane krajne pravicových trollov na Youtube a na to, ako sa takéto komunity šíria. Existujú podobnosti medzi týmito komunitami a týmito novo nájdenými pedofilnými komunitami zdieľajúcimi odkazy v sekciách komentárov?

ja by som to prirovnanie nerobil. S krajnou pravicou, máme veľmi viditeľné a zjavné pokusy o vytvorenie komunity a spojenie s inými kanálmi. Sledujú svoje vlastné trendy tém, ktoré považujú za dôležité, a to sa nedeje na jednom kanáli, ale na viacerých. Robia to veľmi premyslene prostredníctvom ich vlastných činov. Krajne pravicové hovoriace hlavy chodia navzájom na svoje predstavenia a dávajú si významnú legitimitu.

Zároveň svojou aktivitou a aktivitou používateľov ovplyvňujú aj algoritmus YouTube tak, že na YouTube, politické videá a politické kanály, bez ohľadu na to, na akú ideológiu sa pozriete, často vedú ku krajnej pravici kanálov.

Zdá sa teda, že pedofilné komunity sú oveľa viac, ako kanály a videá neboli nevyhnutne komunitou tam, ale skôr online komentáre, ktoré podľa toho, čo som čítal, vytvorili tento zvláštny, neviditeľný, veľmi znepokojujúci fenomén.

Pre tých, ktorí nevedia, ako funguje algoritmus YouTube?

YouTube algoritmu sa točí okolo myšlienky, že udrží používateľov v kontakte. V tomto kontexte to samozrejme znamená prezeranie videí, komentovanie, lajkovanie alebo zdieľanie. Najdôležitejším cieľom je zostať na platforme. Ak chcete zostať na platforme, budete dostávať odporúčania na svojej domovskej stránke, na stránkach s videami a na samotných kanáloch. Všetky sú postavené na myšlienke, že používatelia by mali zostať na platforme. Otázkou samozrejme je, ako YouTube vytvorí algoritmus, ktorý to dokáže?

Existuje mnoho rôznych údajových bodov, ktoré vstupujú do tohto algoritmu. Napríklad: čo je momentálne na platforme trendy? Na čo sa pozerali iní ľudia s rovnakými záujmami? Na aké videá sa kliká najviac? Kde sa podobní ľudia prekrývajú v komentároch používateľov? Takéto veci. Hlavnou myšlienkou je, aby sa algoritmus naučil, čo priťahuje a udržiava používateľov na platforme.

Čo sa týka moderovania obsahu a komentárov na YouTube, ako je toto moderovanie nastavené? Myslíte si, že je to dostatočná odpoveď na hrozby na internete?

Len do určitej miery. Problém s moderovaním v spôsobe, akým to robí väčšina veľkých platforiem sociálnych médií, je ten, že je postavený na ľuďoch, ktorí nahlasujú obsah. Takže v podstate, ak to nikto nenahlási a nie je to jasne v rozpore s pravidlami, ktoré sú identifikovateľné pomocou strojového učenia – napr. nadávky alebo niečo podobné, čo by sa dalo odfiltrovať algoritmicky – iné komentáre je zjavne oveľa ťažšie identifikovať takže a ľudská potreba sa na to pozerať. Ak však obsah nikto nenahlási, YouTube nevie, že existuje, len preto, že na platforme je toľko obsahu. Zdôrazňuje dôležitosť používateľov. Diskutuje sa o tom, či je to dobrá alebo zlá vec, že ​​používatelia sú postavení do pozície, ktorú musia vynaložiť na to, aby na YouTube upozornili na to, čo je pre nich urážlivé.

Na úrovni videa sú teraz implementované iné formy [moderovania], takže došlo k zníženiu hodnotenia obsahu, ktorý by mohol zahŕňať hlavné správy. Ak hľadáte správy, najskôr získate zdroje, ktoré YouTube považuje za spoľahlivejšie. Experimentovali s informačnými boxmi okolo určitých konšpiračných videí. To všetko sú, tak či onak, formy moderovania obsahu.

Spôsob, akým sa YouTube spolieha na dobrých Samaritánov pri nahlasovaní vecí, ktoré by mohli byť problematické alebo urážlivé, je podobný že Reddit je tiež do značnej miery kontrolovaný moderátormi komunity, aj keď sa zdá, že Reddit tento problém nemá stupnica.

Porovnanie dáva zmysel, ale je veľmi odlišné. Každý subreddit je komunita, ktorá v podstate hovorí, aká forma obsahu je povolená. V kontexte vedeckého SubReddit môžete napríklad vidieť, keď moderátori dbajú na dodržiavanie pravidiel, zatiaľ čo iné subreddity sú veľmi laissez-faire. Počet príspevkov na subredditoch sa nedá porovnať s počtom videí nahraných v ktorúkoľvek hodinu na YouTube. Niektoré z týchto fór majú záujem o sebakontrolu. Práca je v podstate zadávaná používateľom a predpokladá sa, že pokiaľ existujú ľudia dostatočne motivovaní, aby túto prácu robili, je to v poriadku, ale na YouTube to tak nie je. Tieto fóra neexistujú rovnakým spôsobom.

Čo sa týka týchto nedávnych komentátorov a nedávnych škandálov YouTube Kids, ako napríklad #ElsaGate, kde trollovia pripájali strašné videá do obsahu pre deti. Existuje spôsob, ako na nich upozorniť, ktorý sa nespolieha len na dobrú vôľu priemerného používateľa YouTube?

YouTube sa pomaly, veľmi pomaly vydal správnym smerom. Nie sú tam, ale chápu, že ľudia budú na YouTube hľadať správy, takže výber kanálov, ktoré sa objavia, má podľa mňa zmysel.

V mojej vlastnej práci je pre mňa ohromujúce, že YouTube v podstate zaobchádza s politickým obsahom rovnako ako s popovou hudbou. V posledných týždňoch pomaly pochopili, že existuje rozdiel.

Napríklad s hnutie proti vaxxingupovedali, že už nebudú nevyhnutne povoľovať určité videá. Myslím, že je to dôležité. V politickom kontexte nie je myšlienka „len ľudia pozerajúci“ to, čo chcete. To je to, čo chcete pre hudbu, hry alebo iné formy zábavy, ale pokiaľ ide o informácie.

Myslím si, že v prípade odporúčaní videí a kanálov, kde táto logika pokračuje, je problematické mať ľudí na platforme bez ohľadu na to, akú motiváciu majú.

Aké riešenia, ak nejaké, teda navrhujete na riešenie nedávnych škandálov s komentármi na YouTube?

Z toho, čo som čítal, komunita väčšinou existovala prostredníctvom komentárov, čo malo potom veľký vplyv na odporúčania YouTube, takže tieto videá boli prepojené, očividne dosť chorým spôsobom. Myslím, že toto je niečo ako problematická časť. Ako si ako platforma uvedomujete? Uvedomujete si, že sa deje niečo, čo by sa nemalo stať? A pretože, samozrejme, by to nemali mať na starosti určití, aktívni a uvedomelí používatelia, aby na tieto veci prišli, ale našťastie existujú.

Otázka znie: ‚Ako fungujú algoritmy v tomto kontexte a umožňujú to?‘ Myslím si, že je rozdiel medzi používateľmi, ktorí komentovali, a ľuďmi, ktorí odovzdali videá. Myslím, že by to mohlo byť jednoduchšie odpojiť; ale myslím si, že najlepšou možnosťou by bolo veľa investovať do ľudí, aby sme moderovali obsah, ktorý je podozrivý, a byť si veľmi vedomý snahy zistiť, čo považuje za podozrivé, pokiaľ ide o algoritmy.

Existuje podľa vás verzia YouTube, ktorá nemusí bežať na týchto algoritmoch, ktoré by mohli navzájom prepojiť potenciálne nebezpečné komunity? Alebo je to vlastné samotnej platforme?

Nemyslím si, že je to vlastné platforme. Myslím si, že je to prirodzené pre obchodný model. Môžete si veľmi dobre predstaviť video komunitu, ktorá je možno podobná napríklad Redditu, ktorá sa zameriava na určitý obsah alebo určité témy a kde môžete v tomto ohľade uverejňovať videá.

To je problém. Ak YouTube opustí algoritmus, ktorý drží ľudí na platforme, potom je to problém so ziskom. YouTube chce naďalej zarábať.

Myslím, že je to fér. Veľa diskusií, ktoré v súčasnosti vedieme o tom, ako fungujú platformy a prečo sa napríklad s niektorým obsahom zaobchádza priaznivejšie ako s iným a prečo môžu dezinformácie alebo konšpiračné teórie prosperovať, súvisí s obchodným modelom a myšlienkou, že všetko s kliknutiami je odmenené. Existujú nápady, ako mať platformy, ktoré na tom nie sú postavené. Ale tie by nezarobili toľko peňazí.

YouTube vypína automatické prehrávanie pre deti a pridáva ďalšie bezpečnostné opatrenia

YouTube vypína automatické prehrávanie pre deti a pridáva ďalšie bezpečnostné opatreniaYou TubeYoutube Deti

Na YouTube konečne prichádzajú nové bezpečnostné opatrenia pre deti. Títo zmeny urobia YouTube Prezeranie je pre rodičov o niečo menej otravné a o niečo bezpečnejšie. Má to však háčik – nové funkci...

Čítaj viac
10 kanálov Youtube bezpečných a zábavných pre malé deti

10 kanálov Youtube bezpečných a zábavných pre malé detiBatoľaYou TubeMuppetiPrasiatko PepaBezpečnosť InternetuNajlepšia Bezpečnosť OnlineVideáYoutube Deti

YouTube Kids je zaplavený nevhodným obsahom. Vo videách, ktoré údajne zverejnili obsahové farmy, ktoré uprednostňujú zisk pred blahobytom detí, sú nevinné postavy ako Peppa Pig, Elsa z Zmrazené, a ...

Čítaj viac
Premena posadnutosti obrazovky môjho syna na zdravý zážitok z lepenia

Premena posadnutosti obrazovky môjho syna na zdravý zážitok z lepeniaYou TubeLepenieČas Strávený Pred Obrazovkou

Vitajte v „Great Moments in Parenting“, novej sérii, v ktorej otcovia vysvetľujú rodičovskú prekážku, ktorej čelili, a jedinečný spôsob, akým ju prekonali. Tu Ed, 37-ročný osobný tréner a otec dvoc...

Čítaj viac