U veljači, YouTuber Matt Watson objavio video otkrivajući lakoću s kojom je mogao ući u algoritamski stvoren zečja rupa i pronađite komentirajuće zajednice pedofila koji iskorištavaju inače normalne videozapise djeca. Ponekad su ti isti komentatori objavljivali veze na videozapise koji nisu na popisu ili objavljivali podatke za kontakt WhatsApp za ono što je bilo, vjerojatno, grupne poruke prilagođene pedofilima, ali često postavljane vremenske oznake djece u kompromitirajućim položajima u spomenutom videa.
Watsonovi nalazi ponovno su potaknuli razgovor o umjerenosti i odgovornosti YouTubea. Mnogi od videozapisa koje je pronašao programski su unovčeni oglasima, što znači da je YouTube zarađivao od sadržaja koji je, iako možda nije bio uznemirujući, bio iskorištavan u klikovima i pregledima od strane onih koji su imali skrivene motivima. Videozapisi sami po sebi nisu bili problem, uglavnom. Mnoga su bila djeca koja su radila normalne dječje stvari: hrvala se sa svojom braćom i sestrama, pokazivala svoju igračku zbirke, ali komentari i načini na koji su međusobno povezani bili su sumnjivi i, u konačnici, uznemirujuće.
Skandal, koji dolazi samo godinu dana nakon što je YouTube prvi put priznao ove komentare i nakon YouTube za djecu Skandal #ElsaGate, u kojem su ljudi pronašli uznemirujuće videozapise na platformi napravljenoj za djecu i njihovu sigurnost, upleo je YouTube u raspravu u kojoj su mnogi pitali: Je li YouTube uopće nešto promijenio? I ako je tako, zašto se problem širio? Može li se popraviti?
YouTube je odgovorio onemogućivši komentare na milijune videozapisa koji su bili na meti grabežljivaca i istaknuvši da imaju tim od 10.000 zaposlenika ljudski komentari i moderatori sadržaja i sustav strojnog učenja čiji je posao pregledavanje videozapisa i označavanje svega uvredljivog. Ali je li dovoljno? Postoji li način da se YouTube iskupi sa zabrinutim roditeljima? Ili je algoritam tvrtke otišao predaleko?
Da biste shvatili što se, ako išta, može učiniti da se platforma popravi, Očinskirazgovarao s Jonasom Keiserom, podružnicom Berkman Klein Centra za internet i društvo, suradnikom na Institutu za internet i društvo Alexander von Humboldt i znanstvenim suradnikom DFG-a. Keizer je stručnjak za YouTube algoritme i širenje štetnih zajednica. Razgovarali smo s njim o YouTubeovom algoritmu, kako nastaju ti problemi i što YouTube može učiniti da bude bolji.
Vaše se istraživanje usredotočuje na kampanje krajnje desnih trolova na Youtubeu i kako se takve zajednice šire. Postoje li sličnosti između tih zajednica i ovih novootkrivenih pedofilskih zajednica koje dijele veze u odjeljcima za komentare?
Ne bih pravio tu usporedbu. S krajnjom desnicom, imamo više vrlo vidljivih i očitih pokušaja formiranja zajednice i povezivanja s drugim kanalima. Prate vlastite trendove tema za koje misle da su važne i to se ne događa na jednom kanalu nego na nekoliko. To se radi vrlo namjerno kroz njihove vlastite postupke. Glave koje govore krajnje desnice idu jedna drugoj u emisije i daju jedna drugoj istaknuti legitimitet.
Istovremeno, svojom aktivnošću i aktivnošću korisnika utječu i na YouTubeov algoritam na način da na YouTube, politički video snimci i politički kanali će, bez obzira na koju ideologiju pogledali, često dovesti do krajnje desnice kanalima.
Dakle, čini se da su pedofilske zajednice mnogo više od toga što kanali i videi nisu nužno zajednica tamo, nego online komentari, koji su, prema onome što sam pročitao, stvorili ovo čudno, nevidljivo, vrlo uznemirujuće fenomen.
Za one koji nisu svjesni, kako funkcionira YouTubeov algoritam?
YouTube algoritam vrti se oko ideje da će zadržati korisnike angažiranima. U tom kontekstu to očito znači gledanje videa, komentiranje, lajkanje ili dijeljenje. Ostati na platformi najvažniji je cilj. Da biste ostali na platformi, dobit ćete preporuke na svojoj početnoj stranici, na video stranicama i na samim kanalima. Sve su to izgrađene oko ideje da korisnici trebaju ostati na platformi. Pitanje je, naravno, kako YouTube stvara algoritam koji to čini?
Postoji mnogo različitih točaka podataka koji ulaze u taj algoritam. Na primjer: što je trenutno u trendu na platformi? Što su drugi ljudi s istim interesima gledali? Na koje videozapise se najviše klika? Gdje se slični ljudi preklapaju u komentarima korisnika? Takve stvari. Glavna ideja je da algoritam nauči što privlači i zadržava korisnike na platformi.
Što se tiče moderiranja sadržaja i komentara na YouTubeu, kako je to moderiranje postavljeno? Mislite li da je to dovoljan odgovor na prijetnje na internetu?
Samo donekle. Problem s moderacijom na način na koji to radi većina velikih platformi društvenih medija je taj što je izgrađena oko ljudi koji prijavljuju sadržaj. Dakle, u osnovi, ako to nitko ne prijavi i nije jasno protiv pravila koja se mogu identificirati putem strojnog učenja - kao npr. psovke ili nešto slično što bi se moglo algoritamski filtrirati - druge je komentare očito puno teže identificirati pa a ljudska potreba da to pogleda. Ali ako nitko ne prijavi sadržaj, YouTube ne zna da postoji, samo zato što ima toliko sadržaja na platformi. Ističe važnost korisnika. O tome se raspravlja, je li to dobra ili loša stvar ili ne, da se korisnici dovode u poziciju da se moraju potruditi da istaknu na YouTubeu što im je uvredljivo.
Na razini videozapisa sada su implementirani drugi oblici [moderiranja], tako da postoji niži rang sadržaja koji bi mogao uključivati glavne vijesti. Ako pretražujete vijesti, prvo ćete dobiti ono što YouTube smatra pouzdanijim izvorima. Eksperimentirali su s okvirima s informacijama oko određenih videozapisa zavjere. Sve su to, na ovaj ili onaj način, oblici moderiranja sadržaja.
Način na koji se YouTube oslanja na dobre Samarićane u prijavljivanju stvari koje bi mogle biti problematične ili uvredljive je sličan da Reddit također uglavnom nadgledaju moderatori zajednice, iako se čini da Reddit nema ovaj problem u isto vrijeme mjerilo.
Usporedba ima smisla, ali je vrlo različita. Svaki subreddit je zajednica koja u osnovi govori koji je oblik sadržaja dopušten. U kontekstu znanstvenog SubReddita, na primjer, možete vidjeti kada moderatori paze da se pravila poštuju, dok su drugi subredditi vrlo laissez-faire. Broj postova na subredditovima ne može se usporediti s brojem videozapisa koji se učitavaju u bilo kojem satu na YouTubeu. Neki od ovih foruma imaju interes za samopoliciju. Rad se u osnovi predaje korisnicima i pretpostavka je da sve dok postoje ljudi dovoljno motivirani za taj posao, da je to u redu, ali to nije slučaj na YouTubeu. Ovi forumi ne postoje na isti način.
Što se tiče ovih nedavnih komentatora i nedavnih YouTube Kids skandala kao što je #ElsaGate, gdje su trolovi ušivali užasne videozapise u dječji sadržaj. Postoji li način da se na njih privuče pozornost koji se ne oslanja samo na dobru volju prosječnog korisnika YouTubea?
YouTube je polako, vrlo sporo, krenuo u pravom smjeru. Nisu tamo, ali shvaćaju da će ljudi tražiti vijesti na YouTubeu, pa po mom mišljenju ima smisla birati kanale koji će se pojaviti.
U mom vlastitom radu, zapanjujuće mi je da YouTube u osnovi tretira politički sadržaj isto kao i pop glazbu. Posljednjih tjedana polako su shvatili da postoji razlika.
Na primjer, s pokret protiv vaxxinga, rekli su da više neće nužno dopustiti određene videozapise. Mislim da je to važno. U političkom kontekstu, ideja 'samo ljudi gledaju' nije ono što želite. To je ono što želite za glazbu, igranje igara ili druge oblike zabave, ali kada je riječ o informacijama.
Mislim da je za preporuke videa i kanala, gdje se ova logika nastavlja, problematično imati ljude na platformi, bez obzira na motivaciju.
Dakle, koja rješenja, ako ih ima, predlažete za rješavanje nedavnih skandala komentiranja na YouTubeu?
Koliko sam pročitao, zajednica je uglavnom postojala kroz komentare, što je tada imalo veliki utjecaj na preporuke YouTubea, pa su ti videi povezani, očito na prilično bolestan način. Mislim da je ovo nešto poput problematičnog dijela. Kako ste vi, kao platforma, svjesni? Jeste li svjesni da se događa nešto što se ne bi smjelo događati? I zato što očito ne bi trebali biti određeni, aktivni i svjesni korisnici da shvate te stvari, ali na sreću, postoje.
Pitanje je: ‘Kako algoritmi rade u tom kontekstu i dopuštaju to?’ Moje je mišljenje da postoji razlika između korisnika koji su komentirali i ljudi koji su prenijeli videozapise. Mislim da bi to moglo biti lakše prekinuti; ali mislim da bi najbolja opcija bila uložiti velika sredstva u ljude kako biste umjereni sadržaj koji je sumnjiv i samo biti vrlo svjestan pokušaja da shvatite što smatra se sumnjivim u pogledu algoritama.
Postoji li verzija YouTubea koja postoji, po vašem mišljenju, koja ne mora raditi na ovim algoritmima koji bi mogli povezati potencijalno opasne zajednice jedne s drugima? Ili je to svojstveno samoj platformi?
Mislim da to nije svojstveno platformi. Mislim da je to svojstveno poslovnom modelu. Mogli biste se sjetiti video zajednice koja je možda slična Redditu, na primjer, koja se fokusira na određeni sadržaj ili određene teme i gdje možete objavljivati videozapise u tom smislu.
To je problem. Ako YouTube odustane od algoritma koji drži ljude na platformi, onda je to problem profita. YouTube želi nastaviti zarađivati.
Mislim da je to pošteno. Mnogo rasprava koje trenutno vodimo o tome kako platforme funkcioniraju i zašto se, na primjer, neki sadržaji tretiraju povoljnije od drugih i zašto, dezinformacije ili teorije zavjere mogu napredovati, ima veze s poslovnim modelom i idejom da se sve s klikovima nagrađuje. Postoje ideje da postoje platforme koje nisu izgrađene oko toga. Ali oni ne bi zaradili toliko novca.