У фебруару, Jutjuber Met Votson je objavio video koji otkriva lakoću sa kojom je mogao da uđe u algoritamski stvoren zečja rupa i pronađite komentarske zajednice pedofila koji iskorištavaju inače normalne video snimke деца. Ponekad su ti isti komentatori postavljali veze do video snimaka koji nisu navedeni ili postavljali WhatsApp kontakt informacije za ono što je bilo, verovatno, grupne poruke prilagođene pedofilima, ali često postavljane vremenske oznake dece u kompromitujućim pozicijama u navedenom video snimci.
Votsonovi nalazi su još jednom podstakli razgovor o umerenosti i odgovornosti YouTube-a. Mnogi video snimci koje je pronašao su programski monetizovani oglasima, što znači da je YouTube zarađivao novac od sadržaja to, iako možda nije samo po sebi uznemiravalo, iskorištavano u klikovima i pregledima od strane onih koji su imali skrivene motivi. Snimci sami po sebi nisu bili problem, uglavnom. Mnoga su bila deca koja su radila normalne dečije stvari: rvale se sa svojom braćom i sestrama, pokazivale svoju igračku kolekcije, ali komentari i načini na koji su međusobno povezani bili su sumnjivi i, na kraju, uznemirujući.
Skandal, koji dolazi samo godinu dana nakon što je Jutjub prvi put priznao ove komentare i nakon YouTube za decu Skandal #ElsaGate, u kojem su ljudi pronašli uznemirujuće video snimke na platformi napravljenoj sa decom i njihovom bezbednosti na umu, upleo je Jutjub u debatu u kojoj su mnogi pitali: Da li je YouTube uopšte nešto promenio? I ako jeste, zašto se problem širio? Može li se popraviti?
Jutjub je odgovorio tako što je onemogućio komentare na milione video snimaka koji su bili na meti grabljivaca i istakao da imaju tim od 10.000 zaposlenih ljudski komentari i moderatori sadržaja i sistem mašinskog učenja čiji je posao da pregleda video snimke i označi bilo šta uvredljivo. Ali da li je to dovoljno? Postoji li način da se Jutjub iskupi sa zabrinutim roditeljima? Ili je algoritam kompanije otišao predaleko?
Da bismo shvatili šta, ako išta, može da se uradi da se platforma popravi, očinskirazgovarao je sa Jonasom Keiserom, saradnikom Berkman Klein centra za internet i društvo, istraživačem saradnikom na Alexander von Humboldt institutu za internet i društvo i istraživačkim saradnikom DFG-a. Keizer je stručnjak za YouTube algoritme i širenje štetnih zajednica. Razgovarali smo sa njim o YouTube-ovom algoritmu, kako nastaju ovi problemi i šta YouTube može da uradi da bi bio bolji.
Vaše istraživanje se fokusira na kampanje krajnje desnice trolova na Youtube-u i kako se takve zajednice šire. Da li postoje sličnosti između tih zajednica i ovih novootkrivenih pedofilnih zajednica koje dele veze u odeljcima za komentare?
Ne bih pravio to poređenje. Sa krajnjom desnicom, imamo više vrlo vidljivih i očiglednih pokušaja formiranja zajednice i povezivanja sa drugim kanalima. Oni prate sopstvene trendove tema za koje misle da su važne i to se ne dešava na jednom kanalu, već na nekoliko. To se radi veoma namerno kroz njihove sopstvene postupke. Glave koje govore krajnje desnice idu jedni drugima na emisije i daju jedni drugima istaknuti legitimitet.
Istovremeno, svojom aktivnošću i aktivnostima korisnika utiču i na YouTube-ov algoritam na način da, na Jutjub, politički video snimci i politički kanali će, bez obzira na koju ideologiju da pogledate, često dovesti do krajnje desnice kanala.
Dakle, čini se da su pedofilske zajednice mnogo više od toga što kanali i video snimci nisu nužno zajednica tamo, nego onlajn komentari, koji su, prema onome što sam pročitao, stvorili ovo čudno, nevidljivo, veoma uznemirujuće fenomen.
Za one koji nisu svesni, kako funkcioniše YouTube-ov algoritam?
YouTube-a algoritam vrti oko ideje da će zadržati korisnike angažovanim. U tom kontekstu, to očigledno znači gledanje video zapisa, ili komentarisanje, ili lajkanje, ili deljenje. Ostati na platformi je najvažniji cilj. Da biste ostali na platformi, dobićete preporuke na svojoj početnoj stranici, na video stranicama i na samim kanalima. Sve su to izgrađene oko ideje da korisnici treba da ostanu na platformi. Pitanje je, naravno, kako Jutjub stvara algoritam koji to radi?
Postoji mnogo različitih tačaka podataka koji ulaze u taj algoritam. Na primer: šta je trenutno u trendu na platformi? Šta su drugi ljudi sa istim interesima gledali? Na koje video snimke se najviše klikne? Gde se slični ljudi preklapaju u komentarima korisnika? Takve stvari. Glavna ideja je da algoritam nauči šta privlači i zadržava korisnike na platformi.
Što se tiče moderiranja sadržaja i komentara na YouTube-u, kako je ta moderacija postavljena? Da li mislite da je to dovoljan odgovor na pretnje na Internetu?
Samo donekle. Problem sa moderacijom na način na koji to radi većina velikih platformi društvenih medija je taj što se zasniva na ljudima koji prijavljuju sadržaj. Dakle, u suštini, ako to niko ne prijavi i nije jasno protiv pravila koja se mogu identifikovati kroz mašinsko učenje - npr. psovke, ili nešto slično što bi se moglo algoritamski filtrirati — druge komentare je očigledno mnogo teže identifikovati тако да ljudske potrebe da ga pogledaju. Ali ako niko ne prijavi sadržaj, YouTube ne zna da postoji, samo zato što ima toliko sadržaja na platformi. Ističe važnost korisnika. O tome se raspravlja, bez obzira da li je to dobra ili loša stvar, da su korisnici stavljeni u poziciju da moraju da ulože trud da bi istakli YouTube-u šta je za njih uvredljivo.
Na nivou videa, sada su primenjeni i drugi oblici [moderacije], tako da postoji niži rang sadržaja koji bi mogao da uključuje glavne vesti. Ako pretražujete vesti, prvo ćete dobiti ono što YouTube smatra pouzdanijim izvorima. Eksperimentisali su sa informativnim kutijama oko određenih video snimaka zavere. Sve su to, na ovaj ili onaj način, oblici moderiranja sadržaja.
Način na koji se YouTube oslanja na dobre samarićane da prijave stvari koje bi mogle biti problematične ili uvredljive je sličan da Reddit takođe u velikoj meri kontrolišu moderatori zajednice, iako se čini da Reddit nema ovaj problem u isto vreme Скала.
Poređenje ima smisla, ali je veoma različito. Svaki subreddit je zajednica koja u osnovi kaže koji je oblik sadržaja dozvoljen. U kontekstu nauke SubReddit, na primer, možete videti kada se moderatori staraju da se pravila poštuju, dok su drugi podrediti veoma laissez-faire. Broj postova na podreditima ne može se porediti sa brojem video snimaka koji se otpremaju u bilo kom trenutku na YouTube-u. Neki od ovih foruma su zainteresovani za samopoliciju. Rad se u osnovi predaje korisnicima i pretpostavka je da sve dok postoje ljudi dovoljno motivisani da se bave tim radom, da je to u redu, ali to nije slučaj na Jutjubu. Ovi forumi ne postoje na isti način.
Što se tiče ovih nedavnih komentatora i nedavnih YouTube Kids skandala kao što je #ElsaGate, gde su trolovi ušivali užasne video snimke u sadržaj za decu. Postoji li način da se skrene pažnja na njih, a koji se ne oslanja samo na dobru volju prosečnog korisnika YouTube-a?
Jutjub je polako, veoma sporo, krenuo u pravom smeru. Oni nisu tamo, ali razumeju da će ljudi tražiti vesti na YouTube-u, tako da po mom mišljenju ima smisla birati kanale koji će se pojaviti.
U mom sopstvenom radu, zapanjujuće mi je da YouTube u suštini tretira politički sadržaj isto kao i pop muziku. Poslednjih nedelja polako su shvatili da postoji razlika.
Na primer, sa anti-vaxxing pokret, rekli su da više neće nužno dozvoliti određene video snimke. Mislim da je to važno. U političkom kontekstu, ideja „samo ljudi gledaju“ nije ono što želite. To je ono što želite za muziku, igre ili druge oblike zabave, ali kada su informacije u pitanju.
Mislim da je za preporuke za video i kanale, gde se nastavlja ova logika, problematično da ljudi budu na platformi, bez obzira na motivaciju.
Dakle, koja rešenja, ako ih ima, predlažete za rešavanje nedavnih skandala sa komentarisanjem na YouTube-u?
Koliko sam pročitao, zajednica je uglavnom postojala kroz komentare, što je tada imalo veliki uticaj na Jutjub preporuke, tako da su ti video snimci povezani, očigledno na prilično bolestan način. Mislim da je ovo nešto poput problematičnog dela. Kako ste vi, kao platforma, svesni? Da li ste svesni da se dešava nešto što ne bi trebalo da se odvija? I zato što očigledno ne bi trebalo da se svodi na određene, aktivne i svesne korisnike da shvate ove stvari, ali na sreću, postoje.
Pitanje je: „Kako algoritmi funkcionišu u tom kontekstu i dozvoljavaju to?“ Moje mišljenje je da postoji razlika između korisnika koji su komentarisali i ljudi koji su postavili video snimke. Mislim da bi to moglo biti lakše prekinuti vezu; ali mislim da bi najbolja opcija bila da se mnogo uloži u ljude kako bi se umerio sadržaj koji je sumnjiv, i samo biti veoma svestan pokušaja da se otkrije šta predstavlja sumnjivo u pogledu algoritama.
Da li po vašem mišljenju postoji verzija YouTube-a koja ne mora da radi na ovim algoritmima koji bi mogli da povežu potencijalno opasne zajednice jedne sa drugima? Ili je to svojstveno samoj platformi?
Mislim da to nije svojstveno platformi. Mislim da je to suštinski za poslovni model. Mogli biste da zamislite video zajednicu koja je možda slična Redditu, na primer, koja se fokusira na određeni sadržaj ili određene teme, i gde možete da postavljate video snimke u tom pogledu.
У томе је проблем. Ako YouTube napusti algoritam koji drži ljude na platformi, onda je to problem profita. YouTube želi da nastavi da zarađuje.
Mislim da je to pošteno. Mnoge diskusije koje trenutno vodimo o tome kako funkcionišu platforme i zašto se, na primer, neki sadržaj tretira povoljnije od drugih i zašto, dezinformacije ili teorije zavere mogu da napreduju, ima veze sa poslovnim modelom i idejom da se sve sa klikovima nagrađuje. Postoje ideje da postoje platforme koje nisu izgrađene oko toga. Ali oni ne bi zaradili toliko novca.