februarja YouTuber Matt Watson objavil videoposnetek, ki razkriva, s kakšno lahkoto je lahko vstopil v algoritemsko ustvarjen zajčja luknja in poiščite skupnosti pedofilov, ki komentirajo, ki izkoriščajo sicer običajne videoposnetke otrok. Včasih so ti isti komentatorji objavili povezave do neuvrščenih videoposnetkov ali objavili kontaktne podatke WhatsApp za to, kar je bilo, verjetno pedofilom prijazna skupinska sporočila, vendar pogosto objavljeni časovni žigi otrok v ogroženih položajih v omenjenih videi.
Watsonove ugotovitve so znova spodbudile pogovor o YouTubovi zmernosti in odgovornosti. Številni videoposnetki, ki jih je našel, so bili programsko monetizirani z oglasi, kar pomeni, da je YouTube služil denar z vsebino ki, čeprav morda ne bi bilo moteče, so ga v klikih in pogledih izkoriščali tisti, ki so imeli prikrite motivi. Sami videoposnetki večinoma niso bili problem. Mnogi so bili otroci, ki so se ukvarjali z običajnimi otroškimi stvarmi: rokovali so se s svojimi brati in sestrami, razkazovali svoje igrače zbirke, vendar so bili komentarji in načini, kako so bili povezani med seboj, sumljivi in na koncu moteče.
Škandal, ki se je zgodil le leto dni po tem, ko je YouTube prvič priznal te komentarje in potem YouTube za otroke Škandal #ElsaGate, v katerem so ljudje našli moteče videoposnetke na platformi, narejeni z mislijo na otroke in njihovo varnost, je YouTube zapletel v razpravo, v kateri so se mnogi vprašali: Ali je YouTube sploh kaj spremenil? In če je tako, zakaj se je težava širila? Bi se dalo popraviti?
YouTube se je odzval tako, da je onemogočil komentarje na milijone videoposnetkov, ki so bili tarča plenilcev, in poudaril, da imajo 10.000 zaposlenih ekipo človeški komentarji in moderatorji vsebine in sistem strojnega učenja, katerega naloga je pregledovanje videoposnetkov in označevanje česar koli žaljivega. Toda ali je dovolj? Ali se lahko YouTube na kakšen način popravi zaskrbljenim staršem? Ali pa je algoritem podjetja predaleč?
Če želite ugotoviti, kaj je mogoče storiti, če sploh kaj, da popravite platformo, Očetovskose pogovarjal z Jonasom Keiserjem, podružnico Berkman Klein Centra za internet in družbo, izrednim raziskovalcem na Inštitutu Alexander von Humboldt za internet in družbo ter raziskovalnim sodelavcem DFG. Keizer je strokovnjak za algoritme YouTube in širjenje škodljivih skupnosti. Z njim smo se pogovarjali o YouTubovem algoritmu, kako nastajajo te težave in kaj lahko YouTube naredi, da bi bil boljši.
Vaša raziskava se osredotoča na kampanje skrajno desnih trolov na Youtubu in kako se takšne skupnosti širijo. Ali obstajajo podobnosti med temi skupnostmi in temi na novo najdenimi pedofilskimi skupnostmi, ki delijo povezave v razdelkih za komentarje?
Te primerjave ne bi dal. S skrajno desnico, imamo bolj vidne in očitne poskuse oblikovanja skupnosti in povezovanja z drugimi kanali. Sledijo lastnim trendom tem, za katere menijo, da so pomembne, in to se ne dogaja na enem kanalu, ampak na več. To se naredi zelo premišljeno z njihovimi lastnimi dejanji. Skrajno desničarji, ki govorijo, hodijo drug drugemu na oddaje in si dajejo vidno legitimnost.
Hkrati s svojo dejavnostjo in dejavnostjo uporabnikov vplivajo tudi na YouTubov algoritem na način, da na YouTube, politični videoposnetki in politični kanali bodo, ne glede na to, na katero ideologijo gledate, pogosto vodili v skrajno desnico kanalov.
Torej se zdi, da so pedofilske skupnosti veliko več, da kanali in videoposnetki niso nujno skupnost tam, ampak bolj spletni komentarji, ki so po tem, kar sem prebral, ustvarili to čudno, nevidno, zelo moteče pojav.
Za tiste, ki se ne zavedajo, kako deluje YouTubov algoritem?
YouTube algoritem vrti okoli ideje, da bo uporabnike pritegnila. V tem kontekstu to očitno pomeni ogled videoposnetkov, komentiranje, všečkanje ali skupno rabo. Najpomembnejši cilj je ostati na platformi. Če želite ostati na platformi, boste prejeli priporočila na vaši domači strani, na straneh z videoposnetki in na samih kanalih. Vse to temelji na ideji, da morajo uporabniki ostati na platformi. Vprašanje je seveda, kako YouTube ustvari algoritem, ki to naredi?
V ta algoritem je veliko različnih podatkovnih točk. Na primer: kaj je trenutno v trendu na platformi? Kaj so gledali drugi ljudje z enakimi interesi? Katere videoposnetke se največ klikne? Kje se podobni ljudje prekrivajo v komentarjih uporabnikov? Takšne stvari. Glavna ideja je, da se algoritem nauči, kaj pritegne in zadrži uporabnike na platformi.
Kako je to moderiranje nastavljeno glede vsebine in moderiranja komentarjev na YouTubu? Ali menite, da je to zadosten odgovor na grožnje na internetu?
Le do neke mere. Težava z moderiranjem na način, kako to počne večina velikih platform družbenih medijev, je v tem, da je zgrajena okoli ljudi, ki poročajo o vsebini. Torej, v bistvu, če tega nihče ne prijavi in ni očitno v nasprotju s pravili, ki jih je mogoče prepoznati s strojnim učenjem – npr. psovke ali kaj podobnega, kar bi lahko algoritemsko filtrirali - druge komentarje je očitno veliko težje prepoznati torej a človek ga mora pogledati. Če pa nihče ne prijavi vsebine, YouTube ne ve, da obstaja, samo zato, ker je na platformi toliko vsebine. Poudarja pomen uporabnikov. O tem se razpravlja, ne glede na to, ali je to dobro ali slabo, da so uporabniki postavljeni v položaj, da se morajo potruditi, da bi YouTubu poudarili, kaj je zanje žaljivo.
Na ravni videoposnetkov so zdaj uvedene druge oblike [moderiranja], tako da obstaja znižanje uvrstitve vsebine, ki bi lahko vključevala vrhunske novice. Če iščete novice, boste najprej dobili tisto, kar YouTube meni, da so bolj zanesljivi viri. Eksperimentirali so z informacijskimi okvirji okoli določenih videoposnetkov zarote. Vse to so tako ali drugače oblike moderiranja vsebine.
Način, kako se YouTube zanaša na dobre samaričane pri poročanju o stvareh, ki bi lahko bile problematične ali žaljive, je podoben da Reddit v veliki meri nadzorujejo tudi moderatorji skupnosti, čeprav se zdi, da Reddit nima te težave hkrati lestvici.
Primerjava je smiselna, vendar je zelo drugačna. Vsak podreddit je skupnost, ki v bistvu pove, katera oblika vsebine je dovoljena. V kontekstu znanosti SubReddit, na primer, lahko vidite, kdaj moderatorji skrbijo za spoštovanje pravil, medtem ko so drugi podredditi zelo laissez-faire. Število objav na subredditih ni mogoče primerjati s številom videoposnetkov, ki so bili naloženi ob kateri koli uri na YouTubu. Nekateri od teh forumov so zainteresirani za samopolicijo. Delo je v bistvu oddano uporabnikom in domneva je, da dokler so ljudje dovolj motivirani za to delo, da je v redu, vendar na YouTubu ni tako. Ti forumi ne obstajajo na enak način.
Glede na te nedavne komentatorje in nedavne škandale YouTube Kids, kot je #ElsaGate, kjer so troli v otroško vsebino šivali grozne videoposnetke. Ali obstaja način, kako pritegniti pozornost nanje, ki se ne zanaša le na dobro voljo povprečnega uporabnika YouTuba?
YouTube je počasi, zelo počasi šel v pravo smer. Niso tam, vendar razumejo, da bodo ljudje na YouTubu iskali novice, zato je po mojem mnenju smiselno urejati, kateri kanali se bodo pojavili.
Pri mojem delu me preseneča, da YouTube v bistvu obravnava politično vsebino enako kot pop glasbo. V zadnjih tednih so počasi razumeli, da obstaja razlika.
Na primer z gibanje proti voskanju, so rekli, da ne bodo nujno več dovolili določenih videoposnetkov. Mislim, da je to pomembno. V političnem kontekstu ideja 'samo ljudje gledajo' ni tisto, kar si želite. To je tisto, kar želite za glasbo, igranje iger ali druge oblike zabave, vendar ko gre za informacije.
Mislim, da je pri priporočilih za videoposnetke in kanale, kjer se ta logika nadaljuje, da je cilj imeti ljudi na platformi, ne glede na to, za katero motivacijo, je problematično.
Kakšne rešitve, če sploh, predlagate za obravnavo nedavnih škandalov s komentarji v YouTubu?
Kolikor sem prebral, je skupnost večinoma obstajala prek komentarjev, ki so potem tako močno vplivali na priporočila na YouTubu, tako da so bili ti videoposnetki povezani, očitno na precej bolan način. Mislim, da je to nekako tako problematičen del. Kako se kot platforma zavedate? Ali se zavedate, da se dogaja nekaj, kar se ne bi smelo dogajati? In ker očitno te stvari ne bi smeli ugotoviti določeni, aktivni in ozaveščeni uporabniki, a na srečo obstajajo.
Vprašanje je: »Kako algoritmi delujejo v tem kontekstu in to omogočajo?« Moje mnenje je, da obstaja razlika med uporabniki, ki so komentirali, in ljudmi, ki so naložili videoposnetke. Mislim, da bi bilo lažje prekiniti povezavo; vendar mislim, da bi bila najboljša možnost, če bi veliko vlagali v ljudi, da bi zmerili vsebino, ki je sumljiva, in se le zelo zavedati, da poskušamo ugotoviti, kaj je glede algoritmov sumljiv.
Ali po vašem mnenju obstaja različica YouTuba, ki ji ni treba izvajati teh algoritmov, ki bi lahko povezali potencialno nevarne skupnosti med seboj? Ali pa je neločljivo povezano s samo platformo?
Mislim, da to ni neločljivo povezano s platformo. Mislim, da je to neločljivo za poslovni model. Zelo dobro bi si lahko zamislili video skupnost, ki je morda podobna Redditu, na primer, ki se osredotoča na določeno vsebino ali določene teme in kjer lahko v zvezi s tem objavljate videoposnetke.
To je problem. Če YouTube opusti algoritem, ki drži ljudi na platformi, potem je to problem dobička. YouTube želi še naprej služiti denar.
Mislim, da je to pošteno. Veliko razprav, ki jih trenutno vodimo o tem, kako delujejo platforme in zakaj je na primer neka vsebina obravnavana bolj ugodno kot druga in Zakaj, dezinformacije ali teorije zarote lahko uspevajo, je povezano s poslovnim modelom in idejo, da je vse s kliki nagrajeno. Obstajajo ideje za platforme, ki niso zgrajene okoli tega. Ampak to ne bi prineslo toliko denarja.