Vasarį, „YouTube“ narys Mattas Watsonas paskelbė vaizdo įrašą, atskleidžiantį, kaip lengvai jis galėjo įvesti algoritmiškai sukurtą triušių skylę ir raskite komentuojančių pedofilų bendruomenių, naudojančių šiaip įprastus vaizdo įrašus vaikai. Kartais tie patys komentatoriai skelbdavo nuorodas į neįtrauktus į sąrašą vaizdo įrašus arba paskelbdavo WhatsApp kontaktinę informaciją, tikriausiai, pedofilams draugiški grupiniai susirašinėjimai, bet dažnai skelbdavo laiko žymas, kuriose vaikai užima kompromituojančias pozicijas. vaizdo įrašus.
Watsono išvados dar kartą pakurstė pokalbį apie „YouTube“ nuosaikumą ir atskaitomybę. Daugelis jo rastų vaizdo įrašų buvo programiškai gauti pajamų iš skelbimų, o tai reiškia, kad „YouTube“ uždirbo pinigų iš turinio kuris, nors galbūt ir netrukdė, buvo išnaudojamas spustelėjimui ir peržiūroms tiems, kurie turėjo paslaptį. motyvai. Patys vaizdo įrašai dažniausiai nebuvo problema. Daugelis vaikų užsiimdavo įprastais vaikiškais dalykais: imtyniavosi su savo broliais ir seserimis, demonstruodavo savo žaislą kolekcijos, tačiau komentarai ir būdai, kaip jie buvo susieti vienas su kitu, buvo įtartini ir galiausiai trikdantis.
Skandalas, kilęs praėjus vos metams po to, kai „YouTube“ pirmą kartą pripažino šiuos komentarus ir vėliau „YouTube“ vaikams #ElsaGate skandalas, kurio metu žmonės platformoje rado nerimą keliančius vaizdo įrašus, sukurtus atsižvelgiant į vaikus ir jų saugumą, įtraukė „YouTube“ į diskusijas, kuriose daugelis klausė: ar „YouTube“ apskritai ką nors pakeitė? Ir jei taip, kodėl problema išaugo? Ar būtų galima sutvarkyti?
„YouTube“ į tai atsakė išjungdama komentarus apie milijonus vaizdo įrašų, kuriuos taikėsi plėšrūnai, ir nurodydama, kad jie turi 10 000 darbuotojų. žmonių komentarų ir turinio moderatoriai ir mašininio mokymosi sistema, kurios užduotis yra naršyti vaizdo įrašus ir pažymėti ką nors įžeidžiančio. Bet ar užtenka? Ar „YouTube“ gali kaip nors pasitaisyti susirūpinusiais tėvais? O gal įmonės algoritmas per toli?
Norėdami išsiaiškinti, ką galima padaryti norint sutvarkyti platformą, Tėviškaskalbėjosi su Jonu Keiseriu, Berkman Klein interneto ir visuomenės centro filialu, Alexanderio von Humboldto interneto ir visuomenės instituto asocijuotu tyrėju ir DFG moksliniu bendradarbiu. Keizeris yra „YouTube“ algoritmų ir kenksmingų bendruomenių plitimo ekspertas. Kalbėjomės su juo apie „YouTube“ algoritmą, kaip šios problemos atsiranda ir ką „YouTube“ gali padaryti, kad padarytų geriau.
Jūsų tyrimas sutelktas į kraštutinių dešiniųjų trolių kampanijas Youtube ir kaip tokios bendruomenės plinta. Ar yra panašumų tarp tų bendruomenių ir šių naujai sukurtų pedofilų bendruomenių, dalijančių nuorodas komentarų skiltyse?
Nedaryčiau tokio palyginimo. Su kraštutiniu dešiniuoju, turime daugiau labai matomų ir akivaizdžių bandymų formuoti bendruomenę ir prisijungti prie kitų kanalų. Jie seka savo, jų nuomone, svarbių temų tendencijas ir tai vyksta ne viename kanale, o keliuose. Tai daroma labai sąmoningai, jų pačių veiksmais. Kraštutinių dešiniųjų kalbančios galvos eina į vienas kito pasirodymus ir suteikia vienas kitam reikšmingą teisėtumą.
Tuo pačiu metu savo veikla ir naudotojų veikla jie taip pat veikia „YouTube“ algoritmą taip, kad „YouTube“, politiniai vaizdo įrašai ir politiniai kanalai, nesvarbu, į kokią ideologiją žiūrite, dažnai veda į kraštutinius dešiniuosius kanalai.
Taigi, atrodo, kad pedofilų bendruomenės yra daug daugiau, nei kanalai ir vaizdo įrašai nebūtinai buvo bendruomenė ten, bet veikiau internetiniai komentarai, kurie iš to, ką perskaičiau, sukūrė keistą, nematomą, labai nerimą keliantį reiškinys.
Tiems, kurie nežino, kaip veikia „YouTube“ algoritmas?
„YouTube“. algoritmas sukasi aplink idėją, kad tai leis vartotojus sudominti. Šiame kontekste tai, be abejo, reiškia vaizdo įrašų peržiūrą, komentavimą, patinkantį arba bendrinimą. Išlikti platformoje yra svarbiausias tikslas. Norėdami likti platformoje, gausite rekomendacijų pagrindiniame puslapyje, vaizdo įrašų puslapiuose ir pačiuose kanaluose. Visa tai sukurta remiantis idėja, kad vartotojai turėtų likti platformoje. Žinoma, kyla klausimas, kaip „YouTube“ sukuria algoritmą, kuris tai daro?
Yra daug skirtingų duomenų taškų, kurie patenka į šį algoritmą. Pavyzdžiui: kas šiuo metu populiaru platformoje? Į ką žiūrėjo kiti tų pačių pomėgių žmonės? Kokie vaizdo įrašai yra paspaudžiami dažniausiai? Kur vartotojų komentaruose sutampa panašūs žmonės? Tokie dalykai. Pagrindinė idėja yra ta, kad algoritmas sužinotų, kas pritraukia ir išlaiko vartotojus platformoje.
Kalbant apie turinį ir komentarų moderavimą „YouTube“, kaip tas moderavimas nustatytas? Ar manote, kad tai pakankamas atsakas į grėsmes internete?
Tik tam tikru mastu. Daugumos didžiųjų socialinės žiniasklaidos platformų nuosaikumo problema yra ta, kad jis pagrįstas žmonėmis, pranešančiais apie turinį. Taigi, iš esmės, jei niekas apie tai nepraneša ir tai aiškiai neprieštarauja taisyklėms, kurias galima atpažinti naudojant mašininį mokymąsi, pvz. keiksmažodžiai ar kažkas panašaus, kurį būtų galima išfiltruoti algoritmiškai – kitus komentarus atpažinti akivaizdžiai daug sunkiau taigi a žmogui reikia į tai pažiūrėti. Bet jei niekas nepraneša apie turinį, „YouTube“ nežino, kad jis egzistuoja, tik todėl, kad platformoje yra tiek daug turinio. Tai pabrėžia vartotojų svarbą. Nesvarbu, ar tai geras, ar blogas dalykas, diskutuojama, kad vartotojai turi įdėti darbo, kad pabrėžtų „YouTube“, kas juos įžeidžia.
Vaizdo įrašų lygmeniu dabar įdiegtos kitos [moderavimo] formos, todėl turinio, kuriame gali būti svarbiausių naujienų, reitingas yra žemesnis. Jei ieškote naujienų, pirmiausia gausite tai, ką „YouTube“ laiko patikimesniais šaltiniais. Jie eksperimentavo su informacijos langeliais aplink tam tikrus sąmokslo vaizdo įrašus. Visa tai vienaip ar kitaip yra turinio moderavimo formos.
Tai, kaip „YouTube“ pasikliauja geraisiais samariečiais pranešdama apie dalykus, kurie gali būti problemiški ar įžeidžiantys, atrodo panašiai kad „Reddit“ taip pat didžiąja dalimi prižiūri bendruomenės moderatoriai, nors atrodo, kad „Reddit“ neturi šios problemos. skalė.
Palyginimas prasmingas, bet labai skirtingas. Kiekvienas subredditas yra bendruomenė, kuri iš esmės nurodo, kokia turinio forma leidžiama. Pavyzdžiui, mokslinio SubReddit kontekste galite pamatyti, kada moderatoriai užtikrina, kad būtų laikomasi taisyklių, o kiti subredditai yra labai laissez-faire. Įrašų skaičiaus antriniuose įrašuose negalima palyginti su vaizdo įrašų, įkeliamų bet kurią valandą į „YouTube“, skaičiumi. Kai kurie iš šių forumų domisi savikontrole. Darbas iš esmės perduodamas naudotojams ir daroma prielaida, kad tol, kol yra pakankamai motyvuotų dirbti tą darbą, viskas gerai, bet „YouTube“ taip nėra. Šie forumai neegzistuoja taip pat.
Kalbant apie šiuos naujausius komentatorius ir naujausius „YouTube Kids“ skandalus, tokius kaip #ElsaGate, kai troliai į vaikišką turinį siūlė baisius vaizdo įrašus. Ar yra būdas atkreipti į juos dėmesį, jei nepasikliauja tik paprasto „YouTube“ naudotojo gera valia?
„YouTube“ lėtai, labai lėtai pasuko teisinga kryptimi. Jų nėra, bet jie supranta, kad žmonės „YouTube“ ieškos naujienų, todėl mano nuomone, yra prasminga kuruoti, kokie kanalai pasirodys.
Mano darbe mane stebina tai, kad „YouTube“ politinį turinį iš esmės traktuoja taip pat, kaip ir popmuziką. Pastarosiomis savaitėmis jie pamažu suprato, kad yra skirtumas.
Pavyzdžiui, su antivaksinis judėjimas, jie pasakė, kad nebūtinai daugiau leis tam tikrus vaizdo įrašus. Manau, kad tai svarbu. Politiniame kontekste idėja „tik žmonės žiūri“ nėra tai, ko norite. Tai yra tai, ko norite muzikai, žaidimams ar kitoms pramogoms, bet kai kalbama apie informaciją.
Manau, kad vaizdo įrašų ir kanalų rekomendacijos, kur ši logika tęsiasi, yra problematiška, kad platformoje būtų žmonių, nesvarbu, kokios motyvacijos.
Taigi, kokius sprendimus siūlote, jei tokių yra, sprendžiant naujausius „YouTube“ komentarų skandalus?
Iš to, ką skaičiau, bendruomenė daugiausia egzistavo per komentarus, o tai turėjo tokį didelį poveikį „YouTube“ rekomendacijoms, todėl tie vaizdo įrašai buvo susieti, aišku, gana liguistai. Manau, kad tai yra tarsi probleminė dalis. Kaip jūs, kaip platforma, žinote? Ar žinote, kad vyksta kažkas, kas neturėtų vykti? Ir akivaizdu, kad ne tam tikri, aktyvūs ir sąmoningi vartotojai turėtų išsiaiškinti šiuos dalykus, bet, laimei, yra.
Kyla klausimas: „Kaip algoritmai veikia tame kontekste ir tai leidžia?“ Mano supratimu, yra skirtumas tarp komentuojančių naudotojų ir vaizdo įrašus įkėlusių žmonių. Manau, kad tai gali būti lengviau atjungti; bet manau, kad geriausias pasirinkimas būtų daug investuoti į žmones, kad būtų galima reguliuoti įtartiną turinį, ir tiesiog žinant, kas yra yra įtartinas algoritmų atžvilgiu.
Ar yra „YouTube“ versija, kuri, jūsų nuomone, neturėtų veikti pagal šiuos algoritmus, kurie galėtų susieti potencialiai pavojingas bendruomenes? O gal tai būdinga pačiai platformai?
Nemanau, kad tai platformai būdinga. Manau, kad tai būdinga verslo modeliui. Galite labai gerai pagalvoti apie vaizdo įrašų bendruomenę, kuri gali būti panaši į, pavyzdžiui, „Reddit“, kuri daugiausia dėmesio skiria tam tikram turiniui ar tam tikroms temoms ir kurioje galite skelbti vaizdo įrašus.
Tai problema. Jei „YouTube“ atsisako algoritmo, kuris išlaiko žmones platformoje, tai yra pelno problema. „YouTube“ nori ir toliau užsidirbti pinigų.
Manau, kad tai sąžininga. Daugelis šiuo metu vykstančių diskusijų apie tai, kaip veikia platformos ir kodėl, pavyzdžiui, tam tikras turinys vertinamas palankiau nei kiti ir Kodėl dezinformacija ar sąmokslo teorijos gali klestėti, yra susijusios su verslo modeliu ir idėja, kad už viską, kas daroma paspaudimais, yra atlyginama. Yra idėjų turėti platformas, kurios nėra aplink tai sukurtos. Tačiau tai neuždirbtų tiek pinigų.