Februārī, YouTube lietotājs Mets Vatsons ievietoja video, atklājot, cik viegli viņš varēja ievadīt algoritmiski radītu trušu bedrē un atrodiet komentējošās pedofilu kopienas, kas izmanto citādi parastos videoklipus bērniem. Dažreiz šie paši komentētāji publicēja saites uz nerindotiem videoklipiem vai ievietoja WhatsApp kontaktinformāciju par to, kas bija, domājams, pedofīliem draudzīga grupas ziņojumapmaiņa, bet bieži vien ievietoja laika zīmogus, kuros bērni atrodas kompromitējošās pozīcijās. video.
Vatsona atklājumi atkal izraisīja sarunu par YouTube mērenību un atbildību. Daudzi no viņa atrastajiem videoklipiem tika programmatiski monetizēti ar reklāmām, kas nozīmē, ka YouTube nopelnīja naudu no satura kas, lai gan, iespējams, netraucēja, to klikšķos un skatījumos izmantoja tie, kam bija slēpts motīvi. Lielākoties paši video nebija problēma. Daudzi bērni nodarbojās ar parastajām bērnu lietām: cīnījās ar brāļiem un māsām, demonstrēja savu rotaļlietu kolekcijas, taču komentāri un veidi, kā tie tika saistīti viens ar otru, bija aizdomīgi, un galu galā satraucoši.
Skandāls, kas notika tikai gadu pēc tam, kad YouTube pirmo reizi atzina šos komentārus, un pēc tam YouTube bērniem #ElsaGate skandāls, kurā cilvēki platformā atrada satraucošus videoklipus, kas veidoti, domājot par bērniem un viņu drošību, iesaistīja YouTube debatēs, kurās daudzi jautāja: vai YouTube vispār ir kaut ko mainījis? Un ja tā, kāpēc problēma pieauga? Vai to varētu salabot?
YouTube atbildēja, atspējojot komentārus miljoniem videoklipu, pret kuriem plēsēji bija vērsti, un norādot, ka viņiem ir 10 000 darbinieku liela komanda. cilvēku komentāru un satura moderatori un mašīnmācīšanās sistēma, kuras uzdevums ir izsijāt videoklipus un atzīmēt kaut ko aizskarošu. Bet vai ar to pietiek? Vai pakalpojumam YouTube ir kāds veids, kā izlīdzēties ar satrauktajiem vecākiem? Vai arī uzņēmuma algoritms ir pārāk tālu?
Lai noskaidrotu, ko var darīt platformas labošanai, ja kaut kas ir jādara, Tēvišķīgisarunājās ar Jonasu Keizeru, Berkmana Kleina interneta un sabiedrības centra filiāli, Aleksandra fon Humbolta interneta un sabiedrības institūta asociēto pētnieku un DFG pētnieku. Keizers ir YouTube algoritmu un kaitīgu kopienu izplatības eksperts. Mēs ar viņu runājām par YouTube algoritmu, to, kā šīs problēmas tiek radītas un ko YouTube var darīt, lai uzlabotu darbību.
Jūsu pētījums koncentrējas uz galēji labējo troļļu kampaņām vietnē Youtube un to, kā šādas kopienas izplatās. Vai pastāv līdzības starp šīm kopienām un šīm nesen atrastajām pedofīlo kopienām, kas komentāru sadaļās kopīgo saites?
Es neveiktu šādu salīdzinājumu. Ar galēji labējo, mums ir vairāk redzamu un acīmredzamu mēģinājumu izveidot kopienu un sazināties ar citiem kanāliem. Viņi seko savām tendencēm saistībā ar viņuprāt svarīgām tēmām, un tas nenotiek vienā kanālā, bet vairākos. Tas tiek darīts ļoti apzināti ar viņu pašu darbībām. Galēji labējās runājošās galvas apmeklē viens otra šovus un piešķir viens otram ievērojamu leģitimitāti.
Tajā pašā laikā ar savām darbībām un lietotāju darbībām viņi ietekmē arī YouTube algoritmu tādā veidā, ka YouTube, politiskie videoklipi un politiskie kanāli neatkarīgi no tā, kādu ideoloģiju jūs skatāties, bieži novedīs pie galēji labējiem kanāliem.
Tātad šķiet, ka pedofīlās kopienas ir daudz vairāk nekā kanāli un videoklipi ne vienmēr ir kopiena. tur, bet drīzāk tiešsaistes komentāri, kas no tā, ko es izlasīju, radīja dīvainu, neredzamu, ļoti satraucošu parādība.
Tiem, kas nezina, kā darbojas YouTube algoritms?
YouTube algoritms griežas ap ideju, ka tas saglabās lietotāju iesaisti. Šajā kontekstā tas acīmredzami nozīmē videoklipu skatīšanu vai komentēšanu, vai atzīmēšanu ar Patīk vai kopīgošanu. Palikt uz platformas ir vissvarīgākais mērķis. Lai paliktu platformā, jūs saņemsiet ieteikumus savā sākumlapā, video lapās un pašos kanālos. Tie visi ir balstīti uz ideju, ka lietotājiem jāpaliek platformā. Protams, jautājums ir, kā YouTube izveido algoritmu, kas to dara?
Šajā algoritmā ir daudz dažādu datu punktu. Piemēram: kas šobrīd ir populārs platformā? Ko ir skatījušies citi cilvēki ar tādām pašām interesēm? Uz kuriem videoklipiem tiek noklikšķināts visvairāk? Kur lietotāju komentāros pārklājas līdzīgi cilvēki? Tādas lietas. Galvenā ideja ir likt algoritmam uzzināt, kas piesaista un notur lietotājus platformā.
Runājot par satura un komentāru regulēšanu pakalpojumā YouTube, kā šī regulēšana tiek iestatīta? Vai, jūsuprāt, tā ir pietiekama atbilde uz draudiem internetā?
Tikai zināmā mērā. Problēma ar mērenību lielākajā daļā lielo sociālo mediju platformu ir tā, ka tā ir balstīta uz cilvēkiem, kuri ziņo par saturu. Tātad būtībā, ja neviens par to neziņo un tas nav skaidri pretrunā ar noteikumiem, kas ir identificējami, izmantojot mašīnmācīšanos, piemēram, lāstu vārdi vai kaut kas tamlīdzīgs, ko varētu algoritmiski filtrēt — citus komentārus acīmredzami ir daudz grūtāk noteikt tātad a cilvēkam tas ir jāskatās. Bet, ja neviens neziņo par saturu, YouTube nezina, ka tas pastāv, tikai tāpēc, ka platformā ir tik daudz satura. Tas uzsver lietotāju nozīmi. Neatkarīgi no tā, vai tā ir laba vai slikta lieta, tiek apspriests, ka lietotāji tiek nostādīti tādā stāvoklī, ka viņiem ir jāpieliek pūles, lai izceltu pakalpojumā YouTube to, kas viņus aizskar.
Videoklipu līmenī tagad ir ieviesti citi [regulēšanas] veidi, tāpēc saturs, kas varētu ietvert populārākās ziņas, tiek pazemināts. Ja meklējat ziņas, vispirms iegūsit tos, ko YouTube uzskata par uzticamākiem avotiem. Viņi ir eksperimentējuši ar informācijas lodziņiem ap noteiktiem sazvērestības videoklipiem. Tie visi vienā vai otrā veidā ir satura mērenības veidi.
Veids, kā YouTube paļaujas uz labajiem samariešiem, lai ziņotu par lietām, kas varētu būt problemātiskas vai aizskarošas, šķiet līdzīgas Reddit arī lielā mērā kontrolē kopienas moderatori, lai gan šķiet, ka Reddit nav šīs problēmas. mērogs.
Salīdzinājumam ir jēga, taču tas ir ļoti atšķirīgs. Katrs subreddits ir kopiena, kas būtībā nosaka, kāda veida saturs ir atļauts. Piemēram, zinātnes SubReddit kontekstā jūs varat redzēt, kad moderatori pārliecinās, ka noteikumi tiek ievēroti, savukārt citi subredditi ir ļoti laissez-faire. Ziņu skaitu subredditos nevar salīdzināt ar videoklipu skaitu, kas jebkurā stundā tiek augšupielādēti pakalpojumā YouTube. Daži no šiem forumiem ir ieinteresēti pašpārbaudē. Darbs galvenokārt tiek nodots lietotājiem, un tiek pieņemts, ka tikmēr, kamēr ir pietiekami motivēti cilvēki, tas ir labi, taču pakalpojumā YouTube tas tā nav. Šie forumi neeksistē vienādi.
Runājot par šiem nesenajiem komentētājiem un nesenajiem YouTube Kids skandāliem, piemēram, #ElsaGate, kur troļļi bērniem paredzētā saturā ievietoja šausmīgus videoklipus. Vai ir kāds veids, kā pievērst viņiem uzmanību, nepaļaujoties tikai uz vidusmēra YouTube lietotāja labo gribu?
YouTube lēni, ļoti lēni ir gājis pareizajā virzienā. Viņu tur nav, taču viņi saprot, ka cilvēki pakalpojumā YouTube meklēs ziņas, tāpēc, manuprāt, ir lietderīgi atlasīt kanālus, kas tiks parādīti.
Manā darbā man ir pārsteidzoši, ka YouTube būtībā pret politisko saturu attiecas tāpat kā pret popmūziku. Pēdējo nedēļu laikā viņi lēnām sapratuši, ka pastāv atšķirība.
Piemēram, ar anti-vaxxing kustība, viņi teica, ka vairs noteikti neatļaus noteiktus videoklipus. Es domāju, ka tas ir svarīgi. Politiskā kontekstā ideja par to, ka “tikai cilvēki skatās”, nav tas, ko vēlaties. Tas ir tas, ko vēlaties mūzikai, spēlēm vai cita veida izklaidei, bet, ja runa ir par informāciju.
Es domāju, ka videoklipu un kanālu ieteikumu gadījumā, kur šī loģika turpinās, tas, ka platformā ir cilvēki, neatkarīgi no motivācijas, ir problemātiski.
Tātad, kādus risinājumus jūs iesakāt, ja tādi ir, lai risinātu YouTube nesenos komentēšanas skandālus?
No tā, ko esmu lasījis, kopiena galvenokārt pastāvēja caur komentāriem, kas pēc tam ļoti ietekmēja YouTube ieteikumus, tāpēc šie videoklipi tika saistīti, acīmredzot, diezgan slimā veidā. Es domāju, ka šī ir tāda kā problemātiskā daļa. Kā jūs kā platforma apzināties? Vai apzināties, ka notiek kaut kas, kam nevajadzētu turpināties? Un tāpēc, ka acīmredzot šīs lietas nevajadzētu izdomāt noteiktiem, aktīviem un zinošiem lietotājiem, bet, par laimi, tādas ir.
Jautājums ir: “Kā algoritmi darbojas šajā kontekstā un to pieļauj?” Manuprāt, ir atšķirība starp lietotājiem, kuri komentēja, un cilvēkiem, kuri augšupielādēja videoklipus. Es domāju, ka to varētu būt vieglāk atvienot; bet es domāju, ka vislabākais risinājums būtu ieguldīt lielus līdzekļus cilvēkiem, lai regulētu aizdomīgu saturu, un tikai ļoti labi apzinoties mēģināt noskaidrot, kas ir tikpat aizdomīgs attiecībā uz algoritmiem.
Vai, jūsuprāt, ir kāda YouTube versija, kurai nav jādarbojas ar šiem algoritmiem, kas varētu saistīt potenciāli bīstamas kopienas? Vai arī tas ir raksturīgs pašai platformai?
Es nedomāju, ka tas ir platformai raksturīgs. Es domāju, ka tas ir raksturīgs biznesa modelim. Jūs varētu ļoti labi iedomāties video kopienu, kas varētu būt līdzīga, piemēram, Reddit, kas koncentrējas uz noteiktu saturu vai noteiktām tēmām un kur varat ievietot videoklipus šajā sakarā.
Tā ir problēma. Ja YouTube atsakās no algoritma, kas notur cilvēkus platformā, tā ir peļņas problēma. YouTube vēlas turpināt pelnīt naudu.
Es domāju, ka tas ir godīgi. Daudzas pašlaik notiekošās diskusijas par to, kā platformas darbojas un kāpēc, piemēram, pret kādu saturu izturas labvēlīgāk nekā pret citiem un kāpēc dezinformācija vai sazvērestības teorijas spēj attīstīties, tas ir saistīts ar biznesa modeli un ideju, ka viss ar klikšķiem tiek atalgots. Ir idejas par platformām, kas nav balstītas uz to. Bet tie nenesīs tik daudz naudas.