Mida saab YouTube teha, et meie lapsed oleksid turvalisemad?

Veebruaris, YouTuber Matt Watson postitas video, mis paljastas, kui hõlpsalt suutis ta sisestada algoritmiliselt loodud jäneseauku ja leidke kommenteerivad pedofiilide kogukonnad, kes kasutavad muidu tavalisi videoid lapsed. Mõnikord postitasid samad kommenteerijad linke registrivälistele videotele või postitasid WhatsAppi kontaktteabe selle kohta, mis oli, arvatavasti pedofiilisõbralik grupisõnumite saatmine, kuid sageli postitati ajatemplid, kus lapsed on kompromiteerivas positsioonis. videod.

Watsoni leiud õhutasid taas vestlust YouTube'i mõõdukuse ja vastutuse üle. Paljud tema leitud videod olid programmiliselt rahaks muudetud reklaamidega, mis tähendab, et YouTube teenis sisu pealt raha mis ei pruukinud iseennast häirida, kuid seda kasutasid klikkide ja vaadete tegemisel ära need, kes arvasid motiivid. Videod ise polnud enamasti probleem. Paljud olid lapsed, kes tegelesid tavaliste laste asjadega: maadlesid oma õdede-vendadega, näitasid oma mänguasja kogusid, kuid kommentaarid ja viisid, kuidas neid omavahel seostati, olid kahtlased ja lõpuks häiriv.

Skandaal, mis saabus vaid aasta pärast seda, kui YouTube esimest korda neid kommenteerimishelinaid tunnistas ja pärast seda YouTube'i lapsed #ElsaGate skandaal, kus inimesed leidsid lapsi ja nende turvalisust silmas pidades tehtud platvormilt häirivaid videoid, haaras YouTube'i arutelu, kus paljud küsisid: kas YouTube on üldse midagi muutnud? Ja kui jah, siis miks probleem vohas? Kas seda saaks parandada?

YouTube vastas, et keelas kommentaarid miljonite videote kohta, mis olid röövloomade sihikule langenud, ja osutas, et neil on 10 000 töötajast koosnev meeskond. inimeste kommentaaride ja sisu moderaatorid ja masinõppesüsteem, mille ülesandeks on videoid sõeluda ja kõike solvavat märgistada. Aga kas sellest piisab? Kas YouTube saab kuidagi murelike vanematega heastada? Või on ettevõtte algoritm liiga kaugele läinud?

Et välja selgitada, mida platvormi parandamiseks teha saab, Isalikvestles Jonas Keiseriga, Berkman Kleini Interneti ja ühiskonna keskuse sidusettevõtte, Alexander von Humboldti Interneti ja ühiskonna instituudi kaasuurija ning DFG teaduriga. Keizer on YouTube'i algoritmide ja kahjulike kogukondade leviku ekspert. Rääkisime temaga YouTube'i algoritmist, sellest, kuidas need probleemid tekivad ja mida YouTube saab paremaks teha.

Teie uurimus keskendub paremäärmuslikele trollide kampaaniatele Youtube'is ja sellele, kuidas sellised kogukonnad levivad. Kas nende kogukondade ja nende äsja leitud pedofiilsete kogukondade vahel on sarnasusi, kes jagavad kommentaaride jaotistes linke?

Ma ei teeks seda võrdlust. Paremäärmuslastega, on meil rohkem väga nähtavaid ja ilmseid katseid luua kogukonda ja luua ühendust teiste kanalitega. Nad järgivad oma suundumusi teemade osas, mida nad peavad oluliseks ja seda ei juhtu ühes kanalis, vaid mitmes kanalis. Seda tehakse väga tahtlikult nende enda tegude kaudu. Paremäärmuslikud kõnepead käivad üksteise saadetes ja annavad üksteisele silmapaistva legitiimsuse.

Samal ajal mõjutavad nad oma tegevuse ja kasutajate tegevuse kaudu ka YouTube'i algoritmi viisil, mis YouTube, poliitilised videod ja poliitilised kanalid viivad olenemata sellest, millist ideoloogiat te vaatate, sageli paremäärmusluseni kanalid.

Seega näivad pedofiilsed kogukonnad olevat palju rohkem, kui kanalid ja videod ei pruugi olla kogukond seal, vaid pigem netikommentaarid, mis minu loetu põhjal lõid selle imeliku, nähtamatuse ja väga häiriva nähtus.

Kuidas YouTube'i algoritm toimib neile, kes pole teadlikud?

YouTube'i omad algoritm keerleb ümber idee, et see hoiab kasutajad kaasatuna. Selles kontekstis tähendab see ilmselgelt videote vaatamist või kommenteerimist või meeldimist või jagamist. Platvormil püsimine on kõige olulisem eesmärk. Platvormil püsimiseks saate soovitusi oma avalehel, videolehtedel ja kanalites endas. Need kõik on üles ehitatud ideele, et kasutajad peaksid platvormil püsima. Küsimus on muidugi selles, kuidas YouTube loob algoritmi, mis seda teeb?

Selle algoritmi jaoks on palju erinevaid andmepunkte. Näiteks: mis on praegu platvormil trendis? Mida on vaadanud teised samade huvidega inimesed? Millistel videotel kõige rohkem klõpsatakse? Kus sarnased inimesed kasutajate kommentaarides kattuvad? Sellised asjad. Peamine idee on lasta algoritmil õppida, mis kasutajaid platvormil meelitab ja hoiab.

Kuidas on YouTube'i sisu ja kommentaaride modereerimine seadistatud? Kas see on teie arvates piisav vastus Interneti-ohtudele?

Ainult mingil määral. Enamiku suurte sotsiaalmeediaplatvormide modereerimise probleem seisneb selles, et see põhineb sisust teatavatel inimestel. Põhimõtteliselt, kui keegi sellest ei teata ja see ei ole selgelt vastuolus reeglitega, mis on masinõppe abil tuvastatavad, näiteks needussõnad või midagi sellist, mida saaks algoritmiliselt välja filtreerida – muid kommentaare on ilmselt palju raskem tuvastada nii et a inimene peab seda vaatama. Aga kui keegi sisust ei teata, siis YouTube ei tea selle olemasolust vaid seetõttu, et platvormil on nii palju sisu. See rõhutab kasutajate tähtsust. Selle üle, olenemata sellest, kas see on hea või halb, vaieldakse, et kasutajad pannakse olukorda, kus nad peavad pingutama, et YouTube'is esile tõsta seda, mis on nende jaoks solvav.

Videotasemel on nüüd rakendatud teisi [modereerimise] vorme, nii et sisu, mis võib sisaldada parimaid uudiseid, langeb. Kui otsite uudiseid, saate kõigepealt need, mida YouTube peab usaldusväärsemateks allikateks. Nad on katsetanud teatud vandenõuvideote ümber olevate teabekastidega. Need kõik on ühel või teisel viisil sisu modereerimise vormid.

Viis, kuidas YouTube loodab headele samariitlastele, et teavitada asju, mis võivad olla problemaatilised või solvavad, tundub samamoodi et Redditi kontrollivad suuresti ka kogukonna moderaatorid, kuigi Redditil ei paista seda probleemi olevat kaal.

Võrdlus on mõistlik, kuid see on väga erinev. Iga subreddit on kogukond, mis põhimõtteliselt ütleb, mis kujul sisu on lubatud. Näiteks teadusliku SubRedditi kontekstis näete, millal moderaatorid veenduvad, et reegleid järgitakse, samas kui teised subredditid on väga laissez-faire'id. Subredditide postituste arvu ei saa võrrelda YouTube'i igal tunnil üles laaditud videote arvuga. Mõned neist foorumitest on huvitatud enesekontrollist. Põhimõtteliselt tellitakse tööjõud kasutajatele ja eeldatakse, et seni, kuni on piisavalt motiveeritud inimesi selle töö tegemiseks, on see hea, kuid YouTube'is see nii ei ole. Need foorumid ei eksisteeri samamoodi.

Mis puudutab neid hiljutisi kommenteerijaid ja hiljutisi YouTube Kidsi skandaale, nagu #ElsaGate, kus trollid õmblesid lastele mõeldud sisusse kohutavaid videoid. Kas on võimalik neile tähelepanu juhtida nii, et see ei sõltuks lihtsalt tava YouTube'i kasutaja heast tahtest?

YouTube on aeglaselt, väga aeglaselt läinud õigesse suunda. Nad ei ole seal, kuid nad mõistavad, et inimesed otsivad YouTube'ist uudiseid, seega on minu arvates mõttekas kureerida, millised kanalid välja tulevad.

Minu jaoks on minu jaoks jahmatav, et YouTube käsitleb poliitilist sisu põhimõtteliselt samamoodi nagu popmuusikat. Viimastel nädalatel on nad aeglaselt aru saanud, et erinevus on olemas.

Näiteks koos anti-vaxxing liikumine, ütlesid nad, et nad ei luba enam teatud videoid. Ma arvan, et see on oluline. Poliitilises kontekstis pole idee, et inimesed lihtsalt vaatavad, see, mida soovite. See on see, mida soovite muusika, mängude või muu meelelahutuse jaoks, kuid kui tegemist on teabega.

Arvan, et video- ja kanalisoovituste puhul, kus see loogika jätkub, on probleemne, et inimesed oleksid platvormil, olenemata motivatsioonist.

Milliseid lahendusi (kui üldse) soovitate YouTube'i hiljutiste kommenteerimisskandaalide lahendamiseks?

Lugetu põhjal eksisteeris kogukond peamiselt kommentaaride kaudu, millel oli siis YouTube'i soovitustele suur mõju, nii et need videod olid lingitud, ilmselgelt üsna haigel viisil. Ma arvan, et see on probleemne osa. Kuidas te platvormina teadlik olete? Kas olete teadlik, et toimub midagi, mis ei tohiks jätkuda? Ja kuna ilmselgelt ei peaks nende asjade välja mõtlemine olema kindlate, aktiivsete ja teadlike kasutajate ülesanne, kuid õnneks on neid.

Küsimus on järgmine: "Kuidas algoritmid selles kontekstis töötavad ja seda võimaldavad?" Minu arusaam on, et kommenteerinud kasutajad ja videoid üles laadinud inimesed erinevad. Ma arvan, et seda on lihtsam lahti ühendada; kuid ma arvan, et parim valik oleks investeerida palju inimestesse, et modereerida kahtlast sisu ja olla lihtsalt väga teadlik sellest, mis on on algoritmide suhtes sama kahtlane.

Kas teie arvates on olemas YouTube'i versioon, mis ei pea töötama nende algoritmidega, mis võivad potentsiaalselt ohtlikke kogukondi üksteisega siduda? Või on see platvormile omane?

Ma ei usu, et see on platvormile omane. Ma arvan, et see on ärimudelile omane. Võiksite väga hästi mõelda videokogukonnale, mis sarnaneb näiteks Redditiga, mis keskendub teatud sisule või teatud teemadele ja kuhu saate sellega seoses videoid postitada.

See ongi probleem. Kui YouTube loobub algoritmist, mis hoiab inimesi platvormil, on see kasumiprobleem. YouTube soovib jätkuvalt raha teenida.

Ma arvan, et see on õiglane. Paljud arutelud, mida me praegu peame platvormide toimimise ja selle üle, miks näiteks mõnda sisu koheldakse soodsamalt kui teisi ja miks, desinformatsioon või vandenõuteooriad suudavad jõudsalt areneda, on seotud ärimudeliga ja ideega, et kõik, mis klikid saab, on premeeritud. On ideid luua platvorme, mis pole selle ümber ehitatud. Kuid need ei teeniks nii palju raha.

Arvustus: "Cobra Kai" on YouTube'i veenev järg filmile "Karate Kid"

Arvustus: "Cobra Kai" on YouTube'i veenev järg filmile "Karate Kid"YoutubeCobra Kai

Kobra Kai, 34-aastane järg Karate Kid, avaldati eelmisel nädalal ametlikult YouTube Redis, võimaldades vaatajatel uuesti sisse logida Daniel LaRusso ja Johnny Lawrence keskealiste meestena, keda ku...

Loe rohkem
Jim Gaffigan, Ryan's World ja YouTube'i kasutajad selgitavad lastele õrnalt koroonaviirust

Jim Gaffigan, Ryan's World ja YouTube'i kasutajad selgitavad lastele õrnalt koroonaviirustYoutubeKoroonaviirus

Koronaviiruse pandeemia selgitamine lastele ei ole lihtne. Laste jaoks võib kõik toimuv olla hirmutav, stressi tekitav, valdav, ja segadust tekitav, eriti noorematele lastele, kes ei saa aru, miks ...

Loe rohkem
Mida saab YouTube teha, et meie lapsed oleksid turvalisemad?

Mida saab YouTube teha, et meie lapsed oleksid turvalisemad?InternetVeebiturvalisusYoutubeInterneti TurvalisusElsagateYoutube'i Lapsed

Veebruaris, YouTuber Matt Watson postitas video, mis paljastas, kui hõlpsalt suutis ta sisestada algoritmiliselt loodud jäneseauku ja leidke kommenteerivad pedofiilide kogukonnad, kes kasutavad mui...

Loe rohkem