I februar, YouTuber Matt Watson postede en video, der afslørede den lethed, hvormed han var i stand til at indtaste en algoritmisk frembragt kaninhul og finde kommenterende fællesskaber af pædofile, der udnytter ellers normale videoer af børn. Nogle gange postede de samme kommentatorer links til ikke-listede videoer eller udsendte WhatsApp-kontaktoplysninger for, hvad der var, formentlig pædofilvenlig gruppebeskeder, men postede ofte tidsstempler af børn i kompromitterende positioner i nævnte videoer.
Watsons resultater opildnede endnu en gang samtalen omkring YouTubes mådehold og ansvarlighed. Mange af de videoer, han fandt, var programmatisk indtægtsgenereret med annoncer, hvilket betyder, at YouTube tjente penge på indholdet der, selvom det måske ikke forstyrrede sig selv, blev udnyttet i klik og visninger af dem, der havde skjult motiver. Videoerne i sig selv var for det meste ikke problemet. Mange var børn, der lavede almindelige børneting: kæmpede med deres søskende, vise deres legetøj frem samlinger, men kommentarerne og måden, de var knyttet til hinanden på var mistænkelige og i sidste ende, forstyrrende.
Skandalen, der kom blot et år efter, at YouTube første gang anerkendte disse kommentarringe og senere YouTube børn #ElsaGate-skandalen, hvor folk fandt foruroligende videoer på en platform lavet med børn og deres sikkerhed i tankerne, involverede YouTube i en debat, hvor mange spurgte: Har YouTube overhovedet ændret noget? Og hvis ja, hvorfor voksede problemet? Kunne det rettes?
YouTube reagerede ved at deaktivere kommentarer på millioner af videoer, der blev målrettet af rovdyr, og påpegede, at de har et 10.000 ansatte dybt team af menneskelige kommentar- og indholdsmoderatorer og et maskinlæringssystem, hvis opgave det er at gennemgå videoer og markere alt stødende. Men er det nok? Er der nogen måde for YouTube at gøre det godt igen med bekymrede forældre? Eller er virksomhedens algoritme for langt gået?
For at finde ud af, hvad der om noget kan gøres for at reparere platformen, Faderligtalte med Jonas Keiser, en affiliate ved Berkman Klein Center for Internet & Society, Associate Researcher ved Alexander von Humboldt Institute for Internet & Society, og DFG Research Fellow. Keizer er ekspert i YouTube-algoritmer og spredningen af skadelige samfund. Vi talte med ham om YouTubes algoritme, hvordan disse problemer skabes, og hvad YouTube kan gøre for at gøre det bedre.
Din forskning fokuserer på højreekstreme troldekampagner på Youtube, og hvordan sådanne fællesskaber spredes. Er der ligheder mellem disse fællesskaber og disse nyfundne pædofile fællesskaber, der deler links i kommentarsektioner?
Jeg ville ikke lave den sammenligning. Med yderst til højre, har vi flere meget synlige og åbenlyse forsøg på at danne et fællesskab og forbinde os med andre kanaler. De følger deres egne trends med emner, de synes er vigtige, og det sker ikke på én kanal, men på flere. Det er gjort meget bevidst gennem deres egne handlinger. Højre-højre-talende hoveder går til hinandens shows og giver hinanden fremtrædende legitimitet.
Samtidig påvirker de gennem deres aktivitet og brugeraktivitet også YouTubes algoritme på en måde, der på YouTube, politiske videoer og politiske kanaler vil, uanset hvilken ideologi man ser på, ofte føre til højrefløjen kanaler.
Så de pædofile fællesskaber ser ud til at være meget mere end kanalerne og videoerne ikke nødvendigvis var fællesskabet der, men snarere online-kommentarerne, som, ud fra hvad jeg har læst, skabte dette mærkelige, usynlige, meget foruroligende fænomen.
For dem, der ikke er klar over, hvordan fungerer YouTubes algoritme?
YouTubes algoritme drejer sig om ideen om, at det vil holde brugerne engageret. I den sammenhæng betyder det naturligvis at se videoerne eller kommentere, like eller dele. At blive på platformen er det vigtigste mål. For at blive på platformen får du anbefalinger på din startside, på videosiderne og på selve kanalerne. Disse er alle bygget op omkring ideen om, at brugerne skal blive på platformen. Spørgsmålet er selvfølgelig, hvordan skaber YouTube en algoritme, der gør det?
Der er mange forskellige datapunkter, der indgår i den algoritme. For eksempel: hvad er trending på platformen i øjeblikket? Hvad har andre mennesker med samme interesser set på? Hvilke videoer bliver der klikket mest på? Hvor overlapper lignende personer i brugerkommentarer? Den slags ting. Hovedideen er at få algoritmen til at lære, hvad der tiltrækker og holder brugere på platformen.
Med hensyn til indhold og kommentarmoderering på YouTube, hvordan er denne moderering sat op? Synes du, det er et tilstrækkeligt svar på truslerne på internettet?
Kun til en vis grad. Problemet med moderation på den måde, som de fleste store sociale medieplatforme gør det, er, at det er bygget op omkring folk, der rapporterer indhold. Så dybest set, hvis ingen rapporterer det, og det ikke klart er imod reglerne, der kan identificeres gennem maskinlæring - som f.eks. bandeord eller noget i den stil, der kunne filtreres fra algoritmisk - andre kommentarer er åbenbart meget sværere at identificere så en mennesket har brug for at se på det. Men hvis ingen rapporterer indholdet, ved YouTube ikke, at det eksisterer, bare fordi der er så meget indhold på platformen. Det fremhæver brugernes betydning. Det diskuteres, uanset om det er en god eller dårlig ting eller ej, at brugere bliver sat i den position, at de er nødt til at arbejde for at fremhæve over for YouTube, hvad der er stødende for dem.
På videoniveau er andre former for moderering blevet implementeret nu, så der er nedrangering af indhold, der kunne omfatte topnyheder. Hvis du søger efter nyheder, får du først, hvad YouTube anser for at være mere pålidelige kilder. De har eksperimenteret med infoboksene omkring visse konspirationsvideoer. Disse er alle på den ene eller anden måde former for indholdsmoderering.
Den måde, hvorpå YouTube er afhængig af gode samaritaner til at rapportere ting, der kan være problematiske eller stødende, føles på samme måde som at Reddit også i vid udstrækning kontrolleres af community-moderatorer, selvom Reddit ikke ser ud til at have dette problem på samme tid vægt.
Sammenligningen giver mening, men den er meget anderledes. Hver subreddit er et fællesskab, der grundlæggende siger, hvilken form for indhold der er tilladt. I forbindelse med videnskaben SubReddit, for eksempel, kan du se, hvornår moderatorer sørger for, at reglerne bliver fulgt, mens andre subreddits er meget laissez-faire. Antallet af indlæg på subreddits kan ikke sammenlignes med antallet af videoer, der uploades på en given time på YouTube. Nogle af disse fora har en interesse i selvpoliti. Arbejdskraften er dybest set outsourcet til brugerne, og antagelsen er, at så længe der er folk, der er motiverede nok til at udføre det arbejde, er det fint, men det er ikke tilfældet på YouTube. Disse fora eksisterer ikke på samme måde.
Med hensyn til disse nylige kommentatorer og nylige YouTube Kids-skandaler som #ElsaGate, hvor trolde syede forfærdelige videoer ind i børns indhold. Er der en måde at skabe opmærksomhed på dem, som ikke blot er afhængig af den gennemsnitlige YouTube-brugers gode vilje?
YouTube er langsomt, meget langsomt, gået den rigtige retning. De er der ikke, men de forstår, at folk vil søge på YouTube efter nyheder, så det er efter min mening fornuftigt at kurere, hvilke kanaler der kommer op.
I mit eget arbejde er det forbløffende for mig, at YouTube grundlæggende behandler politisk indhold på samme måde, som det gør popmusik. I de seneste uger har de langsomt forstået, at der er en forskel.
For eksempel med anti-vaxxing bevægelse, sagde de, at de ikke nødvendigvis ville tillade visse videoer længere. Det synes jeg er vigtigt. I en politisk kontekst er ideen om 'bare folk, der ser' ikke, hvad du ønsker. Dette er hvad du vil have til musik, til spil eller andre former for underholdning, men når det kommer til information.
Jeg tror, at for video- og kanalanbefalinger, hvor denne logik fortsætter, det sigter mod at have folk på platformen, uanset hvilken motivation, er problematisk.
Så hvilke løsninger, hvis nogen, foreslår du til at håndtere YouTubes seneste kommentarskandaler?
Ud fra hvad jeg har læst, eksisterede fællesskabet for det meste gennem kommentarerne, som så havde denne store effekt på YouTube-anbefalingerne, så disse videoer blev linket, åbenbart på en ret syg måde. Jeg synes, det er lidt ligesom den problematiske del. Hvordan er du som platform opmærksom? Er du klar over, at der sker noget, som ikke bør fortsætte? Og fordi det selvfølgelig ikke burde være op til bestemte, aktive og bevidste brugere at finde ud af disse ting, men heldigvis er der det.
Spørgsmålet er: ’Hvordan fungerer algoritmer i den sammenhæng og giver mulighed for det?’ Min opfattelse er, at der er forskel på de brugere, der kommenterede, og folk, der havde uploadet videoer. Jeg tror, det kan være nemmere at afbryde; men jeg tror, at den bedste mulighed ville være at investere kraftigt i mennesker for at moderere indhold, der er mistænkeligt, og bare være meget opmærksom på at forsøge at finde ud af, hvad udgør som mistænkelig med hensyn til algoritmer.
Er der en version af YouTube, der eksisterer i dit sind, som ikke behøver at køre på disse algoritmer, der kan forbinde potentielt farlige fællesskaber til hinanden? Eller er det iboende til selve platformen?
Jeg tror ikke, det er iboende for platformen. Jeg tror, det er uløseligt forbundet med forretningsmodellen. Du kunne sagtens tænke på et videofællesskab, der måske ligner Reddit, for eksempel, der fokuserer på bestemt indhold eller bestemte emner, og hvor du kan poste videoer i den forbindelse.
Det er problemet. Hvis YouTube opgiver algoritmen, der holder folk på platformen, så er det et profitproblem. YouTube vil blive ved med at tjene penge.
Det synes jeg er rimeligt. Mange af de diskussioner, vi har i øjeblikket omkring, hvordan platforme fungerer, og hvorfor f.eks. noget indhold behandles mere fordelagtigt end andet og hvorfor, misinformation eller konspirationsteorier er i stand til at trives, har at gøre med forretningsmodellen, og ideen om, at alt med klik bliver belønnet. Der er ideer til at have platforme, der ikke er bygget op omkring det. Men de ville ikke tjene så mange penge.