In februari, YouTuber Matt Watson plaatste een video waarin het gemak werd getoond waarmee hij in staat was om een algoritmisch gegenereerde konijnenhol en vind commentaargemeenschappen van pedofielen die anders normale video's van kinderen. Soms plaatsten dezelfde commentatoren links naar niet-vermelde video's of plaatsten WhatsApp-contactinformatie voor wat was, vermoedelijk pedofielvriendelijke groepsberichten, maar plaatsten vaak tijdstempels van kinderen in compromitterende posities in genoemde videos.
Watsons bevindingen wakkerden opnieuw het gesprek aan over de moderatie en verantwoordelijkheid van YouTube. Veel van de video's die hij vond, werden programmatisch inkomsten gegenereerd met advertenties, wat betekent dat YouTube geld verdiende aan de inhoud dat, hoewel het zichzelf misschien niet stoorde, werd uitgebuit in klikken en meningen door degenen die bijbedoelingen hadden motieven. De video's zelf waren voor het grootste deel niet het probleem. Velen waren van kinderen die normale kinderdingen deden: worstelen met hun broers en zussen, pronken met hun speelgoed collecties, maar de opmerkingen en de manier waarop ze met elkaar verbonden waren, waren verdacht en uiteindelijk storend.
Het schandaal, slechts een jaar nadat YouTube deze commentaarringen voor het eerst erkende en daarna YouTube-kinderen #ElsaGate-schandaal, waarin mensen verontrustende video's vonden op een platform gemaakt met kinderen en hun veiligheid in het achterhoofd, verwikkelde YouTube in een debat waarin velen vroegen: heeft YouTube überhaupt iets veranderd? En zo ja, waarom nam het probleem toe? Zou het gerepareerd kunnen worden?
YouTube reageerde door reacties op miljoenen video's die het doelwit waren van roofdieren uit te schakelen en erop te wijzen dat ze een team van 10.000 medewerkers hebben van menselijke reacties en inhoudsmoderators en een machine learning-systeem wiens taak het is om door video's te bladeren en iets aanstootgevends te markeren. Maar is het genoeg? Is er een manier voor YouTube om het goed te maken met bezorgde ouders? Of is het algoritme van het bedrijf te ver gegaan?
Om erachter te komen wat er kan worden gedaan om het platform te repareren, vaderlijksprak met Jonas Keizer, een partner bij het Berkman Klein Center for Internet & Society, Associate Researcher bij het Alexander von Humboldt Institute for Internet & Society en DFG Research Fellow. Keizer is een expert in YouTube-algoritmen en de verspreiding van schadelijke gemeenschappen. We spraken met hem over het algoritme van YouTube, hoe deze problemen ontstaan en wat YouTube kan doen om het beter te doen.
Je onderzoek richt zich op extreemrechtse trollencampagnes op YouTube en hoe dergelijke communities zich verspreiden. Zijn er overeenkomsten tussen die gemeenschappen en deze nieuw gevonden pedofiele gemeenschappen die links delen in commentaarsecties?
Ik zou die vergelijking niet maken. Met uiterst rechts, we hebben meer zeer zichtbare en voor de hand liggende pogingen om een gemeenschap te vormen en om verbinding te maken met andere kanalen. Ze volgen hun eigen trends van onderwerpen die zij belangrijk vinden en dit gebeurt niet op één kanaal maar op meerdere. Het is heel bewust gedaan door hun eigen acties. Extreemrechtse talking heads gaan naar elkaars shows en geven elkaar prominente legitimiteit.
Tegelijkertijd beïnvloeden ze door hun activiteit en gebruikersactiviteit ook het algoritme van YouTube op een manier die, op YouTube, politieke video's en politieke kanalen zullen, naar welke ideologie je ook kijkt, vaak leiden tot extreemrechts kanalen.
De pedofiele gemeenschappen lijken dus veel meer te zijn dan de kanalen en video's die niet noodzakelijk de gemeenschap waren daar, maar eerder de online opmerkingen, die, van wat ik heb gelezen, dit rare, onzichtbare, zeer verontrustende hebben gemaakt fenomeen.
Voor degenen die het niet weten, hoe werkt het algoritme van YouTube?
YouTube's algoritme draait rond het idee dat het gebruikers betrokken zal houden. In die context betekent dat natuurlijk het bekijken van de video's, of reageren, of leuk vinden of delen. Op het platform blijven is het belangrijkste doel. Om op het platform te blijven, krijg je aanbevelingen op je startpagina, op de videopagina's en op kanalen zelf. Deze zijn allemaal gebouwd rond het idee dat gebruikers op het platform moeten blijven. De vraag is natuurlijk: hoe maakt YouTube een algoritme dat dat doet?
Er zijn veel verschillende gegevenspunten die in dat algoritme gaan. Bijvoorbeeld: wat is er momenteel trending op het platform? Waar hebben andere mensen met dezelfde interesses naar gekeken? Op welke video's wordt het meest geklikt? Waar overlappen vergelijkbare mensen elkaar in gebruikersopmerkingen? Dat soort dingen. Het belangrijkste idee is dat het algoritme leert wat gebruikers aantrekt en houdt op het platform.
Hoe is die moderatie ingesteld op het gebied van content en reactiemoderatie op YouTube? Denkt u dat het een afdoende reactie is op de bedreigingen op internet?
Slechts tot op zekere hoogte. Het probleem met moderatie in de manier waarop de meeste grote sociale-mediaplatforms het doen, is dat het is gebouwd rond mensen die inhoud rapporteren. Dus, eigenlijk, als niemand het meldt en het niet duidelijk in strijd is met de regels die identificeerbaar zijn door middel van machine learning, zoals vloekwoorden, of iets dergelijks dat algoritmisch zou kunnen worden uitgefilterd - andere opmerkingen zijn duidelijk veel moeilijker te identificeren dus een de mens moet ernaar kijken. Maar als niemand de inhoud meldt, weet YouTube niet dat het bestaat, alleen maar omdat er zoveel inhoud op het platform is. Het benadrukt het belang van gebruikers. Er wordt over gedebatteerd, of dat nu een goede of slechte zaak is, dat gebruikers in de positie worden gebracht waarin ze moeten werken om op YouTube te benadrukken wat beledigend voor hen is.
Op videoniveau zijn er nu andere vormen [van moderatie] geïmplementeerd, dus er is een lagere rangorde van inhoud die topnieuws zou kunnen bevatten. Als je naar nieuwsitems zoekt, krijg je eerst wat YouTube als betrouwbaardere bronnen beschouwt. Ze hebben geëxperimenteerd met de infoboxen rond bepaalde samenzweringsvideo's. Dit zijn allemaal, op de een of andere manier, vormen van contentmoderatie.
De manier waarop YouTube vertrouwt op barmhartige samaritanen om dingen te melden die problematisch of aanstootgevend kunnen zijn, lijkt op de manier waarop dat Reddit ook grotendeels wordt gecontroleerd door community-moderators, hoewel Reddit dit probleem ook niet lijkt te hebben schaal.
De vergelijking is logisch, maar het is heel anders. Elke subreddit is een community die in feite zegt welke vorm van inhoud is toegestaan. In de context van de wetenschap SubReddit kun je bijvoorbeeld zien wanneer moderators ervoor zorgen dat de regels worden gevolgd, terwijl andere subreddits erg laissez-faire zijn. Het aantal berichten op subreddits kan niet worden vergeleken met het aantal video's dat op een bepaald uur op YouTube wordt geüpload. Sommige van deze fora hebben belang bij zelfcontrole. Het werk wordt in feite uitbesteed aan de gebruikers en de veronderstelling is dat zolang er mensen gemotiveerd genoeg zijn om dat werk te doen, het prima is, maar dat is niet het geval op YouTube. Deze forums bestaan niet op dezelfde manier.
In termen van deze recente commentatoren en recente YouTube Kids-schandalen zoals #ElsaGate, waar trollen vreselijke video's in kinderinhoud aan het naaien waren. Is er een manier om ze onder de aandacht te brengen die niet alleen afhankelijk is van de goede wil van de gemiddelde YouTube-gebruiker?
YouTube is langzaam, heel langzaam, de goede kant opgegaan. Ze zijn er niet, maar ze begrijpen dat mensen op YouTube naar nieuws zoeken, dus het is naar mijn mening logisch om te bepalen welke kanalen er zullen verschijnen.
In mijn eigen werk vind ik het verbijsterend dat YouTube politieke inhoud in principe hetzelfde behandelt als popmuziek. De afgelopen weken hebben ze langzaamaan door dat er een verschil is.
Bijvoorbeeld met de anti-vaxxing beweging, zeiden ze dat ze bepaalde video's niet per se meer zouden toestaan. Ik denk dat dat belangrijk is. In een politieke context is het idee van 'gewoon mensen kijken' niet wat je wilt. Dit is wat je wilt voor muziek, voor gaming of andere vormen van entertainment, maar als het om informatie gaat.
Ik denk dat voor video- en kanaalaanbevelingen, waar deze logica voortduurt, die gericht is op het hebben van mensen op het platform, ongeacht de motivatie, problematisch is.
Dus, welke oplossingen, indien van toepassing, stel je voor om de recente commentaarschandalen van YouTube aan te pakken?
Van wat ik heb gelezen, bestond de community voornamelijk uit de reacties, die toen zo'n groot effect hadden op de YouTube-aanbevelingen, dus die video's werden gelinkt, duidelijk op een nogal zieke manier. Ik denk dat dit een beetje het problematische deel is. Hoe ben je als platform bewust? Weet je dat er iets aan de hand is dat niet mag? En omdat het natuurlijk niet aan bepaalde, actieve en bewuste gebruikers zou moeten zijn om deze dingen uit te zoeken, maar gelukkig zijn die er wel.
De vraag is: ‘Hoe werken algoritmen in die context en laten ze dat toe?’ Mijn perceptie is dat er een verschil is tussen de gebruikers die hebben gereageerd en mensen die video’s hebben geüpload. Ik denk dat dat misschien makkelijker te ontkoppelen is; maar ik denk dat de beste optie zou zijn om zwaar in mensen te investeren om verdachte inhoud te modereren, en je gewoon heel goed bewust te zijn van het proberen te achterhalen wat vormt als verdacht met betrekking tot algoritmen.
Bestaat er volgens jou een versie van YouTube die niet op deze algoritmen hoeft te draaien die potentieel gevaarlijke gemeenschappen aan elkaar kunnen koppelen? Of is het inherent aan het platform zelf?
Ik denk niet dat het inherent is aan het platform. Ik denk dat het inherent is aan het businessmodel. Je zou heel goed kunnen denken aan een videocommunity die misschien vergelijkbaar is met bijvoorbeeld Reddit, die zich richt op bepaalde inhoud of bepaalde onderwerpen, en waar je video's in dat verband kunt plaatsen.
Dat is het probleem. Als YouTube het algoritme verlaat dat mensen op het platform houdt, dan is dat een winstprobleem. YouTube wil geld blijven verdienen.
Ik denk dat dat eerlijk is. Veel van de discussies die we momenteel voeren over hoe platforms werken en waarom, bijvoorbeeld, sommige inhoud gunstiger wordt behandeld dan andere en waarom desinformatie of complottheorieën kunnen gedijen, heeft te maken met het bedrijfsmodel en het idee dat alles met klikken wordt beloond. Er zijn ideeën om platforms te hebben die daar niet omheen zijn gebouwd. Maar die zouden niet zoveel geld verdienen.