Februárban, Matt Watson YouTuber közzétett egy videót, amely bemutatja, milyen könnyedén tudott belépni egy algoritmikusan létrehozott nyúllyukat, és megtalálja a hozzászóló pedofil közösségeket, akik kihasználják az egyébként normális videókat gyermekek. Néha ugyanezek a hozzászólók linkeket tettek közzé nem listázott videókhoz, vagy közzétették a WhatsApp kapcsolatfelvételi adatait, feltehetően pedofilbarát csoportos üzenetküldés, de gyakran posztoltak időbélyeget a gyerekekről, akik kompromittáló pozícióban vannak. videókat.
Watson megállapításai ismét fellángolták a YouTube moderálásáról és elszámoltathatóságáról szóló beszélgetést. A talált videók közül sok programozottan bevételszerzésre került hirdetésekkel, ami azt jelenti, hogy a YouTube pénzt keresett a tartalomból amely bár nem zavarta önmagát, de kattintásokban és megtekintésekben kihasználták azok, akiknek hátsó szándéka volt. motívumok. Maguk a videók többnyire nem okoztak problémát. Sokan olyan gyerekek voltak, akik normális gyerek dolgokat csináltak: birkóztak a testvéreikkel, mutogatták a játékukat gyűjtemények, de a megjegyzések és az egymáshoz való kapcsolódás módja gyanús volt, és végül zavaró.
A botrány mindössze egy évvel azután jött, hogy a YouTube először elismerte ezeket a kommenteléseket, majd azután YouTube gyerekek Az #ElsaGate-botrány, amelyben az emberek nyugtalanító videókat találtak egy olyan platformon, amely gyerekeket és az ő biztonságukat szem előtt tartva készült, vitába keverte a YouTube-ot, ahol sokan megkérdezték: Változott-e egyáltalán valamit a YouTube? És ha igen, miért szaporodott a probléma? Meg lehet javítani?
A YouTube válaszul letiltotta a megjegyzéseket több millió videónál, amelyeket ragadozók céloztak meg, és rámutatott, hogy 10 000 fős csapattal rendelkeznek. emberi komment- és tartalommoderátorok és egy gépi tanulási rendszer, amelynek az a feladata, hogy a videókat átszitálja, és minden sértőt megjelöljön. De vajon elég? Van valami módja a YouTube-nak, hogy jóvá tegye az aggódó szülőket? Vagy túl messzire ment a cég algoritmusa?
Annak kiderítéséhez, mit lehet tenni a platform javítása érdekében, Atyaibeszélgetett Jonas Keiserrel, a Berkman Klein Internet és Társadalom Központ leányvállalatával, az Alexander von Humboldt Internet és Társadalom Intézet munkatársával és a DFG kutató munkatársával. Keizer a YouTube algoritmusainak és a káros közösségek elterjedésének szakértője. Beszélgettünk vele a YouTube algoritmusáról, arról, hogyan jönnek létre ezek a problémák, és mit tehet a YouTube a jobb teljesítmény érdekében.
Kutatása a szélsőjobboldali trollkampányokra összpontosít a Youtube-on, és arra, hogy az ilyen közösségek hogyan terjednek. Van-e hasonlóság e közösségek és az újonnan talált pedofil közösségek között, amelyek hivatkozásokat osztanak meg a megjegyzés rovatokban?
Én nem tenném ezt az összehasonlítást. A szélsőjobboldallal, több nagyon látható és nyilvánvaló próbálkozásunk van közösség kialakítására és más csatornákkal való kapcsolatteremtésre. Követik saját trendeiket az általuk fontosnak tartott témákban, és ez nem egy, hanem több csatornán történik. Ezt nagyon tudatosan teszik a saját tetteik révén. A szélsőjobboldali beszélő fejek elmennek egymás műsoraiba, és kiemelkedő legitimációt adnak egymásnak.
Ugyanakkor tevékenységükkel és felhasználói tevékenységükkel a YouTube algoritmusára is hatással vannak oly módon, hogy A YouTube, a politikai videók és a politikai csatornák, függetlenül attól, hogy milyen ideológiát nézünk, gyakran szélsőjobboldalhoz vezetnek csatornák.
Tehát úgy tűnik, a pedofil közösségek sokkal inkább azok, mint a csatornák és a videók nem feltétlenül a közösség ott, hanem az online kommentek, amelyek az általam olvasottak alapján ezt a furcsa, láthatatlan, nagyon zavaró jelenség.
Azok számára, akik nem ismerik, hogyan működik a YouTube algoritmusa?
YouTube-é algoritmus azon az elgondoláson forog, hogy megtartja a felhasználók érdeklődését. Ebben az összefüggésben ez nyilvánvalóan a videók megtekintését, kommentálását, kedvelését vagy megosztását jelenti. A platformon maradás a legfontosabb cél. A platformon maradás érdekében ajánlásokat fog kapni a kezdőlapján, a videóoldalakon és magán a csatornákon. Ezek mind arra az elképzelésre épülnek, hogy a felhasználóknak a platformon kell maradniuk. A kérdés természetesen az, hogy a YouTube hogyan hoz létre egy algoritmust, amely ezt teszi?
Ebben az algoritmusban sok különböző adatpont található. Például: mi a trend jelenleg a platformon? Mit néztek más hasonló érdeklődésű emberek? Mely videókra kattintanak a legtöbbet? Hol vannak átfedésben a hasonló emberek a felhasználói megjegyzésekben? Az ilyen dolgok. A fő ötlet az, hogy az algoritmus megtanulja, mi vonzza és tartja a felhasználókat a platformon.
A YouTube-on található tartalmak és megjegyzések moderálása tekintetében hogyan történik ez a moderálás? Ön szerint ez elégséges válasz az internet fenyegetéseire?
Csak bizonyos mértékig. A legtöbb nagy közösségi médiaplatform moderálásával az a probléma, hogy a tartalmat bejelentő emberek köré épül. Tehát alapvetően, ha senki nem jelenti be, és nem sérti egyértelműen a gépi tanulással azonosítható szabályokat – mint pl. átokszavak, vagy valami hasonló, amit algoritmikusan ki lehetne szűrni – más megjegyzéseket nyilvánvalóan sokkal nehezebb azonosítani tehát a az embernek meg kell néznie. De ha senki nem jelenti be a tartalmat, a YouTube nem tudja, hogy létezik, csak azért, mert olyan sok tartalom van a platformon. Rávilágít a felhasználók fontosságára. Vitatott, hogy ez jó vagy rossz dolog-e vagy sem, hogy a felhasználókat abba a helyzetbe hozzák, hogy meg kell dolgozniuk, hogy rávilágítsanak a YouTube-ra, ami sértő számukra.
A videók szintjén a [moderálás] más formáit is bevezették, így a legfontosabb híreket tartalmazó tartalom lejjebb kerül. Ha híreket keres, először a YouTube által megbízhatóbbnak ítélt forrásokat kapja meg. Kísérleteztek bizonyos összeesküvés videók körüli információs dobozokkal. Ezek mind ilyen vagy olyan módon a tartalom moderálásának formái.
Az a mód, ahogy a YouTube a jó szamaritánusokra támaszkodik az esetlegesen problémás vagy sértő dolgok bejelentésében, hasonló hogy a Reddit is nagyrészt közösségi moderátorok felügyelik, bár úgy tűnik, hogy a Redditnél nincs is ez a probléma skála.
Az összehasonlításnak van értelme, de nagyon más. Minden subreddit egy közösség, amely alapvetően megmondja, hogy milyen tartalom engedélyezett. A tudományos SubReddit kontextusában például láthatja, hogy a moderátorok mikor ügyelnek a szabályok betartására, míg a többi subreddit nagyon laissez-faire. A subredditen lévő bejegyzések száma nem hasonlítható össze a YouTube-on egy adott órában feltöltött videók számával. E fórumok némelyike az önrendészet iránt érdeklődik. A munkaerőt alapvetően kiszervezik a felhasználóknak, és az a feltételezés, hogy amíg vannak elég motivált emberek erre a munkára, addig rendben van, de ez nem így van a YouTube-on. Ezek a fórumok nem ugyanúgy léteznek.
Ami a közelmúltbeli kommentelőket és a YouTube Kids-botrányokat illeti, például az #ElsaGate-et, ahol a trollok szörnyű videókat varrtak a gyerekeknek szóló tartalomba. Van olyan módszer, amellyel felhívhatjuk rájuk a figyelmet, ami nem egyszerűen az átlagos YouTube-felhasználók jóindulatán múlik?
A YouTube lassan, nagyon lassan elindult a helyes irányba. Nincsenek ott, de megértik, hogy az emberek híreket fognak keresni a YouTube-on, így szerintem van értelme annak, hogy milyen csatornák fognak megjelenni.
Saját munkám során elképesztő számomra, hogy a YouTube alapvetően ugyanúgy kezeli a politikai tartalmat, mint a popzenét. Az elmúlt hetekben lassan megértették, hogy van különbség.
Például a anti-vaxxing mozgalom, azt mondták, hogy bizonyos videókat már nem feltétlenül engedélyeznek. szerintem ez fontos. Politikai kontextusban a „csak az emberek nézik” gondolata nem az, amit akar. Ez az, amit szeretne zenéhez, játékhoz vagy más szórakozási formákhoz, de ha információról van szó.
Úgy gondolom, hogy a videó- és csatornaajánlások esetében, ahol ez a logika folytatódik, problémás az, hogy emberek legyenek a platformon, függetlenül attól, hogy milyen motivációt hoznak létre.
Tehát milyen megoldásokat javasol a YouTube közelmúltbeli kommentálási botrányainak kezelésére, ha vannak ilyenek?
Az olvasottak alapján a közösség leginkább a kommenteken keresztül létezett, ami aztán ekkora hatással volt a YouTube-ajánlókra, tehát linkelték azokat a videókat, nyilván elég beteges módon. Szerintem ez olyan, mint a problémás rész. Hogyan lehet tudatában platformként? Tisztában vagy vele, hogy van valami, aminek nem szabadna megtörténnie? És azért, mert nyilvánvalóan nem bizonyos, aktív és tudatos felhasználóktól kellene kitalálni ezeket a dolgokat, de szerencsére vannak.
A kérdés a következő: „Hogyan működnek az algoritmusok ebben a kontextusban, és hogyan teszik ezt lehetővé?” Az a véleményem, hogy különbség van a megjegyzéseket író és a videókat feltöltő felhasználók között. Azt hiszem, hogy könnyebb lenne leválasztani; de úgy gondolom, hogy a legjobb megoldás az lenne, ha sokat fektetnénk az emberekbe a gyanús tartalom moderálása érdekében, és tisztában vagyunk azzal, hogy megpróbáljuk kitalálni, mi gyanúsnak minősül az algoritmusok szempontjából.
Létezik olyan YouTube-verzió, amely szerinted nem kell, hogy ezekkel az algoritmusokkal fusson, amelyek potenciálisan veszélyes közösségeket kapcsolhatnak össze egymással? Vagy ez magától a platformtól függ?
Nem hiszem, hogy ez a platform velejárója. Szerintem ez az üzleti modell velejárója. Nagyon jól jöhet egy olyan videóközösség, amely hasonló lehet például a Reddithez, amely bizonyos tartalmakra vagy bizonyos témákra összpontosít, és ahol videókat tehet közzé ezzel kapcsolatban.
Ez a probléma. Ha a YouTube elhagyja azt az algoritmust, amely az embereket a platformon tartja, akkor az profitproblémát jelent. A YouTube továbbra is pénzt akar keresni.
szerintem ez igazságos. Számos megbeszélés folyik jelenleg a platformok működéséről, és arról, hogy miért kezelnek például bizonyos tartalmakat kedvezőbben, mint másokat, és A félretájékoztatás vagy az összeesküvés-elméletek miért képesek virágozni, az üzleti modellhez kapcsolódik, és az az elképzelés, hogy minden kattintással jutalmazzák. Vannak ötletek olyan platformokra, amelyek nem erre épülnek. De ezek nem hoznának annyi pénzt.