În februarie, YouTuber Matt Watson a postat un videoclip care expune ușurința cu care a reușit să intre într-un proces algoritmic groapă de iepure și găsiți comunități de pedofili care comentează care exploatează videoclipuri altfel normale ale copii. Uneori, aceiași comentatori au postat linkuri către videoclipuri nelistate sau au postat informații de contact WhatsApp pentru ceea ce a fost, probabil, mesaje de grup prietenoase cu pedofilii, dar deseori au fost postate ștampile de timp ale copiilor în poziții compromițătoare în Videoclipuri.
Descoperirile lui Watson au aprins încă o dată conversația despre moderarea și responsabilitatea YouTube. Multe dintre videoclipurile pe care le-a găsit au fost monetizate în mod programatic cu reclame, ceea ce înseamnă că YouTube câștiga bani din conținut care, deși ar fi putut să nu se deranjeze, era exploatat în clicuri și vizualizări de către cei care au avut ulterior motive. Videoclipurile în sine nu au fost problema, în cea mai mare parte. Mulți erau copii care făceau lucruri normale pentru copii: se luptau cu frații lor, își etalau jucăria colecții, dar comentariile și modurile în care erau legate între ele erau suspecte și, în cele din urmă, deranjant.
Scandalul, care a venit la doar un an după ce YouTube a recunoscut pentru prima dată aceste inele de comentarii și după YouTube pentru copii Scandalul #ElsaGate, în care oamenii au găsit videoclipuri deranjante pe o platformă făcută cu copiii și siguranța lor, a implicat YouTube într-o dezbatere în care mulți au întrebat: A schimbat YouTube ceva? Și dacă da, de ce a proliferat problema? Ar putea fi reparat?
YouTube a răspuns dezactivând comentariile la milioane de videoclipuri care erau vizate de prădători și subliniind că au o echipă de 10.000 de angajați. comentariu uman și moderatori de conținut și un sistem de învățare automată a cărui sarcină este să verifice videoclipurile și să semnaleze orice ofensator. Dar este suficient? Există vreo modalitate ca YouTube să-și repare părinții îngrijorați? Sau algoritmul companiei a mers prea departe?
Pentru a afla ce se poate face, dacă este ceva, pentru a repara platforma, Păresca vorbit cu Jonas Keiser, un afiliat la Centrul Berkman Klein pentru Internet și Societate, cercetător asociat la Institutul Alexander von Humboldt pentru Internet și Societate și DFG Research Fellow. Keiser este un expert în algoritmi YouTube și în proliferarea comunităților dăunătoare. Am vorbit cu el despre algoritmul YouTube, despre cum sunt create aceste probleme și despre ce poate face YouTube pentru a face mai bine.
Cercetarea dvs. se concentrează pe campaniile de troll de extremă-dreapta de pe Youtube și modul în care astfel de comunități se răspândesc. Există asemănări între acele comunități și aceste comunități pedofile nou găsite care partajează linkuri în secțiunile de comentarii?
Nu aș face această comparație. Cu extrema dreapta, avem mai multe încercări foarte vizibile și evidente de a forma o comunitate și de a ne conecta cu alte canale. Ei își urmează propriile tendințe de subiecte pe care le consideră importante și acest lucru nu se întâmplă pe un singur canal, ci pe mai multe. Se face foarte deliberat prin propriile lor acțiuni. Capii vorbitori de extremă-dreapta merg unul la emisiunile celuilalt și își oferă reciproc o legitimitate proeminentă.
În același timp, prin activitatea lor și activitatea utilizatorilor, aceștia afectează și algoritmul YouTube într-un mod care, pe YouTube, videoclipurile politice și canalele politice, indiferent de ideologia la care te uiți, vor duce adesea la extrema dreaptă canale.
Deci, comunitățile pedofile par să fie mult mai mult că canalele și videoclipurile nu erau neapărat comunitatea acolo, ci mai degrabă comentariile online, care, din câte am citit, au creat acest lucru ciudat, invizibil, foarte deranjant. fenomen.
Pentru cei care nu știu, cum funcționează algoritmul YouTube?
de pe YouTube algoritm se învârte în jurul ideii că va menține utilizatorii implicați. În acest context, asta înseamnă, evident, să vizionezi videoclipurile, să comentezi, să apreciezi sau să distribui. A rămâne pe platformă este cel mai important obiectiv. Pentru a rămâne pe platformă, vei primi recomandări pe pagina ta de pornire, pe paginile video și pe canalele în sine. Toate acestea sunt construite în jurul ideii că utilizatorii ar trebui să rămână pe platformă. Întrebarea este, desigur, cum creează YouTube un algoritm care să facă asta?
Există multe puncte de date diferite care intră în acel algoritm. De exemplu: ce este în tendințe în prezent pe platformă? La ce s-au uitat alți oameni cu aceleași interese? Pe ce videoclipuri se face clic cel mai mult? Unde se suprapun persoane similare în comentariile utilizatorilor? Astfel de lucruri. Ideea principală este ca algoritmul să învețe ce atrage și menține utilizatorii pe platformă.
În ceea ce privește moderarea conținutului și a comentariilor pe YouTube, cum este configurată această moderare? Crezi că este un răspuns suficient la amenințările de pe internet?
Doar într-o oarecare măsură. Problema cu moderarea în modul în care o fac majoritatea platformelor de social media mari este că este construită în jurul oamenilor care raportează conținut. Deci, practic, dacă nimeni nu raportează acest lucru și nu este în mod clar împotriva regulilor care sunt identificabile prin învățarea automată - cum ar fi blestem sau ceva de genul care ar putea fi filtrat algoritmic - alte comentarii sunt evident mult mai greu de identificat deci a umanul trebuie să se uite la el. Dar dacă nimeni nu raportează conținutul, YouTube nu știe că există, doar pentru că există atât de mult conținut pe platformă. Evidențiază importanța utilizatorilor. Se dezbate, dacă este sau nu un lucru bun sau rău, că utilizatorii sunt puși în situația pe care trebuie să-și depună eforturile pentru a evidenția pe YouTube ceea ce este ofensator pentru ei.
La nivel video, alte forme [de moderare au fost] implementate acum, așa că există o clasificare în jos a conținutului care ar putea include știri de top. Dacă căutați știri, veți obține mai întâi ceea ce YouTube consideră a fi surse mai de încredere. Au experimentat cu casetele de informații din jurul anumitor videoclipuri despre conspirație. Toate acestea sunt, într-un fel sau altul, forme de moderare a conținutului.
Felul în care YouTube se bazează pe samaritenii buni pentru a raporta lucruri care ar putea fi problematice sau jignitoare este similar cu felul în care că Reddit este, de asemenea, supravegheat în mare măsură de moderatorii comunității, deși Reddit nu pare să aibă această problemă în același timp scară.
Comparația are sens, dar este foarte diferită. Fiecare subreddit este o comunitate care spune practic ce formă de conținut este permisă. În contextul științei SubReddit, de exemplu, puteți vedea când moderatorii se asigură că regulile sunt respectate, în timp ce alte subreddit-uri sunt foarte laissez-faire. Numărul de postări de pe subreddit nu poate fi comparat cu numărul de videoclipuri încărcate la o oră dată pe YouTube. Unele dintre aceste forumuri au un interes în auto-policy. Forța de muncă este în principiu externalizată către utilizatori și se presupune că, atâta timp cât există oameni suficient de motivați pentru a face acea muncă, este în regulă, dar nu este cazul pe YouTube. Aceste forumuri nu există în același mod.
În ceea ce privește acești comentatori recenti și scandalurile recente pe YouTube Kids, cum ar fi #ElsaGate, în care trolii introduceau videoclipuri groaznice în conținutul pentru copii. Există o modalitate de a atrage atenția asupra lor care nu se bazează pur și simplu pe bunăvoința utilizatorului obișnuit de YouTube?
YouTube a mers încet, foarte încet, în direcția bună. Nu sunt acolo, dar înțeleg că oamenii vor căuta știri pe YouTube, așa că, în opinia mea, este logic să stabilim ce canale vor apărea.
În propria mea muncă, este uluitor pentru mine că YouTube tratează, practic, conținutul politic la fel ca și muzica pop. În ultimele săptămâni, ei au înțeles încet că există o diferență.
De exemplu, cu mișcare anti-vaxing, au spus că nu vor mai permite neapărat anumite videoclipuri. Cred că asta este important. Într-un context politic, ideea de „doar oamenii urmăresc” nu este ceea ce îți dorești. Aceasta este ceea ce doriți pentru muzică, pentru jocuri sau alte forme de divertisment, dar când vine vorba de informații.
Cred că pentru recomandările de videoclipuri și canale, acolo unde această logică continuă, asta vizează să aibă oameni pe platformă, indiferent pentru ce motivație, este problematic.
Deci, ce soluții, dacă există, sugerați pentru a face față scandalurilor recente de comentarii ale YouTube?
Din câte am citit, comunitatea a existat în cea mai mare parte prin comentarii, care au avut apoi acest efect mare asupra recomandărilor YouTube, așa că acele videoclipuri au fost legate, evident, într-un mod destul de bolnav. Cred că aceasta este un fel de partea problematică. Cum ești conștient, ca platformă? Ești conștient că se întâmplă ceva care nu ar trebui să continue? Și, pentru că, evident, nu ar trebui să țină seama de utilizatori anumiți, activi și conștienți de a înțelege aceste lucruri, dar, din fericire, există.
Întrebarea este: „Cum funcționează algoritmii în acest context și permit asta?” Percepția mea este că există o diferență între utilizatorii care au comentat și cei care au încărcat videoclipuri. Cred că ar putea fi mai ușor de deconectat; dar cred că cea mai bună opțiune ar fi să investești mult în oameni pentru a modera conținutul care este suspect și să fii foarte conștient de a încerca să-ți dai seama ce constituie la fel de suspect în ceea ce privește algoritmii.
Există o versiune de YouTube care există, în mintea ta, care nu trebuie să ruleze pe acești algoritmi care ar putea lega comunități potențial periculoase între ele? Sau este intrinsecă platformei în sine?
Nu cred că este intrinsec platformei. Cred că este intrinsec modelului de afaceri. Te-ai putea gândi foarte bine la o comunitate video care este poate similară cu Reddit, de exemplu, care se concentrează pe un anumit conținut sau anumite subiecte și unde poți posta videoclipuri în acest sens.
Aceasta este problema. Dacă YouTube renunță la algoritmul care ține oamenii pe platformă, atunci aceasta este o problemă de profit. YouTube vrea să continue să câștige bani.
Cred că e corect. Multe dintre discuțiile pe care le avem în prezent despre cum funcționează platformele și de ce, de exemplu, un anumit conținut este tratat mai favorabil decât altele și de ce, dezinformarea sau teoriile conspirației sunt capabile să prospere, are de-a face cu modelul de afaceri și cu ideea că totul cu clicuri este recompensat. Există idei de a avea platforme care nu sunt construite în jurul asta. Dar acestea nu ar face la fel de mulți bani.