Helmikuussa, YouTube-käyttäjä Matt Watson julkaisi videon, joka paljastaa, kuinka helposti hän pystyi syöttämään algoritmisesti luotuja jäniskoloon ja löydä kommentoivia pedofiiliyhteisöjä, jotka käyttävät hyväkseen muuten tavallisia videoita lapset. Joskus nämä samat kommentoijat julkaisivat linkkejä piilotettuihin videoihin tai julkaisivat WhatsApp-yhteystiedot, oletettavasti pedofiiliystävällinen ryhmäviestintä, mutta usein julkaistiin aikaleimoja lapsista, jotka olivat vaarallisissa asemissa Videot.
Watsonin havainnot kiihottivat jälleen keskustelua YouTuben maltillisuudesta ja vastuullisuudesta. Monet hänen löytämänsä videot kaupallistettiin ohjelmallisesti mainoksilla, mikä tarkoittaa, että YouTube tienasi sisällöllä rahaa joka ei ehkä häirinnyt itseään, mutta sitä käyttivät hyväkseen napsautuksissa ja katseluissa ne, joilla oli motiiveja. Itse videot eivät olleet suurimmaksi osaksi ongelma. Monet lapset tekivät tavallisia lasten asioita: painivat sisarustensa kanssa, esittelivät leluaan kokoelmia, mutta kommentit ja tavat, joilla ne linkitettiin toisiinsa, olivat epäilyttäviä ja lopulta häiritsevä.
Skandaali, joka syntyi vain vuosi sen jälkeen, kun YouTube ensimmäisen kerran tunnusti nämä kommentit ja sen jälkeen YouTube-lapset #ElsaGate-skandaali, jossa ihmiset löysivät häiritseviä videoita alustalta, joka on tehty lapsia ja heidän turvallisuuttaan ajatellen, sotki YouTuben keskusteluun, jossa monet kysyivät: Onko YouTube muuttanut mitään? Ja jos on, miksi ongelma lisääntyi? Voisiko se korjata?
YouTube vastasi poistamalla kommentit miljoonista videoista, joihin saalistajat olivat kohdistuneet, ja huomauttamalla, että heillä on 10 000 työntekijän syvä tiimi. ihmisten kommenttien ja sisällön valvojat ja koneoppimisjärjestelmä, jonka tehtävänä on selata videoita ja ilmoittaa kaikesta loukkaavasta. Mutta riittääkö se? Onko YouTubella mitään keinoa hyvittää huolestuneiden vanhempien kanssa? Vai onko yrityksen algoritmi mennyt liian pitkälle?
Jos haluat selvittää, mitä voidaan tehdä alustan korjaamiseksi, Isällinenpuhui Jonas Keiserin, Berkman Klein Center for Internet & Societyn tytäryhtiön, Alexander von Humboldt Institute for Internet & Societyn apulaistutkijan ja DFG-tutkijan kanssa. Keiser on YouTube-algoritmien ja haitallisten yhteisöjen leviämisen asiantuntija. Keskustelimme hänen kanssaan YouTuben algoritmista, siitä, miten nämä ongelmat syntyvät ja mitä YouTube voi tehdä parantaakseen.
Tutkimuksesi keskittyy äärioikeistolaisten peikkokampanjoihin Youtubessa ja siihen, miten tällaiset yhteisöt leviävät. Onko näiden yhteisöjen ja näiden äskettäin löydettyjen pedofiilisten yhteisöjen välillä yhtäläisyyksiä, jotka jakavat linkkejä kommenttiosioissa?
En tekisi tuota vertailua. Äärioikeiston kanssa, meillä on enemmän hyvin näkyviä ja ilmeisiä yrityksiä muodostaa yhteisö ja olla yhteydessä muihin kanaviin. He seuraavat omia suuntauksiaan tärkeistä aiheista, eikä tämä tapahdu yhdellä kanavalla vaan usealla. Se on tehty hyvin tietoisesti heidän omilla toimillaan. Äärioikeiston puhuvat päät menevät toistensa esityksiin ja antavat toisilleen näkyvän legitiimiyden.
Samalla he vaikuttavat toiminnallaan ja käyttäjätoiminnallaan myös YouTuben algoritmiin siten, että YouTube, poliittiset videot ja poliittiset kanavat johtavat usein äärioikeistoon riippumatta siitä, mitä ideologiaa katsot kanavia.
Joten pedofiiliset yhteisöt näyttävät olevan paljon enemmän kuin kanavat ja videot eivät välttämättä olleet yhteisö siellä, vaan verkkokommentit, jotka lukemani perusteella loivat tämän oudon, näkymätön, hyvin häiritsevän ilmiö.
Niille, jotka eivät tiedä, kuinka YouTuben algoritmi toimii?
YouTuben algoritmi pyörii ajatuksen ympärillä, että se pitää käyttäjät sitoutuneina. Tässä yhteydessä se tarkoittaa tietysti videoiden katsomista tai kommentoimista, tykkäämistä tai jakamista. Alustalla pysyminen on tärkein tavoite. Pysyäksesi alustalla saat suosituksia kotisivullesi, videosivuille ja itse kanaville. Nämä kaikki rakentuvat ajatuksen ympärille, että käyttäjien tulisi pysyä alustalla. Kysymys kuuluu tietysti, kuinka YouTube luo algoritmin, joka tekee sen?
On monia erilaisia datapisteitä, jotka menevät tähän algoritmiin. Esimerkiksi: mikä on tällä hetkellä trendissä alustalla? Mitä muut ihmiset, joilla on samat kiinnostuksen kohteet, ovat katsoneet? Mitä videoita klikataan eniten? Missä samanlaiset ihmiset menevät päällekkäin käyttäjien kommenteissa? Sellaisia asioita. Pääideana on, että algoritmi oppii, mikä houkuttelee ja pitää käyttäjät alustalla.
Mitä tulee YouTuben sisällön ja kommenttien valvontaan, miten valvonta on määritetty? Onko se mielestäsi riittävä vastaus Internetin uhkiin?
Vain jossain määrin. Motivaation ongelma useimpien suurten sosiaalisen median alustojen tapaan on se, että se rakentuu sisällöstä ilmoittavien ihmisten ympärille. Eli periaatteessa, jos kukaan ei ilmoita siitä eikä se ole selvästi vastoin sääntöjä, jotka voidaan tunnistaa koneoppimisen avulla - kuten kirosanat tai jotain vastaavaa, joka voitaisiin suodattaa pois algoritmisesti – muita kommentteja on selvästi vaikeampi tunnistaa niin a ihmisen täytyy katsoa sitä. Mutta jos kukaan ei ilmoita sisällöstä, YouTube ei tiedä sen olemassaolosta vain siksi, että alustalla on niin paljon sisältöä. Se korostaa käyttäjien merkitystä. Siitä, onko se hyvä vai huono asia, kiistellään siitä, että käyttäjät joutuvat tekemään töitä korostaakseen YouTubelle, mikä on heille loukkaavaa.
Videotasolla muita [valvontamuotoja] on nyt otettu käyttöön, joten sisältö, joka voi sisältää huippuuutisia, alennetaan. Jos haet uutisia, saat ensin YouTuben luotettavampia lähteitä. He ovat kokeilleet tiettyjen salaliittovideoiden ympärillä olevia tietolaatikoita. Nämä ovat kaikki tavalla tai toisella sisällön moderoinnin muotoja.
Tapa, jolla YouTube luottaa hyviin samarialaisiin raportoidakseen asioista, jotka voivat olla ongelmallisia tai loukkaavia, tuntuu samalta kuin tapa että Reddit on myös suurelta osin yhteisön moderaattorien valvoma, vaikka Redditillä ei näytä olevan tätä ongelmaa samalla mittakaavassa.
Vertailu on järkevää, mutta se on hyvin erilainen. Jokainen subreddit on yhteisö, joka pohjimmiltaan kertoo, millainen sisältö on sallittu. Esimerkiksi tieteellisen SubRedditin yhteydessä voit nähdä, milloin moderaattorit varmistavat, että sääntöjä noudatetaan, kun taas muut subredditit ovat hyvin laissez-faire-tuotteita. Subredditeissä olevien viestien määrää ei voi verrata YouTubeen minkään tunnin aikana ladattujen videoiden määrään. Jotkut näistä foorumeista ovat kiinnostuneita itsevalvonnasta. Työ on pohjimmiltaan ulkoistettu käyttäjille, ja oletetaan, että niin kauan kuin on tarpeeksi motivoituneita ihmisiä tekemään sitä työtä, se on hyvä, mutta se ei pidä paikkaansa YouTubessa. Näitä foorumeita ei ole olemassa samalla tavalla.
Mitä tulee viimeaikaisiin kommentoijiin ja viimeaikaisiin YouTube Kids -skandaaleihin, kuten #ElsaGate, jossa peikot ompelivat kauheita videoita lasten sisältöön. Onko olemassa tapaa kiinnittää niihin huomiota, joka ei perustu pelkästään tavallisen YouTube-käyttäjän hyvään tahtoon?
YouTube on hitaasti, hyvin hitaasti mennyt oikeaan suuntaan. He eivät ole paikalla, mutta he ymmärtävät, että ihmiset etsivät uutisia YouTubesta, joten esille tulevien kanavien kuratointi on mielestäni järkevää.
Omassa työssäni minusta on hämmästyttävää, että YouTube kohtelee poliittista sisältöä periaatteessa samalla tavalla kuin popmusiikkia. Viime viikkoina he ovat hiljalleen ymmärtäneet, että ero on olemassa.
Esimerkiksi kanssa anti-vaxxing liike, he sanoivat, etteivät he välttämättä enää salli tiettyjä videoita. Mielestäni se on tärkeää. Poliittisessa kontekstissa ajatus "vain ihmiset katsovat" ei ole mitä haluat. Tätä haluat musiikille, pelaamiselle tai muulle viihteelle, mutta kun on kyse tiedosta.
Mielestäni video- ja kanavasuosituksissa, joissa tämä logiikka jatkuu, on ongelmallista se, että tavoitteena on saada ihmisiä alustalle riippumatta motivaatiosta.
Joten mitä ratkaisuja ehdotatte YouTuben viimeaikaisten kommenttiskandaalien ratkaisemiseksi?
Lukemani perusteella yhteisö oli olemassa enimmäkseen kommenttien kautta, jolla oli sitten suuri vaikutus YouTube-suosituksiin, joten nuo videot linkitettiin, ilmeisesti melko sairaalla tavalla. Mielestäni tämä on tavallaan ongelmallinen osa. Miten sinä alustana olet tietoinen? Oletko tietoinen siitä, että meneillään on jotain, jonka ei pitäisi jatkua? Ja koska tietenkään näiden asioiden ei pitäisi olla tiettyjen, aktiivisten ja tietoisten käyttäjien tehtävä, mutta onneksi niitä on.
Kysymys kuuluu: "Kuinka algoritmit toimivat tässä kontekstissa ja sallivat sen?" Käsitykseni on, että kommentoijien ja videoita ladaneiden käyttäjien välillä on ero. Mielestäni se voisi olla helpompi katkaista; mutta uskon, että paras vaihtoehto olisi panostaa voimakkaasti ihmisiin, jotta voidaan valvoa epäilyttävää sisältöä ja olla vain hyvin tietoinen siitä, mitä on yhtä epäilyttävä algoritmien suhteen.
Onko olemassa mielestäsi YouTube-versiota, jonka ei tarvitse toimia näillä algoritmeilla, jotka voisivat yhdistää mahdollisesti vaarallisia yhteisöjä toisiinsa? Vai liittyykö se itse alustaan?
En usko, että se liittyy alustaan. Luulen, että se liittyy liiketoimintamalliin. Voisit hyvin ajatella videoyhteisöä, joka on ehkä samanlainen kuin Reddit, joka keskittyy tiettyyn sisältöön tai tiettyihin aiheisiin ja jossa voit julkaista videoita tässä suhteessa.
Se on ongelma. Jos YouTube hylkää algoritmin, joka pitää ihmiset alustalla, se on voittoongelma. YouTube haluaa edelleen ansaita rahaa.
Mielestäni se on reilua. Suuri osa keskusteluista, joita käymme tällä hetkellä siitä, miten alustat toimivat ja miksi esimerkiksi jotakin sisältöä kohdellaan suotuisammin kuin toisia ja miksi väärä tieto tai salaliittoteoriat voivat kukoistaa, liittyy liiketoimintamalliin ja ajatukseen, että kaikki klikkauksista palkitaan. On ideoita perustaa alustoja, joita ei ole rakennettu sen ympärille. Mutta ne eivät ansaitsisi niin paljon rahaa.