Co YouTube może zrobić, aby nasze dzieci były bezpieczniejsze?

W lutym, YouTuber Matt Watson zamieścił nagranie wideo ukazujące łatwość, z jaką był w stanie wejść w zrodzoną algorytmicznie króliczej nory i znaleźć komentujące społeczności pedofilów wykorzystujące normalne filmy wideo z dzieci. Czasami ci sami komentatorzy publikowali linki do niepublicznych filmów lub zamieszczali informacje kontaktowe WhatsApp dotyczące tego, co było, prawdopodobnie wiadomości grupowe przyjazne pedofilom, ale często umieszczały znaczniki czasu dzieci na kompromitujących pozycjach we wspomnianym filmy.

Ustalenia Watsona po raz kolejny zaogniły dyskusję na temat moderacji i odpowiedzialności YouTube. Wiele ze znalezionych przez niego filmów było programowo zarabianych na reklamach, co oznacza, że ​​YouTube zarabiał na treściach które, choć może nie przeszkadzało samo w sobie, było wykorzystywane w kliknięciach i poglądach przez tych, którzy mieli ukryte motywy. Same filmy w większości nie stanowiły problemu. Wiele z nich to dzieci robiące normalne dziecięce rzeczy: zapasy z rodzeństwem, popisywanie się zabawką kolekcje, ale komentarze i sposoby, w jakie były ze sobą powiązane, były podejrzane i ostatecznie niepokojący.

Skandal, który miał miejsce zaledwie rok po tym, jak YouTube po raz pierwszy przyznał się do tych komentujących pierścieni i później YouTube dla dzieci” Skandal #ElsaGate, w którym ludzie znaleźli niepokojące filmy na platformie stworzonej z myślą o dzieciach i ich bezpieczeństwie, uwikłał YouTube w debatę, w której wielu pytało: Czy YouTube w ogóle coś zmienił? A jeśli tak, to dlaczego problem narastał? Czy można to naprawić?

YouTube odpowiedział, wyłączając komentarze pod milionami filmów, które były celem drapieżników, i wskazując, że mają zespół liczący 10 000 pracowników komentatorzy i moderatorzy treści oraz system uczenia maszynowego, którego zadaniem jest przesiewanie filmów i oznaczanie obraźliwych treści. Ale czy to wystarczy? Czy YouTube może w jakiś sposób zadośćuczynić zmartwionym rodzicom? A może algorytm firmy jest za daleko?

Aby dowiedzieć się, co, jeśli w ogóle, można zrobić, aby naprawić platformę, Ojcowskirozmawiał z Jonasem Keiserem, współpracownikiem Berkman Klein Center for Internet & Society, Associate Researcher w Alexander von Humboldt Institute for Internet & Society oraz DFG Research Fellow. Keizer jest ekspertem od algorytmów YouTube i rozprzestrzeniania szkodliwych społeczności. Rozmawialiśmy z nim o algorytmie YouTube, o tym, jak powstają te problemy i co YouTube może zrobić, aby zrobić to lepiej.

Twoje badania skupiają się na skrajnie prawicowych kampaniach trolli na YouTube i na tym, jak takie społeczności się rozprzestrzeniają. Czy istnieją podobieństwa między tymi społecznościami a nowo odkrytymi społecznościami pedofilskimi udostępniającymi linki w sekcjach komentarzy?

Nie zrobiłbym tego porównania. Skrajną prawicą, mamy bardziej widoczne i oczywiste próby tworzenia społeczności i łączenia się z innymi kanałami. Podążają za własnymi trendami w tematach, które uważają za ważne i dzieje się to nie na jednym kanale, ale na kilku. Odbywa się to bardzo celowo poprzez ich własne działania. Skrajnie prawicowe gadające głowy chodzą na swoje występy i dają sobie nawzajem znaczącą legitymację.

Jednocześnie poprzez swoją aktywność i aktywność użytkowników wpływają również na algorytm YouTube w taki sposób, że YouTube, filmy polityczne i kanały polityczne często prowadzą do skrajnej prawicy, bez względu na to, na jaką ideologię patrzysz kanały.

Wydaje się więc, że społeczności pedofilów są czymś znacznie bardziej, niż kanały i filmy niekoniecznie muszą być społecznością tam, a raczej komentarze online, które z tego, co przeczytałem, stworzyły to dziwne, niewidoczne, bardzo niepokojące zjawisko.

Dla tych, którzy nie są świadomi, jak działa algorytm YouTube?

YouTube algorytm obraca się wokół idei, że utrzyma zaangażowanie użytkowników. W tym kontekście oznacza to oczywiście oglądanie filmów, komentowanie, polubienie lub udostępnianie. Najważniejszym celem jest pozostanie na platformie. Aby pozostać na platformie, będziesz otrzymywać rekomendacje na swojej stronie głównej, na stronach wideo i na samych kanałach. Wszystkie są zbudowane wokół idei, że użytkownicy powinni pozostać na platformie. Pytanie brzmi, oczywiście, w jaki sposób YouTube tworzy algorytm, który to robi?

Istnieje wiele różnych punktów danych, które wchodzą w skład tego algorytmu. Na przykład: co jest obecnie popularne na platformie? Na co patrzyli inni ludzie o tych samych zainteresowaniach? Które filmy są najczęściej klikane? Gdzie podobne osoby pokrywają się w komentarzach użytkowników? Tego rodzaju rzeczy. Główną ideą jest to, aby algorytm dowiedział się, co przyciąga i utrzymuje użytkowników na platformie.

Jak przebiega moderacja treści i komentarzy w YouTube? Czy uważasz, że to wystarczająca odpowiedź na zagrożenia w Internecie?

Tylko do pewnego stopnia. Problem z moderacją w sposób, w jaki robi to większość dużych platform mediów społecznościowych, polega na tym, że jest on zbudowany wokół osób zgłaszających treści. Zasadniczo, jeśli nikt tego nie zgłosi i nie jest to wyraźnie sprzeczne z zasadami, które można zidentyfikować za pomocą uczenia maszynowego — na przykład przekleństwa lub coś w tym rodzaju, które można odfiltrować algorytmicznie — inne komentarze są oczywiście znacznie trudniejsze do zidentyfikowania więc człowiek musi na to spojrzeć. Ale jeśli nikt nie zgłosi treści, YouTube nie wie, że istnieje, tylko dlatego, że na platformie jest tak dużo treści. Podkreśla znaczenie użytkowników. To jest dyskutowane, czy to dobra czy zła rzecz, czy użytkownicy są stawiani w sytuacji, którą muszą włożyć w pracę, aby pokazać YouTube, co jest dla nich obraźliwe.

Na poziomie wideo zaimplementowano teraz inne formy [moderacji], więc spada ranking treści, które mogą zawierać najważniejsze wiadomości. Jeśli przeszukujesz wiadomości, najpierw uzyskasz informacje, które YouTube uważa za bardziej wiarygodne źródła. Eksperymentowali z polami informacyjnymi wokół niektórych filmów o spisku. To wszystko są, w taki czy inny sposób, formy moderacji treści.

Sposób, w jaki YouTube polega na dobrych samarytanach, aby zgłaszać rzeczy, które mogą być problematyczne lub obraźliwe, jest podobny do sposobu że Reddit jest również w dużej mierze nadzorowany przez moderatorów społeczności, chociaż Reddit nie wydaje się mieć tego problemu w tym samym skala.

Porównanie ma sens, ale jest zupełnie inne. Każdy subreddit to społeczność, która zasadniczo mówi, jaka forma treści jest dozwolona. Na przykład w kontekście nauki SubReddit można zobaczyć, kiedy moderatorzy upewniają się, że zasady są przestrzegane, podczas gdy inne subreddity są bardzo laissez-faire. Liczby postów na subredditach nie można porównywać z liczbą filmów przesyłanych o dowolnej godzinie na YouTube. Niektóre z tych forów są zainteresowane samokontrolą. Praca jest zasadniczo zlecana użytkownikom i zakłada się, że dopóki istnieją ludzie wystarczająco zmotywowani do tej pracy, to jest w porządku, ale tak nie jest w przypadku YouTube. Te fora nie istnieją w ten sam sposób.

Jeśli chodzi o tych ostatnich komentatorów i niedawne skandale w YouTube Kids, takie jak #ElsaGate, gdzie trolle łączyły okropne filmy z treściami dla dzieci. Czy istnieje sposób na zwrócenie na nie uwagi, który nie opiera się po prostu na dobrej woli przeciętnego użytkownika YouTube?

YouTube powoli, bardzo powoli szedł we właściwym kierunku. Nie ma ich tam, ale rozumieją, że ludzie będą szukać w YouTube wiadomości, więc moim zdaniem wybieranie kanałów ma sens.

W mojej pracy zdumiewa mnie, że YouTube zasadniczo traktuje treści polityczne tak samo, jak muzykę pop. W ostatnich tygodniach powoli zrozumieli, że istnieje różnica.

Na przykład z ruch antyszczepionkarski, powiedzieli, że niekoniecznie będą już zezwalać na niektóre filmy. Myślę, że to ważne. W kontekście politycznym idea „tylko oglądanie ludzi” nie jest tym, czego chcesz. To jest to, czego potrzebujesz do muzyki, gier lub innych form rozrywki, ale jeśli chodzi o informacje.

Myślę, że w przypadku rekomendacji wideo i kanałów, gdzie ta logika jest kontynuowana, dążenie do posiadania ludzi na platformie, bez względu na motywację, jest problematyczne.

Jakie więc rozwiązania, jeśli w ogóle, proponujesz, aby poradzić sobie z ostatnimi skandalami związanymi z komentowaniem YouTube?

Z tego, co przeczytałem, społeczność istniała głównie dzięki komentarzom, co miało wtedy tak duży wpływ na rekomendacje YouTube, więc te filmy były linkowane, oczywiście w dość chory sposób. Myślę, że to jest trochę problematyczna część. Jak wy, jako platforma, być świadomym? Czy zdajesz sobie sprawę, że dzieje się coś, co nie powinno się dziać? A ponieważ oczywiście nie powinno zależeć od pewnych, aktywnych i świadomych użytkowników, aby zrozumieć te rzeczy, ale na szczęście są.

Pytanie brzmi: „Jak działają algorytmy w tym kontekście i na to pozwalają?”. Moim zdaniem istnieje różnica między użytkownikami, którzy skomentowali, a osobami, które przesłały filmy. Myślę, że łatwiej byłoby odłączyć; ale myślę, że najlepszą opcją byłoby zainwestowanie znacznych środków w ludzi w celu moderowania podejrzanych treści i bycie bardzo świadomym, aby spróbować dowiedzieć się, co jest podejrzany w odniesieniu do algorytmów.

Czy według Ciebie istnieje wersja YouTube, która nie musi działać na tych algorytmach, które mogłyby łączyć ze sobą potencjalnie niebezpieczne społeczności? A może jest to nierozerwalnie związane z samą platformą?

Nie sądzę, że jest to nieodłączne od platformy. Myślę, że jest to nieodłączne od modelu biznesowego. Możesz bardzo dobrze pomyśleć o społeczności wideo, która może być podobna do Reddit, na przykład, która koncentruje się na określonych treściach lub określonych tematach i gdzie możesz publikować filmy w tym zakresie.

To jest problem. Jeśli YouTube porzuci algorytm, który utrzymuje ludzi na platformie, to jest to problem z zyskiem. YouTube chce dalej zarabiać.

Myślę, że to sprawiedliwe. Wiele dyskusji, które obecnie prowadzimy, dotyczy tego, jak działają platformy i dlaczego, na przykład, niektóre treści są traktowane korzystniej niż inne i dlaczego, dezinformacja lub teorie spiskowe są w stanie dobrze prosperować, ma to związek z modelem biznesowym i ideą, że wszystko za pomocą kliknięć jest nagradzane. Są pomysły, aby mieć platformy, które nie są zbudowane wokół tego. Ale to nie zarobiłoby tak dużo pieniędzy.

Przekształcenie obsesji na punkcie ekranu mojego syna w zdrową więź

Przekształcenie obsesji na punkcie ekranu mojego syna w zdrową więźYoutubeKlejenieCzas Ekranowy

Witamy w „Wielkich chwilach w rodzicielstwie”, nowej serii, w której ojcowie wyjaśniają przeszkodę rodzicielską, z którą się zmierzyli, i wyjątkowy sposób, w jaki ją pokonali. Tutaj Ed, 37-letni tr...

Czytaj więcej
Gospodarze Vsauce wzbudzają ciekawość na skalę globalną dzięki filmom z YouTube

Gospodarze Vsauce wzbudzają ciekawość na skalę globalną dzięki filmom z YouTubeYoutubeVsauce

Co zrobiłbym się, jeśli zostałeś trafiony przez tarczę Kapitana Ameryki? Albo gdyby wszyscy na ziemi podskoczyli w górę iw dół jednocześnie? Albo jeśli człowiek Kool-Aid rzeczywiście przebił się pr...

Czytaj więcej
Zobacz, jak te autka przelatują przez ogniste tornado

Zobacz, jak te autka przelatują przez ogniste tornadoYoutubeOgień

Czy kiedykolwiek marzyłeś o oglądaniu? zabawkowe samochody przejechać przez płonące tornado w zwolnionym tempie? Nawet jeśli odpowiedziałeś „nie” (kłamca), będziesz chciał obejrzeć ten nowy film z ...

Czytaj więcej