Raport: dyrektorzy YouTube wiedzieli o spisku i problemach z bezpieczeństwem treści od lat

Kierownicy YouTube byli świadomi toksycznych treści skierowanych do dzieci i obraźliwych treści na platformie i nie zrobili nic, aby temu zaradzić. Według raportu informacyjnego opublikowanego przez Bloomberg we wtorek kierownictwo YouTube w pełni zrozumiało, co to jest toksyczne, niedokładne i obraźliwe treści na platformie ale nie podjął żadnych działań. Mówiąc anonimowo, powiedzieli byli pracownicy YouTube Bloomberg że wewnętrzne dyskusje w firmie zajmującej się transmisją strumieniową były dalekie od zewnętrznego przekazu, jaki YouTube wyświetlał opinii publicznej.

Chociaż YouTube sam siebie określa jako swego rodzaju „bibliotekę” (ich CEO Susan Wojcicki powiedziała to w South by Southwest w Austin), raport pokazuje wewnętrzne problemy związane z monitorowaniem, zarabianiem i ustalaniem priorytetów algorytmów. Raport twierdzi, że gdy jeden z pracowników zasugerował zgłaszanie niepokojących filmów (choć nie nielegalnych), spotkał się z brakiem działania przez kierownictwo YouTube, którzy najwyraźniej woleli skupić się na zaangażowaniu i zyskach, niż na kłopotliwym charakterze niektórych zadowolony.

Jeden były pracownik, Micah Schaffer, opuścił firmę przed 2010 rokiem. Mniej więcej w momencie, gdy opuścił firmę, YouTube zauważył społeczność filmów promujących anoreksję, ale w tym czasie personel zaczął usuwać filmy z platformy, usuwać je z zakładki rekomendacji i nakładać ograniczenia wiekowe na filmy. Wydaje się to dalekie od odpowiedzi na dzisiejsze problemy, a w 2012 r. od nowej wiadomości od Google, YouTube właściciel, pojawił się: więcej osób musi być w witrynie dłużej, aby YouTube mógł wyświetlać więcej reklam i zarabiać więcej pieniądze. Mieli cel: uzyskać miliard godzin materiału na stronie.

Po wyborach w 2016 r. zamiast skupiać się na fałszywych wiadomościach, które zapełniły platformę, kierownictwo YouTube skupiło się na nowym algorytm: płacenie twórcom za to, ile osób obejrzało ich filmy i jak długo oglądali, nawet jeśli nie wyświetlały się żadne reklamy filmy. Oznaczało to, że wydawcy wideo, którzy podzielali marginalne teorie spiskowe lub ideologię rasistowską, i którzy nie są promowane przez marki takie jak AT&T, nadal zarabiałyby pieniądze, nie mając motywacji do dokładnego raportowanie. Plan został ostatecznie odrzucony.

W 2017 roku Elsagate wybuchł skandal. Nawet w przyjaznej dla dzieci wersji YouTube twórcy treści stworzyli nieoficjalne filmy animowane, które pokazywały niepokojące obrazy, na przykład, że Elsa jest w ciąży lub Świnka Peppa jest ścinana. Jednocześnie „rodzinne” kanały YouTube lubią Zabawkowe maniaki, kanał rodzinny, zostały usunięte w wyniku zarzutów o molestowanie dzieci, a także dlatego, że sama treść była niepokojąca. Niektóre z tych filmów wyświetlały reklamy.

W podwójnym skandalu, szczegóły kręgu komentującego pedofilów — kręgu, w którym pedofile komentowali filmy wideo przesłane przez dzieci dla dzieci oznaczające znaczniki czasu momentów, w których znajdowały się w fizycznie obciążających pozycjach — zaczęły pojawić się. Te filmy miały duże zaangażowanie i doprowadziły użytkowników do algorytmu opartego na tym, co lubią inni ludzie oglądali i komentowali, prowadząc w ten sposób normalnych YouTuberów na nikczemną ścieżkę filmów z dzieci ssące lizaki, pokazując swoją wieczorną rutynę lub bieliznę modelującą. YouTube obiecał, że naprawią problem, w którym wiele z tych filmów z dziećmi było zarabianych ze względu na ich duże zaangażowanie.

Problemy nie ustępowały: filmy pojawiły się i stały się wirusowe nazywanie ocalałych z Parkland fałszywymi, płatnymi aktorami, a wewnętrznie, w reakcji na ten skandal, źródła twierdziły, że kierownictwo YouTube odrzuciło pomysł ograniczenia polecanych wiadomości do zaufanych źródeł. Powiedzieli swoim pracownikom, aby nie próbowali szukać wirusowych kłamstw na platformie, ponieważ YouTube może wtedy być odpowiedzialny za wiedzę o treści na stronie i nie robi wystarczająco dużo, aby poradzić sobie z tym problem.

Jeden anonimowy pracownik powiedział Bloomberg że Wójcicki „nigdy nie położy palców na wadze. Jej pogląd brzmiał: „Moim zadaniem jest prowadzenie firmy, a nie zajmowanie się tym””, sugerując, że osiągnięcie zysku jest ważniejsze niż upewnienie się, że użytkownicy platformy są bezpieczni i dokładnie poinformowani.

Od dawna wiemy, że YouTube — podobnie jak większość serwisów społecznościowych — ceni czas wydane i zaangażowane w witrynie, zamiast tworzenia sensownej lub, cóż, zgodnej z prawdą społeczność. W 2019 roku ponownie pojawił się problem pedofilów, pomimo zatrudnienia 10 000 moderatorów treści ludzkich w 2018 r. Ale podczas gdy YouTube robił każdy pokaz, na zewnątrz, aktywnie usuwając fałszywe wiadomości z platformy i naprawiając ich algorytm, aby zapewnić dzieciom bezpieczeństwo, wlokły się wewnętrznie, ceniąc zysk ponad ich społeczność.

Dlaczego YouTube nie jest tak bezpieczny dla dzieci, jak mogą sądzić rodzice

Dlaczego YouTube nie jest tak bezpieczny dla dzieci, jak mogą sądzić rodziceYoutubeCzas EkranowyMedia StrumienioweFilmyDzieci Z You Tube

Stwierdzenie, że natura telewizji się zmienia, byłoby ogromnym niedopowiedzeniem.Medium, które było rewolucja zmieniająca życie do pokolenia staje się teraz refleksją w porównaniu z Internetem, w w...

Czytaj więcej
Treści YouTube dla dzieci są trujące, ale nie niezwykłe

Treści YouTube dla dzieci są trujące, ale nie niezwykłeObawyStrachMedia StrumienioweElsagateDzieci Z You Tube

ten #ElsaGate kontrowersje oraz tysiące towarzyszących skarg dotyczących niepokojących treści w YouTube, w których pojawiają się popularne postacie dziecięce, takie jak Mrożony's Elsa i świnka Pepp...

Czytaj więcej
YouTube wyłącza autoodtwarzanie dla dzieci, dodając więcej środków bezpieczeństwa

YouTube wyłącza autoodtwarzanie dla dzieci, dodając więcej środków bezpieczeństwaYoutubeDzieci Z You Tube

Na YouTube w końcu pojawiają się nowe środki bezpieczeństwa dla dzieci. Te zmiany sprawią, że YouTube oglądanie jest trochę mniej irytujące dla rodziców i trochę bezpieczniejsze. Ale jest pewien ha...

Czytaj więcej