Apa yang Dapat Dilakukan YouTube untuk Menjaga Anak-Anak Kita Lebih Aman?

click fraud protection

Di bulan Februari, YouTuber Matt Watson memposting video yang mengekspos kemudahan yang dia dapat masukkan secara algoritmik lubang kelinci dan temukan komunitas komentar pedofil yang mengeksploitasi video normal anak-anak. Terkadang, komentator yang sama ini memposting tautan ke video yang tidak terdaftar atau memposting informasi kontak WhatsApp untuk apa, mungkin, pesan grup yang ramah pedofil, tetapi sering memposting cap waktu anak-anak dalam posisi kompromi di kata video.

Temuan Watson sekali lagi mengobarkan percakapan seputar moderasi dan akuntabilitas YouTube. Banyak video yang dia temukan dimonetisasi secara terprogram dengan iklan, artinya YouTube menghasilkan uang dari konten tersebut bahwa, meskipun mungkin tidak mengganggu dirinya sendiri, dieksploitasi dalam klik dan tampilan oleh mereka yang memiliki rahasia motif. Video itu sendiri bukanlah masalahnya, sebagian besar. Banyak dari anak-anak yang melakukan hal-hal normal anak-anak: bergulat dengan saudara mereka, memamerkan mainan mereka koleksi, tetapi komentar dan cara mereka terhubung satu sama lain mencurigakan dan, pada akhirnya, mengganggu.

Skandal, datang hanya setahun setelah YouTube pertama kali mengakui cincin komentar ini dan setelahnya Anak-anak YouTube Skandal #ElsaGate, di mana orang-orang menemukan video yang mengganggu di platform yang dibuat dengan mempertimbangkan keselamatan anak-anak, membuat YouTube terlibat dalam perdebatan di mana banyak orang bertanya: Apakah YouTube telah mengubah sesuatu? Dan jika demikian, mengapa masalah berkembang biak? Bisakah itu diperbaiki?

YouTube merespons dengan menonaktifkan komentar pada jutaan video yang menjadi sasaran predator dan menunjukkan bahwa mereka memiliki tim yang terdiri dari 10.000 karyawan. komentar manusia dan moderator konten dan sistem pembelajaran mesin yang tugasnya menyaring video dan menandai apa pun yang menyinggung. Tapi apakah itu cukup? Apakah ada cara bagi YouTube untuk menebus kesalahan dengan orang tua yang khawatir? Atau apakah algoritma perusahaan terlalu jauh?

Untuk mengetahui apa, jika ada, yang dapat dilakukan untuk memperbaiki platform, kebapakanberbicara dengan Jonas Keiser, Afiliasi di Berkman Klein Center for Internet & Society, Associate Researcher di Alexander von Humboldt Institute for Internet & Society, dan DFG Research Fellow. Keizer adalah pakar dalam algoritme YouTube dan penyebaran komunitas berbahaya. Kami berbicara dengannya tentang algoritme YouTube, bagaimana masalah ini dibuat, dan apa yang dapat dilakukan YouTube untuk menjadi lebih baik.

Penelitian Anda berfokus pada kampanye troll sayap kanan di Youtube dan bagaimana komunitas tersebut menyebar. Apakah ada kesamaan antara komunitas tersebut dan komunitas pedofilia yang baru ditemukan yang berbagi tautan di bagian komentar?

Saya tidak akan membuat perbandingan itu. Dengan paling kanan, kami memiliki upaya yang lebih terlihat dan nyata untuk membentuk komunitas dan terhubung dengan saluran lain. Mereka mengikuti tren topik mereka sendiri yang mereka anggap penting dan ini tidak terjadi pada satu saluran tetapi beberapa saluran. Itu dilakukan dengan sangat sengaja melalui tindakan mereka sendiri. Para pembicara sayap kanan pergi ke acara masing-masing dan saling memberikan legitimasi yang menonjol.

Pada saat yang sama, melalui aktivitas dan aktivitas penggunanya, mereka juga memengaruhi algoritme YouTube dengan cara yang, pada YouTube, video politik, dan saluran politik, apa pun ideologi yang Anda lihat, sering kali mengarah ke sayap kanan saluran.

Jadi, komunitas pedofilia tampaknya lebih banyak daripada saluran dan video yang belum tentu komunitas di sana, melainkan komentar online, yang, dari apa yang saya baca, membuat ini aneh, tidak terlihat, sangat mengganggu fenomena.

Bagi yang belum tahu, bagaimana fungsi algoritme YouTube?

YouTube algoritma berputar di sekitar gagasan bahwa itu akan membuat pengguna tetap terlibat. Dalam konteks itu, itu jelas berarti melihat video, atau berkomentar, atau menyukai, atau berbagi. Tetap di platform adalah tujuan yang paling penting. Untuk tetap berada di platform, Anda akan mendapatkan rekomendasi di halaman beranda, di halaman video, dan di saluran itu sendiri. Ini semua dibangun di sekitar gagasan bahwa pengguna harus tetap berada di platform. Pertanyaannya, tentu saja, bagaimana YouTube membuat algoritme yang melakukan itu?

Ada banyak titik data berbeda yang masuk ke dalam algoritma itu. Misalnya: apa yang sedang tren di platform? Apa yang dilihat oleh orang lain dengan minat yang sama? Video apa yang paling banyak diklik? Di mana orang-orang serupa tumpang tindih dalam komentar pengguna? Hal-hal semacam itu. Ide utamanya adalah agar algoritme mempelajari apa yang menarik dan mempertahankan pengguna di platform.

Dalam hal moderasi konten dan komentar di YouTube, bagaimana pengaturan moderasi tersebut? Apakah menurut Anda itu merupakan respons yang cukup terhadap ancaman di Internet?

Hanya sampai batas tertentu. Masalah dengan moderasi dalam cara sebagian besar platform media sosial besar melakukannya adalah bahwa itu dibangun di sekitar orang yang melaporkan konten. Jadi, pada dasarnya, jika tidak ada yang melaporkannya dan tidak jelas melanggar aturan yang dapat diidentifikasi melalui pembelajaran mesin — seperti kata-kata kutukan, atau sesuatu seperti itu yang dapat disaring secara algoritmik — komentar lain jelas jauh lebih sulit untuk diidentifikasi jadi manusia perlu melihatnya. Tetapi jika tidak ada yang melaporkan kontennya, YouTube tidak tahu bahwa itu ada, hanya karena ada begitu banyak konten di platform. Ini menyoroti pentingnya pengguna. Itu diperdebatkan, apakah itu hal yang baik atau buruk, bahwa pengguna ditempatkan pada posisi yang harus mereka lakukan untuk menyoroti ke YouTube apa yang menyinggung mereka.

Di tingkat video, bentuk [moderasi] lainnya telah diterapkan sekarang, jadi ada penurunan peringkat konten yang dapat mencakup berita utama. Jika Anda menelusuri item berita, Anda akan mendapatkan apa yang dianggap YouTube sebagai sumber yang lebih andal terlebih dahulu. Mereka telah bereksperimen dengan kotak info di sekitar video konspirasi tertentu. Ini semua, dalam satu atau lain cara, bentuk moderasi konten.

Cara YouTube mengandalkan orang Samaria yang baik untuk melaporkan hal-hal yang mungkin bermasalah atau menyinggung terasa mirip dengan caranya bahwa Reddit juga sebagian besar diawasi oleh moderator komunitas, meskipun Reddit tampaknya tidak memiliki masalah ini pada saat yang sama skala.

Perbandingannya masuk akal, tetapi sangat berbeda. Setiap subreddit adalah komunitas yang pada dasarnya mengatakan bentuk konten apa yang diizinkan. Dalam konteks SubReddit sains, misalnya, Anda dapat melihat ketika moderator memastikan bahwa aturan dipatuhi, sementara subreddit lainnya sangat laissez-faire. Jumlah posting di subreddits tidak dapat dibandingkan dengan jumlah video yang diunggah pada jam tertentu di YouTube. Beberapa dari forum ini memiliki kepentingan dalam pemolisian diri. Tenaga kerja pada dasarnya diserahkan kepada pengguna dan asumsinya adalah bahwa selama ada orang yang cukup termotivasi untuk melakukan pekerjaan itu, itu baik-baik saja, tetapi tidak demikian halnya di YouTube. Forum ini tidak ada dengan cara yang sama.

Dalam hal komentator baru-baru ini dan skandal YouTube Kids baru-baru ini seperti #ElsaGate, di mana troll menggabungkan video mengerikan ke dalam konten anak-anak. Apakah ada cara untuk menarik perhatian mereka yang tidak hanya mengandalkan niat baik dari rata-rata pengguna YouTube?

YouTube perlahan, sangat lambat, menuju ke arah yang benar. Mereka tidak ada di sana, tetapi mereka memahami bahwa orang akan mencari berita di YouTube, jadi kurasi saluran apa yang akan muncul masuk akal menurut saya.

Dalam karya saya sendiri, sangat mengherankan bagi saya bahwa YouTube pada dasarnya memperlakukan konten politik sama seperti musik pop. Dalam beberapa minggu terakhir, mereka perlahan memahami bahwa ada perbedaan.

Misalnya dengan gerakan anti-vaxxing, mereka mengatakan bahwa mereka tidak akan lagi mengizinkan video tertentu. Saya pikir itu penting. Dalam konteks politik, gagasan 'hanya orang yang menonton' bukanlah yang Anda inginkan. Inilah yang Anda inginkan untuk musik, game, atau bentuk hiburan lainnya, tetapi jika menyangkut informasi.

Saya pikir untuk rekomendasi video dan saluran, di mana logika ini berlanjut, yang bertujuan agar orang-orang di platform, apa pun motivasinya, bermasalah.

Jadi, solusi apa, jika ada, yang Anda sarankan untuk menangani skandal komentar YouTube baru-baru ini?

Dari apa yang saya baca, komunitas sebagian besar ada melalui komentar, yang kemudian berdampak besar pada rekomendasi YouTube, sehingga video-video itu ditautkan, jelas dengan cara yang agak sakit. Saya pikir ini seperti bagian yang bermasalah. Bagaimana Anda, sebagai platform, sadar? Apakah Anda sadar bahwa ada sesuatu yang terjadi yang seharusnya tidak berlangsung? Dan, karena jelas tidak harus sampai ke pengguna tertentu, aktif dan sadar untuk mengetahui hal-hal ini, tapi untungnya, ada.

Pertanyaannya adalah: 'Bagaimana algoritme bekerja dalam konteks itu dan memungkinkan untuk itu?' Persepsi saya adalah bahwa ada perbedaan antara pengguna yang berkomentar dan orang yang telah mengunggah video. Saya pikir itu mungkin lebih mudah untuk diputuskan; tetapi saya pikir pilihan terbaik adalah berinvestasi besar-besaran pada manusia untuk memoderasi konten yang mencurigakan, dan sangat sadar untuk mencoba mencari tahu apa merupakan hal yang mencurigakan sehubungan dengan algoritma.

Apakah ada versi YouTube yang ada, menurut Anda, yang tidak harus berjalan pada algoritme ini yang dapat menautkan komunitas yang berpotensi berbahaya satu sama lain? Atau apakah itu intrinsik untuk platform itu sendiri?

Saya tidak berpikir itu intrinsik ke platform. Saya pikir itu intrinsik dengan model bisnis. Anda dapat dengan baik memikirkan komunitas video yang mungkin mirip dengan Reddit, misalnya, yang berfokus pada konten atau topik tertentu, dan tempat Anda dapat memposting video terkait hal itu.

Itulah masalahnya. Jika YouTube meninggalkan algoritme yang membuat orang tetap di platform, maka itu adalah masalah keuntungan. YouTube ingin terus menghasilkan uang.

Saya pikir itu adil. Banyak diskusi yang kami lakukan saat ini seputar cara kerja platform dan mengapa, misalnya, beberapa konten diperlakukan lebih baik daripada yang lain dan mengapa, informasi yang salah atau teori konspirasi dapat berkembang, ada hubungannya dengan model bisnis, dan gagasan bahwa segala sesuatu dengan klik dihargai. Ada ide untuk memiliki platform yang tidak dibangun di sekitar itu. Tapi itu tidak akan menghasilkan banyak uang.

Pulau Penyeberangan Hewan Danny Trejo Terlihat Persis Seperti yang Anda Pikirkan

Pulau Penyeberangan Hewan Danny Trejo Terlihat Persis Seperti yang Anda PikirkanDanny TrejoYoutube

Animal Crossing: Cakrawala Baru mungkin hanya menjadi sponsor resmi karantina, dengan game yang memulai debutnya hanya beberapa minggu setelah pandemi coronavirus dan normal baru yang kita semua ja...

Baca selengkapnya
Film Pendek Animasi 'Star Wars' Hadir di YouTube Ramah Anak, Dengan Twist

Film Pendek Animasi 'Star Wars' Hadir di YouTube Ramah Anak, Dengan TwistYoutubePerang BintangAnak Anak Youtube

Kembali pada tahun 1977, target audiens aslinya Perang Bintang film itu, setidaknya sejauh George Lucas khawatir, anak-anak. Tetapi bagi mereka yang menganggap film klasik itu tidak cukup ramah ana...

Baca selengkapnya
Cara Mengatur Kontrol Orang Tua YouTube di Perangkat Cerdas Anda

Cara Mengatur Kontrol Orang Tua YouTube di Perangkat Cerdas AndaInternetYoutubeRemaja & RemajaAnak BesarKeamanan InternetKeamanan Online Terbaik

Anak-anak suka streaming video dan perangkat streaming, tetapi setiap orang tua yang waspada dapat menyaksikan lubang kelinci terbuka menjadi konten yang dipertanyakan. Dengan begitu banyak kebaika...

Baca selengkapnya