2월에는 유튜버 맷 왓슨 알고리즘적으로 생성된 입력에 용이함을 보여주는 비디오를 게시했습니다. 래빗홀에서 정상적인 동영상을 악용하는 소아성애자 댓글 커뮤니티를 찾아보세요. 어린이들. 때로는 이 동일한 댓글 작성자가 미등록 동영상에 대한 링크를 게시하거나 WhatsApp 연락처 정보를 게시했습니다. 아마도 소아성애 친화적 인 그룹 메시징이지만 종종 위태로운 위치에있는 아이들의 타임 스탬프를 게시했습니다. 비디오.
Watson의 발견은 YouTube의 중재와 책임에 대한 대화에 다시 불을 붙였습니다. 그가 찾은 많은 동영상은 광고를 통해 프로그래밍 방식으로 수익을 창출했으며, 이는 YouTube가 콘텐츠로 수익을 창출하고 있음을 의미합니다. 그 자체가 방해가 되지는 않았을지 모르지만, 동기. 대부분의 경우 동영상 자체는 문제가 되지 않았습니다. 많은 아이들이 평범한 어린이 일을 하고 있었습니다. 형제 자매와 씨름하고 장난감을 과시했습니다. 컬렉션이지만 댓글과 댓글이 서로 연결된 방식은 의심스러웠고 궁극적으로 방해.
YouTube가 이러한 댓글 링을 처음 인정한 지 1년 만에 발생한 스캔들입니다. 유튜브 키즈' #ElsaGate 스캔들은 아이들과 그들의 안전을 염두에 두고 만든 플랫폼에서 사람들이 불쾌감을 주는 동영상을 발견하자 많은 사람들이 묻는 논쟁에 YouTube를 휩쓸었습니다. YouTube가 변한 것이 있습니까? 그렇다면 문제가 확산된 이유는 무엇입니까? 고칠 수 있을까요?
YouTube는 포식자의 표적이 된 수백만 개의 동영상에 대한 댓글을 비활성화하고 10,000명의 직원으로 구성된 심층 팀이 있음을 지적했습니다. 사람의 댓글 및 콘텐츠 중재자 비디오를 샅샅이 살펴보고 불쾌감을 주는 모든 것을 표시하는 기계 학습 시스템. 하지만 충분합니까? YouTube에서 걱정하는 부모를 화해할 수 있는 방법이 있습니까? 아니면 회사의 알고리즘이 너무 멀리 갔습니까?
플랫폼을 수정하기 위해 무엇을 할 수 있는지 파악하려면 아버지 같은Berkman Klein Center for Internet & Society의 계열사인 Jonas Keiser, Alexander von Humboldt Institute for Internet & Society의 부연구원 및 DFG 연구 펠로우와 이야기를 나눴습니다. Keizer는 YouTube 알고리즘 및 유해 커뮤니티 확산의 전문가입니다. 우리는 그와 YouTube의 알고리즘, 이러한 문제가 어떻게 발생하는지, YouTube가 더 잘하기 위해 할 수 있는 일에 대해 이야기했습니다.
귀하의 연구는 Youtube의 극우 트롤 캠페인과 그러한 커뮤니티가 어떻게 확산되는지에 중점을 둡니다. 해당 커뮤니티와 댓글 섹션에서 링크를 공유하는 새로 발견된 소아성애 커뮤니티 사이에 유사점이 있습니까?
그런 비교는 하지 않겠습니다. 맨 오른쪽으로, 우리는 커뮤니티를 형성하고 다른 채널과 연결하려는 보다 가시적이고 분명한 시도를 하고 있습니다. 그들은 중요하다고 생각하는 주제에 대한 자신의 트렌드를 따르며 이는 한 채널이 아닌 여러 채널에서 발생합니다. 그것은 자신의 행동을 통해 매우 의도적으로 이루어집니다. 극우 성향의 우두머리들은 서로의 방송에 나가서 서로에게 정당성을 부여한다.
동시에 활동 및 사용자 활동을 통해 YouTube 알고리즘에 영향을 미치며 YouTube, 정치 비디오 및 정치 채널은 어떤 이데올로기를 보든 종종 극우로 이어질 것입니다. 채널.
따라서 소아성애 커뮤니티는 채널과 비디오가 반드시 커뮤니티가 아닌 것보다 훨씬 더 많은 것 같습니다. 오히려 제가 읽은 온라인 댓글이 이상하고 눈에 띄지 않고 매우 불안하게 만들었습니다. 현상.
모르는 사람들을 위해 YouTube의 알고리즘은 어떻게 작동합니까?
유튜브의 연산 사용자의 참여를 유지한다는 아이디어를 중심으로 회전합니다. 그런 맥락에서 그것은 분명히 비디오를 보거나 댓글을 달거나 좋아요를 누르거나 공유하는 것을 의미합니다. 플랫폼에 머무르는 것이 가장 중요한 목표입니다. 플랫폼을 유지하기 위해 홈페이지, 비디오 페이지 및 채널 자체에서 추천을 받게 됩니다. 이들은 모두 사용자가 플랫폼에 남아 있어야 한다는 아이디어를 기반으로 구축되었습니다. 물론 문제는 YouTube에서 이를 수행하는 알고리즘을 어떻게 만드는가 하는 것입니다.
해당 알고리즘에 들어가는 다양한 데이터 포인트가 있습니다. 예: 현재 플랫폼에서 트렌드는 무엇입니까? 같은 관심사를 가진 다른 사람들은 무엇을 보았습니까? 어떤 동영상이 가장 많이 클릭되나요? 사용자 댓글에서 비슷한 사람들이 겹치는 부분은 어디인가요? 그런 것들. 주요 아이디어는 알고리즘이 플랫폼에서 사용자를 끌어들이고 유지하는 것이 무엇인지 학습하게 하는 것입니다.
YouTube의 콘텐츠 및 댓글 검토 측면에서 검토는 어떻게 설정되나요? 인터넷 위협에 대한 충분한 대응이라고 보십니까?
어느 정도. 대부분의 대형 소셜 미디어 플랫폼이 수행하는 방식에서 중재의 문제는 콘텐츠를 보고하는 사람들을 중심으로 구축된다는 것입니다. 따라서 기본적으로 아무도 보고하지 않고 기계 학습을 통해 식별할 수 있는 규칙에 명백하게 위배되지 않는 경우 욕설 또는 알고리즘으로 걸러낼 수 있는 이와 유사한 것 — 다른 주석은 분명히 식별하기 훨씬 더 어렵습니다. 그래서 인간은 그것을 볼 필요가있다. 그러나 아무도 콘텐츠를 신고하지 않으면 YouTube는 플랫폼에 콘텐츠가 너무 많다는 이유로 콘텐츠의 존재를 알지 못합니다. 사용자의 중요성을 강조합니다. 그것이 좋은 것인지 나쁜 것인지, 사용자가 자신에게 불쾌감을 주는 것을 YouTube에 강조하기 위해 노동을 투입해야 하는 위치에 있다는 것은 논쟁의 여지가 있습니다.
비디오 수준에서 [검토의 다른 형태가] 구현되었으므로 주요 뉴스를 포함할 수 있는 콘텐츠의 순위가 낮습니다. 뉴스 항목을 검색하면 YouTube에서 더 신뢰할 수 있는 출처로 간주하는 정보를 먼저 얻을 수 있습니다. 그들은 특정 음모 비디오에 대한 정보 상자를 실험했습니다. 이것들은 모두 어떤 식으로든 콘텐츠 조정의 형태입니다.
YouTube가 문제가 있거나 불쾌감을 줄 수 있는 내용을 신고하기 위해 선한 사마리아인에게 의존하는 방식과 비슷합니다. Reddit은 이 문제가 동시에 발생하지 않는 것 같지만 Reddit은 커뮤니티 중재자에 의해 대부분 감시됩니다. 규모.
비교는 의미가 있지만 매우 다릅니다. 각 하위 레딧은 기본적으로 어떤 형식의 콘텐츠가 허용되는지 말하는 커뮤니티입니다. 예를 들어 과학 SubReddit의 맥락에서 중재자가 규칙을 준수하는지 확인하는 반면 다른 하위 레딧은 매우 자유분방한지 확인할 수 있습니다. 서브레딧의 게시물 수는 YouTube에서 특정 시간에 업로드되는 동영상 수와 비교할 수 없습니다. 이러한 포럼 중 일부는 자체 치안 유지에 관심이 있습니다. 노동은 기본적으로 사용자에게 아웃소싱되며 그 노동을 할 만큼 동기가 부여된 사람들이 있는 한 괜찮지만 YouTube에서는 그렇지 않다고 가정합니다. 이러한 포럼은 같은 방식으로 존재하지 않습니다.
최근 댓글 작성자와 #ElsaGate와 같은 최근 YouTube Kids 스캔들의 측면에서 보면, 트롤이 어린이 콘텐츠에 끔찍한 동영상을 끼워넣었습니다. 평범한 유튜브 이용자의 선의에 의존하지 않고 관심을 끌 수 있는 방법은 없을까?
YouTube는 천천히, 아주 천천히 올바른 방향으로 나아가고 있습니다. 그들은 거기에 없지만 사람들이 YouTube에서 뉴스를 검색할 것이라는 점을 이해하고 있으므로 어떤 채널이 올라올지 선별하는 것이 제 생각에는 의미가 있습니다.
내 작업에서 YouTube가 기본적으로 정치 콘텐츠를 팝 음악과 동일하게 취급한다는 사실이 놀랍습니다. 최근 몇 주 동안 그들은 차이가 있다는 것을 천천히 이해했습니다.
예를 들어 반박싱 운동, 그들은 더 이상 특정 비디오를 허용하지 않을 것이라고 말했습니다. 중요하다고 생각합니다. 정치적 맥락에서 '그냥 사람들이 보고 있다'는 생각은 당신이 원하는 것이 아닙니다. 이것은 음악, 게임 또는 기타 엔터테인먼트 형식을 원하지만 정보와 관련하여 원하는 것입니다.
이 논리가 계속되는 비디오 및 채널 추천의 경우 동기가 무엇이든 플랫폼에 사람들을 참여시키는 것이 문제라고 생각합니다.
그렇다면 최근 YouTube의 댓글 스캔들에 대처하기 위해 제안하는 솔루션이 있다면 무엇인가요?
내가 읽은 바에 따르면 커뮤니티는 대부분 댓글을 통해 존재했으며 YouTube 추천에 이렇게 큰 영향을 미쳤습니다. 그래서 그 비디오는 분명히 다소 병적인 방식으로 연결되었습니다. 문제가 되는 부분인 것 같아요. 플랫폼으로서 어떻게 인식하고 있습니까? 진행되어서는 안 되는 일이 일어나고 있다는 사실을 알고 계십니까? 그리고 분명히 이러한 사항을 파악하기 위해 특정하고 활동적이며 의식이 있는 사용자가 있어서는 안 되지만 다행히도 있습니다.
질문은 '알고리즘이 그 맥락에서 어떻게 작동하고 그것을 허용합니까?'입니다. 댓글을 단 사용자와 동영상을 업로드한 사용자 사이에는 차이가 있다고 생각합니다. 연결을 끊는 것이 더 쉬울 수 있다고 생각합니다. 하지만 가장 좋은 방법은 의심스러운 콘텐츠를 조정하기 위해 인간에게 막대한 투자를 하고 알고리즘과 관련하여 의심스러운 것으로 구성됩니다.
잠재적으로 위험한 커뮤니티를 서로 연결할 수 있는 이러한 알고리즘에서 실행할 필요가 없다고 생각하는 YouTube 버전이 있습니까? 아니면 플랫폼 자체에 내재되어 있습니까?
나는 그것이 플랫폼에 본질적인 것이라고 생각하지 않는다. 비즈니스 모델의 본질이라고 생각합니다. 예를 들어 특정 콘텐츠나 특정 주제에 초점을 맞추고 관련 동영상을 게시할 수 있는 Reddit과 유사한 동영상 커뮤니티를 생각할 수 있습니다.
그게 바로 문제 야. YouTube가 사람들을 플랫폼에 유지하는 알고리즘을 포기한다면 그것은 수익 문제입니다. YouTube는 계속해서 돈을 벌고 싶어합니다.
공정하다고 생각합니다. 현재 플랫폼이 작동하는 방식과 예를 들어 일부 콘텐츠가 다른 콘텐츠보다 더 호의적으로 취급되는 이유와 잘못된 정보 또는 음모 이론이 번성할 수 있는 이유는 비즈니스 모델과 관련이 있으며 클릭이 있는 모든 것은 보상을 받는다는 생각과 관련이 있습니다. 그것을 중심으로 구축되지 않은 플랫폼을 갖는 아이디어가 있습니다. 그러나 그들은 그렇게 많은 돈을 벌지 못할 것입니다.