Problema de comentário de pedófilos do YouTube, explicado

click fraud protection

No final de semana, Youtube o ativista Matt Watson chegou à primeira página do Reddit com um vídeo sobre um perturbador fenômeno que ele descobriu na plataforma de hospedagem de vídeo do Google, o segundo maior mecanismo de pesquisa do mundo. Watson demonstrou como ele poderia clicar em conteúdo normal e apropriado do YouTube em direção a vídeos sugestivos de meninas. Embora muitos desses vídeos, que apresentam pré-adolescentes usando biquínis e fazendo vampiros em seus quartos, não fossem explicitamente sexuais, a maioria foi comentada por usuários com aparência pedófilo intenção. Alguns comentários apresentavam carimbos de data / hora para momentos específicos em que as meninas estavam em posições comprometedoras. Alguns comentários apresentam links para vídeos privados não listados. Esses clipes do YouTube foram monetizados por meio de anúncios para empresas como a Grammarly e o próprio Google.

Um pouco depois Vídeo de Watson, que o mostrou expressando horror ao fenômeno, subiu no ranking do Reddit,

organizações de mídia e anunciantes responderam. The Verge reportou que Jogos épicos, a empresa por trás Quinze dias, retiraram seus anúncios precedentes do YouTube depois que a postagem de Watson se tornou viral e Peloton, o exercício interno empresa de bicicletas disse que estava trabalhando para descobrir por que seus anúncios estavam sendo empurrados contra contente. O YouTube também respondeu, atualizando seu “sistema de greve de canal”. Esse sistema, que não é atualizado há uma década, alerta os usuários que se comportam de maneira inadequada usando um sistema de três golpes.

Isso era alguma coisa, mas como Forbes, Mashable, Business Insider, e O jornal New York Times tudo apontado, não era uma solução para um problema aparente de algoritmo, humano ou de aprendizado de máquina.

Curiosamente, muitos vídeos assistidos por Watson tinham comentários desativados, o que sugere que os gerenciadores de conteúdo do YouTube perceberam a sequência de comentários e tentaram tornar mais difícil para os pedófilos operarem em seus local. Mas todos esses esforços confirmados foi a consciência do problema não resolvido.

Na verdade, está claro que o problema data de pelo menos 2017. No mesmo mês em que o “Elsagate”A controvérsia explodiu, as pessoas começaram a soar o alarme sobre comentários estranhos e implicitamente sexuais em vídeos de crianças, feitos para crianças. Os principais anunciantes gostam AT&T parou de gastar em anúncios no site quando a BBC relatou que comentários inadequados em vídeos monetizados de crianças geralmente incluíam carimbos de data / hora para momentos de segundos de posições sugestivas e links para vídeos não listados - e os anunciantes não voltaram a gastar até que o problema fosse “consertado”. Sobre 21 de fevereiro AT&T, que havia começado a anunciar na plataforma novamente em janeiro, disse que pararia de gastar com anúncios na plataforma. Hasbro, Nestlé e Disney seguiram o exemplo.

Elsagate não é o mesmo que um anel de pedofilia, mas os problemas estão interligados. Os farms de conteúdo aproveitaram as vantagens de palavras-chave e colocaram anúncios automaticamente com base no engajamento do canal e filtragem de IA de má qualidade e desenhos animados que usavam personagens não licenciados de crianças populares franquias. Muitos desses “Fazendas de conteúdo” - ou seja, as empresas que criaram esses vídeos - estão sediadas em lugares como a cidade de Ho Chi Minh, Vietnã. Eles não eram educacionais ou adequados para crianças, mas proliferaram no YouTube para crianças como vídeos monetizados.

Youtube alterou suas diretrizes de monetização após os dois escândalos de 2017. Hoje, os criadores de vídeo devem ter pelo menos 1.000 assinantes e ter seus vídeos assistidos por 4.000 horas. Esses regulamentos foram colocados em vigor somente após a Elsagate e agora a empresa afirma que todos os vídeos monetizados serão analisados ​​por seres humanos reais, não AI, a fim de impedir a veiculação de publicidade inadequada (pense: um anúncio do Google precedendo um vídeo de uma adolescente comendo um pirulito que teve mais de 1 milhão Visualizações).

É por isso que tantos vídeos de crianças têm comentários desabilitados embaixo dos vídeos. Os 10.000 revisores humanos do YouTube, encarregados de revisar as 400 horas de filmagens enviadas ao YouTube a cada minuto, também estão encarregados de olhar sobre o envolvimento com os referidos vídeos e a desativação de comentários inadequados, links para vídeos não listados ou carimbos de data / hora das crianças em sugestões posições.

Fiz uma nova conta no YouTube depois de descobrir que meus algoritmos eram tão arraigados que era difícil encontrar conteúdo impróprio e procurei a mesma coisa que Watson pesquisou - “biquíni”. Em 12 cliques, eu estava em uma estranha toca de coelho com vídeos de luta livre infantil e noite de garotas rotinas. Me deparei com um vídeo de mais de 30 minutos e encontrei este:

Em 21:25, a garota do vídeo se afastou da câmera e, por apenas um segundo, sua virilha ficou à vista.

Também me deparei com uma série de vídeos de modelagem de meninas claramente menores de 18 anos. Os comentaristas notaram como as modelos eram lindas e como ficavam lindas em roupas íntimas, apesar de serem crianças. Não vou compartilhar os vídeos porque são inadequados; mas o fato da questão é que não apenas esses comentários deveriam ser monitorados longamente, eles talvez nem devessem estar no site. Nenhuma ação foi tomada contra esses comentários ou o próprio vídeo de menores modelando roupas íntimas.

E outra garota postou um vídeo de sua rotina noturna, após o banho. A menina, cuja página do YouTube se chama “Experiência Fortnite de Makenzie”E que parece não ter mais de 13 anos, acidentalmente move sua toalha de uma forma no vídeo que mostra o lado de seu torso nu na marca de 2:47 minutos.

Obviamente, este vídeo nunca deveria ter sido carregado. A garota nele é claramente pré-púbere e está usando uma toalha, explicando sua rotina noturna. Este vídeo tem cerca de 51.000 visualizações. O resto de seus vídeos têm entre oito e 150 visualizações. Então, por que isso está acontecendo? Ela sabe por que 51.000 pessoas viram este vídeo e nenhum de seus vídeos Fortnite ou vídeos divertidos de artesanato? Ela entende que existem pessoas lá fora que não estão olhando para isso porque não se importam realmente com sua rotina noturna, mas querem ver uma menina em uma toalha? Pode ser. Talvez não. Ela é uma criança. Alguém deveria monitorar mais de perto o uso da Internet, mas isso também é difícil. E é aí que YouTube deveria entrar, mas não tem. Este é um conteúdo impróprio, mesmo que não seja abertamente sexual devido à maneira como é provavelmente consumido. Isso não é excitante, a menos que você seja o tipo de pessoa que especificamente acha isso excitante.

Embora esses vídeos não gerassem receita para anúncios, eles também claramente não estavam sendo monitorados por seres humanos ou IA - pelo menos não de forma eficaz. Alguns dos vídeos não deveriam estar no YouTube, mas têm milhões de visualizações. Se os comentários e a moderação de conteúdo forem tão ineficazes quanto parecem, as crianças continuarão a ser objeto de interesse sexual na plataforma, que continuará a ser uma ferramenta para predadores.

À medida que o YouTube se torna um lugar em que cada vez mais crianças consomem vídeos, bem como um lugar onde exibem suas criações, os responsáveis ​​pelo plataforma precisa tomar uma decisão sobre se a moderação deve ser buscada no interesse de negação plausível ou no interesse de proteger crianças. Se a empresa chegar à última conclusão - e esperemos que chegue - ela terá que reconsiderar tanto sua equipe quanto seu software. Se eles não fizerem isso, eles devem reconsiderar o papel que desejam desempenhar na internet.

O YouTube desativa a reprodução automática para crianças, adicionando mais medidas de segurança

O YouTube desativa a reprodução automática para crianças, adicionando mais medidas de segurançaYou TubeCrianças Do Youtube

Novas medidas de segurança para crianças estão finalmente chegando ao YouTube. Esses mudanças farão com que o YouTube vendo um pouco menos irritante para os pais e um pouco mais seguro. Mas há um p...

Consulte Mais informação
10 canais do Youtube seguros e divertidos para crianças pequenas

10 canais do Youtube seguros e divertidos para crianças pequenasCriança PequenaYou TubeOs MuppetsPeppa PigSegurança Na InternetMelhor Segurança OnlineVídeosCrianças Do Youtube

YouTube Kids está inundado com conteúdo impróprio. Os vídeos, supostamente promovidos por fazendas de conteúdo que valorizam o lucro acima do bem-estar das crianças, apresentam personagens inocente...

Consulte Mais informação
Transformando a obsessão da tela do meu filho em uma experiência de vínculo saudável

Transformando a obsessão da tela do meu filho em uma experiência de vínculo saudávelYou TubeVínculoTempo De Tela

Bem-vindo a “Great Moments in Parenting”, uma nova série onde os pais explicam um obstáculo parental que enfrentaram e a forma única como o superaram. Aqui, Ed, um personal trainer de 37 anos e pai...

Consulte Mais informação