O que o YouTube pode fazer para manter nossas crianças mais seguras?

click fraud protection

Em fevereiro, YouTuber Matt Watson postou um vídeo expondo a facilidade com que ele foi capaz de inserir um algoritmo gerado toca do coelho e encontre comunidades de pedófilos que comentam explorando vídeos normais de crianças. Às vezes, esses mesmos comentaristas postavam links para vídeos não listados ou postavam informações de contato do WhatsApp para o que era, presumivelmente, mensagens em grupo favoráveis ​​aos pedofílicos, mas muitas vezes postam carimbos de hora de crianças em posições comprometedoras em disse vídeos.

As descobertas de Watson mais uma vez inflamaram a conversa em torno da moderação e responsabilidade do YouTube. Muitos dos vídeos que ele encontrou foram programaticamente monetizados com anúncios, o que significa que o YouTube estava ganhando dinheiro com o conteúdo que, embora possa não ter se perturbado, estava sendo explorado em cliques e visualizações por aqueles que tinham ulterior motivos. Os vídeos em si não eram o problema, em sua maioria. Muitos eram de crianças fazendo coisas normais de criança: lutando com seus irmãos, exibindo seu brinquedo coleções, mas os comentários e as formas como eles se relacionavam eram suspeitos e, em última análise, perturbador.

O escândalo, vindo apenas um ano após o YouTube reconhecer esses círculos de comentários e depois Crianças do YouTube O escândalo #ElsaGate, no qual as pessoas encontraram vídeos perturbadores em uma plataforma feita para crianças e sua segurança em mente, envolveu o YouTube em um debate no qual muitos perguntaram: O YouTube mudou alguma coisa? E se sim, por que o problema estava proliferando? Isso poderia ser consertado?

O YouTube respondeu desativando comentários em milhões de vídeos que estavam sendo alvejados por predadores e apontando que eles têm uma equipe profunda de 10.000 funcionários de comentários humanos e moderadores de conteúdo e um sistema de aprendizado de máquina cujo trabalho é filtrar vídeos e sinalizar qualquer coisa ofensiva. Mas é o suficiente? Existe alguma maneira de o YouTube fazer as pazes com pais preocupados? Ou o algoritmo da empresa foi muito longe?

Para descobrir o que pode ser feito para consertar a plataforma, Paternalconversou com Jonas Keizer, um Afiliado do Berkman Klein Center for Internet & Society, Pesquisador Associado do Instituto Alexander von Humboldt para Internet & Society e DFG Research Fellow. Keizer é especialista em algoritmos do YouTube e na proliferação de comunidades prejudiciais. Falamos com ele sobre o algoritmo do YouTube, como esses problemas são criados e o que o YouTube pode fazer para melhorar.

Sua pesquisa se concentra em campanhas de trolls de extrema direita no Youtube e como essas comunidades se espalham. Existem semelhanças entre essas comunidades e essas comunidades pedofílicas recém-descobertas, compartilhando links nas seções de comentários?

Eu não faria essa comparação. Com a extrema direita, temos tentativas mais visíveis e óbvias de formar uma comunidade e de nos conectar com outros canais. Eles seguem suas próprias tendências de tópicos que consideram importantes e isso não acontece em um canal, mas em vários. Isso é feito muito deliberadamente por meio de suas próprias ações. Os falantes de extrema direita vão aos programas uns dos outros e dão uns aos outros uma legitimidade proeminente.

Ao mesmo tempo, por meio de suas atividades e atividades do usuário, eles também afetam o algoritmo do YouTube de uma forma que, O YouTube, vídeos e canais políticos irão, não importa a ideologia que você olhar, muitas vezes levar à extrema direita canais.

Então, as comunidades pedófilas parecem ser muito mais que os canais e vídeos não necessariamente da comunidade lá, mas sim os comentários online, que, pelo que li, criaram este estranho, invisível, muito perturbador fenômeno.

Para quem não sabe, como funciona o algoritmo do YouTube?

Do YouTube algoritmo gira em torno da ideia de que manterá os usuários engajados. Nesse contexto, isso obviamente significa ver os vídeos, comentar, curtir ou compartilhar. Permanecer na plataforma é o objetivo mais importante. Para permanecer na plataforma, você receberá recomendações em sua página inicial, nas páginas de vídeo e nos próprios canais. Tudo isso é construído em torno da ideia de que os usuários devem permanecer na plataforma. A questão é, obviamente, como o YouTube cria um algoritmo que faz isso?

Existem muitos pontos de dados diferentes que entram nesse algoritmo. Por exemplo: o que é tendência atualmente na plataforma? O que outras pessoas com os mesmos interesses olharam? Quais vídeos são mais clicados? Onde as pessoas semelhantes se sobrepõem nos comentários dos usuários? Esse tipo de coisa. A ideia principal é fazer com que o algoritmo aprenda o que atrai e mantém os usuários na plataforma.

Em termos de moderação de conteúdo e comentários no YouTube, como essa moderação é configurada? Você acha que é uma resposta suficiente às ameaças na Internet?

Apenas até certo ponto. O problema da moderação na forma como a maioria das grandes plataformas de mídia social faz é que ela é construída em torno do conteúdo do relatório de pessoas. Então, basicamente, se ninguém relatar e não for claramente contra as regras que são identificáveis ​​por meio do aprendizado de máquina, como palavrões ou algo parecido que poderia ser filtrado algoritmicamente - outros comentários são obviamente muito mais difíceis de identificar então um as necessidades humanas de olhar para isso. Mas se ninguém denuncia o conteúdo, o YouTube não sabe que ele existe, apenas porque há muito conteúdo na plataforma. Ele destaca a importância dos usuários. Isso é debatido, seja ou não uma coisa boa ou ruim, que os usuários são colocados na posição que têm de trabalhar para destacar para o YouTube o que é ofensivo para eles.

No nível do vídeo, outras formas [de moderação foram] implementadas agora, então há uma redução do conteúdo que poderia incluir as principais notícias. Se você pesquisar notícias, obterá primeiro o que o YouTube considera serem as fontes mais confiáveis. Eles experimentaram as caixas de informações em torno de certos vídeos de conspiração. Todas essas são, de uma forma ou de outra, formas de moderação de conteúdo.

A maneira como o YouTube depende de bons samaritanos para relatar coisas que podem ser problemáticas ou ofensivas é semelhante à que o Reddit também é amplamente policiado por moderadores da comunidade, embora o Reddit não pareça ter esse problema ao mesmo tempo escala.

A comparação faz sentido, mas é muito diferente. Cada subreddit é uma comunidade que basicamente diz qual forma de conteúdo é permitida. No contexto da ciência SubReddit, por exemplo, você pode ver quando os moderadores estão garantindo que as regras estão sendo seguidas, enquanto outros subreddits são muito laissez-faire. O número de postagens em subreddits não pode ser comparado ao número de vídeos enviados a qualquer hora no YouTube. Alguns desses fóruns têm interesse no autopoliciamento. O trabalho é basicamente terceirizado para os usuários e a suposição é que, desde que haja pessoas motivadas o suficiente para fazer esse trabalho, tudo bem, mas não é o caso no YouTube. Esses fóruns não existem da mesma forma.

Em termos desses comentários recentes e escândalos recentes do YouTube Kids, como #ElsaGate, onde trolls estavam juntando vídeos terríveis em conteúdo infantil. Existe uma maneira de chamar a atenção deles que não depende apenas da boa vontade do usuário médio do YouTube?

O YouTube foi lentamente, muito lentamente, na direção certa. Eles não estão lá, mas estão entendendo que as pessoas vão pesquisar notícias no YouTube, então selecionar quais canais aparecerão faz sentido na minha opinião.

No meu próprio trabalho, é espantoso para mim que o YouTube basicamente trata o conteúdo político da mesma forma que trata a música pop. Nas últimas semanas, eles entenderam lentamente que há uma diferença.

Por exemplo, com o movimento antivaxxing, eles disseram que não permitiriam mais necessariamente determinados vídeos. Eu acho isso importante. Em um contexto político, a ideia de "apenas observar as pessoas" não é o que você deseja. Isso é o que você deseja para música, para jogos ou outras formas de entretenimento, mas quando se trata de informação.

Acho que para recomendações de vídeos e canais, onde essa lógica continua, que visa ter pessoas na plataforma, não importa por qual motivação, é problemático.

Então, quais soluções, se houver, você sugere para lidar com os escândalos de comentários recentes do YouTube?

Pelo que li, a comunidade existia principalmente por meio dos comentários, o que teve um grande efeito nas recomendações do YouTube, então esses vídeos foram vinculados, obviamente de uma forma bastante doentia. Acho que essa é a parte problemática. Como você, como plataforma, fica atento? Você está ciente de que há algo acontecendo que não deveria acontecer? E, porque, obviamente, não deve ser responsabilidade de certos usuários ativos e conscientes descobrir essas coisas, mas, felizmente, existem.

A questão é: "Como os algoritmos funcionam nesse contexto e permitem isso?" Minha percepção é que há uma diferença entre os usuários que comentaram e as pessoas que enviaram vídeos. Acho que isso pode ser mais fácil de desconectar; mas acho que a melhor opção seria investir pesadamente em humanos para moderar conteúdo suspeito e apenas estar atento para tentar descobrir o que constitui suspeito em relação aos algoritmos.

Em sua mente, existe uma versão do YouTube que não precisa ser executada nesses algoritmos que podem vincular comunidades potencialmente perigosas umas às outras? Ou é intrínseco à própria plataforma?

Não acho que seja intrínseco à plataforma. Acho que é intrínseco ao modelo de negócios. Você poderia muito bem pensar em uma comunidade de vídeo que talvez seja semelhante ao Reddit, por exemplo, que se concentre em determinado conteúdo ou determinados tópicos, e onde você pode postar vídeos a esse respeito.

Esse é o problema. Se o YouTube abandona o algoritmo que mantém as pessoas na plataforma, então isso é um problema de lucro. O YouTube quer continuar ganhando dinheiro.

Eu acho isso justo. Muitas das discussões que estamos tendo atualmente sobre como as plataformas funcionam e por que, por exemplo, alguns conteúdos são tratados de forma mais favorável do que outros e o motivo pelo qual as teorias de desinformação ou conspiração podem prosperar tem a ver com o modelo de negócios e a ideia de que tudo com cliques é recompensado. Existem ideias para ter plataformas que não são construídas em torno disso. Mas isso não geraria tanto dinheiro.

Homem encontrado acampando na ilha abandonada da Disney

Homem encontrado acampando na ilha abandonada da DisneyYou TubeAcampamentoMundo Da Disney

Richard J., homem de 42 anos, Mobile, Alabama McGuire provavelmente teve o acampamento de sua vida enquanto explorava Disney’s World’s Ilha da descoberta - um parque zoológico que está abandonado d...

Consulte Mais informação
Esta arma Nerf grita quando você atira

Esta arma Nerf grita quando você atiraYou TubeArmas Nerf

Sempre quis um arma Nerf que grita quando você atira? Bem, mesmo se você nunca teve esse pensamento ou essas palavras amarradas em sua mente na mesma frase, graças a um novo vídeo da Hacksmith Indu...

Consulte Mais informação
Os vídeos do YouTube não ensinam nada às crianças, mas não são prejudiciais

Os vídeos do YouTube não ensinam nada às crianças, mas não são prejudiciaisYou TubeTempo De Tela

Seu não tão prejudicial para os pais mostrarem Youtube vídeos para seus filhos, mas é oficialmente tolice pensar que eles aprenderão alguma coisa com a experiência. Porque mesmo que as crianças par...

Consulte Mais informação