Os executivos do YouTube estavam cientes do conteúdo tóxico voltado para crianças e de conteúdo abusivo na plataforma e não fizeram nada para lidar com isso. De acordo com uma reportagem publicada por Bloomberg na terça-feira, os executivos do YouTube entenderam perfeitamente o conteúdo tóxico, impreciso e abusivo na plataforma mas não tomou nenhuma ação. Falando anonimamente, ex-funcionários do YouTube disseram Bloomberg naquela as discussões internas na empresa de streaming estavam muito longe da mensagem externa que o YouTube projetava para o público.
Embora o YouTube se identifique como uma espécie de "biblioteca" (seu A CEO Susan Wojcicki disse isso na South by Southwest em Austin), o relatório mostra que as dificuldades internas para monitorar, monetizar e priorizar os algoritmos estavam em andamento. O relatório afirma que quando um funcionário sugeriu sinalizar vídeos que eram perturbadores (embora não ilegais), eles foram recebidos com inação por executivos do YouTube, que, aparentemente, preferiram se concentrar no envolvimento e lucro, em vez da natureza preocupante de alguns dos contente.
Um ex-funcionário, Micah Schaffer, saiu da empresa antes de 2010. Na época em que ele deixou a empresa, o YouTube percebeu uma comunidade de vídeos pró-anorexia, mas, naquela época, a equipe começou a deletar os vídeos da plataforma, deletá-los da aba de recomendações e colocar restrições de idade no vídeos. Isso parece muito diferente da resposta aos problemas de hoje e, em 2012, uma nova mensagem do Google, o YouTube proprietário, surgiu: mais pessoas precisam permanecer no site por mais tempo para que o YouTube possa veicular mais anúncios e fazer mais dinheiro. Eles tinham um objetivo: conseguir um bilhão de horas de filmagem no site.
Após a eleição de 2016, em vez de se concentrar em notícias falsas que povoaram a plataforma, os executivos do YouTube se concentraram em um novo algoritmo: pagando aos criadores por quantas pessoas assistiram seus vídeos e por quanto tempo eles assistiram, mesmo que nenhum anúncio estivesse sendo veiculado os vídeos. Isso significava que os editores de vídeo que compartilhavam teorias de conspiração marginal ou ideologia racista e que não são promovidos por marcas como a AT&T, ainda assim ganhariam dinheiro, sem nenhum ímpeto para serem precisos em seus comunicando. O plano acabou sendo rejeitado.
Em 2017, o Elsagate escândalo emergiu. Mesmo na versão infantil do YouTube, os criadores de conteúdo criaram vídeos de desenhos animados não oficiais que mostravam imagens perturbadoras de, digamos, Elsa grávida ou Peppa Pig sendo decapitada. Ao mesmo tempo, canais "familiares" do YouTube como Freaks de brinquedo, um canal familiar, foram retirados do ar em decorrência de alegações de abuso infantil e porque o conteúdo em si também era perturbador. Anúncios foram executados em alguns desses vídeos.
Em um escândalo duplo, detalhes de um ringue de pedófilos - um ringue em que pedófilos comentaram em vídeos carregados por crianças para crianças marcando marcas de tempo de momentos em que estavam em posições fisicamente comprometedoras - começaram a emergir. Esses vídeos tiveram alto envolvimento e levaram os usuários a um algoritmo baseado no que outras pessoas gostam deles estavam assistindo e comentando, levando assim os YouTubers normais a um caminho nefasto de vídeos do crianças chupando pirulito, exibindo sua rotina noturna ou modelando roupas íntimas. O YouTube prometeu que resolveria o problema, no qual muitos daqueles vídeos de crianças eram monetizados por causa de seu alto envolvimento.
Os problemas persistiram: os vídeos surgiram e se tornaram virais chamando os sobreviventes de Parkland de falsos atores pagose, internamente, como reação a esse escândalo, as fontes alegaram que os executivos do YouTube rejeitaram a ideia de limitar as notícias recomendadas a fontes confiáveis. Eles disseram a seus funcionários para não procurarem mentiras virais na plataforma, porque o YouTube poderia então ser responsável por saber sobre o conteúdo do site e não fazer o suficiente para lidar com o problema.
Um funcionário anônimo disse Bloomberg que Wojcicki “nunca colocaria os dedos na balança. Sua opinião era: ‘Meu trabalho é administrar a empresa, não lidar com isso’ ”, sugerindo que lucrar era mais importante do que garantir que os usuários da plataforma estivessem seguros e informados com precisão.
Há muito tempo que sabemos que o YouTube - como acontece com a maioria dos sites de mídia social - valoriza o tempo gasto e engajado no site, em vez de realmente criar um conteúdo significativo ou verdadeiro comunidade. Em 2019, o problema da pedofilia surgiu novamente, apesar de contratar 10.000 moderadores de conteúdo humano em 2018. Mas, embora o YouTube tenha feito todos os programas, externamente, de ser proativo na eliminação de notícias falsas e consertar seu algoritmo para manter as crianças seguras, eles arrastavam os pés internamente, valorizando o lucro sobre seus comunidade.