I dirigenti di YouTube erano a conoscenza di contenuti tossici rivolti ai bambini e di contenuti offensivi sulla piattaforma e non hanno fatto nulla per affrontarli. Secondo una notizia pubblicata da Bloomberg martedì, i dirigenti di YouTube hanno avuto una piena comprensione del contenuti tossici, imprecisi e offensivi sulla piattaforma ma non ha preso provvedimenti. Parlando in modo anonimo, hanno detto ex dipendenti di YouTube Bloomberg Quello le discussioni interne alla società di streaming erano ben lontane dal messaggio esterno che YouTube proiettava al pubblico.
Sebbene YouTube si definisca una sorta di "biblioteca" (la loro Lo ha detto il CEO Susan Wojcicki al South by Southwest di Austin), il rapporto mostra che le difficoltà interne per monitorare, monetizzare e dare priorità agli algoritmi erano in corso. Il rapporto afferma che quando un dipendente ha suggerito di segnalare video preoccupanti (anche se non illegali), è stato accolto con inerzia dai dirigenti di YouTube, che, a quanto pare, hanno preferito concentrarsi su coinvolgimento e profitto, piuttosto che sulla natura preoccupante di alcuni dei contenuto.
Un ex dipendente, Micah Schaffer, ha lasciato l'azienda prima del 2010. Proprio nel momento in cui ha lasciato l'azienda, YouTube aveva notato una comunità di video pro-anoressia, ma in quel momento lo staff ha iniziato a eliminare i video della piattaforma, eliminarli dalla scheda dei consigli e applicare limiti di età al video. Sembra molto lontano dalla risposta ai problemi di oggi e, nel 2012, un nuovo messaggio da Google, YouTube's proprietario, è emerso: più persone devono rimanere sul sito più a lungo in modo che YouTube possa pubblicare più annunci e guadagnare di più soldi. Avevano un obiettivo: ottenere un miliardo di ore di filmati sul sito.
Dopo le elezioni del 2016, invece di concentrarsi sulle notizie false che avevano popolato la piattaforma, i dirigenti di YouTube si sono concentrati su una nuova algoritmo: pagare i creatori per quante persone hanno guardato i loro video e per quanto tempo hanno guardato, anche se nessun annuncio veniva pubblicato su i video. Ciò significava che gli editori di video che condividevano teorie cospirative marginali o ideologia razzista e che... non sono promossi da marchi come AT&T, guadagnerebbero comunque, senza alcun impulso per essere precisi nel loro segnalazione. Il piano è stato infine respinto.
Nel 2017, il Elsagate scandalo emerso. Anche sulla versione per bambini di YouTube, i creatori di contenuti avevano creato video di cartoni animati non ufficiali che mostravano immagini inquietanti di, ad esempio, Elsa incinta o Peppa Pig decapitata. Allo stesso tempo, i canali YouTube "familiari" come Pazzi per i giocattoli, un canale per famiglie, sono stati rimossi a causa di accuse di abusi sui minori e perché anche il contenuto stesso era inquietante. Gli annunci sono stati pubblicati su alcuni di questi video.
In un doppio scandalo, dettagli di un anello di commenti pedofili — un anello in cui i pedofili hanno commentato i video caricati da i bambini per i bambini che segnano i tempi dei momenti in cui erano in posizioni fisicamente compromettenti — hanno cominciato a emergere. Quei video hanno avuto un alto coinvolgimento e hanno portato gli utenti verso il basso un algoritmo basato su ciò che piace ad altre persone stavano guardando e commentando, portando così YouTuber altrimenti normali lungo un percorso nefasto di video di bambini che succhiano lecca-lecca, sfoggiando la loro routine notturna o facendo la modella di biancheria intima. YouTube ha promesso che avrebbe risolto il problema, in cui molti di quei video di bambini sono stati monetizzati a causa del loro alto coinvolgimento.
I problemi persistevano: i video sono emersi e sono diventati virali chiamando i sopravvissuti di Parkland attori falsi e pagati, e internamente, come reazione a quello scandalo, fonti hanno affermato che i dirigenti di YouTube hanno rifiutato l'idea di limitare le notizie consigliate a fonti attendibili. Hanno detto ai loro dipendenti di non provare a cercare bugie virali sulla piattaforma, perché YouTube potrebbe quindi essere responsabile per conoscere il contenuto del sito e non fare abbastanza per gestire il problema.
Un dipendente anonimo ha detto Bloomberg che Wojcicki “non avrebbe mai messo le dita sulla bilancia. La sua opinione era: "Il mio lavoro è gestire l'azienda, non occuparmi di questo"", suggerendo che realizzare un profitto era più importante che assicurarsi che gli utenti della piattaforma fossero al sicuro e accuratamente informati.
Sappiamo da molto tempo che YouTube, come è vero per la maggior parte dei siti Web di social media, valuta il tempo speso e impegnato sul sito web, piuttosto che creare effettivamente un significativo o, beh, veritiero Comunità. Nel 2019, si è ripresentato il problema pedofilia, nonostante l'assunzione di 10.000 moderatori di contenuti umani nel 2018. Ma mentre YouTube ha fatto ogni spettacolo, esteriormente, di essere proattivo nel de-platform di notizie false e nella correzione il loro algoritmo per proteggere i bambini, hanno trascinato i piedi all'interno, valutando il profitto sul loro Comunità.