YouTube ha annunciato lunedì che non avrebbe più consentito ai "minori più giovani" su YouTube di trasmissione in diretta Su la piattaforma privo di supervisione dei genitori. Questa mossa seguì sulla scia di a New York Times rapporto pubblicato in precedenza nel giorno che ha dimostrato che Algoritmo di YouTube consiglia video di bambini in abiti allusivi agli utenti che avevano già guardato contenuti di natura sessuale.
La politica sembra seguire l'esempio di un piano di febbraio di YouTube per non consentire più agli utenti di lasciare commenti sotto i video con bambini, dopo che un rapporto ha rivelato che pedofili su YouTube lasciavano commenti con i timestamp dei video che mostravano i bambini in posizioni suggestive o quando la loro pelle era esposta. Altri commenti collegati a video YouTube non ricercabili di contenuti pedofili o collegati a gruppi WhatsApp. Molti di quei video, sebbene innocenti quando pubblicati, sono stati sfruttati per il guadagno degli adulti. Inoltre sono stati spesso monetizzati e, di conseguenza, gli inserzionisti hanno lasciato la piattaforma. YouTube ha cambiato i propri standard per i video monetizzati per garantire che gli utenti di YouTube avessero un certo numero di follower prima di essere pagati per i loro contenuti.
YouTube ha avuto problemi con la sicurezza dei bambini per anni: nel 2017, "Elsagata", uno scandalo in cui i creatori di YouTube hanno realizzato video basandosi su personaggi dell'intrattenimento per famiglie (Elsa, Peppa Pig, Caillou), ha alzato la testa. Quei personaggi impegnati in comportamento inquietante, violento e sessuale, ma sono rimasti su YouTube e YouTube Kids per un po' di tempo prima che il problema venisse in primo piano. Molti dei video sono stati anche monetizzati.
Un rapporto schiacciante pubblicato ad aprile ha rivelato che i dirigenti di YouTube hanno dato la priorità a ottenere un miliardo di ore di filmati sul sito per mantenere le persone sulla piattaforma più a lungo e quindi fare più soldi a YouTube. Ciò significava che i contenuti infiammatori o addirittura non sicuri erano consentiti sulla piattaforma in nome di un crescente coinvolgimento e, quindi, di dollari pubblicitari.
Nel annuncio, YouTube ha notato di aver rimosso quasi 1 milione di video in violazione delle norme sulla sicurezza dei bambini e che la maggior parte di essi era stata eliminata prima di avere più di 10 visualizzazioni. Secondo quanto riferito, questo nuovo regolamento su YouTube Live sarà applicato da misure rafforzate di intelligenza artificiale.