YouTube anunció el lunes que ya no permitiría que los "menores más jóvenes" en YouTube transmisión en vivo sobre la plataforma sin supervisión parental. Este movimiento siguió a la estela de un New York Times reporte publicado más temprano en el día que mostró que Algoritmo de YouTube recomienda videos de niños con ropa sugerente a los usuarios que ya han estado viendo contenido sexual.
La política parece seguir el ejemplo de un plan de febrero de YouTube para no permitir que los usuarios dejen comentarios en videos con niños, luego de que un informe revelara que pedófilos en YouTube dejaban comentarios con marcas de tiempo de los videos que mostraban a los niños en posiciones sugerentes o cuando su piel estaba expuesta. Otros comentarios vinculados a videos de YouTube que no se pueden buscar de contenido pedófilo o vinculados a grupos de WhatsApp. Muchos de esos videos, aunque inocentes cuando se publicaron, fueron explotados para beneficio de los adultos. También se monetizaron a menudo y, como resultado, los anunciantes abandonaron la plataforma. YouTube cambió sus estándares para videos monetizados para asegurarse de que los YouTubers tuvieran una cierta cantidad de seguidores antes de que les pagaran por su contenido.
YouTube ha tenido problemas con la seguridad infantil durante años: en 2017, "Elsagate" Un escándalo en el que los creadores de YouTube hicieron videos apoyándose en personajes del entretenimiento familiar (Elsa, Peppa Pig, Caillou), asomó la cabeza. Aquellos personajes involucrados en comportamiento perturbador, violento y sexual, pero permanecieron en YouTube y YouTube Kids durante bastante tiempo antes de que el problema saliera a la luz. Muchos de los videos también se monetizaron.
Un informe condenatorio publicado en abril reveló que los ejecutivos de YouTube priorizaron la obtención de mil millones de horas de metraje en el sitio para mantener a las personas en la plataforma por más tiempo y así ganar más dinero a YouTube. Eso significaba que se permitía contenido inflamatorio o incluso inseguro en la plataforma en nombre de un mayor compromiso y, por lo tanto, de dólares publicitarios.
En el anuncio, YouTube señaló que ha eliminado casi 1 millón de videos en violación de sus políticas de seguridad infantil y que la mayoría de ellos se habían eliminado antes de tener más de 10 vistas. Según los informes, esta nueva regulación en YouTube Live se hará cumplir mediante medidas de inteligencia artificial reforzadas.