Los ejecutivos de YouTube estaban al tanto del contenido tóxico dirigido a niños y del contenido abusivo en toda la plataforma y no hicieron nada para solucionarlo. Según un informe de noticias publicado por Bloomberg el martes, los ejecutivos de YouTube comprendieron plenamente la contenido tóxico, inexacto y abusivo en la plataforma pero no tomó ninguna medida. Hablando de forma anónima, los ex empleados de YouTube dijeron Bloomberg ese Las discusiones internas en la compañía de transmisión estaban muy lejos del mensaje externo que YouTube proyectaba al público.
Aunque YouTube se califica a sí mismo como una especie de "biblioteca" (su La directora ejecutiva, Susan Wojcicki, lo dijo en South by Southwest en Austin.), el informe muestra que las luchas internas para monitorear, monetizar y priorizar los algoritmos estaban en curso. El informe afirma que cuando un empleado sugirió marcar videos que eran preocupantes (aunque no ilegales), se encontraron con la inacción. por los ejecutivos de YouTube, quienes, aparentemente, prefirieron centrarse en el compromiso y las ganancias, en lugar de la naturaleza preocupante de algunos de los contenido.
Un ex empleado, Micah Schaffer, dejó la empresa antes de 2010. Justo cuando dejó la empresa, YouTube había notado una comunidad de videos pro-anorexia, pero en ese momento, el personal comenzó a eliminar los videos de la plataforma, eliminarlos de la pestaña de recomendaciones y poner restricciones de edad en el videos. Eso parece estar muy lejos de la respuesta a los problemas de hoy y, en 2012, un nuevo mensaje de Google, YouTube propietario, surgió: más personas necesitan estar en el sitio durante más tiempo para que YouTube pueda publicar más anuncios y generar más dinero. Tenían un objetivo: obtener mil millones de horas de imágenes en el sitio.
Después de las elecciones de 2016, en lugar de centrarse en las noticias falsas que habían poblado la plataforma, los ejecutivos de YouTube se centraron en una nueva algoritmo: pagar a los creadores por la cantidad de personas que vieron sus videos y por cuánto tiempo los vieron, incluso si no se publicaron anuncios en los videos. Eso significaba que los editores de videos que compartían teorías de conspiración marginal o ideología racista y que no son promocionados por marcas como AT&T, aún generarían dinero, sin el ímpetu de ser precisos en sus informes. El plan finalmente fue rechazado.
En 2017, el Elsagate surgió el escándalo. Incluso en la versión para niños de YouTube, los creadores de contenido habían creado videos de dibujos animados no oficiales que mostraban imágenes perturbadoras de, digamos, Elsa embarazada o Peppa Pig decapitado. Al mismo tiempo, los canales "familiares" de YouTube, como Juguetes Freaks, un canal familiar, fueron retirados como resultado de denuncias de abuso infantil y porque el contenido en sí también era perturbador. Se publicaron anuncios en algunos de estos videos.
En un doble escándalo, detalles de un anillo de comentarios pedófilos: un anillo en el que los pedófilos comentaban los videos subidos por niños para niños marcando marcas de tiempo de momentos en los que estaban en posiciones físicamente comprometidas - comenzaron a surgir. Esos videos tuvieron una alta participación y llevaron a los usuarios a utilizar un algoritmo basado en lo que les gusta a otras personas. estaban mirando y comentando, lo que llevó a los YouTubers normales por un camino nefasto de videos de niños chupando piruletas, mostrando su rutina nocturna, o modelando ropa interior. YouTube prometió que solucionarían el problema, en el que muchos de esos videos de niños se monetizaron debido a su alta participación.
Los problemas persistieron: surgieron videos y se volvieron virales llamar a los supervivientes de Parkland falsos actores pagadose internamente, como reacción a ese escándalo, las fuentes alegaron que los ejecutivos de YouTube rechazaron la idea de limitar las noticias recomendadas a fuentes confiables. Les dijeron a sus empleados que no intentaran buscar mentiras virales en la plataforma, porque YouTube entonces podría ser responsable de conocer el contenido del sitio y no hacer lo suficiente para manejar el problema.
Un empleado anónimo dijo Bloomberg que Wojcicki “nunca pondría los dedos en la balanza. Su punto de vista era, "Mi trabajo es dirigir la empresa, no lidiar con esto", sugiriendo que obtener ganancias era más importante que asegurarme de que los usuarios de la plataforma estuvieran seguros y bien informados.
Sabemos desde hace mucho tiempo que YouTube, como ocurre con la mayoría de los sitios web de redes sociales, valora el tiempo gastado y comprometido en el sitio web, en lugar de crear un mensaje significativo o, bueno, veraz comunidad. En 2019, el problema de los pedófilos volvió a surgir, a pesar de contratar a 10,000 moderadores de contenido humano en 2018. Pero mientras que YouTube hizo cada programa, exteriormente, de ser proactivo en eliminar las plataformas de noticias falsas y arreglar su algoritmo para mantener a los niños seguros, arrastraron los pies internamente, valorando las ganancias sobre sus comunidad.