El fin de semana, YouTube El activista Matt Watson apareció en la portada de Reddit con un video sobre un perturbador fenómeno que descubrió en la plataforma de alojamiento de videos de Google, el segundo motor de búsqueda más grande del mundo. Watson demostró cómo podía hacer clic en contenido normal y apropiado de YouTube hacia videos sugerentes de chicas jóvenes. Aunque muchos de estos videos, que muestran a preadolescentes con bikinis y vampiros en sus habitaciones, no eran explícitamente sexuales, la mayoría había sido comentada por usuarios con aparentemente pedófilo intención. Algunos comentarios incluían marcas de tiempo para momentos específicos en los que las jóvenes se encontraban en posiciones comprometidas. Algunos comentarios incluyen enlaces a videos privados no listados. Estos clips de YouTube se monetizaron a través de anuncios para empresas como Grammarly y el propio Google.
Poco después de El video de Watson, que lo mostraba expresando horror por el fenómeno, escaló la clasificación de Reddit,
Esto era algo, pero como Forbes, Mashable, Business Insider, y Los New York Times Todo lo señalado, no fue una solución a un aparente problema algorítmico, humano o de aprendizaje automático.
Curiosamente, muchos videos que Watson vio tenían comentarios deshabilitados, lo que sugiere que los administradores de contenido de YouTube Han notado la cadena de comentarios y han estado tratando de dificultar que los pedófilos operen en sus sitio. Pero todos esos esfuerzos confirmados fue la conciencia del problema no resuelto.
De hecho, está claro que el problema se remonta al menos a 2017. En el mismo mes que el “ElsagateLa controversia estalló, la gente había comenzado a dar la voz de alarma sobre comentarios extraños, implícitamente sexuales en videos de niños pequeños, hechos para niños. A los principales anunciantes les gusta AT&T dejó de gastar en anuncios en el sitio cuando la BBC informó que los comentarios inapropiados sobre videos de niños monetizados a menudo incluían marcas de tiempo para Momentos de segundos de posiciones sugerentes y enlaces a videos no listados, y los anunciantes no reanudaron el gasto hasta que se "solucionó" el problema. Sobre 21 de febrero AT&T, que acababa de comenzar a anunciarse en la plataforma nuevamente en enero, dijo que dejarían de gastar en anuncios en la plataforma. Hasbro, Nestlé y Disney han seguido su ejemplo.
Elsagate no es lo mismo que un anillo de pedofilia, pero los problemas están relacionados. Las granjas de contenido aprovecharon las palabras clave y colocaron anuncios automáticamente según la participación del canal. y filtrado de IA de mala calidad, y creó dibujos animados que usaban personajes sin licencia de niños populares franquicias. Muchos de estos "Granjas de contenido" - es decir, las empresas que crearon estos videos - tienen su sede en lugares como Ciudad Ho Chi Minh, Vietnam. No eran educativos ni aptos para niños, pero proliferaron en YouTube Kids como videos monetizados.
YouTube cambió sus pautas de monetización después del doble escándalo de 2017. Hoy en día, los creadores de videos deben tener al menos 1,000 suscriptores y haber visto sus videos durante 4,000 horas. Estas regulaciones se implementaron solo después de Elsagate y ahora la compañía afirma que todos los videos que se monetizan serán revisados por seres humanos reales, no AI, para frenar la publicidad inapropiada (piense: un anuncio de Google que muestra un video de una niña preadolescente comiendo una piruleta que ha tenido más de 1 millón de puntos de vista).
Es por eso que tantos videos de niños tener comentarios desactivados debajo de los videos. Los 10,000 revisores humanos de YouTube, encargados de revisar las 400 horas de metraje subido a YouTube cada minuto, también están a cargo de buscar sobre el compromiso con dichos videos y la desactivación de comentarios inapropiados, enlaces a videos no listados o marcas de tiempo de los niños en sugerentes posiciones.
Creé una nueva cuenta de YouTube después de descubrir que mis algoritmos estaban tan arraigados que era difícil encontrar contenido inapropiado, y busqué lo mismo que Watson buscó: "botín de bikini". Con 12 clics, estaba en una extraña madriguera de videos de lucha infantil y noches de chicas. rutinas. Me encontré con un video de más de 30 minutos y encontré esto:
A las 21:25, la chica del video se alejó de la cámara y, por solo un segundo, su entrepierna estuvo a la vista.
También encontré una gran cantidad de videos de modelos de chicas jóvenes claramente menores de 18 años. Los comentaristas notaron lo hermosas que eran las modelos y lo bien que se veían en ropa interior, a pesar de que son niños. No compartiré los videos porque sean inapropiados; pero el quid de la cuestión es que estos comentarios no solo deben supervisarse detenidamente, sino que tal vez no deberían estar en el sitio web en absoluto. No se ha tomado ninguna medida contra esos comentarios o el video en sí de menores modelando ropa interior.
Y otra niña publicó un video de su rutina nocturna, después de la ducha. La niña, cuya página de YouTube se llama "La experiencia Fortnite de Makenzie”Y que parece no tener más de 13 años, accidentalmente mueve su toalla de una manera en el video que muestra el costado de su torso desnudo en la marca de 2:47 minutos.
Obviamente, este video nunca debería haberse subido. La niña que aparece en él es claramente prepúber y lleva una toalla, lo que explica su rutina nocturna. Este video tiene unas 51.000 visualizaciones. El resto de sus videos tienen entre ocho y 150 visualizaciones. Entonces, ¿por qué está pasando esto? ¿Sabe por qué 51.000 personas han visto este video y ninguno de sus videos de Fortnite o divertidos videos de manualidades? ¿Entiende que hay gente por ahí que no está mirando esto porque realmente no les importa su rutina nocturna pero quieren ver a una niña en una toalla? Quizás. Tal vez no. Ella es una niña. Alguien debería monitorear más de cerca su uso de Internet, pero eso también es difícil. Y ahí es donde YouTube debería entrar, pero no lo ha hecho. Este es contenido inapropiado incluso si no es abiertamente sexual debido a la forma en que es probable que se consuma. Esto no es algo excitante a menos que seas el tipo de persona que lo encuentra especialmente excitante.
Aunque estos videos no se monetizaron para anuncios, claramente tampoco estaban siendo monitoreados por seres humanos o IA, al menos no de manera efectiva. Algunos de los videos no deberían estar en YouTube en absoluto, pero tener millones de visitas. Si la moderación de comentarios y contenido es tan ineficaz como parece, los niños seguirán siendo objeto de interés sexual en la plataforma, que seguirá siendo una herramienta para los depredadores.
A medida que YouTube se convierte en un lugar en el que cada vez más niños consumen videos y en un lugar donde exhiben sus creaciones, los encargados de la plataforma necesita tomar una decisión sobre si la moderación debe perseguirse en el interés de una negación plausible o en el interés de proteger niños. Si la empresa llega a la última conclusión, y esperemos que así sea, tendrá que reconsiderar tanto su personal como su software. Si no lo hacen, deberían reconsiderar qué papel quieren desempeñar en Internet.