¿Qué puede hacer YouTube para mantener a nuestros niños más seguros?

En febrero, YouTuber Matt Watson publicó un video que expone la facilidad con la que pudo ingresar a un algoritmo engendrado madriguera de conejo y encontrar comunidades de pedófilos que comenten y exploten videos que de otra manera serían normales niños. A veces, estos mismos comentaristas publicaron enlaces a videos no listados o publicaron información de contacto de WhatsApp para lo que era, presumiblemente, mensajes grupales amigables con los pedófilos, pero a menudo publicaban marcas de tiempo de niños en posiciones comprometedoras en dicho videos.

Los hallazgos de Watson volvieron a enardecer la conversación sobre la moderación y la responsabilidad de YouTube. Muchos de los videos que encontró se monetizaron programáticamente con anuncios, lo que significa que YouTube estaba ganando dinero con el contenido. que, aunque tal vez no se haya molestado en sí mismo, estaba siendo explotado en clics y vistas por aquellos que tenían motivos. Los videos en sí mismos no fueron el problema, en su mayor parte. Muchos eran de niños haciendo cosas normales para niños: luchar con sus hermanos, mostrar su juguete. colecciones, pero los comentarios y las formas en que estaban vinculados entre sí eran sospechosos y, en última instancia, perturbador.

El escándalo, que se produjo solo un año después de que YouTube reconoció por primera vez estos anillos de comentarios y después YouTube para niños El escándalo #ElsaGate, en el que las personas encontraron videos perturbadores en una plataforma hecha con niños y su seguridad en mente, involucró a YouTube en un debate en el que muchos preguntaron: ¿YouTube ha cambiado algo en absoluto? Y si es así, ¿por qué estaba proliferando el problema? ¿Podría arreglarse?

YouTube respondió deshabilitando los comentarios en millones de videos que estaban siendo atacados por depredadores y señalando que tienen un equipo de 10,000 empleados de moderadores de contenido y comentarios humanos y un sistema de aprendizaje automático cuyo trabajo es examinar videos y marcar cualquier cosa ofensiva. ¿Pero es suficiente? ¿Hay alguna forma de que YouTube haga las paces con los padres preocupados? ¿O el algoritmo de la empresa se ha ido demasiado lejos?

Para averiguar qué se puede hacer, si es que se puede hacer algo, para arreglar la plataforma, Paternalhabló con Jonas Keizer, afiliado del Berkman Klein Center for Internet & Society, investigador asociado del Alexander von Humboldt Institute for Internet & Society y miembro investigador de DFG. Keizer es un experto en algoritmos de YouTube y la proliferación de comunidades dañinas. Hablamos con él sobre el algoritmo de YouTube, cómo se crean estos problemas y qué puede hacer YouTube para mejorar.

Su investigación se centra en las campañas de trolls de extrema derecha en Youtube y cómo se propagan dichas comunidades. ¿Hay similitudes entre esas comunidades y estas comunidades pedófilas recién encontradas que comparten enlaces en las secciones de comentarios?

No haría esa comparación. Con la extrema derecha, tenemos intentos más visibles y obvios de formar una comunidad y conectarnos con otros canales. Siguen sus propias tendencias de temas que consideran importantes y esto no sucede en un canal, sino en varios. Lo ha hecho de forma muy deliberada a través de sus propias acciones. Las cabezas parlantes de la extrema derecha van a los programas de los demás y se otorgan una legitimidad destacada.

Al mismo tiempo, a través de su actividad y la actividad del usuario, también afectan el algoritmo de YouTube de una manera que, en YouTube, los videos políticos y los canales políticos, sin importar la ideología que mire, a menudo conducirán a la extrema derecha canales.

Entonces, las comunidades pedófilas parecen ser mucho más que los canales y videos no necesariamente la comunidad. allí, sino más bien los comentarios en línea, que, por lo que he leído, crearon este extraño, invisible, muy perturbador fenómeno.

Para aquellos que no lo saben, ¿cómo funciona el algoritmo de YouTube?

YouTube algoritmo gira en torno a la idea de que mantendrá a los usuarios comprometidos. En ese contexto, eso obviamente significa ver los videos, comentar, dar me gusta o compartir. Permanecer en la plataforma es el objetivo más importante. Para permanecer en la plataforma, recibirá recomendaciones en su página de inicio, en las páginas de videos y en los canales en sí. Todos estos se basan en la idea de que los usuarios deben permanecer en la plataforma. La pregunta es, por supuesto, ¿cómo crea YouTube un algoritmo que lo haga?

Hay muchos puntos de datos diferentes que entran en ese algoritmo. Por ejemplo: ¿cuál es la tendencia actual en la plataforma? ¿Qué han mirado otras personas con los mismos intereses? ¿Qué videos reciben más clics? ¿Dónde se superponen personas similares en los comentarios de los usuarios? Ese tipo de cosas. La idea principal es que el algoritmo aprenda qué atrae y mantiene a los usuarios en la plataforma.

En términos de moderación de contenido y comentarios en YouTube, ¿cómo se configura esa moderación? ¿Crees que es una respuesta suficiente a las amenazas en Internet?

Solo hasta cierto punto. El problema con la moderación en la forma en que lo hacen la mayoría de las grandes plataformas de redes sociales es que se basa en personas que informan contenido. Entonces, básicamente, si nadie lo informa y no está claramente en contra de las reglas que se pueden identificar a través del aprendizaje automático, como maldiciones, o algo así que podría filtrarse algorítmicamente; otros comentarios son obviamente mucho más difíciles de identificar así que un el ser humano necesita mirarlo. Pero si nadie informa sobre el contenido, YouTube no sabe que existe, simplemente porque hay mucho contenido en la plataforma. Destaca la importancia de los usuarios. Eso se debate, ya sea que sea bueno o malo, que los usuarios estén en la posición de tener que esforzarse para resaltar en YouTube lo que les resulta ofensivo.

En el nivel de video, ahora se han implementado otras formas [de moderación], por lo que se está disminuyendo el contenido que podría incluir noticias destacadas. Si busca noticias, obtendrá primero lo que YouTube considera fuentes más confiables. Han experimentado con los cuadros de información de ciertos videos de conspiración. Todas estas son, de una forma u otra, formas de moderación de contenido.

La forma en que YouTube se basa en los buenos samaritanos para informar cosas que pueden ser problemáticas u ofensivas se siente similar a la forma en que que Reddit también está controlado en gran medida por moderadores de la comunidad, aunque Reddit no parece tener este problema al mismo tiempo escala.

La comparación tiene sentido, pero es muy diferente. Cada subreddit es una comunidad que básicamente dice qué tipo de contenido está permitido. En el contexto de la ciencia SubReddit, por ejemplo, puede ver cuándo los moderadores se aseguran de que se sigan las reglas, mientras que otros subreddits son muy laissez-faire. La cantidad de publicaciones en subreddits no se puede comparar con la cantidad de videos que se cargan a una hora determinada en YouTube. Algunos de estos foros tienen interés en la autovigilancia. Básicamente, la mano de obra se subcontrata a los usuarios y se supone que siempre que haya personas lo suficientemente motivadas para hacer esa labor, está bien, pero ese no es el caso en YouTube. Estos foros no existen de la misma manera.

En términos de estos comentaristas recientes y los escándalos recientes de YouTube Kids como #ElsaGate, donde los trolls estaban uniendo videos terribles en el contenido infantil. ¿Hay alguna forma de llamar la atención sobre ellos que no se base simplemente en la buena voluntad del usuario promedio de YouTube?

YouTube ha ido lentamente, muy lentamente, en la dirección correcta. No están allí, pero entienden que la gente buscará noticias en YouTube, por lo que seleccionar los canales que aparecerán tiene sentido en mi opinión.

En mi propio trabajo, me sorprende que YouTube básicamente trate el contenido político de la misma manera que la música pop. En las últimas semanas, poco a poco han comprendido que hay una diferencia.

Por ejemplo, con el movimiento anti-vaxxing, dijeron que ya no permitirían necesariamente ciertos videos. Creo que eso es importante. En un contexto político, la idea de "solo observar a la gente" no es lo que quieres. Esto es lo que desea para música, juegos u otras formas de entretenimiento, pero cuando se trata de información.

Creo que para las recomendaciones de videos y canales, donde esta lógica continúa, eso apunta a tener gente en la plataforma, sin importar por qué motivación, es problemático.

Entonces, ¿qué soluciones, si las hay, sugieres para lidiar con los recientes escándalos de comentarios de YouTube?

Por lo que he leído, la comunidad existía principalmente a través de los comentarios, que luego tuvieron un gran efecto en las recomendaciones de YouTube, por lo que esos videos estaban vinculados, obviamente de una manera bastante enfermiza. Creo que esto es algo así como la parte problemática. ¿Cómo te das cuenta, como plataforma? ¿Es consciente de que está sucediendo algo que no debería continuar? Y, porque obviamente no debería depender de ciertos usuarios activos y conscientes para resolver estas cosas, pero afortunadamente, las hay.

La pregunta es: "¿Cómo funcionan los algoritmos en ese contexto y permiten eso?" Mi percepción es que existe una diferencia entre los usuarios que comentaron y las personas que subieron videos. Creo que podría ser más fácil desconectarlo; pero creo que la mejor opción sería invertir mucho en humanos para moderar el contenido sospechoso y ser muy consciente de tratar de averiguar qué constituye sospechoso con respecto a los algoritmos.

¿Existe alguna versión de YouTube, en tu mente, que no tenga que ejecutarse con estos algoritmos que podrían vincular comunidades potencialmente peligrosas entre sí? ¿O es intrínseco a la propia plataforma?

No creo que sea intrínseco a la plataforma. Creo que es intrínseco al modelo de negocio. Muy bien, podría pensar en una comunidad de videos que tal vez sea similar a Reddit, por ejemplo, que se centre en cierto contenido o ciertos temas, y donde pueda publicar videos en ese sentido.

Ese es el problema. Si YouTube abandona el algoritmo que mantiene a las personas en la plataforma, entonces eso es un problema de ganancias. YouTube quiere seguir ganando dinero.

Creo que eso es justo. Muchas de las discusiones que estamos teniendo actualmente sobre cómo funcionan las plataformas y por qué, por ejemplo, algunos contenidos se tratan de manera más favorable que otros y Por qué, la desinformación o las teorías de la conspiración pueden prosperar, tiene que ver con el modelo de negocio y la idea de que todo con clics se recompensa. Hay ideas para tener plataformas que no se basan en eso. Pero esos no generarían tanto dinero.

Cobra Kai: Resulta que Karate Kid y yo éramos matones

Cobra Kai: Resulta que Karate Kid y yo éramos matonesIntimidaciónYou TubeCobra KaiNiño Del Karate

Los creadores de Nostálgico de YouTube Niño del karate riff Cobra Kai, sepa que todo el mundo cree que es el héroe de su historia. Pero si todos fueran héroes, no habría villanos. Y todos sabemos h...

Lee mas
7 videos de YouTube que mi niño pequeño podría ver en un bucle sin fin

7 videos de YouTube que mi niño pequeño podría ver en un bucle sin finYou TubeLos BeatlesMoanaVideosElmo

Se estima que se necesitarían 60.000 años para ver todos los vídeos de YouTube. Si eres un padre trabajador ocupado con un niño pequeño, eso son aproximadamente 59,999 años de tiempo que no tienes ...

Lee mas
El Storybooth de Youtube permite a los niños hablar sobre sus experiencias más desafiantes

El Storybooth de Youtube permite a los niños hablar sobre sus experiencias más desafiantesIntimidaciónStoryboothYou TubeNiño GrandeLgbt

Ser niño es raro. Estás navegando por todo por primera vez: amistades, peleas, raras rachas de crecimiento. Y aunque es emocionante, también puede ser increíblemente difícil, especialmente cuando s...

Lee mas