YouTube a annoncé lundi qu'il n'autoriserait plus les "jeunes mineurs" sur YouTube à direct au la plateforme sans pour autant surveillance parentale. Cette décision fait suite à une New York Times rapport publié plus tôt dans la journée qui montrait que L'algorithme de YouTube recommande des vidéos d'enfants portant des vêtements suggestifs aux utilisateurs qui ont déjà regardé du contenu à caractère sexuel.
La politique semble faire suite à un plan de février de YouTube visant à ne plus autoriser les utilisateurs à laisser des commentaires sous des vidéos mettant en scène des enfants, après qu'un rapport a révélé que pédophiles sur YouTube laissaient des commentaires avec des horodatages des vidéos qui montraient des enfants dans des positions suggestives ou lorsque leur peau était exposée. Autres commentaires liés à des vidéos YouTube inexplorables de contenu pédophile ou liés à des groupes WhatsApp. Beaucoup de ces vidéos, bien qu'innocentes au moment de leur publication, ont été exploitées à des fins d'acquisition d'adultes. Ils étaient également souvent monétisés et, par conséquent, les annonceurs ont quitté la plateforme. YouTube a modifié ses normes pour les vidéos monétisées afin de garantir que les YouTubers aient un certain nombre d'abonnés avant d'être payés pour leur contenu.
YouTube a eu des problèmes avec la sécurité des enfants pendant des années: en 2017, « Elsagate », un scandale dans lequel les créateurs de YouTube ont réalisé des vidéos en s'appuyant sur des personnages de divertissement familial (Elsa, Peppa Pig, Caillou), a fait son apparition. Ces personnages engagés dans comportement dérangeant, violent et sexuel, mais ils sont restés sur YouTube et YouTube Kids pendant un certain temps avant que le problème ne passe au premier plan. De nombreuses vidéos ont également été monétisées.
Un rapport accablant publié en avril a révélé que les dirigeants de YouTube accordaient la priorité à l'obtention d'un milliard d'heures de séquences sur le site afin de garder les gens sur la plate-forme plus longtemps et ainsi de gagner plus d'argent sur YouTube. Cela signifiait que le contenu incendiaire ou même dangereux était autorisé sur la plate-forme au nom d'un engagement croissant et, par conséquent, des dollars publicitaires.
Dans le annonce, YouTube a noté qu'il avait supprimé près d'un million de vidéos en violation de leurs politiques de sécurité des enfants et que la plupart d'entre elles avaient été supprimées avant d'avoir eu plus de 10 vues. Cette nouvelle réglementation sur YouTube Live serait appliquée par des mesures d'intelligence artificielle renforcées.