Les dirigeants de YouTube étaient au courant du contenu toxique destiné aux enfants et du contenu abusif sur la plate-forme et n'ont rien fait pour y remédier. Selon un reportage publié par Bloomberg mardi, les dirigeants de YouTube comprenaient parfaitement le contenu toxique, inexact et abusif sur la plateforme mais n'a pris aucune mesure. S'exprimant de manière anonyme, d'anciens employés de YouTube ont déclaré Bloomberg cette les discussions internes à la société de streaming étaient loin du message extérieur que YouTube projetait au public.
Bien que YouTube se présente comme une sorte de « bibliothèque » (leur La PDG Susan Wojcicki l'a dit à South by Southwest à Austin), le rapport montre que des difficultés internes pour surveiller, monétiser et hiérarchiser les algorithmes étaient en cours. Le rapport affirme que lorsqu'un employé a suggéré de signaler des vidéos troublantes (mais pas illégales), ils se sont heurtés à l'inaction. par les dirigeants de YouTube, qui, apparemment, préféraient se concentrer sur l'engagement et le profit, plutôt que sur la nature troublante de certains des teneur.
Un ancien employé, Michée Schaffer, a quitté l'entreprise avant 2010. Juste au moment où il a quitté l'entreprise, YouTube avait remarqué une communauté de vidéos pro-anorexie, mais à ce moment-là, le personnel a commencé à supprimer les vidéos de la plate-forme, à les supprimer de l'onglet recommandations et à imposer des restrictions d'âge sur le vidéos. Cela semble bien loin de la réponse aux problèmes d'aujourd'hui, et, en 2012, un nouveau message de Google, YouTube's propriétaire, a émergé: plus de personnes doivent être sur le site plus longtemps pour que YouTube puisse diffuser plus d'annonces et en faire plus de l'argent. Ils avaient un objectif: obtenir un milliard d'heures de séquences sur le site.
Après les élections de 2016, au lieu de se concentrer sur les fausses nouvelles qui avaient peuplé la plate-forme, les dirigeants de YouTube se sont concentrés sur un nouveau algorithme: rémunérer les créateurs pour le nombre de personnes qui ont regardé leurs vidéos et pour combien de temps elles les ont regardées, même si aucune publicité n'était diffusée les vidéos. Cela signifiait que les éditeurs de vidéos qui partageaient des théories du complot marginales ou une idéologie raciste et qui ne sont pas promus par des marques comme AT&T, gagneraient toujours de l'argent, sans incitation à être précis dans leur rapporter. Le plan a finalement été rejeté.
En 2017, le Elsagate scandale a éclaté. Même sur la version adaptée aux enfants de YouTube, les créateurs de contenu avaient créé des vidéos de dessins animés non officiels qui montraient des images troublantes d'Elsa enceinte ou de Peppa Pig décapitée. Dans le même temps, les chaînes YouTube « familiales » comme Les monstres de jouets, une chaîne familiale, ont été supprimées à la suite d'allégations de maltraitance d'enfants et parce que le contenu lui-même était également dérangeant. Des publicités ont été diffusées contre certaines de ces vidéos.
Dans un double scandale, détails d'un réseau de commentaires pédophiles — un réseau dans lequel des pédophiles commentent des vidéos mises en ligne par des enfants pour des enfants marquant l'heure des moments où ils se trouvaient dans des positions physiquement compromettantes - ont commencé à émerger. Ces vidéos ont suscité un fort engagement et ont conduit les utilisateurs vers un algorithme basé sur ce que les autres les aiment regardaient et commentaient, entraînant ainsi des YouTubers par ailleurs normaux sur un chemin infâme de vidéos de enfants sucer des sucettes, exhibant leur routine nocturne ou modelant des sous-vêtements. YouTube a promis de résoudre le problème, dans lequel bon nombre de ces vidéos d'enfants ont été monétisées en raison de leur engagement élevé.
Les problèmes ont persisté: des vidéos ont émergé et sont devenues virales appeler les survivants de Parkland de faux acteurs rémunérés, et en interne, en réaction à ce scandale, des sources ont allégué que les dirigeants de YouTube avaient rejeté l'idée de limiter les informations recommandées aux sources de confiance. Ils ont dit à leurs employés de ne pas essayer de rechercher des mensonges viraux sur la plateforme, car YouTube pourrait alors être tenu responsable de connaître le contenu du site et de ne pas en faire assez pour gérer le problème.
Un employé anonyme a dit Bloomberg que Wojcicki « ne mettrait jamais les doigts sur la balance. Son point de vue était: "Mon travail consiste à diriger l'entreprise, pas à gérer cela", suggérant que faire des bénéfices était plus important que de s'assurer que les utilisateurs de la plate-forme étaient en sécurité et correctement informés.
Nous savons depuis longtemps que YouTube, comme la plupart des sites de médias sociaux, valorise le temps dépensé et engagé sur le site Web, plutôt que de créer réellement un message significatif ou, bien, véridique communauté. En 2019, le problème pédophile s'est à nouveau posé, malgré l'embauche de 10 000 modérateurs de contenu humain en 2018. Mais tandis que YouTube a fait chaque spectacle, extérieurement, d'être proactif dans la suppression des fausses nouvelles et la correction leur algorithme pour assurer la sécurité des enfants, ils ont traîné les pieds en interne, valorisant le profit plutôt que leur communauté.