En février, YouTubeur Matt Watson a posté une vidéo exposant la facilité avec laquelle il a pu entrer dans un trou de lapin et trouver des communautés de commentaires de pédophiles exploitant des vidéos par ailleurs normales de enfants. Parfois, ces mêmes commentateurs ont publié des liens vers des vidéos non répertoriées ou ont publié des informations de contact WhatsApp pour ce qui était, vraisemblablement, des messages de groupe adaptés aux pédophiles, mais affichaient souvent des horodatages d'enfants occupant des positions compromettantes dans ledit vidéos.
Les découvertes de Watson ont encore une fois enflammé la conversation autour de la modération et de la responsabilité de YouTube. La plupart des vidéos qu'il a trouvées ont été monétisées par programmation avec des publicités, ce qui signifie que YouTube gagnait de l'argent grâce au contenu. qui, bien que cela n'ait peut-être pas été dérangeant en soi, était exploité en clics et points de vue par ceux qui avaient des arrière-pensées motifs. Les vidéos elles-mêmes n'étaient pas le problème, pour la plupart. Beaucoup étaient des enfants faisant des trucs d'enfants normaux: lutter avec leurs frères et sœurs, exhibant leur jouet collections, mais les commentaires et la manière dont ils étaient liés les uns aux autres étaient suspects et, en fin de compte, inquiétant.
Le scandale, survenant juste un an après que YouTube a reconnu pour la première fois ces anneaux de commentaires et après YouTube pour enfants Le scandale #ElsaGate, dans lequel des personnes ont trouvé des vidéos dérangeantes sur une plate-forme conçue pour les enfants et leur sécurité, a entraîné YouTube dans un débat où beaucoup ont demandé: YouTube a-t-il changé quelque chose? Et si oui, pourquoi le problème proliférait-il? Cela pourrait-il être corrigé?
YouTube a répondu en désactivant les commentaires sur des millions de vidéos ciblées par des prédateurs et en soulignant qu'ils disposaient d'une équipe de 10 000 employés. commentaires humains et modérateurs de contenu et un système d'apprentissage automatique dont le travail consiste à passer au crible les vidéos et à signaler tout ce qui est offensant. Mais est-ce suffisant? Y a-t-il un moyen pour YouTube de se racheter auprès des parents inquiets? Ou l'algorithme de l'entreprise est-il allé trop loin?
Pour déterminer ce qui peut être fait, le cas échéant, pour réparer la plate-forme, Paternelparlé à Jonas Keiser, affilié au Berkman Klein Center for Internet & Society, chercheur associé à l'Alexander von Humboldt Institute for Internet & Society et chercheur DFG. Keizer est un expert des algorithmes YouTube et de la prolifération des communautés nuisibles. Nous lui avons parlé de l'algorithme de YouTube, de la façon dont ces problèmes sont créés et de ce que YouTube peut faire pour faire mieux.
Votre recherche se concentre sur les campagnes de trolls d'extrême droite sur Youtube et sur la façon dont ces communautés se propagent. Existe-t-il des similitudes entre ces communautés et ces nouvelles communautés pédophiles partageant des liens dans les sections de commentaires ?
Je ne ferais pas cette comparaison. Avec l'extrême droite, nous avons plus de tentatives très visibles et évidentes pour former une communauté et se connecter avec d'autres canaux. Ils suivent leurs propres tendances sur les sujets qu'ils jugent importants et cela ne se produit pas sur une chaîne mais sur plusieurs. Cela est fait très délibérément par leurs propres actions. Les têtes parlantes d'extrême droite se rendent mutuellement dans les émissions et se donnent une légitimité importante.
Dans le même temps, par leur activité et l'activité des utilisateurs, ils affectent également l'algorithme de YouTube d'une manière qui, sur YouTube, les vidéos politiques et les chaînes politiques, quelle que soit l'idéologie que vous regardez, conduiront souvent à l'extrême droite canaux.
Ainsi, les communautés pédophiles semblent être bien plus que les chaînes et les vidéos n'étaient pas forcément la communauté là, mais plutôt les commentaires en ligne, qui, d'après ce que j'ai lu, ont créé cet étrange, invisible, très dérangeant phénomène.
Pour ceux qui ne le savent pas, comment fonctionne l'algorithme de YouTube ?
YouTube algorithme tourne autour de l'idée qu'il gardera les utilisateurs engagés. Dans ce contexte, cela signifie évidemment regarder les vidéos, ou commenter, ou aimer, ou partager. Rester sur la plateforme est l'objectif le plus important. Pour rester sur la plate-forme, vous obtiendrez des recommandations sur votre page d'accueil, sur les pages vidéo et sur les chaînes elles-mêmes. Ceux-ci sont tous construits autour de l'idée que les utilisateurs doivent rester sur la plate-forme. La question est, bien sûr, comment YouTube crée-t-il un algorithme qui fait cela ?
Il existe de nombreux points de données différents qui entrent dans cet algorithme. Par exemple: quelle est la tendance actuellement sur la plateforme? Qu'ont regardé d'autres personnes partageant les mêmes intérêts? Sur quelles vidéos sont-elles le plus cliquées? Où les personnes similaires se chevauchent-elles dans les commentaires des utilisateurs? Ce genre de choses. L'idée principale est que l'algorithme apprenne ce qui attire et maintient les utilisateurs sur la plate-forme.
En termes de modération de contenu et de commentaires sur YouTube, comment cette modération est-elle mise en place? Pensez-vous que c'est une réponse suffisante aux menaces sur Internet ?
Seulement dans une certaine mesure. Le problème avec la modération dans la façon dont la plupart des grandes plateformes de médias sociaux le font, c'est qu'elle repose sur des personnes qui signalent du contenu. Donc, fondamentalement, si personne ne le signale et que ce n'est pas clairement contraire aux règles identifiables grâce à l'apprentissage automatique - comme des gros mots, ou quelque chose comme ça qui pourrait être filtré par un algorithme - d'autres commentaires sont évidemment beaucoup plus difficiles à identifier donc un l'homme a besoin de le regarder. Mais si personne ne signale le contenu, YouTube ne sait pas qu'il existe, simplement parce qu'il y a tellement de contenu sur la plate-forme. Il souligne l'importance des utilisateurs. C'est un débat, que ce soit une bonne ou une mauvaise chose, que les utilisateurs soient mis dans la position qu'ils doivent mettre en œuvre pour mettre en évidence sur YouTube ce qui les offense.
Au niveau de la vidéo, d'autres formes [de modération ont été] mises en œuvre maintenant, il y a donc un déclassement du contenu qui pourrait inclure les meilleures nouvelles. Si vous recherchez des articles d'actualité, vous obtiendrez d'abord ce que YouTube considère comme des sources plus fiables. Ils ont expérimenté les boîtes d'informations autour de certaines vidéos de complot. Ce sont toutes, d'une manière ou d'une autre, des formes de modération de contenu.
La façon dont YouTube s'appuie sur de bons samaritains pour signaler des choses qui pourraient être problématiques ou offensantes ressemble à la façon dont que Reddit est également largement contrôlé par les modérateurs de la communauté, bien que Reddit ne semble pas avoir ce problème en même temps escalader.
La comparaison a du sens, mais c'est très différent. Chaque subreddit est une communauté qui dit essentiellement quelle forme de contenu est autorisée. Dans le contexte du SubReddit scientifique, par exemple, vous pouvez voir quand les modérateurs s'assurent que les règles sont respectées, tandis que d'autres subreddits sont très laissez-faire. Le nombre de publications sur les subreddits ne peut pas être comparé au nombre de vidéos téléchargées à une heure donnée sur YouTube. Certains de ces forums s'intéressent à l'autocontrôle. Le travail est essentiellement sous-traité aux utilisateurs et l'hypothèse est que tant qu'il y a des gens suffisamment motivés pour faire ce travail, tout va bien, mais ce n'est pas le cas sur YouTube. Ces forums n'existent pas de la même manière.
En ce qui concerne ces récents commentateurs et les récents scandales YouTube Kids tels que #ElsaGate, où des trolls cousaient de terribles vidéos dans du contenu pour enfants. Existe-t-il un moyen d'attirer l'attention sur eux qui ne repose pas simplement sur la bonne volonté de l'utilisateur moyen de YouTube ?
YouTube a lentement, très lentement, pris la bonne direction. Ils ne sont pas là, mais ils comprennent que les gens rechercheront des actualités sur YouTube. Il est donc logique, à mon avis, de sélectionner les chaînes qui apparaîtront.
Dans mon propre travail, il est sidérant pour moi que YouTube traite essentiellement le contenu politique de la même manière que la musique pop. Ces dernières semaines, ils ont lentement compris qu'il y avait une différence.
Par exemple, avec le mouvement anti-vaccination, ils ont dit qu'ils n'autoriseraient plus nécessairement certaines vidéos. Je pense que c'est important. Dans un contexte politique, l'idée de « juste regarder les gens » n'est pas ce que vous voulez. C'est ce que vous voulez pour la musique, pour les jeux ou d'autres formes de divertissement, mais quand il s'agit d'informations.
Je pense que pour les recommandations de vidéos et de chaînes, où cette logique continue, qui vise à avoir des gens sur la plateforme, quelle que soit la motivation, est problématique.
Alors, quelles solutions, le cas échéant, proposez-vous pour faire face aux récents scandales de commentaires de YouTube?
D'après ce que j'ai lu, la communauté existait principalement à travers les commentaires, ce qui a ensuite eu ce grand effet sur les recommandations YouTube, donc ces vidéos étaient liées, évidemment d'une manière plutôt malade. Je pense que c'est un peu comme la partie problématique. Comment, en tant que plateforme, en êtes-vous conscient? Savez-vous qu'il se passe quelque chose qui ne devrait pas se passer? Et, parce qu'évidemment, il ne devrait pas incomber à certains utilisateurs actifs et conscients de comprendre ces choses, mais heureusement, il y en a.
La question est: « Comment les algorithmes fonctionnent-ils dans ce contexte et permettent-ils cela? » Ma perception est qu'il y a une différence entre les utilisateurs qui ont commenté et les personnes qui ont téléchargé des vidéos. Je pense que cela pourrait être plus facile à déconnecter; mais je pense que la meilleure option serait d'investir massivement dans les humains pour modérer le contenu suspect, et d'être juste très conscient d'essayer de comprendre ce constitue comme suspect en ce qui concerne les algorithmes.
Existe-t-il, dans votre esprit, une version de YouTube qui n'a pas besoin de fonctionner sur ces algorithmes qui pourraient relier des communautés potentiellement dangereuses les unes aux autres? Ou est-ce intrinsèque à la plateforme elle-même ?
Je ne pense pas que ce soit intrinsèque à la plateforme. Je pense que c'est intrinsèque au modèle économique. Vous pourriez très bien penser à une communauté vidéo qui est peut-être similaire à Reddit, par exemple, qui se concentre sur certains contenus ou certains sujets, et où vous pouvez publier des vidéos à cet égard.
C'est le problème. Si YouTube abandonne l'algorithme qui maintient les gens sur la plate-forme, alors c'est un problème de profit. YouTube veut continuer à gagner de l'argent.
Je pense que c'est juste. De nombreuses discussions que nous avons actuellement sur le fonctionnement des plateformes et pourquoi, par exemple, certains contenus sont traités plus favorablement que d'autres et pourquoi, la désinformation ou les théories du complot sont capables de prospérer, cela a à voir avec le modèle commercial et l'idée que tout ce qui a des clics est récompensé. Il y a des idées pour avoir des plateformes qui ne sont pas construites autour de ça. Mais ceux-ci ne rapporteraient pas autant d'argent.