Pendant le weekend, Youtube le militant Matt Watson a fait la une de Reddit avec une vidéo sur un inquiétant phénomène qu'il a découvert sur la plate-forme d'hébergement vidéo de Google, le deuxième moteur de recherche au monde. Watson a montré comment il pouvait cliquer sur un contenu YouTube normal et approprié vers des vidéos suggestives de jeunes filles. Bien que bon nombre de ces vidéos, qui mettent en scène des préadolescents portant des bikinis et des vampeurs dans leurs chambres, ne soient pas explicitement sexuelles, la plupart ont été commentées par des utilisateurs avec apparemment pédophile intention. Certains commentaires comportaient des horodatages pour des moments spécifiques où les jeunes filles étaient dans des positions compromettantes. Certains commentaires contiennent des liens vers des vidéos privées non répertoriées. Ces clips YouTube ont été monétisés via des publicités pour des entreprises comme Grammarly et Google lui-même.
Peu après La vidéo de Watson, qui l'a montré exprimant son horreur devant le phénomène,
C'était quelque chose, mais comme Forbes, Mashable, Business Insider, et Le New York Times tous ont souligné que ce n'était pas une solution à un problème apparent d'apprentissage algorithmique, humain ou machine.
Fait intéressant, de nombreuses vidéos visionnées par Watson avaient des commentaires désactivés, ce qui suggère que les gestionnaires de contenu YouTube ont remarqué la série de commentaires et ont essayé de rendre plus difficile pour les pédophiles d'opérer sur leur placer. Mais tous ces efforts confirmés étaient une prise de conscience du problème non résolu.
En fait, il est clair que le problème remonte au moins à 2017. Le même mois que le «Elsagate« La controverse a explosé, les gens avaient commencé à tirer la sonnette d'alarme à propos de commentaires étranges et implicitement sexuels sur des vidéos de petits enfants, faites pour les enfants. Les grands annonceurs comme AT&T cessé de dépenser pour des publicités sur le site lorsque la BBC a signalé que les commentaires inappropriés sur les vidéos monétisées d'enfants incluaient souvent des horodatages pour de longs moments de positions suggestives et de liens vers des vidéos non répertoriées – et les annonceurs n'ont pas repris leurs dépenses tant que le problème n'a pas été «résolu». Au 21 février AT&T, qui venait de recommencer à faire de la publicité sur la plate-forme en janvier, a déclaré qu'il cesserait de dépenser en publicités sur la plate-forme. Hasbro, Nestlé et Disney ont tous emboîté le pas.
Elsagate n'est pas la même chose qu'un réseau de pédophilie, mais les problèmes sont liés. Les fermes de contenu ont tiré parti des mots clés et ont automatiquement placé des annonces en fonction de l'engagement du canal et un filtrage AI de mauvaise qualité, et créé des dessins animés qui utilisaient des personnages sans licence d'enfants populaires franchisés. Beaucoup de ces « fermes de contenu » — c'est-à-dire les entreprises qui ont créé ces vidéos — ont leur siège social dans des endroits comme Ho Chi Minh-Ville, Viêt Nam. Elles n'étaient ni éducatives ni adaptées aux enfants, mais proliféraient sur YouTube pour les enfants sous forme de vidéos monétisées.
Youtube changé leurs directives de monétisation après les deux scandales de 2017. Aujourd'hui, les créateurs de vidéos doivent avoir au moins 1 000 abonnés et avoir vu leurs vidéos pendant 4 000 heures. Ces réglementations n'ont été mises en place qu'après Elsagate et maintenant la société affirme que toutes les vidéos monétisées seront examinées par des êtres humains réels, et non AI, afin de limiter la diffusion de publicités inappropriées (pensez: une annonce Google pré-rollant une vidéo d'une adolescente mangeant une sucette qui a eu plus d'un million vues).
C'est pourquoi tant de vidéos d'enfants avoir les commentaires désactivés sous les vidéos. Les 10 000 examinateurs humains de YouTube, chargés d'examiner les 400 heures de séquences téléchargées sur YouTube chaque minute, sont également chargés de rechercher sur l'engagement avec lesdites vidéos et la désactivation des commentaires inappropriés, des liens vers des vidéos non répertoriées ou des horodatages des enfants de manière suggestive postes.
J'ai créé un nouveau compte YouTube après avoir découvert que mes algorithmes étaient tellement ancrés qu'il était difficile de trouver du contenu inapproprié, et j'ai effectué des recherches la même chose que Watson a recherchée - "bikini haul". En moins de 12 clics, j'étais dans un terrier de lapin étrange de vidéos de catch et de nuit de filles routines. Je suis tombé sur une vidéo de plus de 30 minutes et j'ai trouvé ceci :
À 21h25, la fille de la vidéo s'est éloignée de la caméra et, pendant un éclair d'une seconde, son entrejambe était en vue.
Je suis également tombé sur une multitude de vidéos de mannequins de jeunes filles clairement de moins de 18 ans. Les commentateurs ont noté à quel point les modèles étaient beaux et à quel point ils étaient beaux dans leurs sous-vêtements, malgré le fait qu'il s'agisse d'enfants. Je ne partagerai pas les vidéos car elles sont inappropriées; mais le fait est que non seulement ces commentaires devraient être surveillés en détail, mais ils ne devraient peut-être pas du tout figurer sur le site Web. Aucune mesure n'a été prise contre ces commentaires ou la vidéo elle-même de mineurs modelant des sous-vêtements.
Et une autre fille a posté une vidéo de sa routine nocturne, après la douche. La fille, dont la page YouTube s'appelle "L'expérience Fortnite de Makenzie” et qui ne semble pas avoir plus de 13 ans, déplace accidentellement sa serviette d'une manière dans la vidéo que le côté de son torse nu montre à la marque de 2:47 minutes.
Évidemment, cette vidéo n'aurait jamais dû être téléchargée. La fille à l'intérieur est clairement prépubère et porte une serviette, expliquant sa routine nocturne. Cette vidéo compte environ 51 000 vues. Le reste de ses vidéos ont entre huit et 150 vues. Pourquoi cela se produit-il donc? Sait-elle pourquoi 51 000 personnes ont visionné cette vidéo et aucune de ses vidéos Fortnite ou de ses vidéos de bricolage amusantes? Comprend-elle qu'il y a des gens qui ne regardent pas ça parce qu'ils ne se soucient pas vraiment de sa routine nocturne mais veulent voir une petite fille dans une serviette? Peut-être. Peut être pas. C'est une gamine. Quelqu'un devrait surveiller de plus près son utilisation d'Internet, mais c'est aussi difficile. Et c'est là que YouTube devrait entrer, mais ne l'a pas fait. Il s'agit d'un contenu inapproprié même s'il n'est pas ouvertement sexuel en raison de la manière dont il est susceptible d'être consommé. Ce n'est pas quelque chose d'excitant, à moins que vous ne soyez le genre de personne qui le trouve particulièrement émoustillant.
Bien que ces vidéos n'aient pas été monétisées pour des publicités, elles n'étaient clairement pas non plus surveillées par des êtres humains ou par l'IA - du moins pas efficacement. Certaines vidéos ne devraient pas du tout être sur YouTube, mais avoir des millions de vues. Si la modération des commentaires et du contenu est aussi inefficace qu'il y paraît, les enfants continueront d'être l'objet d'intérêt sexuel sur la plateforme, qui continuera d'être un outil pour les prédateurs.
Alors que YouTube devient un lieu où de plus en plus d'enfants consomment de la vidéo ainsi qu'un lieu où ils présentent leurs créations, les responsables de la la plate-forme doit décider si la modération doit être poursuivie dans l'intérêt d'un déni plausible ou dans l'intérêt de la protection enfants. Si l'entreprise parvient à cette dernière conclusion - et espérons-le - elle devra reconsidérer à la fois ses effectifs et ses logiciels. S'ils ne le font pas, ils devraient reconsidérer le rôle qu'ils veulent jouer sur Internet.