Über das Wochenende, Youtube Aktivist Matt Watson hat die Titelseite von Reddit mit einem Video über a störend Phänomen entdeckte er auf der Video-Hosting-Plattform von Google, der zweitgrößten Suchmaschine der Welt. Watson demonstrierte, wie er sich durch normale, passende YouTube-Inhalte zu anzüglichen Videos junger Mädchen klicken konnte. Obwohl viele dieser Videos, in denen Teenager in Bikinis und Vampiren in ihren Schlafzimmern zu sehen sind, nicht explizit sexuell waren, wurde der Großteil von Nutzern mit scheinbar. kommentiert pädophil Absicht. Einige Kommentare enthielten Zeitstempel für bestimmte Momente, in denen sich die jungen Mädchen in kompromittierenden Positionen befanden. Einige Kommentare enthalten Links zu privaten, nicht gelisteten Videos. Diese YouTube-Clips wurden über Anzeigen für Unternehmen wie Grammarly und Google selbst monetarisiert.
Kurz danach Watsons Video, die ihn zeigte, wie er Entsetzen über das Phänomen ausdrückte, kletterte die Reddit-Rangliste, Medienorganisationen und Werbetreibende antworteten.
Das war etwas, aber wie Forbes, Mashable, Business Insider, und Die New York Times Alle wiesen darauf hin, dass es keine Lösung für ein offensichtliches algorithmisches, menschliches oder maschinelles Lernproblem war.
Interessanterweise hatten viele von Watson angesehene Videos deaktivierte Kommentare, was darauf hindeutet, dass YouTube-Content-Manager haben die Reihe von Kommentaren bemerkt und versucht, es Pädophilen zu erschweren, an ihren Seite? ˅. Aber alle diese Bemühungen bestätigten sich im Bewusstsein des ungelösten Problems.
Tatsächlich ist klar, dass das Problem mindestens bis 2017 zurückreicht. Im selben Monat, in dem die „Elsagate“ explodierte die Kontroverse, die Leute hatten begonnen, Alarm zu schlagen wegen seltsamer, implizit sexueller Kommentare zu Videos von kleinen Kindern, die für Kinder gemacht wurden. Große Werbetreibende wie AT&T stoppte die Ausgaben für Anzeigen auf der Website, als die BBC berichtete, dass unangemessene Kommentare zu monetarisierten Videos von Kindern oft Zeitstempel für. enthielten Sekundenlange Momente mit suggestiven Positionen und Links zu nicht gelisteten Videos – und Werbetreibende nahmen ihre Ausgaben nicht wieder auf, bis das Problem „behoben“ war. Auf 21. Februar, AT&T, die erst im Januar wieder mit Werbung auf der Plattform begonnen hatte, sagte, sie würden die Ausgaben für Anzeigen auf der Plattform einstellen. Hasbro, Nestle und Disney sind alle nachgezogen.
Elsagate ist nicht dasselbe wie ein Pädophiliering, aber die Probleme hängen zusammen. Content-Farmen nutzten Keywords und platzierten automatisch Anzeigen basierend auf Kanalinteraktionen und schäbige KI-Filterung und erstellte Cartoons, in denen nicht lizenzierte Charaktere beliebter Kinder verwendet wurden Franchise. Viele von diesen „Inhaltsfarmen“ – das heißt, Unternehmen, die diese Videos erstellt haben – haben ihren Hauptsitz in Orten wie Ho-Chi-Minh-Stadt, Vietnam. Sie waren weder pädagogisch noch kinderfreundlich, sondern verbreiteten sich auf YouTube-Kindern als monetarisierte Videos.
Youtube haben ihre Monetarisierungsrichtlinien geändert nach den Doppelskandalen 2017. Heute müssen Videokünstler mindestens 1.000 Abonnenten haben und ihre Videos 4.000 Stunden lang angesehen haben. Diese Vorschriften wurden erst nach Elsagate eingeführt und jetzt behauptet das Unternehmen, dass alle Videos, die monetarisiert werden, von echten Menschen überprüft werden, nicht KI, um zu verhindern, dass unangemessene Werbung geschaltet wird (z Ansichten).
Deshalb so viele Videos von Kindern Kommentare unter den Videos deaktiviert haben. Die 10.000 menschlichen Rezensenten von YouTube, die damit beauftragt sind, die 400 Stunden an Filmmaterial zu überprüfen, das jede Minute auf YouTube hochgeladen wird, sind auch für die Suche zuständig über die Interaktion mit diesen Videos und das Deaktivieren unangemessener Kommentare, Links zu nicht gelisteten Videos oder Zeitstempeln der Kinder in suggestiven Positionen.
Ich habe ein neues YouTube-Konto erstellt, nachdem ich festgestellt hatte, dass meine Algorithmen so fest verankert waren, dass es schwierig war, unangemessene Inhalte zu finden, und suchte das gleiche, wonach Watson gesucht hat – „Bikini-Haul“. Innerhalb von 12 Klicks war ich in einem seltsamen Kaninchenbau voller Kinder-Wrestling-Videos und Mädchen-Nachtzeit Routinen. Ich bin über ein über 30-minütiges Video gestolpert und habe folgendes gefunden:
Um 21:25 Uhr entfernte sich das Mädchen im Video von der Kamera und für einen Sekundenbruchteil war ihr Schritt zu sehen.
Ich bin auch auf eine Reihe von Model-Videos von jungen Mädchen gestoßen, die deutlich unter 18 Jahre alt sind. Kommentatoren bemerkten, wie schön die Models waren und wie toll sie in ihrer Unterwäsche aussahen, obwohl es sich um Kinder handelte. Ich werde die Videos nicht teilen, weil sie unangemessen sind; Tatsache ist jedoch, dass diese Kommentare nicht nur ausführlich überwacht werden sollten, sondern möglicherweise überhaupt nicht auf der Website erscheinen sollten. Es wurden keine Maßnahmen gegen diese Kommentare oder das Video selbst ergriffen, in dem Minderjährige Unterwäsche modellieren.
Und ein anderes Mädchen hat ein Video von ihrer nächtlichen Routine nach dem Duschen gepostet. Das Mädchen, dessen YouTube-Seite heißt „Makenzies Fortnite-Erfahrung“ und die nicht älter als 13 Jahre zu sein scheint, bewegt im Video versehentlich ihr Handtuch so, dass die Seite ihres nackten Oberkörpers bei der 2:47-Minuten-Marke zu sehen ist.
Dieses Video hätte natürlich nie hochgeladen werden dürfen. Das Mädchen darin ist eindeutig vorpubertär und trägt ein Handtuch, um ihre nächtliche Routine zu erklären. Dieses Video hat etwa 51.000 Aufrufe. Der Rest ihrer Videos hat zwischen acht und 150 Aufrufe. Also, warum passiert das? Weiß sie, warum 51.000 Menschen dieses Video angesehen haben und keines ihrer Fortnite-Videos oder lustigen Bastelvideos? Versteht sie, dass es Leute gibt, die sich das nicht ansehen, weil sie sich nicht wirklich für ihre nächtliche Routine interessieren, aber ein kleines Mädchen im Handtuch sehen wollen? Vielleicht. Vielleicht nicht. Sie ist ein Kind. Jemand sollte ihre Internetnutzung genauer überwachen, aber das ist auch schwer. Und das ist wo YouTube sollte reinkommen, hat aber nicht. Dies sind unangemessene Inhalte, auch wenn sie aufgrund der Art und Weise, wie sie wahrscheinlich konsumiert werden, nicht offen sexuell sind. Dies ist kein erregendes Zeug, es sei denn, Sie sind die Art von Person, die es speziell erregend findet.
Obwohl diese Videos nicht für Anzeigen monetarisiert wurden, wurden sie eindeutig auch nicht von Menschen oder KI überwacht – zumindest nicht effektiv. Einige der Videos sollten gar nicht auf YouTube sein, aber Millionen Aufrufe haben. Wenn die Moderation von Kommentaren und Inhalten so ineffektiv ist, wie es den Anschein hat, werden Kinder auf der Plattform weiterhin Gegenstand sexuellen Interesses sein, die weiterhin ein Werkzeug für Raubtiere sein wird.
Da YouTube zu einem Ort wird, an dem immer mehr Kinder Videos konsumieren, und zu einem Ort, an dem sie ihre Kreationen präsentieren, sind die Verantwortlichen für die Plattform muss entscheiden, ob eine Moderation im Interesse der plausiblen Abstreitbarkeit oder im Interesse des Schutzes erfolgen soll Kinder. Wenn das Unternehmen zu letzterem Schluss kommt – und hoffen wir, dass es so ist – müssen sie sowohl ihre Personalausstattung als auch ihre Software überdenken. Tun sie das nicht, sollten sie sich noch einmal überlegen, welche Rolle sie im Internet spielen wollen.