Im Februar, YouTuber Matt Watson hat ein Video gepostet, das die Leichtigkeit zeigt, mit der er ein algorithmisch erzeugtes. eingeben konnte Kaninchenbau und finden Sie kommentierende Gemeinschaften von Pädophilen, die ansonsten normale Videos von ausnutzen Kinder. Manchmal posteten dieselben Kommentatoren Links zu nicht gelisteten Videos oder posteten WhatsApp-Kontaktinformationen für das, was vermutlich pädophilenfreundliche Gruppennachrichten, aber oft gepostet Zeitstempel von Kindern in kompromittierenden Positionen in besagtem Videos.
Watsons Ergebnisse entzündeten erneut die Diskussion über die Moderation und Rechenschaftspflicht von YouTube. Viele der von ihm gefundenen Videos wurden programmatisch mit Anzeigen monetarisiert, was bedeutet, dass YouTube mit den Inhalten Geld verdiente das, obwohl es vielleicht nicht selbst störend war, in Klicks und Ansichten von denen ausgenutzt wurde, die hinterher Motive. Die Videos selbst waren größtenteils nicht das Problem. Viele waren von Kindern, die normale Kindersachen machten: mit ihren Geschwistern ringen, ihr Spielzeug vorführen Sammlungen, aber die Kommentare und die Art und Weise, wie sie miteinander verknüpft wurden, waren verdächtig und letztendlich störend.
Der Skandal, der nur ein Jahr kam, nachdem YouTube diese Kommentarringe zum ersten Mal anerkannt hatte, und danach YouTube-Kinder Der #ElsaGate-Skandal, bei dem Menschen verstörende Videos auf einer Plattform fanden, die für Kinder und ihre Sicherheit gemacht wurde, verwickelte YouTube in eine Debatte, in der viele fragten: Hat YouTube überhaupt etwas verändert? Und wenn ja, warum wucherte das Problem? Könnte es behoben werden?
YouTube reagierte, indem es Kommentare zu Millionen von Videos deaktivierte, die von Raubtieren angegriffen wurden, und darauf hinwies, dass es ein tiefes Team von 10.000 Mitarbeitern hat menschliche Kommentar- und Inhaltsmoderatoren und ein maschinelles Lernsystem, dessen Aufgabe es ist, Videos zu durchsuchen und alles Anstößige zu melden. Aber reicht es? Gibt es eine Möglichkeit für YouTube, bei besorgten Eltern Wiedergutmachung zu leisten? Oder ist der Algorithmus des Unternehmens zu weit fortgeschritten?
Um herauszufinden, was, wenn überhaupt, getan werden kann, um die Plattform zu reparieren, Väterlichsprach mit Jonas Keiser, Affiliate am Berkman Klein Center for Internet & Society, Associate Researcher am Alexander von Humboldt Institut für Internet & Society und DFG-Forschungsstipendiat. Keiser ist Experte für YouTube-Algorithmen und die Verbreitung schädlicher Communities. Wir haben mit ihm über den Algorithmus von YouTube gesprochen, wie diese Probleme entstehen und was YouTube besser machen kann.
Ihre Forschung konzentriert sich auf rechtsextreme Troll-Kampagnen auf Youtube und wie sich solche Communities verbreiten. Gibt es Ähnlichkeiten zwischen diesen Gemeinschaften und diesen neu gegründeten pädophilen Gemeinschaften, die Links in Kommentarbereichen teilen?
Ich würde diesen Vergleich nicht anstellen. Mit ganz rechts, haben wir mehr sichtbare und offensichtliche Versuche, eine Gemeinschaft zu bilden und uns mit anderen Kanälen zu verbinden. Sie folgen ihren eigenen Trends zu Themen, die sie für wichtig halten, und dies geschieht nicht auf einem Kanal, sondern auf mehreren. Es geschieht sehr bewusst durch ihr eigenes Handeln. Rechtsextreme Talkingheads gehen in die Shows des anderen und verleihen sich gegenseitig prominente Legitimität.
Gleichzeitig beeinflussen sie durch ihre Aktivität und Nutzeraktivität auch den Algorithmus von YouTube so, dass auf YouTube, politische Videos und politische Kanäle führen, egal welche Ideologie Sie sich ansehen, oft zu rechtsextremen Kanäle.
Die pädophilen Gemeinschaften scheinen also viel mehr zu sein, als die Kanäle und Videos nicht unbedingt die Gemeinschaft waren da, sondern eher die Online-Kommentare, die nach dem, was ich gelesen habe, dieses seltsame, unsichtbare, sehr verstörende erzeugt haben Phänomen.
Für diejenigen, die es nicht wissen: Wie funktioniert der Algorithmus von YouTube?
YouTubes Algorithmus dreht sich um die Idee, dass es die Benutzer beschäftigt. In diesem Zusammenhang bedeutet das natürlich, die Videos anzusehen oder zu kommentieren oder zu liken oder zu teilen. Auf der Plattform zu bleiben ist das wichtigste Ziel. Um auf der Plattform zu bleiben, erhalten Sie Empfehlungen auf Ihrer Homepage, auf den Videoseiten und auf den Kanälen selbst. Diese basieren alle auf der Idee, dass Benutzer auf der Plattform bleiben sollten. Die Frage ist natürlich, wie erstellt YouTube einen Algorithmus, der das tut?
Es gibt viele verschiedene Datenpunkte, die in diesen Algorithmus einfließen. Zum Beispiel: Was ist aktuell auf der Plattform angesagt? Was haben sich andere Leute mit den gleichen Interessen angesehen? Welche Videos werden am häufigsten angeklickt? Wo überschneiden sich ähnliche Personen in Benutzerkommentaren? Solche Sachen. Die Hauptidee ist, dass der Algorithmus lernt, was Benutzer anzieht und auf der Plattform hält.
Wie ist die Moderation von Inhalten und Kommentaren auf YouTube aufgebaut? Glauben Sie, dass es eine ausreichende Reaktion auf die Bedrohungen im Internet ist?
Nur bedingt. Das Problem mit der Moderation in der Art und Weise, wie die meisten großen Social-Media-Plattformen dies tun, besteht darin, dass sie auf Menschen aufgebaut ist, die Inhalte melden. Im Grunde also, wenn es niemand meldet und es nicht eindeutig gegen die Regeln verstößt, die durch maschinelles Lernen identifiziert werden können – wie Schimpfwörter oder ähnliches, die algorithmisch herausgefiltert werden könnten – andere Kommentare sind offensichtlich viel schwieriger zu identifizieren also a der Mensch muss es sich ansehen. Aber wenn niemand den Inhalt meldet, weiß YouTube nicht, dass er existiert, nur weil es so viele Inhalte auf der Plattform gibt. Es unterstreicht die Bedeutung der Benutzer. Umstritten ist, ob das nun gut oder schlecht ist oder nicht, dass Nutzer in die Lage versetzt werden, sich die Mühe zu machen, YouTube zu zeigen, was für sie anstößig ist.
Auf der Videoebene wurden jetzt andere Formen [der Moderation] implementiert, sodass Inhalte, die Top-Nachrichten enthalten könnten, nach unten gestuft werden. Wenn Sie nach Nachrichten suchen, erhalten Sie zuerst die von YouTube als zuverlässiger angesehenen Quellen. Sie haben mit den Infoboxen zu bestimmten Verschwörungsvideos experimentiert. All dies sind auf die eine oder andere Weise Formen der Inhaltsmoderation.
Die Art und Weise, wie YouTube sich auf gute Samariter verlässt, um problematische oder beleidigende Dinge zu melden, fühlt sich ähnlich an dass Reddit auch weitgehend von Community-Moderatoren überwacht wird, obwohl Reddit dieses Problem nicht gleichzeitig zu haben scheint Skala.
Der Vergleich macht Sinn, ist aber ganz anders. Jeder Subreddit ist eine Community, die grundsätzlich sagt, welche Form von Inhalten erlaubt ist. Im Kontext des Wissenschafts-Subreddits sieht man beispielsweise, wenn Moderatoren darauf achten, dass die Regeln eingehalten werden, während andere Subreddits sehr laissez-faire sind. Die Anzahl der Beiträge auf Subreddits kann nicht mit der Anzahl der Videos verglichen werden, die zu einer bestimmten Stunde auf YouTube hochgeladen werden. Einige dieser Foren haben ein Interesse an der Selbstkontrolle. Die Arbeit wird im Grunde an die Benutzer ausgelagert und die Annahme ist, dass es in Ordnung ist, solange es Leute gibt, die motiviert genug sind, diese Arbeit zu tun, aber das ist auf YouTube nicht der Fall. Diese Foren existieren nicht auf die gleiche Weise.
In Bezug auf diese jüngsten Kommentatoren und jüngste YouTube-Kids-Skandale wie #ElsaGate, bei denen Trolle schreckliche Videos in Kinderinhalte einfügten. Gibt es eine Möglichkeit, auf sie aufmerksam zu machen, die sich nicht nur auf den guten Willen des durchschnittlichen YouTube-Nutzers verlässt?
YouTube ist langsam, sehr langsam in die richtige Richtung gegangen. Sie sind nicht da, aber sie verstehen, dass die Leute auf YouTube nach Nachrichten suchen. Daher ist es meiner Meinung nach sinnvoll, zu kuratieren, welche Kanäle auftauchen werden.
Bei meiner eigenen Arbeit ist es für mich verblüffend, dass YouTube politische Inhalte im Grunde genauso behandelt wie Popmusik. In den letzten Wochen haben sie langsam verstanden, dass es einen Unterschied gibt.
Zum Beispiel mit dem Anti-Vaxing-Bewegung, sagten sie, dass sie bestimmte Videos nicht mehr unbedingt zulassen würden. Ich denke, das ist wichtig. In einem politischen Kontext ist die Idee „nur Leute zu beobachten“ nicht das, was Sie wollen. Das ist es, was Sie für Musik, für Spiele oder andere Formen der Unterhaltung wünschen, aber wenn es um Informationen geht.
Bei Video- und Kanalempfehlungen, bei denen diese Logik weitergeht, halte ich es für problematisch, Menschen auf der Plattform zu haben, egal aus welcher Motivation.
Welche Lösungen schlagen Sie, falls vorhanden, vor, um mit den jüngsten Kommentarskandalen auf YouTube umzugehen?
Nach dem, was ich gelesen habe, existierte die Community hauptsächlich durch die Kommentare, die dann so großen Einfluss auf die YouTube-Empfehlungen hatten, also wurden diese Videos verlinkt, offensichtlich auf eine ziemlich kranke Art und Weise. Ich denke, das ist so etwas wie der problematische Teil. Wie sind Sie als Plattform bewusst? Ist Ihnen bewusst, dass etwas passiert, das nicht weitergehen sollte? Und weil es offensichtlich nicht an bestimmten, aktiven und bewussten Benutzern liegen sollte, diese Dinge herauszufinden, aber zum Glück gibt es sie.
Die Frage lautet: „Wie funktionieren Algorithmen in diesem Kontext und ermöglichen das?“ Meiner Meinung nach gibt es einen Unterschied zwischen den Nutzern, die Kommentare abgegeben haben, und denen, die Videos hochgeladen haben. Ich denke, das könnte einfacher zu trennen sein; Aber ich denke, die beste Option wäre, viel in Menschen zu investieren, um verdächtige Inhalte zu moderieren, und sich nur sehr bewusst zu sein, herauszufinden, was es ist gilt in Bezug auf Algorithmen als verdächtig.
Gibt es Ihrer Meinung nach eine Version von YouTube, die nicht auf diesen Algorithmen laufen muss, die potenziell gefährliche Communities miteinander verbinden könnten? Oder liegt es an der Plattform selbst?
Ich glaube nicht, dass es an der Plattform liegt. Ich denke, das gehört zum Geschäftsmodell. Man könnte sich sehr gut eine Video-Community vorstellen, die beispielsweise Reddit ähnlich ist, die sich auf bestimmte Inhalte oder bestimmte Themen konzentriert und in der man diesbezüglich Videos posten kann.
Das ist das Problem. Wenn YouTube den Algorithmus aufgibt, der die Leute auf der Plattform hält, dann ist das ein Gewinnproblem. YouTube will weiter Geld verdienen.
Ich denke, das ist gerecht. Viele der Diskussionen, die wir derzeit führen, befassen sich mit der Funktionsweise von Plattformen und warum beispielsweise einige Inhalte günstiger behandelt werden als andere und warum Fehlinformationen oder Verschwörungstheorien gedeihen können, hat mit dem Geschäftsmodell zu tun und der Idee, dass alles mit Klicks belohnt wird. Es gibt Ideen für Plattformen, die nicht darauf aufbauen. Aber die würden nicht so viel Geld verdienen.