子供たちをより安全に保つためにYouTubeは何ができるでしょうか?

click fraud protection

2月中、 YouTuberのマットワトソン 彼がアルゴリズムによって生み出されたものに簡単に入ることができたことを公開するビデオを投稿しました うさぎの穴と他の点では通常のビデオを悪用する小児性愛者のコメントコミュニティを見つける 子供達。 時々、これらの同じコメント投稿者は、リストにないビデオへのリンクを投稿したり、WhatsAppの連絡先情報を投稿したりしました。 おそらく、小児性愛者に優しいグループメッセージですが、多くの場合、妥協した立場にある子供たちのタイムスタンプを投稿しました ビデオ。

ワトソンの調査結果は、YouTubeの節度と説明責任に関する会話に再び火をつけました。 彼が見つけた動画の多くは、プログラムで広告で収益化されていました。つまり、YouTubeはコンテンツから収益を得ていました。 それは、それ自体を邪魔していなかったかもしれませんが、クリックやビューで悪用されていました 動機。 ほとんどの場合、ビデオ自体は問題ではありませんでした。 多くは通常の子供たちのことをしている子供たちでした:彼らの兄弟と格闘し、彼らのおもちゃを披露しました コレクションですが、コメントとそれらが相互にリンクされている方法は疑わしく、最終的には 気がかりです。

スキャンダルは、YouTubeがこれらのコメントリングを最初に承認してからわずか1年後、そしてその後に発生します YouTubeキッズ #ElsaGateスキャンダルでは、子供たちとその安全を念頭に置いて作成されたプラットフォームで不快な動画が見つかり、多くの人が質問した議論にYouTubeを巻き込みました。YouTubeは何かを変えましたか? もしそうなら、なぜ問題が急増したのですか? 修正できますか?

YouTubeは、捕食者の標的となった何百万もの動画へのコメントを無効にし、従業員が10,000人の深いチームを持っていることを指摘しました。 人間のコメントとコンテンツのモデレーター そして、ビデオをふるいにかけ、不快なものにフラグを立てることが仕事である機械学習システム。 しかし、それで十分ですか? YouTubeが心配している両親と一緒に償いをする方法はありますか? それとも、会社のアルゴリズムは行き過ぎですか?

プラットフォームを修正するために何ができるかを理解するには、 ファーザリィバークマンクラインインターネット&ソサエティセンターのアフィリエイトであるジョナスカイザー、アレクサンダーフォンフンボルトインターネット&ソサエティ研究所の副研究員、DFGリサーチフェローと話をしました。 Keizerは、YouTubeアルゴリズムと有害なコミュニティの急増の専門家です。 YouTubeのアルゴリズム、これらの問題がどのように発生するか、そしてYouTubeがより良いことをするために何ができるかについて彼に話しました。

あなたの研究は、Youtubeでの極右トロールキャンペーンとそのようなコミュニティがどのように広がるかに焦点を当てています。 それらのコミュニティと、コメントセクションでリンクを共有しているこれらの新しく発見された小児性愛者コミュニティとの間に類似点はありますか?

私はその比較をしません。 右端で、コミュニティを形成し、他のチャネルと接続するための、より目に見える明白な試みがあります。 彼らは重要だと思うトピックの独自の傾向に従います。これは1つのチャネルではなく、複数のチャネルで発生します。 それは彼ら自身の行動を通して非常に慎重に行われます。 極右のトーキングヘッズはお互いのショーに行き、お互いに顕著な正当性を与えます。

同時に、彼らの活動とユーザー活動を通じて、YouTubeのアルゴリズムに次のような影響を与えます。 YouTube、政治ビデオ、政治チャンネルは、どのイデオロギーを見ても、極右につながることがよくあります。 チャネル。

したがって、小児性愛者のコミュニティは、チャンネルやビデオが必ずしもコミュニティではなかったというよりもはるかに多いようです そこにありますが、むしろオンラインのコメントは、私が読んだものから、この奇妙で目に見えない、非常に不穏なものを作成しました 現象。

知らない人のために、YouTubeのアルゴリズムはどのように機能しますか?

YouTubeの アルゴリズム ユーザーの関心を維持するという考えを中心に回っています。 その文脈では、それは明らかにビデオを見たり、コメントしたり、いいねしたり、共有したりすることを意味します。 プラットフォームにとどまることが最も重要な目標です。 プラットフォームにとどまるために、あなたはあなたのホームページ、ビデオページ、そしてチャンネル自体で推薦を得るでしょう。 これらはすべて、ユーザーがプラットフォームにとどまる必要があるという考えに基づいて構築されています。 問題は、もちろん、YouTubeがそれを行うアルゴリズムをどのように作成するかということです。

そのアルゴリズムに入る多くの異なるデータポイントがあります。 例:プラットフォームで現在トレンドになっているものは何ですか? 同じ興味を持つ他の人々は何を見ましたか? どの動画が最もクリックされていますか? 同様の人がユーザーのコメントで重複しているのはどこですか? そういうこと。 主なアイデアは、プラットフォーム上でユーザーを引き付け、維持するものをアルゴリズムに学習させることです。

YouTubeのコンテンツとコメントのモデレートに関して、そのモデレーションはどのように設定されていますか? インターネット上の脅威に対する十分な対応だと思いますか?

ある程度だけ。 ほとんどの大規模なソーシャルメディアプラットフォームのモデレーションの問題は、コンテンツを報告する人々を中心に構築されていることです。 したがって、基本的に、誰もそれを報告せず、機械学習を通じて特定できるルールに明確に違反していない場合は、次のようになります。 ののしり言葉、またはアルゴリズムで除外できるようなもの—他のコメントは明らかに特定がはるかに困難です だから 人間はそれを見る必要があります. しかし、誰もコンテンツを報告しない場合、プラットフォームに非常に多くのコンテンツがあるという理由だけで、YouTubeはそれが存在することを知りません。 ユーザーの重要性を浮き彫りにします。 それが良いことか悪いことかを問わず、ユーザーは自分にとって不快なことをYouTubeに強調するために労力を費やさなければならない立場に置かれているという議論があります。

動画レベルでは、[モデレートの]他の形式が実装されているため、トップニュースを含む可能性のあるコンテンツのランクが下がります。 ニュースアイテムを検索すると、最初にYouTubeがより信頼できる情報源であると見なすものが表示されます。 彼らは、特定の陰謀ビデオの周りの情報ボックスを実験しました。 これらはすべて、何らかの形で、コンテンツモデレーションの形式です。

YouTubeが問題のある、または不快な可能性のあるものを報告するために優れたサマリア人に依存している方法は、その方法と似ています。 Redditもこの問題を同時に抱えているようには見えませんが、Redditはコミュニティモデレーターによって大部分が監視されています 規模。

比較は理にかなっていますが、それは非常に異なります。 各subredditは、基本的にどのような形式のコンテンツが許可されているかを示すコミュニティです。 たとえば、科学SubRedditのコンテキストでは、モデレーターがルールが守られていることを確認しているのに対し、他のsubredditは非常に自由放任であることがわかります。 サブレディットへの投稿数は、YouTubeで特定の時間にアップロードされている動画の数と比較することはできません。 これらのフォーラムのいくつかは、自主規制に関心を持っています。 労働は基本的にユーザーに外注されており、その労働を行うのに十分な意欲のある人々がいる限り、それは問題ないという前提がありますが、YouTubeではそうではありません。 これらのフォーラムは同じようには存在しません。

これらの最近のコメント投稿者や、トロールがひどい動画を子供向けのコンテンツにつなぎ合わせていた#ElsaGateなどの最近のYouTubeKidsスキャンダルに関して。 平均的なYouTubeユーザーの善意だけに頼るのではなく、彼らに注目を集める方法はありますか?

YouTubeはゆっくりと、非常にゆっくりと、正しい方向に進んでいます。 彼らはそこにいませんが、人々がYouTubeでニュースを検索することを理解しているので、どのチャンネルが登場するかをキュレートすることは私の意見では理にかなっています。

私自身の作品では、YouTubeが基本的に政治的なコンテンツをポップミュージックと同じように扱っていることに驚かされます。 ここ数週間、彼らは違いがあることをゆっくりと理解してきました。

たとえば、 アンチバクシングムーブメント、彼らは、必ずしも特定の動画を許可する必要はないと述べました。 それは重要だと思います。 政治的な文脈では、「ただ見ているだけ」という考えはあなたが望むものではありません。 これは、音楽、ゲーム、またはその他の形式のエンターテインメントに必要なものですが、情報に関してはそうです。

この論理が続くビデオやチャンネルの推奨事項では、どの動機に関係なく、プラットフォーム上に人々を配置することを目的としているため、問題があると思います。

では、YouTubeの最近のコメントスキャンダルに対処するために、どのような解決策を提案しますか?

私が読んだところによると、コミュニティは主にコメントを通じて存在し、それがYouTubeの推奨事項に大きな影響を与えたため、これらの動画は明らかにかなり悪い方法でリンクされていました。 これは問題のある部分のようなものだと思います。 プラットフォームとして、どのように気づいていますか? 起こってはいけないことが起こっていることを知っていますか? そして、明らかに、これらのことを理解するのは、特定のアクティブで意識の高いユーザーに任されるべきではないためですが、ありがたいことに、あります。

問題は、「そのコンテキストでアルゴリズムはどのように機能し、それを可能にするのか」ということです。私の認識では、コメントしたユーザーと動画をアップロードしたユーザーには違いがあります。 切断する方が簡単かもしれないと思います。 しかし、最善の選択肢は、疑わしいコンテンツをモデレートするために人間に多額の投資を行い、何を理解しようとしているのかを十分に認識していることだと思います。 アルゴリズムに関して疑わしいと見なされます。

潜在的に危険なコミュニティを相互にリンクする可能性のあるこれらのアルゴリズムで実行する必要がない、あなたの心の中に存在するバージョンのYouTubeはありますか? それとも、プラットフォーム自体に固有のものですか?

プラットフォームに固有のものではないと思います。 それはビジネスモデルに内在していると思います。 たとえば、特定のコンテンツや特定のトピックに焦点を当て、その点でビデオを投稿できるRedditに似たビデオコミュニティを考えることができます。

それが問題です。 YouTubeが人々をプラットフォームにとどまらせるアルゴリズムを放棄した場合、それは利益の問題です。 YouTubeは収益を上げ続けたいと考えています。

それは公平だと思います。 プラットフォームがどのように機能するのか、たとえば、一部のコンテンツが他のコンテンツよりも好意的に扱われる理由について、現在私たちが行っている多くの議論 なぜ、誤った情報や陰謀説が繁栄することができ、ビジネスモデルと関係があり、クリックするだけですべてが報われるという考えです。 それを中心に構築されていないプラットフォームを持つというアイデアがあります。 しかし、それらはそれほど多くのお金を稼ぐことはありません。

YouTubeのストーリーブースでは、子供たちが最もやりがいのある体験について話すことができます

YouTubeのストーリーブースでは、子供たちが最もやりがいのある体験について話すことができますいじめStoryboothYoutubeビッグキッドLgbt

子供であることは奇妙です。 友情、戦い、気まぐれな成長の急増など、すべてを初めてナビゲートします。 そして、わくわくする一方で、特に判断されたと感じずに不安を表現することになると、それは信じられないほど難しいこともあります。 そこでStoryboothが登場します。 新しいYouTubeチャンネルでは、子供たちは判断を恐れることなく自分の気持ちを表現できます。 子供たちは、彼らが心配している...

続きを読む
YouTubeは子供向けの自動再生をオフにし、安全対策を追加します

YouTubeは子供向けの自動再生をオフにし、安全対策を追加しますYoutubeYoutubeキッズ

子供のための新しい安全対策がついにYouTubeに登場します。 これらは 変更によりYouTubeが作成されます 親にとって少し煩わしくなく、少し安全に表示できます。 ただし、落とし穴があります。新機能は、18歳未満のユーザーとYouTubeKidsのアカウントを対象としています。 最も重要な機能がオフになっていますか? 自動再生。 知っておくべきことは次のとおりです。自動再生とは、YouT...

続きを読む
幼児のための安全で楽しい10のYoutubeチャンネル

幼児のための安全で楽しい10のYoutubeチャンネル幼児YoutubeマペットPeppa豚インターネットの安全性最高のオンラインの安全性ビデオYoutubeキッズ

YouTubeキッズ 不適切なコンテンツが殺到しています。 子供の幸福よりも利益を重視するコンテンツファームによって押し出されたとされる動画には、ペッパピッグやエルザなどの無実のキャラクターが登場します。 凍った、そしてスパイダーマンはそれほど罪のない行為に参加しています。 ビデオは認可されておらず、邪魔で、子供に優しいように見せかけています。 それらの外観は、自動再生または子供の純粋な好奇...

続きを読む