YouTubeは、プラットフォーム上で共有される虐待的なコンテンツを削除するために、2018年に1万人のモデレーターを雇用する予定だ。批判に直面して、YouTube はモデレーション ポリシーを強化し、法律やその利用条件を尊重しない動画に対して効果的に対抗するつもりです。
YouTube は 2018 年に 10,000 人のモデレーターを擁する予定です。コミュニティを守る「内容に反して
暴力的または過激派だ」と YouTube の CEO である Susan Wojcicki は発表しました。彼女は、プラットフォームが多くの創造性を歓迎していることを喜んでいますが、行き過ぎを認め、非難します。 「私はまた、YouTube のオープンな精神が他のもっと憂慮すべき結果をもたらす可能性があることを自分の目で見ることができました。私は確かに、特定の悪意のある人々がこの自由を悪用して他人を騙し、操作し、嫌がらせをし、危害を加えているのを見てきました」と彼女は宣言します。そしてYouTubeはこの問題に取り組んでいると続けた。
「私たちの目標は、悪質な行為者よりも一歩先に進んで、YouTube でのポリシーに違反するコンテンツの投稿をますます困難にすることです」と Wojcicki 氏は言います。に加えて、人間にとって最も重要な装置, 「新しい機械学習技術」が実装されました。 「現在、私たちが削除する過激派や暴力的な動画の 98% は機械学習アルゴリズムによってフラグが立てられています」と彼女は述べ、YouTube は暴力的過激派コンテンツのほぼ 70% をアップロード後 8 時間以内に削除し、ほぼ半分は 2 時間以内に削除していると付け加えました。
これらのツールは、子どもの安全や憎悪の扇動に関するその他の問題のあるコンテンツを特定するために間もなく導入される予定です。 2017 年 11 月末、ブランドは児童を搾取する動画を理由に YouTube から広告を削除しました。今月の少し前に、YouTube は子供向け漫画のくだらないパロディとの戦いに突入した。さらに、Googleの動画プラットフォームも広告主やクリエイターの保護を目的とした措置を発表している。 「私たちは、広告主にブランドの価値を反映したコンテンツを広告に付随させることを保証したいと考えています。同様に、クリエイターの皆様にも、収入が影響を受けることはないと安心していただきたいと考えています。
悪意のある個人の活動です」と Wojcicki 氏は言います。
これを行うために、広告を含む可能性のあるビデオとチャンネルは、特に人間のモデレーターの助けを借りて、より厳密に分類されます。これにより、クリエイターはより安定した収入から恩恵を受けることになると彼女は保証しますが、それは非常に不確実であるように思えます。私たちは、歴史的または科学的チャンネルが経験したことを知っています。収益化の問題特定のデリケートな主題を扱うため、YouTube の新しいポリシーはそれらを助けるものではありません。