2018 年のビッグテックにすでにテーマがあるとすれば、それはソーシャル ネットワークがもはや受動的なプラットフォームではないということです。新年からどちらもフェイスブックそしてYouTubeは、ネットワーク上のコンテンツを管理するための新しいガイドラインとプロセスを強化し、場合によっては警察も管理します。
もちろん、これらすべては新年のかなり前に始まりました。ツイッターは、コンテンツ ポリシーを明確にし、プラットフォーム上で誰に何を許可するかを決定する上でより積極的な役割を果たすため、長期にわたるプロジェクトを遂行してきました。最近では、いわゆる「」ナチスの粛清現在の傾向はおそらく、当時の CEO エレン・パオが Reddit の管理強化を推進したことから始まったと考えられます。嫌がらせそしてリベンジポルノサイト上で。
このデジタル計算は今や避けられないもののように感じられますが、昨年の出来事によってそれが加速されました。昨年、その中で最も影響力のあるFacebookがホスティングを行っているとして広く批判されたことを受けて、大手ネットワークに対する怒りは最高潮に達したフェイクニュースそして政治的な内容の広告ほとんど見落とされずに。しかし、アルゴリズムに物事を整理させる古いシステムには明らかに欠陥がありましたが、ネットワークがゲートキーパーの役割を再び主張していることも憂慮すべきことです。
YouTube の場合、変化は、発表された昨日は、特定の視聴時間または登録者数の基準値を下回るクリエイターの動画の収益化を解除する (つまり、広告を削除する) ことがほとんどでしたが、これは問題ないようです。しかし、なんと、比較的臨床的なブログ投稿YouTube が大手パートナー アカウントに対処する新しい方法については触れません。人間のモデレーターがコンテンツをすべて審査し、不快と思われる特定の動画の収益化を無効にします。
ローガン・ポールに続いて登場悪名高い訪問日本の自殺の森とその後の数多くの申し訳ありません、人間のモデレータの導入がまさにそのような事件を阻止することを目的としているのは明らかのようです。おそらく、当時このシステムが導入されていれば、司会者は手を挙げて「えー、みなさん…?」と言ったでしょう。
ここで何について話しているのかを明確にしておきます。収益化の無効化は削除と同じではありません。これは検閲ではありませんそれ自体ただし、どのコンテンツが受け入れられ、何が受け入れられないかについてクリエイターにメッセージを送っています。 YouTube のニール・モハン氏とロバート・キンクル氏の言葉を借りれば、時間の経過とともに、YouTube クリエイターたちは収益化をやめたコンテンツを投稿することが減り、「コミュニティに積極的に貢献する」動画を多く投稿するようになると考えられている。
どのコンテンツが受け入れられ、何が受け入れられないかについてクリエイターにメッセージを送ることになります。
それは良いことではありませんか?おそらくですが、YouTube のコミュニティ ガイドラインを強制するという単純な作業であれば、ボットでも実行できますが、それが機能しないことはすでにわかっています。人間が関与すると、別の一連の疑問が生じます。「この人間は誰ですか?」彼らはどのような資格や偏見を持っていますか?そして、何が彼らの心に危険信号を引き起こすのでしょうか?
マッシュ可能な光の速度
最後の質問に対する答えは、最初の 2 つの質問に対する答えによって異なる可能性があります。それはほとんど役に立ちません利用規約そしてコミュニティガイドラインモデレーターに調整の余地を与えるために、意図的に曖昧にしています。 Twitter の場合、以前は「」という非公式ラベルが付いていました。言論の自由党の言論の自由部門」、ポリシーは矛盾することさえあり、ネットワーク自体も時々矛盾しています。自信がないように見えた特定のツイートにフラグが付けられたり、アカウントが停止されたり、認証が剥奪されたりする理由。
これは検閲がゼロというわけではありません。 Facebook や YouTube のような人気があり一般向けのネットワーク上に置くべきではないとほぼ誰もが同意する事柄があります。憎しみに満ちたイデオロギーを吐き出すネオナチ、暴力の生々しい描写、直接的な脅迫、それらはすべて消えるべきです。
しかし、視聴者は、単なる極端なコンテンツを超えたさらなるコンテンツ規制を求めています。そして概して、ネットワークはその要求を黙認しており、人員増強アルゴリズムでできることには限界があるため、より多くのコンテンツを手動でレビューする必要があります。しかし、企業の優秀さは雇用する人間次第であり、コンテンツ モデレーターの仕事はほとんど報われない仕事です。毎日膨大な量の不快なコンテンツを閲覧するという仕事は、精神的負担添付。
企業の良さは、雇用する人間の良さによって決まります。
歴史的に、大手テクノロジー企業は人間の介入が得意ではありませんでした。 2016 年、Facebook の人間のモデレーターが告発されました。保守的なニュースを一掃するトレンドトピックセクションから。それも削除されました同年のベトナム戦争の歴史的な写真、正当化されたその決断、それでは逆転したそれ。ツイッターのCEOは、基本的に認められるその施行方針はめちゃくちゃだ。グループの中で最もアルゴリズムに動かされていると一般に考えられている Google でさえ、人間の失敗から免れないわけではありません。2012 年に遡ると、同社は独自のソーシャル ネットワークである Google+ と、企業の Google+ ページを意図的に上位に表示するFacebook ページよりも検索結果に表示されます。
簡単に言えば、Twitter、Facebook、Google、YouTube、その他の民間テクノロジー企業が共通の基準に基づいて悪者を一貫して処罰するシステムを構築していることを信頼すべきではありません。人間は偏見によって動かされます。システムはそれらのバイアスを修正するのに役立ちますが、それらのシステムが何であるかを知らずに判断することはできません。そして、それらが意図したとおりに機能しない場合、開始時よりもさらに悪い問題が残る可能性があります。つまり、各ネットワークが独自の巨大なフィルターバブルになり、攻撃的とみなされるものはすべて削除されます。
あらゆるプラットフォームが、常に最新のコンテンツ警察となっています。おそらく昔からそうだったのでしょうが、コンテンツの取り締まりをより積極的に始めると大声で公の場で表明すると、警察への通報が増えることになります。これは必然的に、ローガン・ポールほどの規模のユーザーも含め、より多くのユーザーがこれらのネットワークから追い出されるということを意味するだろう。
表面的にはそれでいいように感じるかもしれません。 YouTube には、何人かの著名人を失う余裕がありますし、そうすべきなのかもしれません。さらに難しい問題は、そのような行為がネットワークについて何を物語るのかということです。ユーザーが攻撃的なコンテンツで罰せられたとき、そのユーザーの同調者や支持者、つまり不適切な表現のポリシーの一貫性のない適用に同意しない可能性のある人々はどう思うでしょうか?彼らはどのようにして YouTube (および Twitter、Facebook など) について考えるようになったのでしょうか?彼らは不安をどのように表現し、どこに時間を費やし始めますか?
それらの質問に対する答えはわかりません。しかし、私は単純な計算を知っています。泡からより多くの物を押し出すほど、泡は小さくなります。そして、その横にあるものが気に入らないかもしれません。