Facebook is testing an AI flagging system for offensive Live video

Facebookは長年、ニュースフィードに「不適切な」コンテンツが含まれないように注意してきました。投稿後に完全にレビューできる素材について話している場合、これは比較的簡単です。しかし、ライブストリーム中に何か問題が発生した場合はどうなるのでしょうか?

伝えられるところによると、特に困難な分野であるFacebook Liveにおいて、ソーシャルネットワークの攻撃的なコンテンツに対する警告システムを構築するための新たな取り組みが進行中であるという。

Facebook はこれまでに部分的に依存してきました。システムこれは、ユーザーが攻撃的な内容を報告することに依存しており、その内容は Facebook の従業員によって「コミュニティ基準」に照らしてチェックされます。

しかし、メンローパークのフェイスブック本社で最近開かれたラウンドテーブルで、同社の応用機械学習担当ディレクターのホアキン・カンデラ氏は記者団に対し、攻撃的なコンテンツを検出できる人工知能をテストしていると語った。

カンデラ氏は、新しい報告プロトコルは「ヌード、暴力、または当社のポリシーに従わないものを検出するアルゴリズム」であると述べた。ロイター

このようなアルゴリズムがテストされました6月に戻って過激派グループを支援するために投稿されたビデオを上映するためのものだが、今後は、暴力的な出来事やアマチュアのエロティックな行為をネットワークから遮断するために、Facebook Live ブロードキャストにも適用される予定だ。

マッシュ可能な光の速度

カンデラ氏によると、AI システムはまだ改良中であり、露骨なストリームの陪審、裁判官、死刑執行をワンストップで行うのではなく、警告として機能する可能性が高いとのことです。

「物事に目を向ける人間、つまり私たちの政策を理解する専門家がそれを削除するためには、物事に正しい方法で優先順位を付ける必要がある」と同氏は述べた。

しかし、「不適切」とは正確には何でしょうか?

AI フラグ システムは便利かもしれませんが、何を「不適切」とみなすべきか、何を「不適切」とみなすべきかについては依然として大きな疑問があります。フェイスブック砲火を浴びた9月にはベトナム戦争から有名な画像が削除されたが、それは古いシステムの下であり、人間のモデレーターが決定を下していた。

フェイスブックのAI研究担当ディレクター、ヤン・ルカン氏はロイターに対し、この件について具体的なコメントを控えたが、より広範な観点から検閲については言及した。彼は、この種のシステムがもたらす立場が不安定であることを認識しています。

「これらは、AIを開発できるかどうかをはるかに超えた問題だ」と彼は言う。 「トレードオフは私には判断できません。」

こうした「トレードオフ」により、実際のコストが発生する可能性があります。フラグが立てられる可能性がある、困難で重要なブロードキャスト — のストリーミングなど法執行機関との暴力的な遭遇またはその余波射撃— 慎重に考慮して取り扱う必要があります。

人間の推論やコンテキストの恩恵を受けずに機械が制御を行っている場合、重要なレベルのニュアンスが失われる可能性があります。伝えられるところによると、最終的な決定を下すには方程式の中の人的要素が引き続き影響するが、人間も完璧ではない。 Facebook ライブ ブロードキャストに何が適切であるかに関するガイドラインを決定する際、意思決定者はこれらの問題をポリシーの最前線に置く必要があります。

覚えておいてください、この AI フラグ システムは今のところテストされているだけであり、毎日スクロールしている Facebook ではまだ使用されていません。それでも、最も機密性の高いコンテンツに関して AI を信頼できると同社が判断したのであれば、それ、またはそれに似たものが間もなく登場することは疑いの余地がありません。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.