Facebookはリベンジポルノとの戦いを強化している。
金曜日に会社は、発表された同社は、同意なしに共有された「ほぼヌード」の画像やビデオを積極的に検出できるという新しいAI技術の発表を発表した。 Facebookは、このツールを使用すると、誰かが報告する前に自動的にリベンジポルノにフラグを立てることができると述べている。
Facebookはこれまで、プラットフォーム上で見つかったこの種の同意のないコンテンツについてソーシャルネットワークに通知するのに、ユーザー、多くの場合は被害者自身に頼っていた。これには問題が生じました。
「多くの場合、被害者は報復を恐れているため、自分でコンテンツを報告することに消極的であるか、コンテンツが共有されていることに気づいていません」と、Facebookの安全性グローバル責任者であるアンティゴーン・デイビス氏は投稿の中で述べている。
検出されると、Facebook のコミュニティ運営チームの特別な訓練を受けたメンバーがフラグが立てられたコンテンツを確認します。
マッシュ可能な光の速度
「画像やビデオがコミュニティ基準に違反している場合、私たちはそれを削除します。また、ほとんどの場合、許可なく親密なコンテンツを共有するアカウントも無効にします」とデイビス氏は書いています。
Facebookは、このツールは以前のリベンジポルノ対策である「合意のない親密な画像パイロット」プログラムと連携して機能すると述べている。試験運用では、親密な画像がどこかに投稿される前に、会社に非公開でアップロードするようユーザーに呼びかけています。 Facebook はその画像の「デジタル指紋」を作成し、プラットフォーム上で画像が共有されるのを阻止します。プログラムは物議を醸す最初に発表されたときは、その後、被害者や支援団体からの支持を得ています。
これら 2 つのツールに加えて、Facebook は次のツールも発表しました。「私の同意がない限り」被害者サポート ハブ。ユーザーがリベンジ ポルノの被害者になった場合に何をすべきか、誰に連絡すればよいかについてのリソースを提供します。
AI は、コンテンツを自動的に検出する場合に役立ちます。 Facebook は現在、ユーザーの安全に影響を与える他の分野でより積極的に活動するために人工知能に依存しています。自殺予防道具。ただし、この最新のモデレーション技術を使用しても、必要究極の決断を下すのは人間です。
それでも、大手テクノロジー企業が、自社のプラットフォームの問題を解決する責任は被害者やユーザーにあるべきではないと認識したことは、大きな前進だ。