数百万人がプラットフォームに参加する中、Bluesky はコンテンツのモデレーションを強化

ユーザーが増えると問題も増えることを意味します。ソーシャル メディアの天才 Bluesky も例外ではありません。月曜日、ブルースカイは発表した。新しいモデレーションの取り組み驚異的な成長を遂げる中で、懸念されるユーザー コンテンツの増加に対処するため。

Blueskyはプラットフォーマーとの独占取材で、児童性的虐待素材(CSAM)やサイトのコミュニティを侵害するその他のコンテンツの憂慮すべき流入を抑制するため、現在25人の契約社員で構成されているコンテンツモデレーションチームを4倍に増やすと説明した。ガイドライン — これまでのところ既存のモデレーションシステムをすり抜けており、人間による監視が必要なケース。

「新規ユーザーの急増に伴い、信頼と安全のチームが対処しなければならない、厄介で不穏な、まったく奇妙なエッジケースの数も増加している」と同社は書いている。 「2023年を通じて、ブルースカイはCSAMの確認症例2件をネットワーク上に投稿していた。月曜日だけで確認症例は8件あった。」

マッシュ可能な光の速度

全体として、プラットフォームは次のような状況をナビゲートしています。ユーザーレポートの急増非常に小さな会社が扱っています。 11月15日、同プラットフォームは、2023年全体でわずか36万件のレポートがあったのに対し、1時間あたり3,000件のレポートを受信して​​いると投稿した。ユーザーの流入に伴い、スパム、詐欺、荒らし行為も増加しています。皆さんもその一部を目にしたことがあるかもしれません」とプラットフォームは当時書いていた。 「モデレーションチームの能力を最大限に高め、この負荷をサポートするために新しいチームメンバーを採用するため、ご辛抱いただければ幸いです。」

Bluesky は人間の労働力を強化することで、AI を活用した自動コンテンツ モデレーションの複雑でわかりにくい世界を補完します。フォローアップで, Bluesky氏は、CSAMを含む重大度の高いポリシー分野の下で有害なコンテンツに対処するために先週導入された「短期」モデレーションポリシーの問題点を指摘した。ブルースキー氏は、自動フラグと信頼安全チームの取り組みに応じて、いくつかのアカウントが一時的に停止されたと説明した。同プラットフォームは不当に削除されたと感じるアカウントを復活させている。

Bluesky の社内コンテンツ モデレーション システムは、child safety n によって作成されたレポート ツール Safer などのサードパーティ ツールとも組み合わせられています。営利目的のソーン。ユーザー主導型の分散型ソーシャル ネットワークとしてブランド化されている Bluesky は、「サードパーティ プロバイダーのエコシステム」を優先し、ユーザーのカスタマイズ性を優先して「集中管理権限」を避けています。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.