若いインスタグラム新しいレポートによると、ユーザーはプラットフォームが許可するよりも、性的に露骨で有害な動画を簡単に推奨されるという。
子供の安全に関する調査結果は、米国政府が実施した 2 つの異なる現場での実験に基づいています。ウォール・ストリート・ジャーナルノースイースタン大学コンピューターサイエンス教授ローラ・エデルソン氏。 7か月にわたるテストで、この出版物は新しい未成年アカウントを設定し、Instagramのビデオリールフィードをスクロールし、「通常の」コンテンツをスキップして、より「際どい」アダルトビデオを長々と表示しました。わずか 20 分スクロールしただけで、アカウントには「アダルト セックス コンテンツ クリエイター」の宣伝やヌード写真のオファーが殺到しました。
未成年者としてマークされた Instagram アカウントには、最も厳しいコンテンツ管理制限が自動的に割り当てられます。
同誌のテストは、2021年に元企業安全スタッフによって実施されたテストを再現しており、同サイトの普遍的推奨システムが子供の安全対策の有効性を制限していることが判明した。 2022年の内部文書によると、メタ社は自社のアルゴリズムが「大人よりも若いユーザーに多くのポルノ、ゴア表現、ヘイトスピーチ」を推奨していたことを知っていたとのこと。ウォール・ストリート・ジャーナル報告します。
「これは人為的な実験であり、十代の若者たちのインスタグラムの使い方の現実と一致しない」とメタの広報担当アンディ・ストーン氏は同誌に語った。 「青少年問題に対する長期にわたる取り組みの一環として、私たちはインスタグラム上で十代の若者が目にする可能性のあるセンシティブなコンテンツの量をさらに削減する取り組みを確立し、過去数カ月でその数を有意義に削減することができました。」
マッシュ可能な光の速度
TikTokやSnapchatなどのビデオ指向プラットフォームでも同様のテストが実行されましたが、同じ推奨結果は得られませんでした。
新しい発見は、次のことを発見した11月の報告書に続くものである。Instagramのリールアルゴリズムは、子供のアカウントのみをフォローしている成人ユーザーに露骨な性的表現を推奨していました。
あ2月調査、また、ウォール・ストリート・ジャーナルは、メタ社のスタッフが、インスタグラム上に搾取的な親や大人のアカウント所有者が存在し続け、オンラインの子供の画像から利益を得る方法を見つけていることについて同社に警告していたことを明らかにした。報告書は、フォロワーと性的な冗談を交わしたり、ダンスやビキニでモデルをしたりするなど、子供たちの思わせぶりなコンテンツを視聴するためのサブスクリプションを販売する「ママフルエンサー」の台頭について指摘している。
擁護団体や規制当局は、オンラインでの児童搾取におけるソーシャルメディアの役割について訓練を重ねてきた。メタ自体は何度も訴えられた児童搾取に関与したとされる同社に対し、「捕食者の市場2023 年に児童安全対策委員会を設立した後、メタは次のような一連の新しい安全ツールを立ち上げました。ハラスメント防止コントロールそして「最も厳しい」コンテンツ制御設定現在利用可能です。
一方、メタ競合他社 X は最近アダルトコンテンツポリシーを全面的に見直した、ユーザーは「適切にラベルが付けられ、目立つように表示されていない限り、制作および配布された成人のヌードまたは性的行為」を投稿できるようになります。同プラットフォームは、コンテンツ警告が表示されている限り、18歳未満のアカウント所有者はそのようなコンテンツを見ることがブロックされると述べている。しかし、X は、ラベルのないアダルト コンテンツを投稿するアカウントに対するいかなる影響についても概説していません。