もしあなたが女性で、Twitter 上で意見を述べているなら、おそらく嫌がらせ、虐待、さらには脅迫を受けているでしょう。しかし、アムネスティ・インターナショナルによる新たな大規模調査では、この虐待が恐ろしいほど蔓延していることが調査された。
この調査は、世界的な人工知能ソフトウェア会社Element AIと共同で実施され、2017年に英国と米国の女性政治家やジャーナリスト778人に送信された22万8,000件のツイートを分析した。
その結果、年間を通じて110万件の「虐待的または問題のあるツイート」が調査対象の女性たちに送信され、平均すると30秒に1件のペースで送信されていたことが明らかになった。
有色人種の女性はターゲットにされる可能性が高いことが判明しており、黒人女性は白人女性よりも「虐待的または問題のある」ツイートで言及される可能性が84パーセント高い。
ツイートは削除された可能性があります
この調査では、米国と英国の両方で「政治的立場を超えて」女性が虐待を経験していることが明らかになった。
アムネスティ・インターナショナルの戦術研究上級顧問ミレナ・マリン氏によると、この研究の結果、女性に対するオンライン虐待に関する「世界最大のクラウドソーシングデータセット」が作成されたという。
Mashable のトップ ストーリー
このデータセットが整った今、「女性たちが長年私たちに語ってきたことを裏付ける」データと研究が存在します。言ったマリンさんは声明でこう述べた。 「ツイッターは人種差別、女性蔑視、同性愛嫌悪が基本的に野放しに蔓延する場所だ」と彼女は付け加えた。
「虐待はあらゆる政治的立場の女性を対象としているが、有色人種の女性が影響を受ける可能性がはるかに高く、黒人女性が不当に標的にされていることが判明した。 Twitterがこの問題を取り締まらないということは、すでに社会から疎外されている人々の声を沈黙させることに貢献していることを意味する」とマリン氏は述べた。
Twitterの法務、ポリシー、信頼、安全のグローバル責任者であるVijaya Gadde氏はMashableに対し、Twitterは「当社サービスに関する公の会話における集団の健全性、公開性、礼儀正しさを向上させることに公に取り組んでいる」と述べた。
ガッデ氏は、Twitterは「機械学習と人間によるレビューを組み合わせて、不正行為の報告とそれが当社のルールに違反しているかどうかを判断」していると述べた。
虐待行為を評価し、適切な執行措置を決定する際には、コンテキストが重要です。当社が考慮する可能性のある要素には、以下が含まれますが、これらに限定されません。 行動が個人または人々のグループを対象としているか。報告は虐待の対象者または傍観者によって提出されたものである。そしてその行動は報道価値があり、正当な公共の利益にかなうものである。 Twitter はその後、虐待を報告した個人にフォローアップ通知を提供します。また、ブロックやミュート機能の使用など、Twitter エクスペリエンスを向上させるために個人が実行できる追加のアクションに関する推奨事項も提供します。
アムネスティの声明によると、ツイッター社は報告書の調査結果を受け、「表現の自由を保護し、政策が明確かつ限定的に策定されることを保証する必要性」を理由に、「問題がある」の定義の明確化を求めた。
ガッデ氏は「問題がある」という言葉の使用についてもコメントした。 「コンテンツを分類する目的での『問題のある』コンテンツという概念は、さらなる議論を正当化するものであることに留意したい」とガッデ氏は、Mashableに電子メールで送られた報告書に対するTwitterの公式返答で述べた。
「そのようなコンテンツをどのように定義または分類しているのか、あるいはTwitterから削除すべきだと示唆しているのかは不明です」とガッデ氏は続けた。 「私たちは世界的に強制力のあるルールを構築するために熱心に取り組んでおり、そのプロセスの一環として一般の人々との協議を開始しました。これは業界内の新しいアプローチです。」