Facebookが木曜日にニュージーランド銃乱射事件の動画の拡散を阻止するために迅速に行動したことはすでにわかっていたが、今回は実際の数字がいくつかわかった。
Facebookニュースルームが発表した公式声明と同様の一連のツイートの中で、同社は日曜日の時点で50人が死亡、50人が負傷したニュージーランドの2つのモスクへのテロ攻撃後、最初の24時間で150万本の動画が削除されたことを認めた。そのうち 120 万件はアップロードされる前に停止されました。
このニュースとそれに付随する声明は、Facebook幹部のミア・ガーリック氏によるものだ。
ツイートは削除された可能性があります
声明は続けて、「この悲劇の影響を受けた人々と地元当局の懸念に敬意を表し、グラフィックコンテンツを含まない編集済みバージョンのビデオもすべて削除する」としている。
この衝撃的なビデオを共有しようとする試みが実際にどれだけ広範に行われたかを知ることは有益だが(みんなどうした??)、Facebookがここで統計を限定的に調べただけでは、部分的な全体像しか描かれていない。たとえば、ヒットした 300,000 本の動画が実際にどれくらいの期間公開されていたのか、あるいはその間にどれだけのエンゲージメントが見られたのかは明らかではありません。
また、動画を共有しようとした人たちがどのような影響を受けるのかも明らかではない。フェイスブックのコミュニティ基準どのような種類のコンテンツがコーシャであるかそうでないかについてのルールを示しますが、アカウントレベルで取られる措置はケースバイケースで異なり、ビデオの共有方法やユーザーの履歴などのコンテキストに大きく依存します。
マッシュ可能な光の速度
Facebookは確かに両方の銃撃事件をテロ攻撃として指定し、これもまたサイトのコミュニティ基準に基づいて、サイト上でそれらについて話す方法に即座に制限を課した。
基準には「暴力的任務を宣言したり、暴力に関与した組織や個人がフェイスブック上に存在することを許可しない」と書かれており、カテゴリーにはテロリストやテロ組織が含まれるとしている。
規則にはさらに、「これらの活動に関与するグループ、リーダー、個人への支持や称賛を表明するコンテンツも削除します」と記されている。
そのため、Facebook が銃撃事件をテロ攻撃と分類した瞬間、そのサイトで何が許可され、何が許可されないかを管理するいくつかの自動的なルールが発動しました。その最初のストリームを削除することで、Facebook がそのデータを利用して、視覚的に類似したビデオをより効果的に追跡できます。
それでも、文書化された規則とそれがどのように施行されるかという現実の間には大きな違いがあります。ニュージーランドで起きた凄惨な事件だったFacebook でライブストリーミングされ、閉鎖される前にビデオの数十万コピーがプラットフォームに流入しました。
これは、数十億人のユーザーを数えるソーシャルネットワークとしては比較的小さい数字かもしれないが、銃撃犯の凶悪犯罪容疑に対するさらなる露出を考慮すると、それでも非常に高い数字である。
つまり、Facebook にはまだ真剣に説明しなければならないことがあり、さらに多くの質問に答えなければならないということです。その流れはそもそも起こるべきではなかった。しかし、それよりも重要なのはFacebookの次の動きだ。
ここでどんな教訓が得られましたか?このようなことが再び起こらないようにするために、どのようなより大きな措置が講じられるのでしょうか? Facebookは、世界中の憎しみと暴力をなくすことに関しては、私たちと同じように無力だが、木曜日の出来事は、同社がそのプラットフォームが悪意を持って使用されることに対して、より良い安全策を考え出す必要があることを明らかにした。