Deepfake porn: What to do next if someone makes one of you

露骨な写真をディープフェイクする場合、テイラー・スウィフトは最近、X(旧Twitter)で話題になり始めた、プラットフォームは最終的に元の投稿者のアカウントを削除し、その後ポップスターの名前を検索不能にしたただし、特定の検索用語では依然としてポルノ コンテンツが表示されました。

つまり、X は画像をプラットフォームから遠ざける方法を見つけられなかったのです。これは、同意のないディープフェイク画像やビデオの被害者となる一般の人にとって、良い前兆ではありません。

結局のところ、ソーシャル メディア プラットフォームが世界で最も有名な人物の 1 人をディープフェイクによる虐待から守ることができないとしても、弁護士や広報担当者、熱烈なファン層に助けを求めることができない無名のユーザーの安全を保証することはできません。 。

アダム・ドッジ氏は公認弁護士であり、テクノロジーを利用した虐待の終結 (EndTAB)は、安全策、規制、強力な法的保護の欠如により、一貫して女性である被害者が、自分たちの肖像をフィーチャーした同意のない露骨なまたはポルノ的なディープフェイク画像やビデオの影響を管理する立場にあると述べています。

ドッジ氏は、すでにトラウマを抱えている人にこうした仕事を課すことは、彼女が経験した違反をさらに拡大させるだけだと主張する。しかし、残念なことに、現在、ディープフェイクの悪用に対処するには、自分で行うことが主な方法です。

ディープフェイクによる虐待の被害者となった場合、自分自身を守るために取れる 6 つの手順を次に示します。

1. ディープフェイクの悪用の害を認識します。

ドッジ氏は、被害者は、画像やビデオが本物ではないため、ディープフェイクポルノは被害者に実際の害を及ぼさないと聞くかもしれないと述べた。同氏は被害者に対し、その理屈を信じないよう呼び掛けている。

代わりに、彼は AI の画像に基づく虐待を、特に女性に対する暴力の一形態として捉えています。偽の画像やビデオは、女性の評判や職業上の可能性を傷つけ、オンラインおよびオフラインで見知らぬ人によって嫌がらせやいじめに使用される可能性があります。彼らの撤去に対処することも疲れ果て、感情的になります。言い換えれば、女性に対するこの種の虐待は、本当のトラウマにつながる一連の暴力の一部であると考えてください。

被害者がディープフェイクに対処するという困難なプロセスを開始する前に、ドッジ氏は、起こったことは自分のせいではないことに少し時間を取って、自分が経験していることを検証することを推奨しています。

「被害者や被害者を支援する人々、そしてこれらのものを作成し共有している人々にとって、被害を認めることは非常に重要です。そのため、彼らはそれが非常に暴力的で有害な行為であることを理解しています。」

被害者を支援するためのリソースもあります。米国に拠点を置くサイバー公民権イニシアチブには、画像不正使用に関するヘルプラインがあり、被害者になった場合の対処方法についての詳細なガイドも用意されています。英国では、被害者は次の機関に頼ることができます。リベンジポルノヘルプライン、親密な画像虐待の被害者を支援します。

2. 内容を文書化して証拠を収集します。

現在、AI 画像ベースの不正行為の大部分は、主に 2 つの媒体を通じて発生しているとダッジは述べています。

1 つのタイプは、ユーザーが誰かの既存の画像を撮影し、アプリの AI を活用したアルゴリズムを使用して偽のヌードに変換できるアプリを通じて実行されます。

2 番目の種類の虐待は、既存のポルノ画像やビデオに誰かの顔を重ね合わせるディープフェイク顔交換アプリによって発生します。偽物ではありますが、結果として得られる画像やビデオは驚くほどリアルです。

Mashable のトップ ストーリー

増加している種類の虐待の原因は、言葉のプロンプトを偽のヌード画像や露骨な画像に変換できるテキスト画像ジェネレーターに遡ることができます。 (Mashable は、これらのアプリが加害者にさらに公開されることを懸念して、これらのアプリの名前を公開していません。)

使用された形式に関係なく、被害者はスクリーンショットや画像ファイルやビデオファイルの保存を通じて、AI 画像ベースの虐待のすべての事例を記録するために最善を尽くす必要があります。これらのスクリーンショットまたはファイルは、可能であれば削除リクエストや法的措置に使用できます。証拠を文書化するためのステップバイステップのガイドについては、Cyber​​ Civil Rights Initiative のガイドを確認する

それでも、この証拠を収集することは被害者にさらなるトラウマを与える可能性があるため、ダッジはこの作業を行うために「サポートサークル」の助けを求めることを推奨しています。

「(被害者が)通報する必要がある場合、証拠を用意することが非常に重要です」とドッジ氏は言う。

3. コンテンツが表示されるプラットフォームに削除通知を発行します。

ソーシャル メディア プラットフォームでは、ユーザーが同意のない画像をオンラインに投稿したときに報告できます。歴史的に、これらの削除リクエストは、実際の親密な画像が許可なく共有された被害者を助けるために使用されてきました。しかしダッジは、AI画像ベースの虐待の被害者もこのツールを使用できると述べている。

各プラットフォームには独自のプロセスがあります。主要なアプリ、ソーシャル メディア プラットフォーム、出会い系サイトのオンライン削除ポリシーの詳細なリストについては、サイバー公民権イニシアチブのガイド

また、Dodge は、以下が提供する無料ツールも推奨しています。停止NCII.org、同意のない親密な画像の虐待の被害者を支援する非営利団体です。この組織のツールを使用すると、被害者は同意なしに共有された自分の画像やビデオを選択でき、そのコンテンツにフラグを立てる方法としてデジタル フィンガープリント (ハッシュ) を独自に生成できます。ユーザーは画像やビデオ自体をアップロードする必要がないため、被害者の手元に残ることはありません。

その後、組織はそのハッシュを、Facebook、Reddit、TikTok などの企業を含むパートナーと共有します。次に、そのパートナーは、生成されたデジタル指紋と一致するコンテンツを検出するように準備されます。同社は必要に応じてプラットフォーム内の一致を削除します。

4. 検索エンジンから画像とビデオのインデックスを解除するリクエストを行います。

Bing と Google では、検索結果から偽の同意のないポルノ画像やビデオのインデックスを削除するリクエストを送信できます。ダッジは、被害者がこの戦略を使用して、AI 画像ベースの不正行為の発見可能性を制限することを推奨しています。

Google の段階的なプロセスは次のとおりです。ここで見つかりました。 Bing での同じプロセスの手順ここにいます

こういった要望を各企業に対して具体的に行うことが重要です。今月、NBCニュースが見つかりましたGoogle と Bing の検索結果では、特定のクエリに応じて同意のないディープフェイク ポルノが表示されたため、企業がそのようなコンテンツを削除するためにどれくらいの頻度でインデックスをパトロールしているかについて疑問が生じました。

5. 法的選択肢を調べます。

によると、2021 年の時点で、カリフォルニア、テキサス、ニューヨークを含む 10 以上の州でディープフェイク画像に関連する法律が制定されています。サイバー公民権イニシアチブ。ディープフェイク ポルノの作成や AI 画像に基づく悪用を禁止する法律がある州に住んでいる場合は、警察に通報したり、加害者を告訴したりできる可能性があります。国際的には、ディープフェイクポルノの共有が犯罪になったイングランドとウェールズでは。

この種の虐待を禁止していない米国の多くの州であっても、サイバーストーキング、恐喝、児童ポルノなど、被害者の事件に適用される可能性のある他の関連法があるとドッジ氏は言う。

それでもドッジ氏は、多くの警察署は準備が整っておらず、これらの事件を捜査するためのリソースや人員が不足しているため、何が可能なのかについての期待を管理することが重要であると述べた。さらに、一部の被害者、特にすでに何らかの形で疎外されている被害者は、法執行機関への信頼の欠如など、さまざまな理由から、同意のないディープフェイクを当局に報告しないことを選択する可能性があります。

6. データ ブローカー サイトからオプトアウトします。

ドッジ氏は、同意のない親密な画像の被害者は、その個人情報がコンテンツに関連している場合、オンラインで見知らぬ人から標的にされることがあると述べています。

まだそうなっていないとしても、Dodge は個人情報を収集し、それを有料で誰にでも販売するデータ ブローカー サイトからオプトアウトすることを推奨しています。このようなブローカーには、Spokeo、PeekYou、PeopleSmart、BeenVerified などの企業が含まれます。被害者は各ブローカーに個人情報の削除を要求する必要があるが、DeleteMe のようなサービスは有料でそのようなデータを監視し、削除できる。 DeleteMe の年間サブスクリプション料金は最低 129 ドルで、3 か月ごとに個人情報をスキャンして削除します。

Googleには無料ツールもあります検索結果から一部の個人情報を削除するため。

AI を活用した画像ツールが急速に普及していることを考えると、ダッジは AI によって生成された合意のない露骨な画像のない未来を想像することはできません。

数年前でさえ、そのような悪用を行うにはコンピューティング能力、時間、技術的専門知識が必要だったと同氏は指摘する。これらのツールに簡単にアクセスして使用できるようになりました。

「これ以上簡単なことはありません」とダッジは言います。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.