AIに生成されたビデオを識別する方法

残念ですが、AI によって生成されたビデオを検出するための、簡単に識別可能で確実な方法の簡単なリストをお探しなら、ここでは見つけることはできません。 AIウィル・スミスの時代は終わったグロテスクにスパゲッティを食べる。今では、数回クリックするだけで説得力のある写真のようにリアルなビデオを作成できるツールが登場しました。

現時点では、AI が生成するテキスト、画像、音声に比べて、AI が生成するビデオはまだ比較的初期段階にあります。すべての詳細を正確に取得することは、大量の高品質のデータを必要とする課題であるためです。 「しかし、より高品質のデータを取得するための根本的な障害はない」とニューヨーク州立大学バッファロー大学のコンピューターサイエンスおよびエンジニアリングの教授であるシウェイ・リュー氏は、労働集約的な作業だけが必要であると述べた。

つまり、AI で生成されたビデオはすぐに大幅に改善され、現在の AI 作品の特徴である顔のモーフィングや形状変化するオブジェクトなどの明らかなアーティファクト (欠陥や不正確さ) が排除されることが期待できます。 AI によって生成されたビデオ (または AI モダリティ) を識別する鍵は、AI リテラシーにあります。 「[AIテクノロジーが]成長していることを理解し、『私が見ているものはAIによって生成される可能性がある』という核となるアイデアを持つことが、たとえば個々の手がかりよりも重要です」とUBのメディアフォレンジックディレクターであるリュー氏は述べた。研究室 

ツイートは削除された可能性があります

AI が蔓延する Web をナビゲートするには、オンラインに関する知識と適切な判断力を駆使して、何かがおかしくなっている可能性があることを認識する必要があります。これは、AI ディープフェイク、偽情報、または単なる低品質のジャンクにだまされないための最善の防御策です。オンライン世界のあらゆる側面があなたの注意を引こうとしてこのスキルと戦っているため、これを開発するのは難しいスキルです。しかし 良いニュースは、AI の検出本能を微調整することが可能であるということです。

「[AI が生成した画像] を研究することで、人々は AI リテラシーを向上できると考えています」と、ノースウェスタン大学ケロッグ経営大学院の AI 研究者であるネガー カマリ氏は述べています。ガイドAI が生成した画像を識別することもできます。 「たとえ(AI生成を示す)アーティファクトが見えなかったとしても、私の脳はすぐに『ああ、何かがおかしい』と思うのです」と、AIが生成した数千枚の画像を研究してきたカマリ氏は付け加えた。 「たとえ遺物が見つからなかったとしても、それが本物であるとは断言できません。それが私たちが望んでいることです。」

注意すべきこと: 詐欺ビデオとテキストから画像へのビデオ

AI によって生成されたビデオの識別に入る前に、さまざまなタイプを区別する必要があります。 AI によって生成されたビデオは、通常、詐欺ビデオとテキストから画像への拡散モデルによって生成されたビデオの 2 つの異なるカテゴリに分類されます。

詐欺師のビデオ

これらは AI で編集されたビデオで、顔の交換 (人の顔全体を他の人 (通常は有名人や政治家) と交換し、偽の何かを言わせるもの) と口パク (人の口を微妙に操作して置き換えるもの) で構成されています。別のオーディオで

このテクノロジーは古くから存在しており、ゼロから何かを生成するのではなく、既存の映像を基にして構築されているため、詐欺ビデオは一般的にかなり説得力があります。数年前に公開されたトム・クルーズのディープフェイク動画が、あまりにも説得力があるために話題になったのを覚えていますか?ある記事によると、クリエイターのクリス・ウメがトム・クルーズによく似ており、プロのトム・クルーズのものまね芸人と協力し、緻密な編集を何度も行ったため、このような作品が実現したという。インタビューThe Vergeの梅さんと。最近では、同じことを実現するアプリがたくさんあります。恐ろしいほどに— 作成者がオンラインで見つけた短いサウンドバイトの音声を含めます。

とはいえ、AI ビデオのディープフェイクが疑われる場合は、注意すべきことがいくつかあります。まずは動画のフォーマットを見てみましょう。 AI ビデオのディープフェイクは通常、トーキングヘッド形式で「撮影」され、腕が映らず話者の頭と肩だけが見えます (これについては後ほど詳しく説明します)。

顔の交換を特定するには、顔の境界の周りの傷やアーチファクトを探します。 「通常、頭がカメラに対して斜めに動くとアーチファクトが見られます」と、デジタルフォレンジックの専門家でカリフォルニア大学バークレー校のコンピュータサイエンス教授のハニー・ファリド氏は言う。腕と手については、「手が動いたり、何かが顔を遮ったりすると、[画像] が少し乱れます」とファリド氏は続けました。そして腕と体の自然な動きに注意してください。 「あなたにこれしか見えていないとしたら、」――私たちのZoom通話で、ファリドは腕を固くして脇に置いたままにしていた――「そしてその人がまったく動いていないとしたら、それは偽物だ。」

マッシュ可能な光の速度

口パクが疑われる場合は、対象者の口、特に歯に注意を集中してください。偽物については、「不規則な形の歯を持っている人を見たことがあります」、つまりビデオ全体で歯の数が変化しているとリュー氏は言いました。注意すべきもう一つの奇妙な兆候は、顔の下半分のぐらつきである、とリュー氏は述べた。 「その人の顔を正確に一致させる必要がある技術的な手順があります」と彼は言いました。 「話している間、私は顔をたくさん動かしますが、その位置調整は、ほんの少し不正確であっても、人間の目で判断できます。」これにより、顔の下半分がより液体でゴム状の効果になります。

ツイートは削除された可能性があります

AIディープフェイクに関して、MITコンピューターサイエンス・人工知能研究所の研究助手であるアルナ・サンカラナラヤナン氏は、最大の懸念はドナルド・トランプやジョー・バイデンのような世界で最も有名な政治家のディープフェイクではなく、重要な人物のディープフェイクであると語る。あまり知られていないかもしれません。 「彼らによる捏造、特定の事実の歪曲、ほとんどの場合、それがどのように見えるか、どのように聞こえるかわからない場合、それを反証するのは非常に困難です」とサンカラナラヤナン氏は述べた。仕事の焦点政治的なディープフェイクについて。繰り返しますが、このときに AI リテラシーが重要になります。このようなビデオは、検証または誤りを暴くためにある程度の調査が必要です。

テキストから画像へのビデオ

次に、魅力的な新参者がいます。それは、テキストまたは画像のプロンプトからビデオを生成するテキストから画像への拡散モデルです。 OpenAI が大きな話題を呼んだのは、ソラを発表しました、その AI ビデオ ジェネレーター。まだ利用可能ではありませんが、デモビデオは、すべて単純なテキストプロンプトから行われる、その細心の注意、鮮やかなフォトリアリズム、スムーズな追跡で人々を驚かせるのに十分でした。

それ以来、お気に入りのミームを GIF や、ディズニーの予算を使って CGI チーム全体が制作したかのような想像力豊かなシーンに変換できるアプリが他にもたくさん登場しました。ハリウッドのクリエイターテキストから画像へのモデルの出現に激怒するのは当然です。おそらく彼らの仕事について訓練を受けているそして今、それを置き換えると脅しています。

ツイートは削除された可能性があります

しかし、Sora のビデオですら、おそらく洗練された時間のかかる編集が必要となるため、この技術はまだ十分なものではありません。 Sora のデモ ビデオは、一連の簡単な編集で構成されています。これは、完璧な長いビデオを作成するにはテクノロジーがまだ十分ではないためです。そのため、特に短いクリップには注意する必要があります。「ビデオの長さが 10 秒の場合は、疑ってください。短いのには理由があります」とファリド氏は言います。 「基本的に、テキストからビデオへの変換では、1 分の長さのシングル カットを実行することはできません」と彼は続けましたが、これは今後 6 か月で改善される可能性が高いと付け加えました。

ツイートは削除された可能性があります

ファリド氏はまた、「建物にストーリーが追加されたり、車の色が変わったりするなど、物理的に不可能なこと」などの「時間的不一致」にも注意するよう述べた。 「そして多くの場合、それが起こっている場所は注目の中心から離れたところにあります。」したがって、背景の詳細​​に焦点を当てます。建物内を歩き回ると、不自然に滑らかな物体や歪んだ物体、あるいは人のサイズが変化するのが見られるかもしれない、とリュー氏は述べた。

ツイートは削除された可能性があります

カマリ氏は、現実の状況がもっともらしくない場合には、「社会文化的にありえないこと」や文脈の手がかりを探すようにと言っています。 「すぐには証拠は分からないが、ピンクのスーツを着たバイデンとオバマの画像のように、何かが違うと感じる」バレンシアガのダウンジャケットを着た教皇

文脈に関する手がかりはさておき、アーティファクトの存在はまもなく減少する可能性があります。そしてウォール街は賭けをするつもりだ数十億ドルその上で。 (とはいえ、ベンチャーキャピタリズム実は知られていない収益性の確かな証拠に基づいて、テクノロジー系スタートアップの合理的な価格の評価が可能です。)

成果物は変わるかもしれませんが、正しい判断は残ります。

ファリド氏がMashableに語ったところによると、「半年後に話しに来てください。そうすれば話は変わっているでしょう。」そのため、特定の手がかりに頼ってビデオが AI によって生成されたものであるかどうかを確認すると、問題が発生する可能性があります。

被験者が適切に瞬きしなかったため、AI が生成したビデオを検出することに関する Lyu の 2018 年の論文は、AI コミュニティで広く知られました。その結果、人々はまばたきの欠陥を探すようになりましたが、技術が進歩するにつれて、より自然なまばたきも行われるようになりました。 「人々は、正しいまばたきがあれば、それはディープフェイクではないはずであり、それが危険であると考え始めました」とリュー氏は言う。 「私たちは実際には意識を高めたいと考えていますが、特定の成果物に固執することはありません。成果物は修正される予定であるためです。」

何かがあるという認識を構築するかもしれないAIによって生成されると「一連のアクション全体がトリガーされる」とLyu氏は述べた。 「確認してください、これを共有しているのは誰ですか? この人は信頼できますか? 同じ記事に関連する他の情報源はありますか? また、これは他の手段で検証されていますか? これらがディープフェイクに対する最も効果的な対策だと思います。」

ツイートは削除された可能性があります

Farid にとって、AI によって生成されたビデオと誤解を招くディープフェイクを特定することは、情報源をどこから得るかから始まります。取ってくださいAIが生成した画像ハリケーン・ヘレンとハリケーン・ミルトンの影響でソーシャルメディア上で広まった。それらのほとんどは明らかに偽物でしたが、それでも人々に感情的な影響を与えました。 「たとえこれらのことがあまり良くないとしても、それが浸透しないという意味ではなく、人々が情報を吸収する方法に何らかの影響を与えないという意味でもありません」と彼は言う。

ツイートは削除された可能性があります

ソーシャルメディアからニュースを入手する場合は注意してください。ファリド氏は、「画像がクリックベイトのように感じられるなら、それはクリックベイトだ」と述べ、すべてはメディアリテラシーの問題だと付け加えた。誰がビデオを投稿したのか、そしてなぜそれが作成されたのかを考えてください。 「Twitter で何かを見て、『ああ、それは本当だろう。共有させてください』というようなことはできません。」

AI が生成したコンテンツに疑問がある場合は、他のソースもチェックして、そのコンテンツが共有されているかどうか、すべて同じに見えるかどうかを確認してください。リュー氏が言うように、「ディープフェイクはある角度からしか本物に見えない」のです。問題のインスタンスの別の角度を検索します。ファリド氏は、誤った情報や偽情報を暴く Snopes や Politifact のようなサイトを推奨しています。私たち全員が急速に変化する AI 環境をナビゲートし続ける中で、自分の直感を信じて仕事をすることが重要になります。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.