These people aren't real. Can you tell?

上の画像は写真をコラージュしたように見えますが、実際には人工知能によって生成されたものです。そして、本物のように見えるかもしれませんが、画像の中の人々は実際の人間ではありません。

新しい(経由ザ・ヴァージ) では、Nvidia の研究者グループが、敵対的生成ネットワーク (GAN) と呼ばれる AI の一種を新しい方法で利用して、これらの画像をどのように作成したかについて説明しています。そして、その結果は本当に驚くべきものです。

この論文のタイトルは「敵対的生成ネットワークのためのスタイルベースのジェネレーター アーキテクチャ」で、Nvidia の Tero Karras、Samuli Laine、Timo Aila によって署名されています。その中で研究者らは、「スタイルベースのデザイン」と呼ばれる新しいアプローチで GAN のアーキテクチャをどのように再設計したかを示しています。

「私たちのジェネレーターは、画像を「スタイル」の集合として考えます。

「新しいアーキテクチャにより、高レベルの属性(たとえば、人間の顔でトレーニングされた場合のポーズやアイデンティティ)と、生成された画像の確率的変動(たとえば、そばかす、髪の毛)が自動的に学習され、教師なしで分離される」と論文では述べられている。

平たく言えば、訓練された後、GAN は完全に単独で、本物の人の写真とほとんど区別がつかない画像を生成しました。

マッシュ可能な光の速度

「私たちのジェネレーターは画像を『スタイル』の集合として考えており、各スタイルが特定のスケールで効果を制御します」と研究者らは論文に添付されたビデオで説明している。これらのスタイルは、ポーズ、髪、顔の形、目、顔の特徴などの属性です。そして、研究者はこれらのスタイルを試して、以下のビデオで見られるように異なる結果を得ることができます。

GAN がこの方法で作成できるのは人間だけではありません。

論文では、研究者らは GAN を使用して寝室、車、猫の画像を作成しています。

Mashable Image

クレジット: Nvidia/Arxiv.org

驚くべきことに、GAN の概念はわずか 4 年前に導入されました。研究者モントリオール大学出身。

以下の論文の画像をチェックして、それ以来どれだけ進歩したかを確認してください。

Mashable Image

クレジット: モントリ大学 EAL/arxiv.org

このテクノロジーが、たとえばマーケティングや広告目的でリアルに見える画像の作成に使用されているのは簡単にわかります。しかし、誰かが何らかの議題を推進するために、決して起こらなかった出来事の偽の「証拠」を作成するためにそれを使用することを想像するのは簡単です。

この技術の進歩の速さによって、見ているのが本物の写真なのか、コンピューターで生成された画像なのかを見分けることが間もなく不可能になるかもしれません。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.