まず悪いニュースです。AI が生成した画像を検出するのは非常に困難です。 AI モデルが目まぐるしいペースで改良されるにつれて、以前は明らかな兆候 (歪んだ手や乱雑なテキスト) はますます稀になりました。
Midjourney、Stable Diffusion、DALL-E、Gemini などの一般的なツールを使用してどのような画像が作成されたのかは、もはや明らかではありません。実際、AI が生成した画像は人々をさらに騙し始めており、それが大きな問題を引き起こしています。誤った情報を広める。幸いなことに、AI が生成した画像を識別することは通常は不可能ではありませんが、以前よりも多くの労力が必要になります。
これらのツールは、コンピューター ビジョンを使用してピクセル パターンを検査し、画像が AI によって生成された可能性を判断します。つまり、AI 検出器は完全に確実というわけではありませんが、一般の人にとって、画像が精査に値するかどうかを判断するための良い方法です (特に、すぐには明らかではない場合)。
「残念なことに、人間の目には、そしてそこにはは研究— 人が感染する確率は五分五分です」と AI 画像検出プラットフォーム CEO のアナトリー・クヴィトニツキーは語ったAIか否か。 「しかし、画像の AI 検出の場合、モデルが改良され続けているにもかかわらず、ピクセルのようなパターンが存在するため、それらは依然として存在します。」クヴィトニツキー氏は、AIか否かによる正解率は平均98パーセントに達すると主張している。
一般的に成功率が高い他の AI 検出器には次のものがあります。ハイブモデレーション、SDXL検出器ハグフェイス、そしてイルミナティ。これらすべての検出器で AI が生成した 10 枚の画像をテストし、その結果を確認しました。
AIか否か
AI or Not は、他の AI 画像検出器とは異なり、単純に「はい」または「いいえ」を返しますが、画像が AI によって生成されたものであると正しく表示されました。無料プランでは、月に 10 件のアップロードが可能です。 10 枚の画像で試したところ、80% の成功率が得られました。
AI または Not は、この画像が AI によって生成されたものであると正しく識別しました。 クレジット: スクリーンショット: Mashable / AI かどうか
ハイブモデレーション
Hive Moderation の無料デモ ツールを 10 種類以上の異なる画像で試したところ、全体の成功率は 90% でした。これは、画像が AI によって生成された可能性が高いことを意味します。しかし、岩壁をよじ登るシマリスの軍団の人工画像の AI 品質を検出することはできませんでした。
シマリスの軍隊が本物だと信じたいところですが、AI 検出器はそれを誤解しました。 クレジット: スクリーンショット: Mashable / Hive モデレーション
SDXL検出器
Hugging Face の SDXL 検出器の読み込みには数秒かかり、最初の試行ではエラーが発生する可能性がありますが、完全に無料です。代わりに確率パーセンテージも表示されます。 AIが生成した画像の70%は生成AIである可能性が高いと述べた。
SDXL Detector は、Grok-2 によって生成された公衆トイレでのバラク・オバマのトリッキーな画像を正確に識別しました クレジット: スクリーンショット: Mashable / SDXL Detector
イルミナティ
Illuminarty には、基本的な AI 画像検出を提供する無料プランがあります。私たちがアップロードした 10 枚の AI 生成画像のうち、確率が非常に低いと分類されたのは 50% のみでした。げっ歯類生物学者にとって恐ろしいことに、それは悪名高いものをもたらした。ラットディック画像AIが生成した可能性は低い。
うーん、これはレイアップのようでした。 クレジット: スクリーンショット: Mashable / Illuminarty
ご覧のとおり、AI 検出器はほとんどの場合非常に優れていますが、確実ではないため、画像を認証する唯一の方法として使用すべきではありません。場合によっては、本物のように見えても AI が生成した欺瞞的な画像を検出できることもあれば、明らかに AI が作成した画像であると誤認してしまうこともあります。まさにこれが、複数の方法を組み合わせることが最適な理由です。
その他のヒントとコツ
昔ながらの逆画像検索
AI が生成した画像を検出するもう 1 つの方法は、単純な逆画像検索です。これは、シカゴのデポール大学コンピューティングおよびデジタル メディア大学のコンピューター サイエンス教授で Web インテリジェンス センターの所長であるバムシャド モバッシャー氏が推奨している方法です。画像を Google 画像検索または逆画像検索ツールにアップロードすると、画像の出所を追跡できます。写真が表面上は本物のニュースイベントを示している場合、「それが偽物であるか、実際の出来事は起こっていないと判断できるかもしれない」とモバッシャー氏は言う。
マッシュ可能な光の速度
Googleの「この画像について」ツール
Google 検索には「この画像について」機能もあり、画像が最初にインデックスに登録されたときや、画像がオンラインのどこに表示されたかなどのコンテキスト情報を提供します。これは、画像の右上隅にある 3 つの点のアイコンをクリックすると表示されます。
肉眼で発見できる明らかな兆候
そういえば、AI が生成した画像は恐ろしいほど良くなってきていますが、それでも証拠となる兆候を探す価値はあります。上で述べたように、手が歪んでいたり、髪が少し完璧すぎるように見えたり、画像内のテキストが文字化けしていたり意味不明だったりする画像が依然として時折見られることがあります。兄弟サイト PCMag's壊すでは、背景にぼやけたり歪んだりした物体、または完璧な肌 (つまり、毛穴がなく、完璧な肌) を持つ被写体を探すことをお勧めします。
一見すると、下のミッドジャーニーの画像は、インスタグラムから簡単に入手できそうな料理本を宣伝しているカーダシアン家の親戚のように見えます。しかし、さらに詳しく観察してみると、歪んだ砂糖壺、歪んだ関節、そして少し滑らかすぎる皮膚が見えます。
一見すると、すべてがこの画像にあるとおりではありません。 クレジット: Mashable / ミッドジャーニー
「AIは全体的なシーンを生成するのは得意だが、悪魔は細部に宿る」とHugging FaceのAIおよび気候変動担当責任者であるサーシャ・ルッチョーニ氏はMashableへの電子メールで書いた。 「主に小さな不一致: 余分な指、非対称の宝石や顔の特徴、物体の不一致 (ティーポットの余分な取っ手)」を探します。
電気電子学会(IEEE)の研究員でもあるモバッシャー氏は、ズームインして、浮遊ピクセルや、微妙に一致しないイヤリングなどの不一致などの「奇妙な詳細」を探すと述べた。
「同じ焦点を当てた同じ画像の一部がぼやけていても、別の部分は非常に詳細に表示されていることがあります」とモバッシャー氏は言う。これは特に画像の背景に当てはまります。 「背景にテキストなどを含む標識がある場合、多くの場合文字化けしたり、実際の言語のように見えなくなったりすることがあります」と彼は付け加えた。
フォルクスワーゲンのバンがビーチをパレードするこの画像は、Google の Imagen 3 によって作成されました。砂浜とバスは完璧に写実的に見えます。しかし、よく見ると、VW ロゴがあるはずの 3 台目のバスの文字が文字化けしているだけであり、4 台目のバスには不定形の斑点があることがわかります。
VWのバスパレードがいつかあったはずだが、これは違う。 クレジット: Mashable / Google
文字化けしたロゴと奇妙な斑点に注目してください。 クレジット: Mashable / Google
すべては AI リテラシーにかかっています
メディア、特にソーシャル メディアを利用しているときに、まず立ち止まって、自分が見ているものが AI によって生成されたものなのかどうかを考えなければ、上記の方法はどれもあまり役に立ちません。誤った情報が蔓延した 2016 年の選挙の前後で一般的な概念となったメディア リテラシーと同様に、AI リテラシーは、何が真実かそうでないかを判断するための防御の第一線です。
AI 研究者の Duri Long 氏と Brian Magerko 氏定義するAI リテラシーとは、「個人が AI テクノロジーを批判的に評価し、AI と効果的にコミュニケーションして共同作業し、オンライン、家庭、職場でツールとして AI を使用できるようにする一連の能力」です。
生成 AI がどのように機能するのか、何を探すべきかを知ることが重要です。 「ありきたりに聞こえるかもしれないが、ソーシャルメディア上で目にするコンテンツの出所と出所を時間をかけて確認するのは良いスタートだ」とルッチョーニ氏は語った。
まず、問題の画像のソースとそれが表示されているコンテキストについて自問してください。誰が画像を公開したのですか?添付のテキスト (ある場合) にはそれについて何が書かれていますか?他の人やメディアが画像を公開しましたか?画像、またはそれに付随するテキストはどのように感じますか?それがあなたを激怒させたり、誘惑したりするように設計されているように見える場合は、その理由を考えてください。
一部の組織は AI ディープフェイクと誤った情報の問題とどのように闘っているか
これまで見てきたように、これまでのところ、個人が AI 画像と本物の画像を区別できる方法はまだらで限られています。さらに悪いことに、AI によって生成された違法または有害な画像の拡散は二重の打撃となります。なぜなら、その投稿によって虚偽の情報が広まり、オンライン メディアに対する不信感が生まれるからです。しかし、生成 AI の登場を受けて、信頼と透明性を強化するためのいくつかの取り組みが生まれています。
のコンテンツの出所と信頼性に関する連合(C2PA) は Adobe と Microsoft によって設立され、OpenAI や Google などのテクノロジー企業だけでなく、ロイターや BBC などのメディア企業も含まれています。 C2PA はクリック可能を提供しますコンテンツ認証情報画像の出所と、画像が AI によって生成されたものであるかどうかを特定します。ただし、コンテンツ資格情報を画像に添付するかどうかは作成者の責任です。
逆に、スターリングラボスタンフォード大学では、本物の画像の認証に熱心に取り組んでいます。 Starling Lab は、「人権侵害、戦争犯罪、大量虐殺の証言などの文書化などの機密デジタル記録」を検証し、検証されたデジタル画像を改ざんできないように分散型ネットワークに安全に保管します。この研究所の研究はユーザー向けではないが、そのプロジェクトのライブラリは、例えばウクライナ戦争やドナルド・トランプからジョー・バイデンへの大統領の移行などの画像を認証したい人にとっては良いリソースだ。
専門家はよく AI 画像についてデマや誤った情報の文脈で語りますが、AI 画像はそうではありません。いつもそれ自体を騙すことを意味します。 AI 画像は、元の文脈から削除された単なるジョークやミームである場合や、怠惰な広告である場合があります。あるいは、それらは興味深い新しいテクノロジーを使った創造的な表現の一形態にすぎないのかもしれません。しかし、良くも悪くも、AI 画像は今や現実のものとなっています。そして、それらを検出できるかどうかはあなた次第です。
ここではスモーキー・ザ・ベアの言葉を言い換えていますが、彼なら理解してくれるはずです。 クレジット: Mashable / xAI