AI が今回の選挙であなたの投票に影響を与えるかもしれません。それをどのように見つけて対応するか。

先月、ニューハンプシャー州の有権者が州の予備選挙に投票する準備をしていたとき、この国の指導者からの異例の行動呼びかけに目を覚ました人もいた。有権者は潜在的な被害者だったAIが生成したロボコールジョー・バイデン大統領自身のように聞こえるように設計されており、予備選挙で投票せずに家に留まるように求めています。これは、昔のロボコールを滑稽なほど非人間的な試みのように聞こえる、進歩するディープフェイク技術の不安な使用法です。

ニューハンプシャー州司法省(司法省は引き続き投票を求める緊急呼びかけを続けた)によってすぐに偽物と判断されたが、この呼びかけはテキサスに本拠を置く組織によって作成された。ライフコーポレーション、AIスタートアップによってコンパイルされたディープフェイクライブラリを使用イレブンラボ。ライフ・コーポレーションはその後、有権者抑圧に関与した疑いで告発されている。

それは俳優たちが武装した最新の警告サインだったAI次期大統領選挙の構成要素に影響を与える可能性がある。

AI に関する懸念は、社会的および政治的可能性の範囲を超えていますが、ほとんどすべての人が、このテクノロジーには偽情報の到達範囲を拡大する計り知れない可能性があると主張しています。たとえば、非営利の公共政策センターであるブルッキングス研究所は、AI の可能性をめぐる多くの懸念は誇張的なものかもしれないが、どのように対処するかについては注意を払う必要があると主張している。生成型 AI は誤った情報の生成と拡散を大きく変えるでしょう

「AIは、誤った情報をより蔓延させ、説得力を持たせる可能性があります。私たちは、誤った情報の記事の大部分は、『宝くじに当選』してメディア界全体に影響を及ぼして浸透しない限り、少数の人しか目にしないことを知っています。さらに虚偽のストーリー、画像、ビデオが追加されると、そのシナリオの可能性が高くなります」と研究所は書いている。

法的非営利団体ブレナン司法センター米国だけでなく、すでに2020年代を「選挙におけるディープフェイク時代の始まり」と呼んでいる。世界中で。同センターは「共和党の予備候補者はすでに選挙広告にAIを活用している」としている。報告されました。 「最も有名なのは、フロリダ州知事ロン・デサンティスのキャンペーンが発表されたことだ」AIが生成した画像ドナルド・トランプ前大統領が提唱した新型コロナウイルス感染症緩和政策のせいで、共和党予備選挙有権者の間で避雷針となったアンソニー・ファウチ氏を抱きしめる写真。」

ソーシャルメディアの反応も、民主主義と真実に対するAIの「脅威」に大きな役割を果たしている可能性があり、AIの開発を支えている企業の言葉を借りれば、AIはますます賢くなるばかりであり、より普遍的になることは言うまでもありません。より強力なメディア リテラシーを開発することがこれまで以上に重要になり、選挙の誤報を見破るますます複雑になっています。

マッケンジー・サデギ、誤報監視機関の AI および外国影響力担当編集者ニュースガード、組織が次のようにMashableに説明しました。さまざまな形でAIの兵器化を追跡した、低品質のニュース Web サイト全体を最初から生成することから、ディープフェイクのビデオ、オーディオ、画像までを作成します。 「これまでに、AIによって生成され、人間の監視がほとんど、あるいはまったくない状態で運営されているウェブサイトを676個特定した」とサデギ氏は述べた。 「私たちが注意深く注目していることの 1 つは、AI と「ピンクスライム」ネットワークこれらは、自らを信頼できる地元報道機関であるかのように宣伝し、有権者にリーチし、Facebook 広告で有権者をターゲットにしようとする党派的な報道機関です。」

サデギ氏とニュースガードの調査によると、これらの統計は今後も増加すると予想されている。 「2023年にこれらのWebサイトの特定を始めたとき、当初は49のWebサイトが見つかりました。私たちはそれらのWebサイトを毎週追跡し続けましたが、その勢いが衰える兆候がないことがわかりました。そして、この軌道を続ければ、より近いものになる可能性があります」選挙が近づく頃には1000人台になるだろう」とサデギ氏は説明した。

AI に関する法規制について知っておくべきこと

議会指導者らが今後のリスク回避の道筋について合意できず、AIの台頭を緩和する法律を可決できていないため、AIは規制のグレーゾーンのままだ。

2023年10月、バイデン政権は次の声明を発表した。AI の安全性に関する新しい基準を概説する大統領令AIコンテンツと詐欺を検出する方法を確立するための商務省への指令を含むセキュリティ。

AI ロボコール詐欺とディープフェイクの増加に対応して、FCC は電話消費者保護法 (TCPA) に基づいて AI ロボコールを完全に非合法化する提案を発表しました。

連邦選挙委員会(FEC)はまだAI規制を公表していないが、ショーン・クックシー委員長は今夏にガイドラインを策定すると述べている。

一部の州議会もこの本について意見を表明している。全国州議会会議は次の報告書をまとめた。選挙におけるAIの脅威に取り組む州のリスト。 「候補者に危害を与えたり、有権者を欺くことを目的とした、著しく欺瞞的なメディアの出版を禁止する」、またはディープフェイクを具体的に禁止する明確な法律を制定している州には、次のようなものがあります。

  • カリフォルニア

  • Michigan

  • ミネソタ州

  • テキサス州

  • ワシントン

他の州でも選挙中のAIの使用を抑制する法律を導入しているが、可決されたものはほとんどない。成功した州法には次のようなものがあります。

  • ミシガン州 (選挙広告で AI の開示を義務付ける)

  • ミネソタ州 (選挙に影響を与えることを目的としたディープフェイクを禁止)

  • ワシントン (選挙に影響を与えるために使用された「合成メディア」の開示を要求)

AI ウォーターマーク

多くの人が推進している AI コンテンツのもう 1 つの一時しのぎは、画像とビデオの透かし技術。 AI の場合、これには、モデルが作成するすべてのコンテンツにテキストまたは画像ベースの署名を埋め込むようにモデルを学習させ、将来のアルゴリズムがコンテンツの起源を追跡できるようにすることが含まれます。

2023年には、OpenAI、Alphabet、Meta、およびその他の AI 開発の主要企業は、操作されたコンテンツの識別に役立つ独自の透かし技術を開発することを約束しました。

2023 年 10 月、Meta は、「安定した署名、オープンソースの生成 AI ツールを使用して作成された画像に透かしを追加する方法。 Meta氏によると、Stable Signatureは、制作後の画像に透かしを適用するのではなく、特定のユーザーに起因する目に見えない透かしを生成AIモデル自体に直接追加するという。

2 月 7 日、OpenAI は次のようになると発表しました。DALL-E 3 によって生成されたすべての画像に同様に検出可能な透かしを追加します。、Coalition for Content Provenance and Authenticity (C2PA) によって作成されたガイドラインに従っています。 MashableのCecily Mauran氏が報じたように、C2PAはAdobe、Microsoft、BBC、その他の企業や出版社が「メディアコンテンツのソースと歴史(または来歴)を証明することによって」ディープフェイクや誤った情報の蔓延に対処するために使用している技術標準である。

ただし、ウォーターマークは完全な解決策ではありません。まだ初期段階にありますが、研究によると、AI ウォーターマークは操作、削除、さらには攻撃に対して脆弱サードパーティのアクターから。

AI企業のポリシー

アドビは以前、AIの安全・安心対策に注力ホワイトハウスが9月に発表したほか、コンテンツ信頼性イニシアチブC2PAによってサポートされています。

11 月、マイクロソフト (Bing AI チャットボット コパイロット) 独自に発行選挙ガイドラインこれには、ユーザーが C2PA の透かしガイドラインを使用してメディア (選挙資料を含む) にデジタル署名および認証できる新しいツールが含まれていました。 「これらの透かし入り認証情報により、個人や組織は、認証情報の作成後にコンテンツが変更されたかどうかを示すことで改ざんから保護しながら、画像やビデオが自分たちからのものであると主張できるようになります」と同社は説明した。

マイクロソフトはまた、候補者と選挙当局を支援するために、選挙コミュニケーションハブと特定の「キャンペーン成功チーム」を創設することも約束した。

マッシュ可能な光の速度

12月、アルファベットは次のように発表した。選挙関連の質問の種類を制限するGoogleのAIモデルジェミニ(以前の Bard) は、チャットボットによって拡散されることが多い誤った情報を抑制するために、応答できるようになります。

1月にOpenAIをリリース誤った情報と戦うための新しい選挙政策これには、画像の起源とその作成に使用されるツール、および将来の AI 画像検出ツールに関する透明性の向上が含まれます。 OpenAIはすでに開発者がOpenAIテクノロジーを政治運動に使用することを禁止した

こうしたセキュリティ対策の試みにもかかわらず、多くの慎重な専門家は、最も危険な形式の AI 改ざんは業界の大手企業からではなく、企業から行われるのではないかと懸念しています。規制されていないオープンソースAIテクノロジーの利用全般。

ソーシャルメディアポリシー

AIで操作されたコンテンツの拡散の主要なハブであると考えられるソーシャルメディアプラットフォームは、プラットフォーム上でのAIのあらゆる使用に対処するために、さまざまな程度のポリシーを発行しているが、サデギ氏によれば、これらのポリシーは常に施行されているわけではないという。

YouTube (およびその親会社 Google) は 9 月に、政治広告に加えられたAI改変は開示されるべきだユーザーへ。

つい最近、Meta は次のことを発表しました。AI によって変更された画像の特定に力を入れるFacebook、Instagram、Threads のプラットフォーム全体で。 Metaは、Google、OpenAI、Microsoft、Adobe、Midjourney、ShutterstockのすべてのAIコンテンツに自社のAIラベルを追加すると発表した。メタは以前にそうすることを発表した広告主にAI改変広告の開示を義務付けるプラットフォーム上で活動していますが、最近では次のような理由で批判を受けています。執行に失敗する「操作されたメディア」に対するその方針。

スナップチャットにはすべての政治広告に対する人間による審査を継続することを約束した、ユーザーを欺くためのAIの「誤解を招く使用」に細心の注意を払っています。

TikTokも発行しました2024 年の選挙サイクルの計画、事実確認機関とのこれまでの協力に頼って、独自のブルーチェック検証システムを繰り返しています。同プラットフォームはまた、AI操作に対して警戒を怠らないことにも言及し、「AI生成コンテンツ(AIGC)は、私たちの業界に誤った情報に関する新たな課題をもたらしているが、当社はこれに確固たるルールと新技術を用いて積極的に対処してきた。当社は、以下のような操作されたコンテンツを許可しない」と述べた。公人のAIGCが政治的見解を支持していると描写されている場合、誤解を招く可能性があります。また、現実的なAIGCにラベルを付けることをクリエイターに義務付けており、人々がこれを行うのを支援する初めてのツールを立ち上げました。」

X/Twitterは、サイト上での政治キャンペーン広告を許可する方針転換を受けて、2024年の選挙に向けた新たな政策をまだ発表していない。現在のガイドライン「合成、操作された、または文脈から外れた」コンテンツの共有を禁止し、誤った情報の拡散を阻止するためにラベル付けとコミュニティへのメモを強調します。

「一般的に言えば、ポリシーを設けているところもあるが、悪意のある者はそれらを簡単に回避する方法を見つけている」とサデギ氏は語った。 AI の誤った情報と戦うためのソーシャル メディア会社の取り組みについて説明します。 「誤った情報には常にラベルが含まれているとは限らず、ラベルが追加された時点で、すでに何千人もの人々がその情報を閲覧していることがわかりました。」

AIの文章の読み方

規制や政策の一貫した執行が欠如していることは、オンラインで拡散するコンテンツの真実性を評価する能力を備えていない潜在的な有権者にとって懸念されることです。

詐欺ニュースサイトで

オンライン ニュース ページが完全に AI によって生成されているかどうか、あるいはコンテンツの一部だけが AI ベースであるかどうかを評価する際に、NewsGuard の手法には以下の要素が含まれるとサデギ氏は説明しました。 AI 盗作の兆候をスキャンし、幻覚、サイトのポリシー自体を分析するだけでなく。

「それは主に、コンテンツの品質と性質、そしてサイトの透明性によって決まります」とサデギ氏は説明します。 「私たちがこれまで見てきた AI 生成サイトのほとんどには、矛盾する情報を含む、これらの証拠となる兆候があります。これらの AI モデルの多くは幻覚を起こし、でっち上げられた事実を生み出します。したがって、私たちはそれを頻繁に目にするでしょう。もう 1 つは、これらの Web サイトの多くは、主流の情報源からニュース コンテンツを再利用し、出所を明示せずに独自のものとして書き換えています。」

サデギ氏は、これらの記事の冒頭にある著者名(または署名欄)と、著者、編集者、または出版物自体の連絡先情報を探して事実確認することを提案しています。読者はまた、「結論として」のような、サデギの言う人間味に欠ける建設的なフレーズが大量に繰り返されることを探すこともできる。

AI によるテキスト全体の書き込みの検出

一般に、テキストの本文が AI によって生成された場合、同様の単純な戦略を使用して迅速に解読できます。

たとえば、Better Business Bureau は次のように警告しています。AI チャットボットを使用してフィッシング用のテキストを生成するおよびその他のテキストベースの詐欺。同組織は、次の点に注意することを提案しています。

  • 想像力のない言葉遣い、慣用句や短縮語を含まない短い文。

  • 信じがたい発言。

からのガイドによると、MIT のテクノロジーレビューそして名誉教授、 探す:

  • 「the」、「it」、「is」などの一般的な単語の過剰使用。

  • チャットボットがテキストを「クリーンアップ」した可能性がある、タイプミスやテキストの変化はありません。

  • 文脈、特定の事実、または統計が欠如しており、引用がありません。

  • 過度に「派手な」言葉や専門用語があり、スラングや異なる口調はほとんどありません。

研究者の中には、開発されたゲーム個人がコンピューターで生成されたテキストを読んで見つけられるようにするため。

AI が生成した画像を特定する方法

ほとんどのオンライン ユーザーは、「」の種類を見つけることに慣れています。不気味の谷AI によって生成された画像には、人間の顔がわずかにずれていること、レンダリングが不十分な手、不気味な歯を見せた笑顔などが含まれます。

しかし、ディープフェイク技術の登場により、どこからが現実でどこから AI が始まるのかを完全に特定することがますます困難になっています。

生成 AI の指紋に常に注意を払う

最初のステップは、画像のコンテキストとその表現方法を理解することです。より良いビジネス局。 「次のような種類の質問を自分自身に問いかけてください。その画像や音声は、緊急の行動を取るよう圧力をかけられているのか、見知らぬ人に送金するなど、疑わしいものなのか、あるいは予期せぬ、または奇妙な支払いメカニズムを介して使われているのか?その文脈は政治的なものなのか、誰かがあなたを怒らせたり、感情的にさせようとしているように見えますか?」

人気の有名人や著名人の画像の場合は、できるだけ高解像度の画像を検索してズームインします。よくある視覚的な間違いAI によって生成されるものは次のとおりです。

  • 浮いているオブジェクト、奇妙な対称性、または他のオブジェクトや背景に溶け込んでいるように見えるオブジェクトや衣服などの論理的な矛盾。

  • 前景と背景の区別がつかず、奇妙な影が表示されます。

  • 奇妙なテクスチャ、または皮膚の非常に「光沢のある」または「エアブラシされた」外観。

動画にも同様の精査を適用しますが、次の点にも留意してください。

  • 不自然な照明や影の動き。

  • まばたき(またはまばたきの欠如)などの不自然な体の動き。

AI が生成した音声にも注意を払い、疑問がある場合は、周囲の人や信頼できるニュース ソースに写真やビデオを再確認してください。

Google を使用した写真の事実確認

個人は、日常的に使用するツールを使用して、AI によって生成された画像を検出することもできます。 Google が最近拡張した About This Image ツールにより、AI ラベルや透かしの検索など、誰でも画像の正当性を確認できるようになりました。

これらの機能の使用方法を学ぶ

自動AI検出ツールの使い方

生成 AI が市場全体に普及するにつれて、自動 AI 検出サービスも普及しました。これらのツールの多くは AI 開発者自身によって設計されていますが、誤情報監視団体は独自の AI 発見リソースをリリースしています。

しかし、発見するために設計されたコンテンツと同様に、これらのツールにも限界があるとサデギ氏は述べた。そして、その作成者さえも非を認めています。後独自の AI テキスト分類器を起動する2023 年初頭に、OpenAI はツールを廃止しました精度が低いと報告されているため

たとえば、教育の分野では、AI と盗作ボットは、特定の非英語話者に対するモデルの偏見を悪化させ、生徒に損害を与える誤検知を生成するとして批判されています。

しかし、それらは批判的な目にとって出発点を提供します。

「GPTZeroなどのAI検出ツールが増えています」とサデギ氏は説明した。 「これらを単独で使用するのが良いとは思いません。場合によっては誤検知が発生する可能性があります。しかし、場合によっては追加のコンテキストを提供できると思います。」

無料のAI検出ツール

  • Origin ブラウザ拡張機能: AI 検出器 GPTZero によって無料のブラウザベースのツールとして作成された Origin は、ユーザーがテキストが人間によって書かれたものなのか、コンピューターで書かれたものなのかを区別するのに役立ちます。

  • コピーリーク: AI が生成したテキストや盗作をスキャンする無料の Web ツールおよび Chrome ブラウザ拡張機能。

  • ディープウェア: ディープフェイクの疑いのあるコンテンツへのリンクをコピーして貼り付けることができる、ディープフェイクのビデオおよび画像スキャナー。

有料サブスクリプションツール

  • GPTゼロ: 最も人気のある AI コンテンツ検出器の 1 つである GPTZero の有料サブスクリプションは、教師、組織、個人向けに販売されています。

  • シンセID:同社の Vertex AI プラットフォームと Imagen 画像ジェネレーターを使用する Google Cloud 加入者向けの有料ツールである SynthID は、ユーザーが AI で生成された画像を検出するのに役立ち、AI 画像作成者向けに透かしツールを提供します。

  • NewsGuard ブラウザ拡張機能: NewsGuard は、誤った情報を幅広く検出するための独自の有料サービスを提供しています。これには、AI によって改変されたコンテンツを含むニュース Web サイトの信頼性を自動的に分析するブラウザ拡張機能が含まれます。

もっと欲しいソーシャルグッドニュースはあなたの受信箱に直接配信されますか?に登録するMashable のトップ ストーリー ニュースレター今日。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.