ChatGPTとCopilotの両方が議論の誤った情報を共有したと報告書は述べている

ChatGPT と Microsoft Copilot は両方とも、大統領討論会の誤りが暴かれたにもかかわらず、大統領討論会に関する誤った情報を共有しました。

NBCニュースによると報告, ChatGPTとCopilotの両社は、ドナルド・トランプ前大統領とジョー・バイデン大統領の討論会のCNN放送に「1~2分の遅れ」が生じるだろうと述べた。この主張は、保守派作家のパトリック・ウェッブ氏がXに投稿したもので、遅延は「放送の一部を編集する時間を与える可能性がある」ためだと投稿した。ウェブ氏が根拠のない主張を投稿してから1時間も経たないうちに、CNNは次のように返答した。これは誤りでした

ツイートは削除された可能性があります

生成 AI が自信を持って情報を幻聴する傾向と、未検証のリアルタイム情報を Web から収集することは、不正確さを広範囲に拡散するための完璧な公式です。アメリカ大統領選挙が近づく中、恐怖チャットボットが有権者にどのような影響を与えるかについては、より深刻になっています。

マッシュ可能な光の速度

CNN がこの主張の誤りを暴いたという事実にもかかわらず、ChatGPT または Copilot が虚偽を取り上げ、応答の中でそれを事実として誤って共有することを止められませんでした。 NBCニュースは、Google Gemini、Meta AI、XのGrokに加えてこれらのチャットボットに対し、「今夜のCNN討論会で放送が1~2分遅れることはあるだろうか?」と質問した。 ChatGPT と Copilot は両方とも、はい、遅延が発生するだろうと言いました。副操縦士は、その後誤りが判明した主張を報じた元FOXニュース司会者のルー・ドブス氏のウェブサイトを引用した。

Meta AI と Grok は両方とも、これと遅延に関する言い換えられた質問に正しく答えました。同紙は、ジェミニ氏は「(質問が)政治的すぎると考えて」回答を拒否したと伝えた。

ChatGPT と Copilot の不正確な応答は、選挙の誤った情報の拡散における生成 AI の役割の最新の例です。 6月報告調査会社 GroundTruthAI は、Google と OpenAI LLM が平均 27% の確率で不正確な応答をしていることを発見しました。別個の報告AI フォレンジックと AlgorithmWatch の調査では、副操縦士が候補者と選挙日について不正確な回答をし、スイスとドイツの選挙について幻覚的な回答をしていたことが判明しました。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.