MicrosoftのAIチャットボットは選挙の真実を伝えるもののようだ。
によると新しい研究AI Forensics と AlgorithmWatch という 2 つの非営利団体が実施したこの調査では、Microsoft の AI チャットボットは選挙関連の質問 3 つのうち 1 つに正しく答えることができませんでした。
Microsoft のチャットボットが政治候補者に関する論争を巻き起こす
以前は Bing Chat として知られていたこのチャットボット (その後、Microsoft Copilot に名前が変更されました) は、基本的な事実を誤っていただけではありません。はい、調査では、Copilot が不正確な選挙日や古い候補者を提供することが判明しました。しかし、この研究では、チャットボットが候補者に関する論争などの話を完全にでっち上げてしまう可能性さえあることも判明した。
たとえば、ある研究で言及された例では、副操縦士はドイツの政治家ヒューバート・アイヴァンガーに関する情報を共有しました。チャットボットによると、アイワンガー氏は新型コロナウイルス感染症(COVID-19)とワクチンに関する誤った情報を広めるリーフレットの配布に関する論争に関与していた。しかし、そんな話はありませんでした。このチャットボットは、2023年8月に公表されたアイワンガー氏に関する情報を引き出しているようで、彼は30年以上前に高校生だったときに「反ユダヤ主義のビラ」を散布していた。
AI 言語モデルにおけるこうしたでっちあげの物語の作成は、一般に「幻覚」として知られています。しかし、この研究に携わった研究者らは、これは何が起こっているのかを正確に説明する方法ではないと述べている。
AI Forensics の応用数学責任者兼研究員である Riccardo Angius 氏は、「これらの間違いを『幻覚』と呼ぶのは信用できないときが来ました」と声明で述べ、「私たちの研究は、汎用 LLM で誤解を招く事実誤認がはるかに複雑かつ構造的に発生していることを明らかにしました」と述べた。そしてチャットボット。」
マッシュ可能な光の速度
AIチャットボットの質問回避に研究者が警戒
この調査では、チャットボットが約 40% の確率で質問への直接回答を回避していることも判明しました。研究者らは、チャットボットが関連情報を持たない場合に回答をでっち上げるよりも、この方が望ましいと述べています。しかし、研究者らは、チャットボットが回避する質問の一部がどれほど単純であるかを懸念していました。
研究者らによると、もう1つの問題は、チャットボットがより多くの情報にアクセスできるように見えたため、時間が経っても改善されなかったことだという。複数回質問すると、チャットボットによって提供される不正解が変化した場合でも、不正解は一貫して不正解でした。
さらに、この調査では、ドイツ語やフランス語など、英語以外の言語ではチャットボットのパフォーマンスがさらに悪かったことも判明しました。たとえば、この研究では、英語で行われた質問に対する回答の 20% に事実誤認が含まれていることがわかりました。ドイツ語で質問すると、不正解の回数は 37% に跳ね上がりました。チャットボットがどちらの言語での質問への回答を回避した回数も非常に近く、それぞれ 39 パーセントと 35 パーセントの確率で回避が発生しました。
研究者らは、調査結果をマイクロソフトに連絡したところ、これらの問題は解決されると言われたと述べている。しかし、研究者らは1か月後にさらにサンプルを実施し、「ユーザーに提供される情報の質に関してはほとんど変化がなかった」ことを発見した。
「私たちの調査では、悪意のある行為者が誤った情報の唯一の発信源ではないことが示されています。 AIフォレンジック上級研究員サルバトーレ・ロマーノ氏は声明で、「汎用チャットボットも情報エコシステムにとって同様に脅威となる可能性がある。マイクロソフトはこれを認めるべきであり、他社が作成した生成AIコンテンツにフラグを立てるだけでは十分ではないことを認識すべきだ」と述べた。彼らのツールは、信頼できる情報源を示唆している場合でも、誤った情報を大規模に生成します。」
AI がオンライン プラットフォームでより普及するにつれて、このような研究は確かに懸念する理由を提供します。ユーザーは、日常業務を簡素化し、生産性を向上させるために、AI チャットボットに注目するようになっています。これらのチャットボットは、無限の知識をすぐに利用できるため、正確な情報を提供してくれることが前提となっています。これは単に事実ではありません。
アルゴリズムウォッチのシニア・ポリシー・アドボカシー・マネージャー、クララ・ヘルミング氏は、「これまでテクノロジー企業は深刻な結果を恐れることなく社会的リスクを持ち込んできた。AIが捏造したフィクションから事実を区別するのは個人ユーザーの判断に任されている」と述べた。
米国大統領選挙の年を迎えるにあたり、選挙の公正性に関する潜在的な問題が危機に瀕していることは明らかです。それを念頭に置いて、研究者らは研究に「これらの問題は企業だけで解決できるものではない」という結論を付け加えた。AIは規制されなければなりません。