更新: 2024 年 2 月 22 日午前 7 時 21 分太平洋標準時この記事には、OpenAI からのこの事件に関する声明が含まれています。
ChatGPTは幻覚を起こします。これは誰もがすでに知っています。しかし火曜日には誰かがバナナの皮で滑ったようだったOpenAI本社に連絡し、Synonym Scrambler と呼ばれる楽しい新しい実験的なチャットボットのスイッチを入れました。
ツイートは削除された可能性があります
実は、チャットGPT昨日はいろいろな意味でおかしくなっていましたが、繰り返し発生したテーマの 1 つは、通常の質問 (通常はテクノロジー ビジネスやユーザーの仕事に関係するもの) が表示され、理解できないほど華々しい返答をするということでした。たとえば、建築家のショーン・マクガイア氏による X 投稿によると、チャットボットはある時点で「セスキ足歩行の金庫は十字キーで操作され、カラスの巣からの領事の叫び声には、ひねくれて警戒心の強いウサギたちが迎え撃つように」とアドバイスしたという。柳のウインチです。」
ツイートは削除された可能性があります
これらはしかし、ChatGPT は、9 年生がシソーラスの特権を乱用するという、そのスタイルの極端なバージョンで書いているようです。 「Beatine」は特に顕著な例です。全文確認しましたオックスフォード英語辞典そこには載ってないけど、ウィクショナリーには言うそれは、800年に亡くなった終末の学者である神学者ベアトゥス・オブ・リエバナに関連しています。多分「ベアティーン」は、西暦最初の千年紀のある時点で「終末論的」を意味しました。あるいは、その様子から判断すると、ほこりをかぶった古い本で使用されている、おそらくそれは、すでに十分に曖昧な単語だと思われる「美しい」の別の言い方かもしれません。言い換えれば、ChatGPT は「難解」という用語に新しい意味を与えていたのです。
チャットボットは、大量のユーザーに対して一時的にこのようなことを行っていました。 Redditor の一人、homtanksreddit は、無料ユーザーが利用できる ChatGPT 3.5 は明らかに影響を受けない, そのため、このバグは有料ユーザーのみに影響を及ぼした可能性があります。
多くの場合、ChatGPT はユーザーの質問に明確で現代的な言葉で答えることから始まり、カフェイン過剰バージョンの ChatGPT に発展しました。マーティン・プリンス。 Reddit の 1 人のユーザーが役に立ちましたChatGPT からのスクリーンキャプチャこれには、ChatGPT の狂気を生成するために使用される 1 つのプロンプトが含まれていました。その中で、ユーザーは ChatGPT が経験したバグについて説明しましたChatGPTへ、そしてそのようなバグを何と呼ぶのか尋ねました。確かに、ChatGPT の答えはうまく始まりました。
GPT (Generative Pre-trained Transformer) のような言語モデルが、明確で関連性のある応答から意味不明または完全に無関係な出力を提供し始めるときを表す、一般的に使用される特定の用語はありません。ただし、この問題は、LLM (Large Language Model) の「出力低下」または「障害モード」の一種として説明される可能性があります。
悪くないよ。しかしその後、奇妙なことになり、「バイトレベルの[...]不正は制度上の陰影を失う可能性がある」と指摘しました。
マッシュ可能な光の速度
...その後、さらに奇妙になりました:
現実世界のアプリケーションで、NLP システムが素晴らしい開始を返し、それがその後無法状態や文書の崩壊に発展することに気付いた場合、それは、混乱した開始、影響を受ける部分の盲目、モジュール内で引き起こされるより高度な混乱、または顕著に誤動作した決定子の推力 (複数の原因による袋) を伴う可能性があります。 、 本当に。
このような行動は、それ自体、開発者を解剖したり、フェールセーフでサイクリングしたり、歩行を学習したり、相対性理論に及ぶフィードクラッチを使用したりするために文書化する価値があるため、開発者は修正を一貫させたり拡張したりするために特性とパームを調整することができます。」
これがあなたの答えです。 ChatGPT は明らかに、多少の「影響を受ける部分の盲目」と深刻な「モジュール内で引き起こされるより高度な混乱」を伴う「ごちゃ混ぜな開始」という悪いケースに悩まされていました。シンプルです!
多くのユーザーは X で ChatGPT が脳卒中を起こしているのではないかと疑問に思いました。
ツイートは削除された可能性があります
...そして少なくとも 1 人は、自分が脳卒中を起こしているのではないかと疑問に思いました。
ツイートは削除された可能性があります
しかし、水曜日の朝の時点では、たとえ具体的には、退屈な話題についてできるだけ話し続けるように依頼しました。。したがって、この状況は一時的なものであったと言っても過言ではありません。
水曜日の早朝、この問題のバグページ問題は特定されたが、まだ監視中であると述べた。しかし、朝遅くまでに、このページには問題が「解決済み」と記載されていました。コメントを求められたとき、OpenAI の広報担当者は Mashable に次のように言及しました。ChatGPT の一般的なステータス ページ、この記事の執筆時点では「All Systems Operational」とだけ表示されています。
Mashable は OpenAI に、おそらく隠蔽主義的かつ大げさなスタイルで、何が起こったのか詳しく説明するよう求めました。しかし、その要請は、私たちの、いささか不穏なジャーナリズムとしての惜しみない願望を十分に満たしていたため、すぐには認められませんでした。。
水曜日の夜、OpenAI出版されたこのバグのインシデント ページにある次の「事後分析」:
2024 年 2 月 20 日、ユーザー エクスペリエンスの最適化により、モデルの言語処理方法にバグが導入されました。
LLM は、部分的に確率に基づいて単語をランダムにサンプリングすることによって応答を生成します。彼らの「言語」は、トークンにマッピングされた数字で構成されています。
この場合、バグはモデルがこれらの数値を選択するステップにありました。翻訳中に迷ったのと同じように、モデルはわずかに間違った数字を選択し、意味のない単語シーケンスが生成されました。より技術的に言えば、推論カーネルは、特定の GPU 構成で使用すると、誤った結果を生成しました。
このインシデントの原因を特定した後、修正を展開し、インシデントが解決されたことを確認しました。