更新: 1 月2024 年 3 月 30 日、午後 4 時 01 分(東部標準時)この記事は、OpenAI の調査に関する声明と問題の原因に関する確認を含むように更新されました。
当初信じられていたものChatGPTデータ漏洩OpenAI によると、これはハッカーの仕業です。
によるとアルス テクニカでは、Chase Whiteside という名前のユーザーが、処方薬ポータル上の薬局の顧客と思われる人物から、知らず知らずのうちにログイン資格情報と個人情報を受け取りました。これは無関係な問い合わせに対する回答だったため、ホワイトサイド氏はそれをテクノロジーニュースサイトと共有した。
ホワイトサイドさんは電子メールで「問い合わせをしに行った(この場合、パレット内の色の賢い名前を考えるのを手伝ってほしい)」と書いた。 「しばらくしてアクセスに戻ったとき、追加の会話に気づきました。」 OpenAIはMashableへの声明で、「悪用」はアカウントがハッキングされたことによるものだと述べた。
「私たちの調査結果によると、ユーザーのアカウントのログイン認証情報が侵害され、悪意のある攻撃者がそのアカウントを使用したことがわかりました。表示されているチャット履歴とファイルはこのアカウントの悪用による会話であり、ChatGPT が別のユーザーの履歴を表示したケースではありません」 。」
情報を漏洩したと思われる応答は、ブルックリンにあるホワイトサイドの所在地ではなく、スリランカで作成された会話の結果であり、同じ場所からのログインの時間枠内に収まりました。
マッシュ可能な光の速度
Ars Technica によると、ホワイトサイド氏は自身のアカウントが侵害されたことに懐疑的である。彼は、特殊記号と小文字と大文字を組み合わせた 9 文字のパスワードを使用していると主張しています。さらに、彼はそれを自分の Microsoft アカウントにのみ使用し、他の場所では使用しません。
OpenAIは、この問題は他では見られていないと述べた。
この会話は、薬局で使用されているアプリ (名前は Ars Technica によって編集されています) に関する問題のトラブルシューティングに不満を抱いた従業員によるものと思われます。アプリを軽蔑する全文に加えて、流出には顧客のユーザー名、パスワード、従業員の店舗番号も含まれていた。これが事実かどうかは不明ですが、フィードバック チケット全体が ChatGPT の応答に含まれていたようです。
ChatGPT はプライバシーとデータ セキュリティに関する懸念を引き起こしています。ハッカーそして研究者プロンプトインジェクションまたはジェイルブレイクによって機密情報を抽出できる脆弱性を発見しました。
昨年の 3 月にバグが発見されました。ChatGPT Plus ユーザーの支払い情報が明らかになった。 OpenAIですが対処されたChatGPT ユーザーに関連する特定の問題については、ChatGPT と共有される個人情報や機密情報は保護されません。これは、サムスンの従業員がコードを支援するために ChatGPT を使用した場合に当てはまりました。誤って漏れたこれが、多くの企業が ChatGPT の使用を禁止している理由です。
OpenAIによるとプライバシーポリシー、入力データは匿名化され、個人を特定できる情報が削除されることになっています。しかし、メーカー自身が特定の出力につながるものを常に正確に特定できるわけではなく、LLM に固有のリスクが浮き彫りになっています。
この事例はハッカーの仕業である可能性がありますが、常に言及する価値があります。共有しないでくださいChatGPT を使用した機密情報や個人情報。