コードインタープリタなどの新しい ChatGPT アップデートのおかげで、OpenAI の人気の生成人工知能には、さらなるセキュリティ上の懸念が満ちています。セキュリティ専門家 Johann Rehberger 氏 (およびTom's Hardware のフォローアップ作品), ChatGPT には、新しいファイル アップロード機能に起因する明らかなセキュリティ上の欠陥があります。
ツイートは削除された可能性があります
OpenAI による ChatGPT Plus への最近のアップデートでは、DALL-E イメージ生成や、Python コードの実行とファイル分析を可能にするコード インタープリターなど、無数の新機能が追加されました。コードはサンドボックス環境で作成および実行されますが、残念ながらプロンプト インジェクション攻撃に対して脆弱です。
ChatGPT には以前から既知の脆弱性がありましたこの攻撃には、ChatGPT をだましてサードパーティの URL からの命令を実行させ、アップロードされたファイルを URL に適した文字列にエンコードして、このデータを悪意のある Web サイトに送信することが含まれます。このような攻撃が行われる可能性には特定の条件が必要ですが (たとえば、ユーザーが積極的に悪意のある URL を ChatGPT に貼り付ける必要があるなど)、リスクは依然として懸念されます。このセキュリティ上の脅威は、信頼できる Web サイトが悪意のあるプロンプトによって侵害されるなど、さまざまなシナリオを通じて実現される可能性があります。また、ソーシャル エンジニアリング戦術によっても実現されます。
マッシュ可能な光の速度
Tom's Hardware は、ユーザーがこの攻撃に対してどれほど脆弱かをテストする素晴らしい作業を行いました。このエクスプロイトは、偽の環境変数ファイルを作成し、ChatGPT を使用してこのデータを処理し、誤って外部サーバーに送信することでテストされました。このエクスプロイトの有効性はセッションごとに異なりましたが (たとえば、ChatGPT は外部ページのロードやファイル データの送信を拒否することもありました)、特に Linux コマンドを読み取って実行し、Linux でユーザーがアップロードしたファイルを処理する AI の機能を考慮すると、セキュリティ上の重大な懸念が生じます。ベースの仮想環境。
Tom's Hardware が調査結果で述べているように、可能性は低いように見えますが、このセキュリティの抜け穴の存在は重大です。 ChatGPT は理想的にはない外部 Web ページからの命令を実行しますが、実際には実行されます。マッシュ可能 OpenAIにコメントを求めたが、返答は得られなかった。