ChatGPT と共有したものはすべて保持され、モデルをさらにトレーニングするために使用されることを決して忘れないでください。サムスンの従業員は、極秘情報を誤って漏洩した後、苦労してこのことを学びましたサムスンデータ。
Samsung の従業員が、仕事でのサポートのために ChatGPT を使用しているときに、誤って機密情報を共有してしまいました。サムスンの半導体部門は、エンジニアがソースコードをチェックするためにChatGPTを使用できるようにした。
しかし、エコノミスト・コリア報告されましたSamsung 従業員が意図せずに機密情報を ChatGPT に漏洩した 3 つの別々の事例。ある例では、従業員がエラーをチェックするために機密のソース コードをチャットに貼り付けました。別の従業員が ChatGPT とコードを共有し、「コードの最適化を要求」しました。 3 番目は、プレゼンテーション用のメモに変換するために会議の記録を共有しました。その情報は現在、ChatGPT が利用できるように公開されています。
マッシュ可能な光の速度
この漏洩は、プライバシーの専門家が考えてきた仮説シナリオの実例です。心配している。その他のシナリオには、長いテキストを要約または分析する目的で機密の法的文書や医療情報を共有し、モデルを改善するために使用することが含まれます。専門家は、GDPR準拠に違反する可能性があると警告しており、そのためイタリアは最近禁止されたチャットGPT。
SamsungはChatGPTのアップロード容量を1人当たり1024バイトに制限するなどの措置を直ちに講じ、漏洩に関与した人物を調査している。将来の恥ずかしい事故を防ぐために、独自の社内 AI チャットボットを構築することも検討しています。しかし、サムスンが流出したデータを回収する可能性は低い。 ChatGPTのデータポリシーあなたがオプトアウトを要求しない限り、モデルをトレーニングするためにデータを使用すると述べています。 ChatGPT の使用ガイドでは、明示的にユーザーに警告する会話の中で機密情報を共有しないこと。
これは、次回 ChatGPT に助けを求めるときに覚えておくべき教訓の話であると考えてください。サムスンは間違いなくそうするだろう。