仕事で使用する場合に ChatGPT と共有してはいけないもの

問題はもはや「ChatGPT で何ができるのか?」ということではありません。それは「何を共有すればいいのか?」です。

インターネット ユーザーは一般に、データ侵害の可能性のリスクと、オンラインでの個人情報の使用方法を認識しています。しかしチャットGPTの魅惑的な能力は、私たちが普段避けようとしている危険の周囲に盲点を作り出しているようです。 OpenAI はつい最近、新しいプライバシー機能 これにより、ChatGPT ユーザーはチャット履歴を無効にし、会話がモデルの改善や改良に使用されるのを防ぐことができます。

「これは正しい方向への一歩だ」と、企業のサイバーセキュリティとデータ保護に20年の経験を持つガートナーのプライバシー調査担当副社長、ネーダー・ヘネイン氏は語った。 「しかし、プライバシーと AI に関する根本的な問題は、モデルが構築された後は、遡及的なガバナンスに関してはほとんど何もできないことです。」

Henein 氏は、ChatGPT を、バスの中であなたの後ろに座っている愛想の良い見知らぬ人がカメラ付き携帯電話であなたを録画していると考えてくださいと言います。 「彼らはとても優しい声をしていて、いい人そうに見えます。それでは、行ってその人と同じ会話をしてみませんか? なぜなら、それがそういうものだからです。」彼は続けて、「それは善意だが、もしそれがあなたを傷つけるなら、それは社会病質者と同じで、彼らはそれについて二度考えないだろう。」と続けた。

OpenAI の CEO である Sam Altman でさえ、ChatGPT に依存するリスクを認めています。 「今、何か重要なことについてそれに依存するのは間違いです。私たちは堅牢性と真実性に関してやるべきことがたくさんあります。」と彼は言いました。ツイートした2022年12月に。

ツイートは削除された可能性があります

基本的に、ChatGPT プロンプトは、オンラインで公開する他のプロンプトと同様に扱います。フレッチャー・ジョーンズ教授のゲイリー・スミス氏は、「電子メール、ソーシャルメディア、ブログ、LLMなど、インターネット上に置いたものはすべて世界中の誰もが読むことができるという前提があり、他人に読まれたくないものは決して投稿しないでください」と述べた。ポモナ大学で経済学の博士号を取得し、以下の著者不信感: ビッグデータ、データ拷問、科学への攻撃。 ChatGPTは、ファクトチェックが行われている限り、Google検索やWikipediaの代替として使用できると同氏は述べた。しかし、それ以外にあまり依存すべきではありません。

肝心なのは、依然としてリスクがあり、ChatGPT の魅力によってさらに不安定になっているということです。 ChatGPT を私生活で使用している場合でも、仕事の生産性を向上させるために使用している場合でも、これは、ChatGPT で何を共有するかについてよく考えてくださいという親切なリマインダーであると考えてください。

ChatGPT を使用するリスクを理解する

まず、OpenAI がデータの使用方法についてユーザーに伝える内容を見てみましょう。プライバシーの優先順位は誰もが同じではありませんが、次回 ChatGPT を開くときに備えて、詳細を理解しておくことが重要です。

1.超人気アプリにハッカーが侵入する可能性

何よりもまず、OpenAI の外部の誰かがハッキングしてデータを盗む可能性があります。サードパーティのサービスを使用する際には、バグやハッカーによるデータ漏洩のリスクが常に伴います。ChatGPT も例外ではありません。 2023 年 3 月には、ChatGPT のバグChatGPT Plus ユーザーからのタイトル、新しい会話の最初のメッセージ、支払い情報が公開されていることが発見されました。

「あなたが押し込んでいるこれらの情報はすべて、機械学習攻撃の影響を受けやすい可能性が十分にあるため、非常に問題があります。それが第一です」とヘネイン氏は言いました。 「第二に、おそらくログのどこかに平文で保存されているでしょう。誰かがそれを見るかどうかは、私にもあなたにもわかりません。それが問題です。」

マッシュ可能な光の速度

2. 会話はサーバー上のどこかに保存されます

可能性は低いですが、特定の OpenAI 従業員がユーザー コンテンツにアクセスできます。 ChatGPT についてよくある質問ページ, OpenAIは、ユーザーのコンテンツは同社のシステムやその他の「米国の信頼できるサービスプロバイダーのシステム」に保存されていると述べている。そのため、OpenAI は識別可能な個人情報を削除しますが、「匿名化」される前は、サーバー上に生の形式で存在します。一部の認定された OpenAI 担当者は、4 つの明確な理由でユーザー コンテンツにアクセスできます。そのうちの 1 つは、ユーザーがオプトアウトしない限り、モデルを「微調整」するためです。

3. あなたの会話はモデルのトレーニングに使用されます (オプトアウトしない限り)

後でオプトアウトすることになりますが、そうしない限り、会話は ChatGPT のトレーニングに使用されます。 OpenAI のサイト上の複数の記事に散在するデータ使用ポリシーによると、言う, 「モデルを改善するために、お客様から提供されたデータを使用する場合があります。」の上別のページ, OpenAIは、「個人情報を集約または匿名化して、集約された情報を当社サービスの有効性を分析するために使用する」可能性があると述べています。これは、理論的には、モデルが「学習」するあらゆるものを通じて、一般の人々が企業秘密のようなものに気づく可能性があることを意味します。

以前は、ユーザーは FAQ ページにリンクされている Google フォームを通じてモデルとのデータ共有をオプトアウトすることしかできませんでした。今、OpenAIが導入したChatGPT アカウント内の切り替え設定の形式でデータ共有を無効にする、より明示的な方法。ただし、この新しい「シークレット モード」を使用しても、会話は OpenAI のサーバーに 30 日間保存されます。ただし、同社はデータをどのように安全に保つかについてはほとんど語っていません。

4. あなたのデータは第三者に販売されないと同社は言う

OpenAI は、マーケティングや広告目的でユーザー データを第三者と共有することはないと述べているため、心配する必要は 1 つ少なくなります。ただし、サイトの保守と運用のためにユーザーデータをベンダーやサービスプロバイダーと共有します。

仕事で ChatGPT を使用すると何が起こるでしょうか?

ChatGPT と生成 AI ツールは、究極の生産性ハックとして宣伝されています。 ChatGPT は、記事、電子メール、ソーシャル メディア投稿、および長いテキストの要約の下書きを作成できます。 「考えられる限り、まだ行われていない例はない」とヘネイン氏は語った。

しかし、いつSamsung 従業員が ChatGPT を使用コードをチェックするために、うっかり企業秘密を漏らしてしまったのです。エレクトロニクス会社はそれ以来、ChatGPTの使用を禁止しましたそして従業員が新しい制限を遵守しない場合は懲戒処分を科すと脅迫した。などの金融機関JPモルガンバンク・オブ・アメリカ、 そしてシティグループまた、サードパーティのメッセージングに関する厳格な金融規制により、ChatGPT の使用が禁止または制限されています。りんご従業員によるチャットボットの使用も禁止した。

日常的な作業を数秒に短縮したいという誘惑は、ユーザーが基本的にこの情報をオンラインで公開しているという事実を覆い隠しているように思えます。 「電卓を考えるのと同じように、Excel のように考えるのです」と彼は言いました。 「この情報がクラウドに送られ、どこかのログかモデル自体に永続的に存在するとは考えていません。」

したがって、職場で ChatGPT を使用して、理解していない概念を分析したり、コピーを作成したり、公開されているデータを分析したりする場合、およびそれを禁止するルールがない場合は、慎重に進めてください。ただし、たとえば、開発中の極秘ミサイル誘導システムのコードを評価するように依頼したり、競合会社に組み込まれている企業スパイとの上司の会議の概要を書かせるよう依頼したりする場合は、細心の注意を払ってください。そうなると仕事が失われるか、それ以上の事態になる可能性があります。

ChatGPT をセラピストとして使用すると何が起こるでしょうか?

調査ヘルステック企業 Tebra が行った調査によると、アメリカ人の 4 人に 1 人は、治療に参加するよりも AI チャットボットと話す可能性が高いことが明らかになりました。 ChatGPT を治療の形式、または求めています薬物乱用を助ける。これらの例は、ChatGPT がどのように役立ち、批判的でなく、匿名の会話パートナーとなり得るかについての興味深い使用例として共有されました。しかし、あなたの最も深く、最も暗い告白はサーバーのどこかに保存されます。

ツイートは削除された可能性があります

人々は自分の ChatGPT セッションを「壁に囲まれた庭園」のようなものだと考える傾向があるとヘネイン氏は言います。 「最後にログアウトすると、[セッション] 内のすべてのものがトイレに流され、会話は終わります。しかし、そうではありません。」

あなたがインターネット上の人物であれば、あなたの個人データはすでにあちこちに散らばっています。しかし、親密な個人的な考えを明らかにしなければならないと感じるかもしれない ChatGPT の会話メディアではありません。 「LLMは幻想です。強力な幻想ですが、それでも1960年代にジョセフ・ワイゼンバウムが作成したイライザ・コンピュータ・プログラムを彷彿とさせる幻想です」とスミス氏は述べた。

スミス氏は「イライザ効果」、つまり無生物を擬人化する人間の傾向について言及している。 「ユーザーはコンピューター プログラムと対話していることを知っていましたが、多くの人はプログラムが人間のような知性と感情を持っていると確信しており、自分の最も深い感情や最も密接な秘密を喜んで共有しました。」

したがって、OpenAI が会話をどのように保存するかを考えると、自分の心の奥底にある考えを世界に発信する準備ができていない限り、OpenAI がメンタルヘルスの魔術師であるかのような錯覚に陥り、自分の奥底にある考えを口走ってしまわないようにしてください。

ChatGPT でデータを保護する方法

ChatGPT を使用するときにシークレットモードになる方法があります。つまり、会話は 30 日間保存されますが、モデルのトレーニングには使用されません。アカウント名に移動すると、設定が開き、[データ コントロール] をクリックします。ここから、「チャット履歴とトレーニング」をオフに切り替えることができます。 [一般]、[すべてのチャットをクリア] の順にクリックして、過去の会話をクリアすることもできます。

設定ページに移動して、チャット履歴を無効にします。 クレジット: OpenAI

データとアイデンティティを保護するための最適な VPN




Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.