人気のある、不気味な人間のような OpenAI チャットボットチャットGPTの新たな調査によると、この施設は低賃金で精神的に搾取された従業員の上に築かれていたことが判明した。時間。
ケニアを拠点とするデータラベル付けチーム、サンフランシスコの会社が管理同じ、伝えられるところによると、会社で働いて衝撃的な低賃金を支払われただけではなく、マイクロソフトから100億ドルの投資を受ける予定である、しかし、ChatGPTから危険なヘイトスピーチや暴力を一掃するために、不穏な生々しい性的コンテンツにもさらされました。
2021 年 11 月から、OpenAI は従業員に数万件のテキスト サンプルを送信し、従業員は児童の性的虐待、獣姦、殺人、自殺、拷問、自傷行為、近親相姦などの事例を精査する任務を負っていました。時間報告した。チームのメンバーは、この種のエントリを 1 日に何百件も読まなければならないと話しました。時給1ドルから2ドル、あるいは月給170ドルの場合、一部の従業員は自分たちの仕事が「精神的に傷つき」、ある種の「拷問」であると感じていた。
伝えられるところによると、Sama の従業員にはカウンセラーによるウェルネス セッションや個人およびグループ療法が提供されたとのことですが、インタビューを受けた数人の従業員は、同社のメンタルヘルスケアの現実は期待外れで近づきがたいものであると述べました。同社は従業員のメンタルヘルスを真剣に受け止めていると回答した。
の時間調査では、同じ従業員グループが、未公開の OpenAI プロジェクト用の膨大なグラフィック (そしてますます違法であると思われる) セットを編集し、ラベルを付ける追加の作業を与えられていたことも判明しました。 Sama は 2022 年 2 月に OpenAI との契約を終了しました。12 月までに、ChatGPT が革新的な AI の発言の次の波としてインターネットを席巻し、チャット ルームを引き継ぐことになります。
マッシュ可能な光の速度
ChatGPT は、開始当時、次の機能を備えていることで注目されました。驚くほど包括的な回避システムが導入されているこれは、ユーザーが AI を誘惑して人種差別的、暴力的、またはその他の不適切なフレーズを言わせるのを防ぐのに大いに役立ちました。また、チャット自体内で偏見があると判断したテキストにフラグを立て、赤色にしてユーザーに警告を表示しました。
AI の倫理的な複雑さ
OpenAIの隠れ従業員のニュースは当惑させるものではあるが、人間ベースのコンテンツモデレーションの倫理は新しい議論ではなく、特に無料投稿とユーザーベースの保護の間の境界線を悩ませているソーシャルメディアスペースでは、まったく驚くべきことではない。 2021 年には、ニューヨークタイムズ報告されましたFacebook が投稿モデレーションを Accenture として知られる会計およびラベル作成会社にアウトソーシング。両社は世界中の従業員に対するモデレーションを外部委託し、その後、心理的に仕事の準備ができていない従業員の大量離職に対処することになった。 Facebookは2020年、トラウマを負った労働者に5,200万ドルの和解金を支払った。
コンテンツのモデレーションは、オランダ人作家ハンナ・ベルヴォエツの2022年のスリラー映画など、心理的恐怖や黙示録的なテックメディアの主題にもなっている。この投稿は削除する必要がありましたは、企業の品質保証員の精神的衰弱と法的混乱を記録しています。これらの登場人物、そして作品の背後にある実際の人々にとって、テクノロジーとインターネットをベースにした未来の倒錯は永続的なトラウマです。
ChatGPT の急速な乗っ取りと、AI アート ジェネレーターの相次ぐ波は、データを引き渡す意欲がますます高まっている一般の人々にいくつかの疑問を投げかけています。社交的およびロマンチックな相互作用、さらには文化創造からテクノロジーまで。実際の情報やサービスを提供するために人工知能に頼ることはできるでしょうか?リアルタイムでフィードバックに応答できるテキストベースの AI は学術的にどのような意味を持つのでしょうか?コンピューターの世界で新しいアートを構築するためにアーティストの作品を使用するのは非倫理的ですか?
これらに対する答えは明らかですが、道徳的に複雑です。チャットはそうではありません正確な知識の宝庫または独創的なアイデアですが、それらは興味深いソクラテス的な演習を提供します。彼らは急速に盗作の道を拡大していますが、多くの学者は、創造性を促すツールとしてのその可能性に興味を持っています。。の搾取アーティストとその知的財産は深刻化する問題です、しかし、いわゆるイノベーションの名の下に、今のところそれを回避することはできますか?クリエイターは、舞台裏で実際の人々の健康を危険にさらすことなく、これらの技術の進歩に安全性を組み込むにはどうすればよいでしょうか?
1 つ明らかなことは、次の技術フロンティアとしての AI の急速な台頭により、実際に人的コストをかけて人間の相互作用を再現するツールの作成と適用に関して、新たな倫理的困難が生じ続けているということです。
性的虐待を受けた場合は、秘密厳守の無料全国性的暴行ホットライン 1-800-656-HOPE (4673) に電話するか、次のサイトにアクセスして 24 時間年中無休のオンライン ヘルプにアクセスしてください。online.rainn.org。