OpenAI は、最近の倫理的および規制上の反発を受けて、安全性の問題に取り組んできました。
の声明木曜日に発表されたこの記事は、反論と謝罪のハイブリッドであり、同時に自社製品が安全であることを国民に保証すると同時に、改善の余地があることを認めることを目的としていた。 OpenAIの安全に関する誓約は、浮上した複数の論争に対するモグラたたきのような対応だ。スティーブ ウォズニアック氏やイーロン マスク氏を含む AI 専門家や業界リーダーが 1 週間で公開書簡GPT-4のようなモデルの開発を6か月間停止するよう求め、チャットGPT真っ平らだった禁止されたイタリアでは、そして苦情特に子供たちに危険な誤報のリスクをもたらしたとして連邦取引委員会に申し立てられた。ああ、それもありましたねバグユーザーのチャット メッセージや個人情報が漏洩した。
OpenAIは、「あらゆるレベルでシステムに安全性が組み込まれていることを保証する」ために機能すると主張した。 OpenAIはGPT-4をリリースする前に6カ月以上の「厳格なテスト」を行い、18歳以上(または親の承認があれば13歳以上)の年齢要件を強制するための検証オプションを検討していると述べた。同社は個人データを販売しておらず、AIモデルを改善するためにのみ使用していると強調した。また、「安全なAIエコシステムを構築する」ため、政策立案者と協力し、AI関係者と継続的に協力する意向を表明した。
マッシュ可能な光の速度
安全誓約の中盤あたりで、OpenAI は、安全な LLM の開発は現実世界の意見に依存していることを認めました。パブリックインプットから学習することでモデルの安全性が高まり、OpenAIが悪用を監視できるようになると主張している。 「現実世界での使用により、当社のテクノロジーの多くの有益な使用を許可しながら、人々にとって真のリスクとなる行為に対して、ますます微妙なポリシーを開発することにもつながりました。」
OpenAIは「安全性へのアプローチの詳細」を約束したが、年齢確認を検討するという保証を超えて、発表のほとんどは決まり文句のように読めた。リスクの軽減、ポリシーの強制、規制当局との連携をどのように計画しているかについては、あまり詳細は明らかにされなかった。
OpenAIは透明性を持ったAI製品の開発に誇りを持っているが、今回の発表では、同社のAIが世に出た今、何を計画しているのかについてはほとんど明確になっていない。