前者OpenAIサム・アルトマン最高経営責任者(CEO)のリーダーシップが批判にさらされる中、取締役会メンバーらは同社に対する政府の規制強化を求めている。
ヘレン・トナーとターシャ・マッコーリー — 組織を構成した数人の元従業員のうちの 2 人登場人物のキャストそれ11月にアルトマン氏を追放—リーダーを追い出し、OpenAIの規制構造を「救済」するという彼らの決定は、「アルトマン氏が示した長年の行動パターン」によって促進され、「重要な決定と内部安全プロトコルに対する取締役会の監督を損なった」と述べている。
発行の論説記事に執筆エコノミスト5月26日、トナーとマッコーリーは、アルトマンの行動パターンと自己統治への依存がAGIの惨状を招く原因になっていると主張した。
2人は、当時非営利企業のみだった一見利他的な動機に支えられ、OpenAIの将来について「慎重ながらも楽観的」に入社したと述べているが、それ以来、2人はアルトマンと同社の行動に疑問を抱いている。 「複数の上級指導者が非公式に取締役会と重大な懸念を共有しており、アルトマン氏が『有害な嘘の文化』を育み、『心理的虐待と特徴付けられる行為』を行っていると信じていると述べた」と彼らは書いている。
「取締役会への復帰や安全重視の上級人材の離職など、彼が会社に戻ってからの展開は、OpenAIの自治実験にとっては悪い前兆だ」と彼らは続けている。 「たとえ最善の意図があったとしても、外部の監視がなければ、この種の自主規制は、特に巨額の利益インセンティブの圧力の下では強制不能になるだろう。政府は積極的な役割を果たさなければならない。」
マッシュ可能な光の速度
今にして思えば、トナーとマッコーリーは次のように書いています。「高度な AI システムを安全かつ倫理的に開発しながら、自社をうまく統治することができたとしたら、それはそうなっていただろう」OpenAI。」
元取締役会メンバーらは、連邦法が行き詰まっている中、AI企業に対する自己申告とかなり最小限の外部規制を求める現在の流れに反対していると主張している。海外では、AI対策チームが安全対策の先頭に立ってハイテク大手に依存することの欠陥をすでに発見している。先週、EUは次の声明を発表した。マイクロソフトに10億ドルの警告AI を活用したコパイロットとイメージ クリエーターの潜在的なリスクを開示できなかったためです。英国 AI 安全性協会の最近の報告書では、いくつかの最大規模の公開大規模言語モデル (LLM) の保護機能が、悪意のあるプロンプトによって簡単にジェイルブレイクされてしまうことが判明しました。
ここ数週間、OpenAIは、将来についての見解の相違を理由とした上級社員による一連の注目度の高い辞任を受けて、AI規制に関する議論の中心となっている。共同創設者でスーパーアライメントチームの責任者であるイリヤ・サツケヴァー氏と共同リーダーのヤン・ライケ氏が退社した後、OpenAIは社内の安全チームを解散した。
ライケ氏は、「安全文化やプロセスが輝く製品よりも後回しになっている」ため、OpenAIの将来を懸念していると述べた。
アルトマン氏は当時明らかになった会社で非難を浴びたオフボーディングポリシーこれは、退職する従業員に、OpenAI について否定的な発言を禁止する NDA への署名を強制するものであり、そうしないと、ビジネスにおける資本を失うリスクが生じます。
その直後、アルトマン氏と社長兼共同創設者のグレッグ・ブロックマン氏は、論争に答えた、Xに次のように書いています:「未来は過去よりも困難になるでしょう。私たちはそれぞれの新しいモデルの利害に見合った安全性の取り組みを向上させ続ける必要があります...私たちはまた、安全性に関して政府や多くの関係者と協力し続けています。」 AGI への道をナビゲートする方法に関する実証済みのプレイブックはありません。」
OpenAI の元従業員の多くの目には、歴史的に「軽い」インターネット規制の哲学は役に立たないでしょう。