OpenAI同社は、安全・安心チームを刷新、以下のいくつか公の辞任そして以前の監視機関の解散。
名前が変更された安全セキュリティ委員会は、取締役会のメンバーおよびディレクターであるブレット・テイラー (Sierra)、アダム・ディアンジェロ (Quora)、ニコール・セリグマン、そしてもちろん、OpenAI CEO のサム・アルトマンによって率いられています。他のメンバーには、「準備」、「安全システム」、「調整科学」の責任者を含む社内の「OpenAI 技術および政策専門家」が含まれます。
「OpenAI は最近、その次のフロンティア モデルのトレーニングを開始しており、その結果として得られるシステムが、AGI への道において次のレベルの機能をもたらしてくれることを期待しています。」書きましたオープンAI。 「私たちは、機能と安全性の両方で業界をリードするモデルを構築し、リリースできることを誇りに思いますが、この重要な時期にしっかりとした議論を歓迎します。」
マッシュ可能な光の速度
委員会の最初のタスクは、「OpenAI の評価とさらなる開発」です。プロセスと保護措置今後90日間にわたって」と同社は発表文の中で述べており、元NSAサイバーセキュリティ局長ロブ・ジョイス氏など、すでにOpenAIの外部監視名簿に名を連ねている外部専門家からのフィードバックも盛り込まれている。
この発表は、OpenAIで渦巻く経営論争に対するタイムリーな対応ではあるが、外部の監視の目を安心させたり、外部の監視を支持したりする人たちを安心させるにはほとんど役立たないかもしれない。今週は、元 OpenAI 取締役会メンバーが政府による規制の強化を求めたAI セクターの意見を述べ、特に OpenAI のリーダーとしての役割を担ったアルトマン氏が育てた不適切な経営判断と有害な文化を批判しました。
「たとえ最善の意図があったとしても、外部の監視がなければ、この種の自主規制は、特に莫大な利益インセンティブの圧力の下では強制力がなくなるだろう」と彼らは主張した。
OpenAI の新しい委員会は、同社の AI 保護策を評価するという即時任務を課せられ、真っ向から火の中に放り込まれています。しかし、それらさえも十分ではないかもしれません。