OpenAIの安全リーダーの1人が火曜日に辞めた。彼はその理由を説明しただけだ。

OpenAI有名なそれだけではありません開ける。目もくらむような最先端の AI 製品が何の前触れもなく出現し、興奮と不安を同程度に生み出します。軽蔑)。しかし、製品開発と同様に、同社の内部文化も異常に不透明であり、そのため、OpenAIの安全性問題を監督する立場にある「スーパーアライメント」チームの共同代表を辞任したジャン・ライク氏が、この問題に反対の立場を表明したことは、さらに不安を増大させる。会社。

ツイートは削除された可能性があります

このようなことは、OpenAI を注意深く観察している人々によって部分的に予想されていました。同社の著名な元主任研究員イリヤ・サツケヴァー氏も火曜日に突然辞任し、「#WhatDidIlyaSee」がトレンドのハッシュタグになったもう一度。ハッシュタグの傲慢な表現 – 元々はサツケヴァー氏が 3 月に発表したもの。企業陰謀に参加したそのせいでCEOのサム・アルトマンは一時解雇されたが、あたかもサツケヴァー氏がAIの鏡を通して世界を垣間見て、そこから叫びながら逃げ出したかのように聞こえた。

金曜日、ライク氏はX(旧ツイッター)への一連の投稿で、辞任の理由について国民にヒントを与えた。

同氏は「かなり長い間、会社の中核的優先事項についてOpenAIの幹部らと意見が一致していない」とし、「限界点」に達したと主張した。同氏は、同社は「セキュリティ、監視、準備、安全性、敵対的堅牢性、(超)調整、機密保持、社会的影響、および関連するトピック」にもっと重点を置くべきだと考えている。

マッシュ可能な光の速度

ツイートは削除された可能性があります

「これらの問題を解決するのは非常に困難で、我々がそこに到達する軌道に乗っていないのではないかと心配している」とライク氏は述べ、自分と彼のチームが安全を確保しようとしているときに「風に逆らって航海している」ように感じたと述べた安全作業を行うために必要なリソース。

ツイートは削除された可能性があります

ライケ氏はOpenAIには計り知れない責任があるとみているようで、「人間よりも賢いマシンを構築することは本質的に危険な取り組みだ」と書いている。そのため、ライク氏の見方では、「過去数年にわたり、安全文化やプロセスが輝く製品よりも後回しになっている」ということが潜在的にさらに恐ろしいことになる。

Leike は、汎用人工知能 (AGI とも呼ばれる)、つまり LLM のような狭い機能をはるかに超えて、人間と同じように真に情報を処理するシステムの開発に取り組んでいるという社内の話を真剣に受け止めているようです。 「私たちはAGIの影響について信じられないほど真剣に取り組むのが遅れて久しい」とライク氏は書いた。 「私たちはできる限りそれらに備えることを優先しなければなりません。そうして初めて、AGI が全人類に確実に利益をもたらすことができるのです。」

ライク氏の見解では、OpenAI は「安全第一の AGI 企業になる」必要があり、残りの従業員に対しては「構築しているものにふさわしい重みを持って行動する」よう促した。

こうしたコメントは言うまでもなく、この逸脱は、すでに広く普及している状況に拍車をかけるだけだろう。世間の不安AI の安全性に対する OpenAI の取り組み、またはその欠如について。しかし、他の批評家は、AIの巨大な力について恐怖を煽っているのではないかと指摘している。一種のバックドアマーケティングスキームとしても機能しますこのテクノロジーはまだほとんど実証されていないからです。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.