一部のAGIシステムはリリースするにはリスクが高すぎますか?メタはそう言います。

それ以来のようですai私たちの世界にやって来て、クリエイターはガスに鉛の足を下ろしました。ただし、新しいポリシー文書によると、メタCEOのMark Zuckerbergは、「高リスク」または「重大なリスク」とみなされるAGIシステムの開発を遅くするか停止する可能性があります。

AGIは、人間ができることは何でもできるAIシステムであり、Zuckerbergいつか公然と利用できるようにすることを約束しました。しかし、文書で」フロンティアAIフレームワーク、「Zuckerbergは、いくつかの非常に有能なAIシステムがリスクが高すぎる可能性があるため公開されないことを認めています。

この枠組みは、「サイバーセキュリティの脅威と化学兵器および生物兵器からのリスクの分野で最も重要なリスクに焦点を当てています。」

参照:

「これらの分野に優先順位を付けることで、国家安全保障を保護しながらイノベーションを促進することができます。私たちのフレームワークは、フロンティアAIシステムを開発する際にリスクを予測し、軽減するために従う多くのプロセスの概要を示しています。」ドキュメントに関するプレスリリースが読み取られます

マッシャブルなライトスピード

たとえば、このフレームワークは、「私たちが防止しようとするサイバー、化学的、生物学的リスクに関連する潜在的な壊滅的な結果」を特定するつもりです。また、「異なる俳優がフロンティアAIを誤用して壊滅的な結果を生み出すことを期待する方法を予測するための脅威モデリング演習」を実施し、「許容レベル内でリスクを維持するためのプロセスが整っています」。

会社がリスクが高すぎると判断した場合、パブリックアクセスを許可するのではなく、システムを内部に保ちます。

参照:

「このフレームワークの焦点は、壊滅的な結果のリスクを予測し、軽減する努力にありますが、そもそも高度なAIシステムを開発する理由は、それらの技術から社会に利益をもたらす可能性があるためであることを強調することが重要です。 、「文書が読みます。

しかし、ZuckerbergがBrakesを打っているように見えます - 少なくとも今のところは、AGIの未来への速いトラックで。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.