OpenAIとライバル企業のアンスロピックは、新モデルを一般発売前にテストする契約を米国政府と締結した。
米国立標準技術研究所(NIST)は木曜日、AI安全研究所が両社による「AI安全性の研究、テスト、評価」を監督すると発表した。 AI安全性研究所所長のエリザベス・ケリー氏は発表の中で、「これらの合意は始まりにすぎないが、AIの未来を責任を持って管理できるよう取り組んでいく上で重要なマイルストーンとなる」と述べた。
生成 AI が安全上のリスクを引き起こすことは周知の事実です。不正確さを生み出す傾向があり、誤報、 有効にする有害または違法行為を行い、差別を固定化し、偏見現時点では十分に文書化されています。 OpenAI は独自の内部安全性テストを行っていますが、そのモデルがどのように機能するかについては秘密にしてきました。彼らは何について訓練を受けているのか。これは、OpenAI が第三者による監視と説明責任へのアクセスを可能にした最初の例です。 Altman と OpenAI は、ボーカルAIの規制と標準化の必要性について。しかし批評家らは、政府と協力する意欲は重要だと言う。戦略OpenAI が有利に規制され、競争を排除できるようにするためです。
マッシュ可能な光の速度
「多くの理由から、これが国家レベルで起こることが重要だと私たちは考えています。米国は引き続きリードする必要があります!」投稿されましたOpenAI CEO のサム・アルトマン氏が X について語る。
ツイートは削除された可能性があります
NISTとの正式な協力はバイデン政権に基づいて構築されるAI大統領令昨年10月に署名されました。 AI の安全かつ責任ある展開を確保するために複数の連邦機関を活用した他の命令の中でも、この命令では、AI モデルが一般に公開される前に、レッドチームのために NIST へのアクセスを許可することが AI 企業に求められています。
この発表では、英国AI安全性協会と提携して調査結果とフィードバックを共有するとも述べた。