OpenAI にとって、ここ数週間で作った 複数 見出し– それは最善の理由からではありません。話はそこで終わっていない。現在、OpenAI の現・元従業員数名が、Google DeepMind の従業員と並んで、大手 AI 企業の見落とし、抑圧的な批判の文化、全体的な透明性の欠如について非難している。
で公開書簡、内部告発者たちは本質的に、AI技術とそれに関連するリスクを公然と批判する権利を求めた。彼らは、政府機関や規制当局と情報を共有する義務がないため、「現従業員と元従業員は(これらの企業に)国民に対して説明責任を負うことができる数少ない人々の一人」であり、彼らの多くが「恐れている」と述べた。そうすることに対するさまざまな形の報復」。
署名者らは、先進的なAI企業に対し、従業員がリスク関連の懸念を提起するための匿名プロセスの促進や、企業秘密が保護される限り「オープンな批判の文化」を支持することなど、特定の原則を遵守するよう求めた。プロセス。また、「他のプロセスが失敗した後にリスク関連の機密情報を公に共有する」企業に対して報復しないよう求めた。
マッシュ可能な光の速度
同グループは書簡の中で、既存の不平等の定着から誤った情報の悪化、人類滅亡の可能性まで、彼らが認識しているAIのリスクにも触れた。
元OpenAI研究者でグループ主催者の一人であるダニエル・ココタジロ氏は、ニューヨークタイムズに語ったOpenAI は AI ゲームの頂点に立つために「無謀な競争」をしているということです。同社は安全プロセスを巡って厳しい監視にさらされている。最近社内安全チームが発足しましたという事実にも眉をひそめられるCEO サム・アルトマンその舵を握っています。