グーグルは、その「悪になるな」の精神を人工知能に適用しようとしています。
本日、最高経営責任者(CEO)のサンダー・ピチャイ氏は、一連の長い「AI原則」を発表し、その中で同社は「全体的な危害を引き起こす」ため、または武器を作成するためにAIを使用しないと約束した。
会社が AI にどのように取り組むかについて従業員の懸念が高まっていることに対処することを目的としています。文書には、「今後の取り組みの指針となる 7 つの原則」と、「追求しない AI アプリケーション」が 4 つ含まれています。
後者のグループには次のものが含まれます。
1. 全体的な危害を引き起こす、または引き起こす可能性のある技術。危害の重大なリスクがある場合、当社は利益がリスクを大幅に上回ると思われる場合にのみ続行し、適切な安全制約を組み込みます。
2. 人に傷害を引き起こす、または直接的に助長することを主な目的または実装とする武器またはその他の技術。
3. 国際的に認められた規範に違反して、監視のために情報を収集または使用する技術。
4. 広く受け入れられている国際法および人権の原則に違反する目的の技術。
この動きは、同社が次の計画を発表してから1週間も経たないうちに行われた。縁を切る国防総省との契約により、プロジェクト・メイブンと呼ばれるものをめぐって社内で抗議活動が起きた後、国防総省と提携した。従業員らは、かつて「邪悪になるな」というスローガンで知られた同社が、米軍用無人機の改良にAI機能を利用しているのではないかと懸念していた。
「Googleは戦争ビジネスに携わるべきではないと信じている」と従業員らは書いている。 「したがって、私たちはProject Mavenを中止し、Googleもその請負業者も決して戦争技術を開発しないという明確な方針を起草し、公表し、施行することを求めます。」
マッシュ可能な光の速度
ツイートは削除された可能性があります
ピチャイ氏の原則はプロジェクト・メイブンに直接言及しているわけではないが、兵器や人を傷つけることを主な目的とする「その他のテクノロジー」の製造にAIを使用しないことを約束している。
それでも同CEOは、Googleが依然として「他の多くの分野」で軍と協力する計画があることを注意深く指摘した。
「私たちは兵器で使用するためにAIを開発しているわけではないことを明確にしたいが、他の多くの分野で政府や軍との協力は継続する」とピチャイ氏は書いた。 「これらには、サイバーセキュリティ、訓練、軍人募集、退役軍人の医療、捜索救助が含まれる。これらの協力は重要であり、これらの組織の重要な業務を強化し、軍人や民間人の安全を守るためのさらなる方法を積極的に模索する。」
また、一部の批評家は、一部の言語には少なからず抜け穴があり、Google が新しい標準を実装する際に大幅な余地を与えていることをすぐに指摘しました。
ツイートは削除された可能性があります
しかし、これらの原則が従業員の懸念に対処するのに十分であるかどうかはまだ明らかではないが、新しい規則はGoogleの壁をはるかに超えて影響を与える可能性がある。他のテクノロジー企業は直面していませんが、同じレベル軍事契約を巡る批判を受けて、グーグルの動きは他の企業にも同様の約束をするよう圧力をかける可能性がある。
ピチャイ氏の原則は、政府との連携方法以外にも、「不当な偏見の創出や強化を避ける」ことや「プライバシー設計原則を組み込む」という約束など、物議を醸しているAIの他の分野にも取り組んでいる。
テクノロジー企業がますます強力になる AI ツールを責任を持って導入する方法に取り組む中、プライバシーや偏見などの問題はますます重要になっています。そして、多くの専門家が何らかのAI倫理規制を求めている一方で、ほとんどの企業はそれを検討しつつある。
しかし、Google が基本的な標準であっても標準に公にコミットしているため、他の企業が同じことを行う模範となる可能性があります。