イーロン・マスク、Google DeepMindの共同創設者ムスタファ・スレイマン氏、および他の114人の主要なAIおよびロボット工学の専門家が団結して、いわゆるキラーロボットの使用を禁止するよう国連に要請した。公開書簡今日公開されました。
同団体は、自律型致死兵器の使用の可能性と、それらが将来どのように適用されるかを懸念しており、同団体が発表した短いメモを執筆した。未来の生命研究所。本文は、開会式のキックオフとして公開されました。人工知能に関する国際合同会議(IJCAI 2017))オーストラリアのメルボルンにある情報によると、プレスリリース。
「自律型致死兵器」とは、次世代の戦場で AI によって制御されるドローン、自律型機関銃、戦車などの兵器を指します。
例えば、マスク氏がAIが悪くなる可能性について警戒していることは有名だ。最近そう呼んでる核兵器をも上回る「文明として我々が直面する最大の脅威」だが、発表によると、この公開書簡はAIとロボット企業のグループが連携して特に自律型兵器について国連に請願するのは初めてだという。
国連の通常兵器禁止条約再検討会議は自律型兵器の禁止に関する正式な議論を開始することに全会一致で合意しており、加盟国のうち19カ国はすでに殺人ロボットの完全禁止を支持している。報道によると、グループは8月21日に会合する予定だったが、11月に延期されたという。運。
Mashable のトップ ストーリー
「このパンドラの箱は一度開けてしまうと、なかなか閉じることができません。」
この公開書簡には26カ国の総額数十億ドル相当の企業の代表者が署名しており、禁止を実現するようさらに圧力をかける可能性がある。
すでに世に出ている自律型殺傷兵器の一つ。 クレジット: Future of Life Institute
手紙の実際の文面は短くて簡潔だ。読めますよここ, しかし、最も重要な一節を以下に含めました。
自律型致死兵器は、戦争における第 3 の革命となる恐れがあります。これらが開発されれば、これまで以上に大規模で、人間の理解できるよりも速い時間スケールで武力紛争を行うことが可能になる。これらは、テロ兵器、専制君主やテロリストが罪のない人々に対して使用する兵器、望ましくない方法で動作するためにハッキングされた兵器である可能性があります。私たちに行動する時間は長くありません。このパンドラの箱は一度開けてしまうとなかなか閉じることができません。
Element AIを設立したディープラーニングの専門家で、共同署名者のヨシュア・ベンジオ氏は、自律型致死兵器が引き起こす可能性のある即時的な被害以上のことを懸念している。同氏は、この取り組みに参加する主な理由として、戦争とテクノロジーに対する避けられない反発に焦点を当てることで「AIの優れたアプリケーションのさらなる開発に悪影響を与える」可能性を挙げた。
Future of Life Institute も同様の書簡を発行しました2015年にこれにはマスク氏、スティーブン・ホーキング博士らが署名し、戦争のために作られたAIだけでなく、AIのより広範な危険性を警告するメッセージが書かれていた。
非軍事用AIによってもたらされる危険はそれほど差し迫ったものではないため、マスク氏の発言の一部はそう感じられる大げさでばかばかしいそして彼のマーク・ザッカーバーグとの傲慢な口論実際の利害を伴う議論というよりも、メディアの見世物に近い。しかし、公開書簡で述べられているように、自律型兵器が損害を与える可能性は今ここにあります。できれば国連が専門家の意見に耳を傾けてほしい。