人間よりロボットを信頼したほうが良い理由

ロボット、および自律システム一般は、特に日常業務での使用がより差し迫った可能性になるにつれて、不安や不確実性を引き起こす可能性があります。その不安の少なくとも一部を軽減するには、ロボットが私たちに代わって行うことができる意思決定から、そもそもロボットが実際にどのように意思決定を下すかに焦点を移す必要があります。ある意味、人間よりも信頼できる存在かもしれません。

好むと好まざるにかかわらず、自律システムはこれからもずっと存在します。 「自律性」とは、何をいつ行うべきかを独自に決定するシステムの能力を意味します。これまでのところ、あなたが遭遇した可能性のある例のほとんどは次のとおりです。ロボット掃除機、航空機の自動操縦や車の自動駐車システムはシンプルであり、特に自律的ですらない。これらのシステムは環境に適応し、環境の変化に自動的に対応します。彼らは環境の刺激に適応するように事前にプログラムされています。

しかし、古い SF の物語は、さらに進んだシステムについて警告しています。私たちが懸念しているのは、人間のパイロット、ドライバー、またはオペレーターが、何をするかを独自に選択するソフトウェアに置き換えられたときに何が起こるかということです。

空の旅では、自動操縦システムによって航空機を特定の経路で飛行させることができますが、どの経路を選択するか、いつ方向転換するか、予期せぬ状況にどのように対処するかを決定するのは人間のパイロットです。同様に、クルーズコントロール、レーンコントロールも近日中に搭載されます。護送ドライバーは引き続き大きな決断を下すことになりますが、私たちの車は経路追跡活動を実行できるようになります。

しかし、真の自律システムに移行すると、ソフトウェアが果たす役割はさらに大きくなります。航空機のルートをいつ変更するか、いつ高速道路から脇道に入るかを人間が判断する必要はなくなります。

私たちの多くが心配し始めるのはこの時点です。機械が本当に自ら判断できるのであれば、どうやってその機械が安全であると判断できるのでしょうか?ターミネーターのような映画を見た後、私たちは機械が私たちを二重交差させないことをどうやって信頼できるのかと疑問に思います。多くの人にとって、自律飛行する飛行機に乗るという考え自体が不安であり、ましてや自律型ロボットアシスタントを自宅に置くという考え自体が不安です。

私たちは 2 つの選択肢に直面しているように感じるかもしれません。私たちはこれらのマシンを盲目的に信頼するか、自律システムの使用をまったく拒否するかのどちらかです。しかし、3 番目のオプションも可能です。

私たちが他の人間と関わるとき、彼らが何を決めるかは分かりませんが、私たちは彼らについてどう思うかに基づいて推測を立てます。その人が過去に私たちに嘘をついたことがあるか、間違いを犯した前歴があるかどうかを考慮します。しかし、他の人が私たちを騙す可能性があるため、私たちの仮定について本当に確信を持つことはできません。

一方、私たちの自律システムは基本的にソフトウェアによって制御されているため、すべての高レベルの決定、つまり人間が行うであろう決定を行うソフトウェアを分離できれば、これらのプログラムの詳細な動作を分析できるようになります。それは人間の脳で簡単にできることではありませんし、おそらく決してできることではありません。

コンピューター サイエンスの人気の高い研究は、ソフトウェアの詳細な分析、特にソフトウェアが常にその形式要件に一致するという論理的証明を提供することに関係しています。このアプローチは、正式な検証発電所、生命維持システム、輸送システム内など、人間の安全に影響を与える可能性のある種類の重要なソフトウェアを分析および評価する場合に特に役立ちます。したがって、自律システム内で高レベルの意思決定を行うソフトウェアを分離したら、形式的な検証を通じてこれらのプログラムの詳細な動作を分析できるようになります。

私たちの研究これはまさに自律システムの動作の正式な検証に関係しており、場合によっては、システムを制御するソフトウェアが決して間違った決定を下さないことを証明できます。

意思決定のプロセスはロボット作成の中心です信頼できる。そうすることで、私たちはそれらの決定の最終的な結果をより安心して受け入れることができます。このようなシステムが動作する環境は通常、複雑かつ不確実です。したがって、事故が依然として発生する可能性はありますが、少なくともシステムが常に事故を回避しようとしていると確信できます。これでは不十分だと思われるかもしれませんが、これにより、古い SF の問題のいくつかに取り組むことができます。

ロボットが誤って誰かに危害を加えることは決してないとは言えませんが、正式な検証を通じて、ロボットが意図的に危害を加えようとしていないことを証明できる可能性は十分にあります。システムの内部プログラミングを調べることで、システムが何を実行するかを決定するだけでなく、なぜそれを実行することを決定したのかを評価できることがよくあります。人々は依然としてロボットや自律システムに対して警戒するだろうが、システムが積極的に彼らを踏みにじる意図を持っていないことを知っていれば、彼らは警戒する可能性が高い。信頼そのようなシステムをもう少し。

ここでの主な問題は、どのように証明するかではなく、何を証明するかということになります。私たちは、ロボットが意図的に人間に危害を加えることは決してないことを証明しようとするかもしれません。しかし、医療ロボットや警察ロボットはどうでしょうか?医療ロボットは、胸部を圧迫するなどして誰かを蘇生させようとするかもしれません。しかし、それは意図せずして彼らに害を及ぼす可能性があります。

警察ロボットは国民を守る任務を負っていますが、犯罪者が誰かに向けて銃を発砲したらどうなるでしょうか?より大きな危険を回避するために、ロボットは犯罪者に危害を加えることができるでしょうか?

私たちは明らかに、技術的な問題から、どのような動作が許容されるのか、またロボットがどのような倫理的な動作を示すべきなのかという哲学的および倫理的な問題へと移りつつあります。ロボットが意思決定を行うようにどのようにプログラムされているかを明確に把握することは、両方の面で意思決定を行う際に役立ちます。

インクルーシブな大学キャンパスを再考する

オーストラリアが最も必要とする環境法律援助が削減される

オーストラリアグランプリは公共公園に属しますか

ヘンリー・ヘンデル・リチャードソンの『知恵の獲得』の事例