AIやロボットの活用を誤ると、人間の首を絞めかねません(出典:写真AC)

■「ロボット3原則」の盲点?

米国のSF作家アイザック・アシモフは、SF小説の中でロボットが従わなければならない3つの原則を定めました。それが「ロボット3原則」です。次のように人間に対する安全性、人間の命令への服従、自己防衛を柱としています。

1.第一条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
2.第二条 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
3.第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。(ウィキペディアより)

これを読んだ読者のみなさんは、例えばウィル・スミス主演のSF映画「アイ,ロボット」に登場するような人間型ロボットのことを想像したのではないでしょうか。確かに人間と人間型ロボットが入り混じって生活するような社会の中では、この原則が適用されなければ安心してロボットと付き合うことはできないでしょう。いつどんなことがきっかけで暴走し出さないとも限りませんから。

一般にSFで描かれる人間-ロボット共存社会は、人間の僕(しもべ)としてロボットが存在することが暗黙の了解となっているものも少なくありません。彼らが正常に動作する限り、人間の労力の手間を省き、あるいはサポートし、人間の役に立つ理想的な社会の姿です。ところが、これから到来する社会はむしろ現実的なリスクを抱えています。ご存じの方も多いと思いますが、それはロボット3原則だけでは人間を守り切れない問題―「ロボットやAIによって多くの人間が失業する」という問題です。