前のエントリ
もしAmazonで家が買えて、住宅ローンが借りられるとしたら、銀行の住宅ローンは使われない
http://blog.goo.ne.jp/xmldtp/e/8ddf7766a9c19549d692bc116aec70e2
の最後にある、野村氏のQAで、
「ロボットが人間を殺せと指示する」
とあり、それを野村氏は、スタートレックの舞台設定は23・・(何年だったかわすれた)」といって、まだ先の話のように言ってたけど、
実はこれは、将来の話ではなく、今、「トロッコ問題」として話題の話の
実は帰結となっている。
つまり、トロッコ問題を簡単に言うと
道は2つしかない、Aさんを轢き殺すか、Bさんを轢き殺すか、
どっちにしろ、殺す。
ということだ。この状況で自動運転をすると、
(自動運転の)AIは、
Aさんを殺せと判断するか、
Bさんを殺せと判断する
ことになる。
つまり、
AIが、Aさんか、Bさんかを殺すべきと判断したら、
運転手は、目の前の人に突っ込んでいき、轢き殺す
ということになる。
その断末魔の状況を見届け、悲鳴を聞きながら。
この精神力が、人間にあるかないかということを、問うている。
もし、このような、人間の生死までAIにたよりきり、
その悲惨な経験を人間が感受するという精神力が、人間にないなら、
トロッコ問題は、無意味な問題である。
なぜなら、回答は、片山右京氏が、
「人間ってナンだ?超AI入門」の第4回
で答えた回答に自然となるからだ(実際、右京氏はこの問題を
ナンセンスといった)。
まずは、目の前の命を救う。そのあとは、そのあとで考える。
つまり、人間は、目の前の人を何もしないで、轢き殺すということは、
本能的にはしないという考えだ。
P.S あたりまえだろうと思った人。これ、あたりまえじゃない。
ミルグラム実験というのがある。人間は、(AIだろうがなんだろうが)
命令されると、たとえ人が死ぬとわかっても、殺してしまう。