
ロボット三原則とは、
SF作家アイザック・アシモフが『I,ROBOT』の中で提唱した次の3箇条のこと。
1.A robot may not injure a human, or allow a human to be injured.
(ロボットは人間に危害を加えてはならない。また、危害が加わるのを看過してはいけない。)
2.A robot must follow any order given by a human that doesn't conflict with the First Law.
(第1条に反しない限りで、ロボットは人間の命令に従わねばならない。)
3.A robot must protect itself unless that would conflict with the First or Second Laws.
(第1条・第2条に反しない限りで、ロボットは自分を守らねばならない。)
この三原則は、家電製品や自動車等の開発にも、
「安全・便利・長持ち」という理念として引き継がれているとも言われます。
ところで、この三原則のうち第1条は、
突き詰めると永久に解決できない命題なのだそうですね。
と言うのは、第1条に従えば、
ロボット自身が「人間にとって何が危険であるか」を判断しなければならないため、
ロボットは、副次的に発生しうるあらゆる危険を想定しようとして、
無限に思考し続けてしまう、という問題が起こってしまいます。
これが、今も人工知能開発のネックとなっている「フレーム問題」です。
しかし、家電製品や自動車等の実用品では、この問題は発生しません。
なぜかと言うと、
実用品には、ユーザー(自動車ならドライバー)が存在するからです。
何が危険であるかを判断するのは、人間さまの仕事。
逆に言えば、そこだけは機械に任せてはいけない部分なのです。
さて、前置きが長くなりました。
ここからが本題です。
自動車を操縦するのは、自動車自身でなく、他でもないドライバー。
自動車を便利な道具として使うのも、他人を傷つける凶器にしてしまうのも、
すべて人間さまに課せられた責任なのです。
そのために、ドライバーが「何が危険であるか」を判断して、
自動車を操縦しなければなりません。
ところが、その人間にも、「フレーム問題」が起こりえます。
あらゆる危険を想定してしまったばかりに
どうして良いか分からなくなる、というのは、
初心者(仮免取立ての人を含む)に、よく見られる症状です。
これを解決するには、
「注意しなければならない危険」と
「今は注意しなくて良い危険」との区別が付けば良いのですが、
それには、ある程度の経験が必要になります。
結局「経験」に帰結させてしまうと身も蓋も無いかも知れませんが、
いろんな場面を経験するためにこそ、
仮免取得後に最低10時間の路上練習が義務づけられている、
と考えるべきではないでしょうか。
※当ブログは「人気ブログランキング」に参加しています。
(「自動車(運転技術)」,「自動車(全般)」,「資格受験」,「免許・スクール」の4カテゴリー)
ぜひ1日1クリックの応援をお願いいたします。
↓
人気blogランキングへの投票
(クリックしていただくと、当ブログにポイントが入り、ランキングページが開きます。)