ヌマンタの書斎

読書ブログが基本ですが、時事問題やら食事やら雑食性の記事を書いています。

われはロボット アイザック・アシモフ

2013-07-04 12:57:00 | 

ロボットが人間を殺す日は、もう目の前にきている。

アメリカとイスラエルが1970年代から研究開発を進めていた無人偵察機は、当初は敵地奥深くに侵入して、情報を入手することを目的としていた。戦争音痴の平和馬鹿が蔓延する日本では、偵察の重要性はほとんど認識されていない。

しかし、偵察すなわち敵の情報こそが戦いを決めるのは古来より変わることのない鉄則だ。古の戦いにおいても、優れた将軍、軍師たちは如何に情報を得るかを第一に考えていた。

あの丘の向こうはどうなっているのか、あの森の奥には敵が潜んでいないのか。この不安を解消するためなら何でもした。だからこそ斥候兵のみならずスパイは戦場で重宝された。

ちなみに飛行機を戦場で使う際に、最初に与えた任務は偵察であった。上空から偵察することにより、入手できる情報量は飛躍的に増えた。これは敵にとってみれば、致命的な情報を奪われたことを意味する。

だから偵察機の次に開発された飛行機は、飛行機を打ち落とす飛行機、すなわち戦闘機であった。ちなみにこの時代の戦争(もちろん第一次世界大戦)では、爆撃機は登場しない。複葉の偵察機が偵察ついでに爆弾を手で投げ落とすという長閑なものであった。

偵察機を撃退するための戦闘機の開発は、必然的により優れた飛行機の開発を促し、強力なエンジンと、頑丈な機体による単葉機が主流となる。機体が大型化すると、兵員を空中から運ぶ輸送機が開発され、兵站のスピードさえ劇的に変化する。

だが、飛行機の性能が上がるにつれて、問題となるのが操縦士の育成費用であった。単に飛行機を飛ばすだけの技能では足りない。大気中での位置測定や無線技術、やがてレーダー等の電子機器の運用に至るまで、パイロットの育成には多大な時間と手間がかかるようになった。

墜落した飛行機は、新たに生産できる。しかし、パイロットの育成には時間がかかりすぎる。このパイロットの損失(つまり死亡)を如何に減らすかが、重要な課題になった。

だからこそ無人の偵察機が求められた。しかし課題は多かった。まず長時間の飛行を可能にする操縦技術の自動化であり、求める情報を適切に入手する機能の自動化である。これにはコンピューターの小型化と高性能化が必要不可欠であった。

それがようやく可能になったのは、1990年代であり、最初の戦場投入は湾岸戦争であったとされる。なにしろ軍事機密の塊なので、情報はあまり公開されていない。公にされているのは、むしろアフガニスタンやパキスタンでの、いわゆる対テロ戦争のほうだろう。

やがて無人偵察機にミサイルを搭載するようになり、攻撃力を持つに至った。これは必然ではあったが、遠隔操縦ゆえにどうしても目標誤認からの失敗が少なくない。実際、味方を攻撃したばかりか、民間人への攻撃まであり、厄介な問題となっている。

それゆえに偵察に関してはAI(人口知能)を用いた無人偵察機が活躍しているが、敵味方の判別の問題から無人攻撃機でのAI活用は、未だ研究段階だとされている。ただ、敵味方の判別が不要な攻撃目標ならば、AIを搭載した無人攻撃機でも問題はない。

実は遠隔操縦による無人偵察機の攻撃には別の問題があるとされる。アメリカ本国の安全な基地のなかで、TV画面を見ながら敵を攻撃し、死滅させる行為は兵員の死傷率を大幅に引き下げる。しかし、まるでTVゲームのように人を安易に殺傷させる行為は、操縦者の心理面に多大な負担をかける。

実際、イラクやアフガンに現地駐在した兵士よりも、この安全なアメリカ本国で無人攻撃機の操縦を担当する兵士の心理的障害、いわゆるPTSDの発症率が高いことが問題になっている。

またこの無人攻撃機の操縦は高い技術が必要なため、操縦者の7人に一人は民間人(民間軍事会社の社員と思われる)を採用していることも、軍の倫理規定から問題視されている。

このために、敵味方の判別など高度な判断力が必要としない戦場では、高度にプログラムされたAI(人口知能)を活用した無人攻撃兵器の運用が試され、実際に戦果を挙げているようだ。公式の発表はないが、予算が増額されて計上していることから察しても、実績があったと考えられる。

これは数十年前に既に予想されていた問題でもある。いわゆるロボット三原則である。これはSF雑誌の編集長であったキャンベルがアイザック・アシモフと話し合い、創作されたとされている。

ロボットが人を殺すことの是非。

万物に魂が宿ると考える日本人からすると、獣や人も殺すのだからロボットが殺すのも当然に思える。だから特段悩むことではないように思えるが、キリスト教的な倫理観が深く根付いているアメリカでは、目をそらしてはいけない大問題である。

実際、アシモフはこの問題に深く傾倒し、表題の作品で取り上げて以降も「鋼鉄都市」や「ロボットと帝国」などの作品で深く掘り下げている。

ロボット兵器の開発は、人的損傷に敏感なイスラエルとアメリカが先行しているが、大のロボット好きの日本もおそらく得意分野である。倫理問題なんざ念頭になく、ただ技術的関心からロボット兵器の開発に夢中になれる、いささか危ない国でもある。

今こそ、改めてロボット三原則を見直す必要があると思いますね。(どうせ憲法はいじれないしね。)

第一条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

2058年の「ロボット工学ハンドブック」第56版 , 『われはロボット』より引用。

コメント (2)
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする