(身投げしたロボットとして話題になった「スティーブ」【7月31日 ITmedia】)
【噴水に“身投げ”しておぼれた防犯ロボット】
北朝鮮の水爆実験とか、眉間にしわがよるような話題ばかりなので、少し笑える話を。
****防犯ロボ、池でおぼれる 任務開始から1週間たたず****
米首都ワシントンの商業施設をパトロールしていた防犯ロボットが、階段を踏み外して噴水の池に転落しているのが見つかった。
「スティーブ」と名付けられた防犯ロボットは17日、ワシントンのジョージタウン地区にある川沿いの商業施設「ワシントン・ハーバー」で、噴水池に転落した。
ツイッターには池の中に倒れて水につかったロボットの写真が投稿され、「自分から身を投げた」というコメントも。何者かが関与したのか、それともスティーブが自分で転落したのかは分かっていない。
スティーブは同施設でパトロールを始めたばかりだった。デビューを紹介するフェイスブックの12日の投稿では「多彩な防犯能力」をうたっていたが、水中の防犯対策は含まれていなかったらしい。
デビューからわずか数日で起きた事故に、「幸せで元気そうな様子だったのに」とスティーブをしのぶ声も寄せられた。
一方で、「私のオフィスビルの近くに防犯監視ロボットがいる(すごく薄気味悪い)。今日は人類の勝利」という投稿もあった。
スティーブのような防犯ロボット「ADM」を製造しているナイトスコープ社によると、ADMは何台ものセンサーを使って自分のいる場所を認識し、安全な経路をたどって走行する。耐久性は高く、破壊行為にも対抗できるという。
もっとも、ADMがトラブルに巻き込まれたのは今回が初めてではない。
4月にはカリフォルニア州で、重さ約136キロのADMが酔った男性に倒される騒ぎがあった。昨年はやはりカリフォルニア州で、幼児がADMにひかれて軽傷を負う事故が起きている。【7月19日 CNN】
********************
「スティーブ」はスターウォーズのR2-D2のような愛嬌のある形です。
事故現場には、おぼれた「スティーブ」をしのぶ献花台が作られ、花や写真が供えられるなどしたとか。
(献花するのは、「スティーブ」の溺死を喜んでいる人だけでしょうが)
事故原因については、以下のように。
****ロボットが池に“身投げ” その理由が判明****
・・・・(開発元の米新興企業)Knightscopeがロボットの「ブラックボックス」からデータや動画を回収し、再現テストを行うなどして検証した結果、身投げの原因は、誰かに投げ入られたり雨が降っていたせいではなく、モールのれんがの表面処理が雑だったために起きた車輪のスリップをアルゴリズムが検知できず、段差を検出できなかったことだと分かったという。
開発チームは既にナビゲーションを改善。スリップ防止と段差検出のための技術開発も行っているという。(後略)【7月31日 ITmedia】
*******************
現在「スティーブ」は療養中ですが、後任の「ロージー」が元気に任務についているそうです。
****防犯ロボ噴水落下も・・・ハイテクセクターへの期待萎まず****
・・・・7月の事故の後、スティーブはシリコンバレーの本社に送り返された。後任には「きょうだい」のロージーが就いている。
スティーブのようなロボットは、犯罪防止など、警察を手助けする新しい存在になると期待されている。
スティーブとロージーを手掛けたカリフォルニア州のITスタートアップ「ナイトスコープ(Knightscope)」には、ロボットや法律、人工知能、自動車などの各セクターから専門家が集まっており、これまでに1700万ドル(約18億7000万円)の資金を調達している。【9月3日 AFP】
*****************
“防犯ロボット”とのことですが、不審者を見つけたら、どにように対応するようになっているのでしょうか?
想像ですが、記録して、警察に通報する・・・といったところでしょうか。
電気ショックなどの“武器”で、不審者を取り押さえる・・・・といったことはないでしょう。(形もそのようなタイプではありませんので)
ただ、不審者逮捕型のAI防犯ロボットは、つくろうと思えば技術的には可能でしょう。
【ターミネーターの世界は間近?】
もっと現実的問題としては、AI搭載の軍事ロボットでしょう。
****ターミネーターが現実に?「殺人ロボット」が登場する日は遠くない****
・・・・すでにこのような兵器は技術的には実現可能で、韓国サムスンのグループ会社サムスンテックウィンと高麗大学が共同開発したSGR-1はすでに非武装地帯に配備されている。
SGR-1は5.56mm機関銃と40mmグレネードランチャーを備え、赤外線センサーなどで敵兵を自動的に感知し、3.2km先の標的を確実に殺害することができるという。
まだ銃撃許可は人間が出しているというが、もはや殺人ロボットとは紙一重だ。【Naver まとめ】
*******************
(「スティーブ」とは違って、愛嬌など皆無のSGR-1【Naver まとめ】)
SGR-1は国境を越えようとする北朝鮮兵士を体温や動きで自動感知するとか。
この種の軍事ロボットは韓国サムスンだけでなく、アメリカやイスラエルなどが開発を競っているところでしょう。
歩行・移動に問題がある地上ロボットより、すでに空軍の主力となりつつある無人飛行機を自動認識型にする方が簡単かも。
当然ながら、機会が自動判断で人間を殺すといった“殺人ロボット”が許されるのか?・・・という話になります。
誤認といった技術的問題もありますが、そもそもの倫理的問題、あるいは人間と機械の関係という社会学的問題もあります。
“たとえばテロ集団が(商品の宅配サービスに使われるような)廉価ドローンにAIを搭載した自律的兵器を手にすれば、それは従来、巨額の開発資金を必要とした長距離型の精密誘導兵器と同等の威力を持つようになると危惧している。”【8月25日 小林 雅一氏 http://gendai.ismedia.jp/articles/-/52672】といった、テロ対策上の問題もあります。
【「殺人ロボット兵器」の規制に向けた動き】
AIに関しては、8月2日ブログ“「神になりたい」AI 非ヒト言語で会話するAI 近未来SFの世界は間近?”でも取り上げましたが、その技術は加速度的に進歩しています。
今制約を課さないと“殺人ロボット”が戦場に登場するのはそれほど遠くはないでしょう。
****E・マスク氏ら「殺人ロボット兵器」の規制を国連に求める****
米電気自動車(EV)大手テスラのイーロン・マスク最高経営責任者(CEO)をはじめ、人工知能(AI)の開発を手掛ける企業のトップら100人以上が、国連に対して「殺人ロボット兵器」の規制を求める公開書簡を提出した。
公開書簡はマスク氏のほか、米グーグル傘下の英AI企業ディープマインドのムスタファ・スレイマン共同創業者などテクノロジー業界の大物116人が署名。「自律型殺傷兵器は戦争に第3の革命をもたらす恐れがある」と警鐘を鳴らしている。
「一度開発されれば、かつてないほど大規模で、人類の想像を絶する速さでの武力紛争を可能にする」と同書簡は指摘。
テロリストらが罪のない人々に対して悪用する恐れがあるとした上で、「行動を起こすまでの時間はあまりない。このパンドラの箱が一度開かれれば、閉じるのは難しい」と述べている。
国連によると、こうしたロボット兵器に関する専門家会議が21日に開催される予定だったが、11月に延期された。2015年にも、研究者や著名人ら数千人が自律型兵器の禁止を求めている。【8月21日 AFP】
*******************
日本人女性として初めて国連の軍縮担当上級代表(事務次長)に就任した中満泉氏は、自律型致死兵器システム(LAWS=ローズ)と呼ばれる兵器の開発・使用の問題について、下記のように指摘しています。
****「AI兵器」の危うさ 国連軍縮担当上級代表・中満泉氏****
偶発戦争避ける工夫を
人工知能(AI)を搭載したロボットが自ら判断して敵を殺す--。そんな自律型致死兵器システム(LAWS=ローズ)と呼ばれる兵器の開発や使用が懸念されている。
規制などを検討する国連の政府専門家会合が11月に始まるのを前に、国連軍縮部門トップである軍縮担当上級代表の中満泉さん(54)に問題点を聞いた。
--なぜ今、LAWSの国際規制を議論する必要があるのですか。
問題は3点あります。まず、LAWSの開発は技術的に可能な段階に来ています。AI技術は急速に進展しており、悪意ある人が開発しようと思えば技術的な障壁はありません。
次に、戦争が起きやすくなる恐れがあります。これまで人類は長い時間をかけて国際人道法などの規範や、偶発的戦争を防ぐ仕組みを作ってきましたが、AIの軍事応用ではこれらが機能するのか疑問です。むしろ、戦争のやり方がこれまでと変わってしまう可能性が大きい。
最後に、闇サイトなどを通じた新たな兵器拡散の懸念があります。
1月に就任したグテレス国連事務総長はLAWSやサイバー攻撃、合成生物学などを「フロンティアイシュー」(新しい課題)と呼び、率先して取り組む姿勢を示しています。国際的な安全保障や人権問題などに影響する可能性があるからです。私自身も優先順位が非常に高い21世紀型軍縮の新たな課題だと考えています。
--LAWSは火薬、核兵器に続く「戦争の第3の革命」になると著名科学者や国際NGOが懸念を表明しています。一方で、その定義は曖昧です。何をどう規制すべきですか。
政府専門家会合での重要な論点になるでしょう。ポイントの一つは「ミーニングフル・ヒューマン・コントロール(人間による意味のある制御)」という考え方です。例えば、攻撃する標的を設定したり、実際に攻撃命令を出したりすることまで人間の制御を超えてAIが判断してしまうと、予測不能な戦争勃発の可能性が高まる恐れがあります。そこまで機械に任せてはいけないという点は国際社会でも意見が一致しつつあります。
一方、私は国連平和維持活動(PKO)を担当していましたが、安全上の理由から接近が難しい地域で小型無人機を使うことがありました。LAWS規制は、こうした無人機の使用などとは一線を画して検討する必要があります。
--今回の議論は、非人道的な兵器を扱う特定通常兵器使用禁止制限条約(CCW)の枠組みで始まります。
軍縮については「なぜ進めるべきか」という点でさまざまな考え方があります。まず安全保障の観点からのアプローチです。核軍縮がまさにそうですが、進めなければ国際社会全ての安全保障を損なってしまう。
一方、非人道性の観点から「化学兵器は非人道的だ」として開発や保有などを包括的に禁止する条約ができています。CCWも、無差別攻撃したり、不必要な苦痛を与えたりするため、使ってはいけない、あってはいけない特定の通常兵器を人道的観点から規制していく枠組みです。その中で、「機械にどこまで任せていいのか」を話し合うのは非常に意義のあることだと言えます。その先に、LAWSに特化した新しい措置をCCWの締約国が目指すのかどうかも議論になるでしょう。
--AIは既に軍事利用されていますが、LAWSに該当する兵器は今はまだ存在しないとされています。先手を打って規制することは可能ですか。
CCWの枠組みでは過去、失明をもたらすレーザー銃の使用禁止を先制的に設けた例があります。しかし、規制や禁止することだけが唯一の選択肢ではありません。
透明性を高める方法や、行動規範を設けるなど多面的に考えていく必要があります。「攻撃対象を選ぶ」「攻撃命令を出す」という段階には規制をかける方向で意見がまとまればいいと思います。「LAWSは使い勝手のいい兵器だ」という認識を特に大国が持ってしまうと難しい状況になります。
--AI技術は自動運転など民生分野で活用の期待が高く、研究開発も盛んです。中満さんは6月に民間団体主体のAIサミットで演説し、「新しい問題には新しい解決策が必要だ」と呼びかけましたね。
はい、LAWSの問題は、対策を話し合うプロセスそのものも大きく変わらなければならないと感じています。AIサミット参加者の3分の2はベンチャー企業を含む民間企業や研究者、市民社会の方々でした。国連の会議場で政府の代表に集まって交渉してもらっても、こうした人々が入っていないと恐らく何の意味もありません。(中略)
--AIやロボット技術の開発に力を入れる日本は、これまでの非公式会合では、過度な規制で民生品の研究開発を妨げないよう求めています。日本に対する期待はありますか。
日本を含むどの国も公式な立場はこれから示すので、今後の議論を待ちたいと思います。日本人の一人としての個人的意見では、科学技術の悪用に対するアレルギーは国内に強くあるという感覚を持っています。
平和国家でもあり、科学技術大国でもあるのは日本のブランドとも言えます。市民社会も含め、そのことを強く世界に発信する良い機会と捉え、国内でも議論を深めてもらいたいですね。
聞いて一言
先月採択された核兵器禁止条約の交渉で、日本は全く存在感を示せなかった。今回の分野では、AIなどで高い技術力を誇るからこそ説得力を持って新たな軍拡を防ぐ議論をリードできるはずだ。
しかし、大学などでの軍民両用研究を推し進める現政権の姿勢は気にかかる。本紙の調査で、国内の研究者が米軍からAI分野の研究資金を受けている実態も明らかになった。学術界も、研究開発を巡る「軍民の線引き」の議論を深め、指針作りなど主体的な取り組みが求められる。【8月21日 毎日】
*******************
しかしながら、水爆実験を嬉々として行うような国を隣に持つ日本としては、こうしたAIなどの技術分野でこそ優位性を発揮できるのでは・・・といった考えもあるでしょう。
おぼれた「スティーブ」の話で始めたものの、やはり“眉間にしわがよってきた”ので、今日はこれまで。
※コメント投稿者のブログIDはブログ作成者のみに通知されます