世界の人権・紛争・平和

ヒューマン・ライツ・ウォッチ キラーロボット:事前禁止措置が必要

キラーロボット:事前禁止措置が必要

全自動兵器は一般市民への危険を増大する

(Washington, DC, November 19, 2012) – Governments should pre-emptively ban fully autonomous weapons because of the danger they pose to civilians in armed conflict, Human Rights Watch said in a report released today. These future weapons, sometimes called “killer robots,” would be able to choose and fire on targets without human intervention. 

(ワシントンDC、2012年11月19日)-全自動兵器は武装紛争において一般市民に危険をもたらすので、各国政府はそれを事前に禁止するべきである、とヒューマン・ライツ・ウォッチは本日公表した報告書で述べた。時に「キラーロボット」と呼ばれるそれらの未来兵器は、人間の介在なしで標的を選択し発砲することができる。

The 50-page report, “Losing Humanity: The Case Against Killer Robots”, outlines concerns about these fully autonomous weapons, which would inherently lack human qualities that provide legal and non-legal checks on the killing of civilians. In addition, the obstacles to holding anyone accountable for harm caused by the weapons would weaken the law’s power to deter future violations.

全50ページの報告書、「人間性喪失:キラーロボット反対論」は、一般市民の殺害に際し、法律的チェックと法律外のチェックを行う人間性を本質的に備えていない、全自動兵器についての懸念を概説している。その兵器がもたらした危害について、誰かに責任を取らせる場合の障害は、将来の犯罪を抑止する法律の力を弱めるはずだ。

“Giving machines the power to decide who lives and dies on the battlefield would take technology too far,” said Steve Goose, Arms Division director at Human Rights Watch. “Human control of robotic warfare is essential to minimizing civilian deaths and injuries.”

「マシンに戦場での人の生死を決定する権限を与えるのは、テクノロジーの度を越しています。ロボット戦争に対する人間のコントロールは、一般市民の死亡と負傷を最小化するために必要不可欠です。」とヒューマン・ライツ・ウォッチ兵器局長スティーブ・グースは指摘した。

“Losing Humanity” is the first major publication about fully autonomous weapons by a nongovernmental organization and is based on extensive research into the law, technology, and ethics of these proposed weapons. It is jointly published by Human Rights Watch and the Harvard Law School International Human Rights Clinic.

「人間性喪失」は、NGOが全自動兵器について初めて出した本格的な出版物であり、法律、テクノロジー、提案された兵器の倫理に対する詳細な調査をベースにしている。ヒューマン・ライツ・ウォッチとハーバード・ロースクール国際人権問題研究所が、共同で報告書を出版した。

Human Rights Watch and the International Human Rights Clinic called for an international treaty that would absolutely prohibit the development, production, and use of fully autonomous weapons. They also called on individual nations to pass laws and adopt policies as important measures to prevent development, production, and use of such weapons at the domestic level.

ヒューマン・ライツ・ウォッチと国際人権問題研究所は、全自動兵器の開発・製造・使用を全面禁止する国際条約を呼び掛けた。また国内レベルでそのような兵器の開発・製造・使用を禁止するための重要な措置としての法律制定と政策採用を行うよう各国に求めた。

Fully autonomous weapons do not yet exist, and major powers, including the United States, have not made a decision to deploy them. But high-tech militaries are developing or have already deployed precursors that illustrate the push toward greater autonomy for machines on the battlefield. The United States is a leader in this technological development. Several other countries – including China, Germany, Israel, South Korea, Russia, and the United Kingdom – have also been involved. Many experts predict that full autonomy for weapons could be achieved in 20 to 30 years, and some think even sooner.

全自動兵器はまだ存在せず、米国を含む主要国は、それを配備するという決定をしていない。しかしハイテク軍は、戦場におけるマシンの更なる自動化推進を実例で示す、先駆体を開発中或いは既に配備している。米国はこの技術開発のトップにいる。中国、イスラエル、南朝鮮、ロシア、英国を含むその他の国々も関与してきている。多くの専門家が、兵器の全自動化はこの先20年から30年の間に達成されるだろうと予想しているし、一部はもっと早いと考えている。

“It is essential to stop the development of killer robots before they show up in national arsenals,” Goose said. “As countries become more invested in this technology, it will become harder to persuade them to give it up.”

「国の武器庫にキラーロボットが姿を現す前に、その開発を止めさせることが不可欠です。この技術に各国が更に投資するようになってしまったら、それを諦めさせるよう説得するのはさらに困難になるでしょう。」とグースは語っている。

Fully autonomous weapons could not meet the requirements of international humanitarian law, Human Rights Watch and the Harvard clinic said. They would be unable to distinguish adequately between soldiers and civilians on the battlefield or apply the human judgment necessary to evaluate the proportionality of an attack – whether civilian harm outweighs military advantage.

全自動兵器は国際的人道法の要求事項を満たすことは出来ない、とヒューマン・ライツ・ウォッチとハーバード研究所は述べた。マシンは戦場で兵士と一般市民を区別できず、或いは一般市民への危害が軍事的利益を越えているかどうかという、攻撃の均衡性を評価するのに、欠くことのできない人間的な判断を生かすことが出来ない。

These robots would also undermine non-legal checks on the killing of civilians. Fully autonomous weapons could not show human compassion for their victims, and autocrats could abuse them by directing them against their own people. While replacing human troops with machines could save military lives, it could also make going to war easier, which would shift the burden of armed conflict onto civilians.

それらのロボットはまた、一般市民の殺害に際しての法律外チェックを損なうだろう。全自動兵器は被害者に人間的な同情を示せない。したがって独裁者は全自動兵器に命令することで自国民を虐待できる。マシンが人間の部隊に取って代わることで、軍人の命は救えるが、一方で又戦争突入を容易にすることができ、一般市民に武装紛争の負担を転嫁することになる。

Finally, the use of fully autonomous weapons would create an accountability gap. Trying to hold the commander, programmer, or manufacturer legally responsible for a robot’s actions presents significant challenges. The lack of accountability would undercut the ability to deter violations of international law and to provide victims meaningful retributive justice.

全自動兵器の使用は最終的に、説明責任に穴をあけてしまうだろう。ロボットの行為に関して、指揮官、プログラマー或いは製造者に法律的責任を問おうとするのは、大きな難題となる。説明責任の欠落は、国際法への違反行為を抑えると共に、被害者にとって意味のある懲罰を与える能力を損なう。

While most militaries maintain that for the immediate future humans will retain some oversight over the actions of weaponized robots, the effectiveness of that oversight is questionable, Human Rights Watch and the Harvard clinic said. Moreover, military statements have left the door open to full autonomy in the future.

近い将来にわたり人間が、ロボット兵器の活動に関して何らかの監視し続けるのを、殆どの軍は維持しているが、その監視の有効性には疑問がある、とヒューマン・ライツ・ウォッチ及びハーバード研究所は述べた。更に軍の公式声明によれば、将来における全自動兵器に可能性を残している。

“Action is needed now, before killer robots cross the line from science fiction to feasibility,” Goose said.

「キラーロボットがSF小説から実現可能な領域に踏み越える前の、今こそ行動が必要なのです。」とグースは語った。

  • Xでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

最近の「日記」カテゴリーもっと見る

最近の記事
バックナンバー
人気記事