We’re running out of time to stop killer robot weapons
キラーロボット兵器登場を阻止する時間が残り少ない
Published in The Guardian ガーディアン掲載
Bonnie Docherty Senior Researcher, Arms Division
HRW兵器局上級調査員 ボニー・ドチャティ
(April 11, 2018)- It’s five years this month since the launch of the Campaign to Stop Killer Robots, a global coalition of non-governmental groups calling for a ban on fully autonomous weapons. This month also marks the fifth time that countries have convened at the United Nations in Geneva to address the problems these weapons would pose if they were developed and put into use.
(2018年4月11日)-完全自律稼働型兵器の禁止を求める非政府団体の世界的連合体である、「ストップ・キラーロボット・キャンペーン」が発足して以降、今月で5年になる。開発されて使用された場合に同兵器がもたらすだろう問題に対処すべく、ジュネーブの国連で各国が開催してきた会議は、今月で5度目となる。
The countries meeting in Geneva this week are party to a major disarmament treaty called the Convention on Certain Conventional Weapons. While some diplomatic progress has been made under that treaty’s auspices since 2013, the pace needs to pick up dramatically. Countries that recognise the dangers of fully autonomous weapons cannot wait another five years if they are to prevent the weapons from becoming a reality.
今週、ジュネーブでの会議に出席する国々は、「特定通常兵器使用禁止制限条約(CCW)」と呼ばれる重要な軍縮条約の締約国だ。2013年以降、同条約のおかげで一定の外交的進展が成し遂げられたものの、その速度を大きく上げる必要がある。完全自律稼働型兵器の危険性を認識している国々は、同兵器の実戦配備を妨げたいならば、次の会議が行われる5年後まで待つことは出来ない。
Fully autonomous weapons, which would select and engage targets without meaningful human control, do not yet exist, but scientists have warned they soon could. Precursors have already been developed or deployed as autonomy has become increasingly common on the battlefield. Hi-tech military powers, including China, Israel, Russia, South Korea, the UK and the US, have invested heavily in the development of autonomous weapons. So far there is no specific international law to halt this trend.
意味ある人間の管理なしで標的を選定し交戦する完全自律稼働型兵器は、まだ存在しないが、科学者は間もなく可能になると警告してきた。自律稼働技術が戦場でますます普及する中、先駆体は既に開発され又は配備された。中国、イスラエル、南朝鮮、ロシア、英国、米国を含むハイテク軍事力を有す国々は、自律稼働型兵器の開発に巨額な投資を行ってきた。その流れを止める、特定の国際法は今現在存在しない。
Experts have sounded the alarm, emphasising that fully autonomous weapons raise a host of concerns. For many people, allowing machines that cannot appreciate the value of human life to make life-and-death decisions crosses a moral red line.
完全自律稼働型兵器は多くの懸念を生じさせると強調して、専門家は警鐘を鳴らしてきた。多くの人々にとって、人命の価値を理解できない機械に生と死の決定を許すのは、モラル上の一線を越えている。
Legally, the so-called “killer robots” would lack human judgment, meaning that it would be very challenging to ensure that their decisions complied with international humanitarian and human rights law. For example, a robot could not be preprogrammed to assess the proportionality of using force in every situation, and it would find it difficult to judge accurately whether civilian harm outweighed military advantage in each particular instance.
いわゆる「キラーロボット」に法律上の人間的な判断は出来ず、彼らによる決定が国際的な人道法と人権保護法を順守するよう、保証するのは極めて困難だ。例えばロボットには、如何なる事態でも武力行使における均衡性を評価するよう、事前にプログラムできないし、更に各々の特定事例で民間人への危害が、軍事的利益を上回るか否か、正確に判断するのは困難だ。
Fully autonomous weapons also raise the question: who would be responsible for attacks that violate these laws if a human did not make the decision to fire on a specific target? In fact, it would be legally difficult and potentially unfair to hold anyone responsible for unforeseeable harm to civilians.
完全自律稼働型兵器はまた、「特定の標的に発砲するという決定を、人が行わない場合、国際的な人道法と人権保護法に違反する攻撃の責任者は誰になるのか?」、という疑問も生じさせる。実際、民間人への予測不可能な危害で、誰かの責任を問うのは、法的に困難であり、不公正になる可能性もある。
There are also security concerns. Without any legal restraints on fully autonomous weapons, militaries could engage in an arms race, vying to develop deadly technology that may lower the need to deploy soldiers – while possibly lowering the threshold to armed conflict.
安全性の問題もある。完全自律稼働型兵器に関する法的制約がないところで軍は、兵士を配置する必要性を低下させる一方で、武力紛争の敷居を下げる可能性がある、極めて危険な技術の開発を競う兵器開発競争に夢中になる可能性がある。
The Campaign to Stop Killer Robots, which Human Rights Watch co-founded and coordinates, argues that new international laws are needed to preempt the development, production and use of fully autonomous weapons. Many roboticists, faith leaders, Nobel peace laureates and others have reached the same conclusion, as is evident from their open letters, publications and UN statements: the world needs to prevent the creation of these weapons because once they appear in arsenals, it will be too late.
HRWが共同で設立し、コーディネートする「ストップ・キラーロボット・キャンペーン」は、完全自律稼働型兵器の開発・製造・使用を未然に防ぐ、新たな国際法が必要だと主張している。多くのロボット研究者、宗教指導者、ノーベル平和賞受賞者他の人々が同様の結論に達していることが、彼らの出した公開書簡、出版物や国連声明などで明らかになっている。ひとたび兵器庫に姿を表したら手遅れになるので、世界はそのような兵器の創造を阻止する必要がある。
At the UN meeting going on now, one of two week-long sessions that will take place this year, countries are striving to craft a working definition of the weapons in question and to recommend options to address the concerns they raise. The countries have offered several possible ways to proceed. The momentum for a preemptive prohibition is clearly growing. As of Monday, the African Group and Austria have joined 22 other countries voicing explicit support for a ban. Other countries have aligned themselves with a French/German proposal for a political declaration, a set of nonbinding guidelines that would be an interim solution at best. Still others have explicitly expressed opposition to a preemptive prohibition and a preference for relying on existing international law.
今年は1週間に及ぶ会議が2度あり、その内の1つで現在進行中の国連会議で各国は、問題となっている兵器の実用的定義を作ると共に、表明した懸念に対処する選択肢の勧告に向け奮闘中だ。各国は、議論の進展に向け幾つかの手段を提案した。予防的禁止への勢いは明らかに増大している。今週の月曜日現在で、アフリカ・グループとオーストリアが、禁止への明確な支持を表明している22ヶ国に加わった。せいぜいで暫定的解決にしかならない、拘束力のない一連のガイドラインである、フランスとドイツが共同で提案した政治宣言に同調する国もあり、予防的禁止には明確に反対し、現存する国際法に依拠する方を選択する旨明確に表明した国もある。
Despite this divergence of opinion, the discussion on the first day had a significant common thread. Almost all countries that spoke talked about the need for some degree of human control over the use of force. The widespread recognition that humans must have control over life-and-death decisions is heartening. If countries agree that such control needs to be truly meaningful, a requirement for human control and a prohibition on weapons that operate without such control are two sides of the same coin.
このような意見の相違があるにも拘らず、初日の議論は大きな共通点を見出した。ほぼ全ての国々が、武力行使に関して一定の人による管理の必要性について語ったのだ。人が生と死の決定を管理しなければならない、という認識が広範にあるのには勇気づけられた。そのような管理が真に意味を持つ必要があるということに、各国が合意するならば、人による管理の必要性は、それがない兵器の禁止を意味する。
These developments are positive, but the countries meeting this week clearly have much work ahead of them. To stay in front of technology, they should negotiate and adopt a new legally binding ban by the end of 2019. Only then will they have a chance to prevent the creation of a weapon that could revolutionise warfare in a frightening way.
このような進展は建設的であるが、今週会議に出席する国々はこの先に問題が山積みである。テクノロジーの暴走を食止めるために、彼らは2019年末までに法的拘束力を有す新たな禁止条約を、交渉して成立させなければならない。そうしなければ、恐ろしい方法で戦闘を革命的に変える可能性のある兵器の創造は阻止できない。