ガザ:イスラエル軍のデジタル・ツールが民間人に危害を及ぼす危険
新技術が戦争法、プライバシー、個人情報への懸念を生じさせる
(Jerusalem, September 10, 2024) – The Israeli military’s use of surveillance technologies, artificial intelligence (AI), and other digital tools to help determine targets to attack in Gaza may be increasing the risk of civilian harm, Human Rights Watch said today in releasing a question and answer document about the tools. These digital tools raise grave ethical, legal, and humanitarian concerns.
(エルサレム、2024年9月10日) ガザにおける攻撃の標的決定を支援するためにイスラエル軍が使っている監視技術、人工知能(AI)他のデジタル・ツールは民間人に危害を及ぼす危険を増大している可能性がある、とヒューマン・ライツ・ウォッチ(以下HRW)はデジタル・ツールに関するQ&A文書を公表するに当たって本日述べた。それらのデジタル・ツールは、重大な倫理的・法的・人道的懸念を生じさせる。
The Israeli military is using four digital tools in the Gaza hostilities to estimate the number of civilians in an area prior to an attack, notify soldiers when to attack, and to determine whether a person is a civilian or a combatant, as well as whether a structure is civilian or military. Human Rights Watch found that the digital tools appear to rely on faulty data and inexact approximations to inform military actions in ways that could contravene Israel's obligations under international humanitarian law, in particular the rules of distinction and precaution.
イスラエル軍はガザでの敵対行為において攻撃に先立ってある地域にいる民間人の数を推計するため、何時攻撃するのかを兵士に通知するため、「ある人物が民間人か戦闘員か」だけでなく「構築物が民用なのか軍用なのか」を、判断するためにデジタル・ツールを使っている。デジタル・ツールは軍事行動を通知するのに、不完全なデータや不正確な見積もりに依存していると思われ、国際人道法に基づくイスラエルの義務、特に区別と予防措置の規則に違反する可能性があることを、HRWが明らかにした。
“The Israeli military is using incomplete data, flawed calculations, and tools not fit for purpose to help make life and death decisions in Gaza, which could be increasing civilian harm,” said Zach Campbell, senior surveillance researcher at Human Rights Watch. “Problems in the design and use of these tools mean that, instead of minimizing civilian harm, the use of these tools could be resulting in the unlawful killing and wounding of civilians.”
「イスラエル軍は不完全なデータ、欠点のある見積もり、ガザでの生と死を分ける決定を手助けする目的適さないツールを使っていて、それは民間人への危害を増大する可能性があります。その計画とそれらのツールを使うことの問題は、民間人への危害を最小化するのではなく、そのようなツールの使用は民間人への違法な殺害と負傷という結果になる可能性があります」、とHRW上級監視調査員ザック・キャンベルは語った。
These tools entail ongoing and systematic surveillance of Palestinian residents of Gaza, including data collected prior to the current hostilities, in a manner that is incompatible with international human rights law. The tools use Palestinians’ personal data to inform threat predictions, target identification, and machine learning.
そのようなツールは、現在の敵対行為に先立って収集されたデータを含む、ガザのパレスチナ住民に対して、国際的な人道法に沿っていない手法で、現在も行われている組織的な監視を必要とすると共に、パレスチナ人の個人情報を使って、脅威予測、標的特定、機械学習に情報を提供する。
*機械学習:データを分析する方法の1つで、データから、「機械」(コンピューター)が自動で「学習」し、データの背景にあるルールやパターンを発見する方法。 近年では、学習した成果に基づいて「予測・判断」することが重視されるようになった。
Human Rights Watch relied on public statements from Israeli officials, previously unreported material published by the Israeli military, media reports, and interviews with experts and journalists, to assess the four tools, which the Israeli military has used in the hostilities in Gaza since October 7, 2023. This information, while incomplete, provides important details about how these tools work, how they were built, what data they use, and how they could support military decision-making.
HRWは、イスラエル当局者が公表した声明、イスラエル軍が公開していたが以前には報告されていない資料、メディア報道、専門家とジャーナリストへの聞取り調査に依存して、2023年10月7日以降の敵対行為においてイスラエル軍が使って来た、4つのツールを評価した。その情報は不完全ではあるが、そのようなツールが如何に機能しているか、如何に構築されたか、どの様なデータが使われるのか、如何に軍の意思決定を助けられるのか、について詳細を提供する。
These include a tool based on mobile phone tracking to monitor the evacuation of Palestinians from parts of northern Gaza, where the Israeli military ordered the entire population to leave on October 13; a tool that generates lists of buildings or other structural targets to be attacked, called “The Gospel”; a tool that assigns ratings to people in Gaza related to their suspected affiliation with Palestinian armed groups, called “Lavender,” for purposes of labeling them as military targets; and a tool called “Where’s Daddy?”, which purports to determine when a target is in a particular location – often their presumed family home, according to media reports – so they can be attacked there.
4つのツールとは以下のようなものだ
- 携帯電話の追跡に基づいて、イスラエル軍が10月13日に全住民に退去を命じた、ガザ北部の様々な場所から避難したパレスチナ人を監視するツール
- 攻撃する標的となる建物他の構造的標的のリストを作り出す、「ゴスペル(福音)」と呼ばれるツール
- ガザ住民を軍事目標として分類する目的で、パレスチナ人武装組織への所属容疑に関連したガザ住民への評価付けをする、「ラベンダー」と呼ばれるツール。
- メディア報道によれば多くの場合に標的の実家と推定される、特定の場所に標的が何時いるのかを判断し、標的を攻撃できるようにするとされている、「フェアーリズ・ダディ(パパはどこ?)」と呼ばれるツール。
These tools are limited by issues common to other types of technology, but in military contexts they can have deadly consequences for civilians. Two of these tools, the evacuation monitoring tool and Where’s Daddy?, are apparently used to inform determining targets, troop movement, and other military actions using mobile phone location data. Although they have many practical uses in daily life, these tools are not accurate enough to inform military decisions, especially given the massive damage to communications infrastructure in Gaza.
それらのツールには別タイプのテクノロジーに共通な問題によって制約されているが、軍事的には民間人に死傷者をもたらす可能性があり、内2つのツールである避難監視と「フェアーリズ・ダディ」は携帯電話の位置データを使って、標的決定・部隊移動他の軍事行動に情報を提供するために使われているようだ。それらのツールには日常生活で多くの実用的用途があるが、特にガザの通信インフラへの大きな被害を考えると、軍事的決定に情報を提供するまでの十分な精度があるわけではない。
Two of the digital tools, the Gospel and Lavender, appear to rely on processes of machine learning to inform targeting decisions using criteria developed by an algorithm that is most likely biased and incomplete, and in a process that is technically impossible to scrutinize. Algorithmic outputs often reflect the biases of their programmers and their society. And while they may appear to be neutral, digital tools are often given excessive trust by human operators even though they are only as accurate as the data they were built with, which in military contexts is often incomplete and not fully representative of the context in which the tool is operating. Relying on these algorithms risks contravening international humanitarian law obligations regarding the protection of civilians.
「ゴスペル」と「ラベンダー」という2つのデジタル・ツールは、標的決定に情報を提供するのに、機械学習の処理に依存しているようだが、その際に偏りがあり不完全である可能性が高く、精査が技術的に不可能なプロセスである、アルゴリズムによって開発された基準を使用している。アルゴリズムからの出力は、プログラマーとその社会の偏見を多くの場合反映する。それらは中立的に見えるかもしれないが、デジタル・ツールは構築されたデータと同じ精度であり、軍事的状況では多くの場合不完全であり、ツールが動作している状況を完全に表していないにも拘らず、人間のオペレーターから過度に信頼されることがよくある。それらのアルゴリズムに頼ることは、民間人の保護に関する国際人道法上の義務に違反する危険がある。
*アルゴリズム:「問題を解決するための手順や計算方法」を指す言葉、「算法」と呼ばれることもある。数学の公式やプログラミング言語を使って問題の解決手順を記述したコンピュータプログラミングは、アルゴリズムの代表。
Lavender and the Gospel rely on machine learning to distinguish between military objectives and civilians, and civilian objects. Machine learning is a type of AI that uses computerized systems that can draw inferences from data and recognize patterns without explicit instructions. Using it to assign suspicion or inform targeting decisions can increase the likelihood of civilian harm.
「ゴスペル」と「ラベンダー」は、軍事目標と民間人及び民用物の区別を、機械学習に依存しているが、機械学習は、明確な指示のないままデータから推測を引き出し、パターンを認識することが可能な、コンピューター化されたシステムを使うAI(人工知能)の一形態だ。それを使って疑惑を抱かせる、又は標的決定に情報を提供することは、民間人に危害を及ぼす可能性を増大する
It has not been possible to document when and where the Israeli military is using these digital tools or the extent to which they have used these tools in conjunction with other methods of information and intelligence collection.
イスラエル軍が何時・何処でそれらのデジタル・ツールを使用しているのか、又は、他の情報提供や情報収集の方法と組み合わせて、それらのツールを何処まで使用しているのかを、文書化することは不可能だ。
The Israeli military should ensure that any use of technology in its operations complies with international humanitarian law. No targeting decisions should be made based solely on recommendations by a machine learning tool. If Israeli forces are acting upon any of these tools’ recommendations or assessments without sufficient scrutiny or additional information – as has been reported – resulting in attacks causing civilian harm, Israeli forces would be violating the laws of war. Committing serious violations of the laws of war, such as indiscriminate attacks on civilians with criminal intent, are war crimes.
イスラエル軍は、作戦上の如何なる技術の使用も国際人道法に準拠することを保証すべきだ。如何なる標的決定も、機械学習ツールによる推奨事項のみに基づいて行ってはならない。もしイスラエル軍が、報道されているように、十分な精査や追加情報なしに、これらのツールの推奨や評価に基づいて行動し、その結果、攻撃が民間人に危害を加えることになったとしたら、イスラエル軍は戦争法に違反していることになる。犯意を持って民間人に無差別攻撃を行うなど、戦争法に対する重大な違反を行うのは戦争犯罪である。
Israel should also ensure that as it is an occupying power in Gaza, its use of digital tools does not violate the privacy rights of Palestinians. In May 2024, Human Rights Watch discovered data posted publicly online by the Israeli military, apparently erroneously, that included what appears to be operational data related to systems used for monitoring the evacuation and movement of people through Gaza, as well as for projecting the likely civilian harm that would be caused by attacks in particular areas. The data was included in the source code of the Israeli military’s evacuation information website and included personal information and the surnames of the most populous extended families in each block.
イスラエルはまたガザの占領権力であるため、デジタル・ツールの使用がパレスチナ人のプライバシー権を侵害しないようにすべきだ。HRWは2024年5月、イスラエル軍が明らかに誤ってオンラインに投稿したデータを発見したが、その中には、ガザ地区内の人々の避難や移動を監視するために使用されたシステムに関連する運用データと思われるものが含まれていた他、特定の地域での攻撃によって民間人にもたらされる可能性のある危害を予測していた。そのデータは、イスラエル軍の避難情報ウェブサイトのソースコードに含まれており、各ブロックで最も構成員の多い大家族の個人情報と姓が含まれていた。
The Israeli army's publication of this data online violates Palestinians’ right to privacy and demonstrates that the military is not taking adequate security precautions with the data it collects, Human Rights Watch said.
イスラエル軍がこのデータをオンラインで公開することは、パレスチナ人のプライバシー権を侵害しており、軍が収集したデータに十分な安全・予防措置を講じていないことの表れだ。
Human Rights Watch sent a letter to the Israeli military on May 13 with detailed questions, but the military has not responded.
HRWは5月13日、イスラエル軍に詳細な質問を伴う書簡を送ったが、軍は返答していない。
Over the past 10 months in Gaza, over 40,000 people have been killed and 94,000 injured, according to the Gaza Health Ministry. Over 70 percent of civilian infrastructure and over 60 percent of civilian homes have been destroyed or severely damaged. Virtually all of Gaza’s residents have been displaced from their homes. Impartial investigations into the use of these digital tools is needed to determine whether and to what extent they have unlawfully contributed to the loss of civilian life and property, and the steps that are needed to prevent future harm, Human Rights Watch said.
ガザ保健省によると、ガザでは過去10ヶ月間で40,000人超が死亡し、94,000人が負傷した。民用インフラの70%超、民家の60%超が破壊され又は深刻な被害を受け、ガザの住民のほぼ全員が自宅から退去させられた。デジタル・ツールの使用が、民間人の生命と財産の損失を違法に助長したかどうか、またどの程度貢献したか、また、将来の被害を防ぐためにどのような措置が必要かを、究明するべくデジタル・ツールの使用について公平な調査が必要である。
"The use of flawed technology in any context can have negative human rights implications, but the risks in Gaza couldn’t be higher,” Campbell said. “The Israeli military’s use of these digital tools to support military decision-making should not be leading to unlawful attacks and grave civilian harm.”
「欠陥のある技術の使用は、どのような状況でも人権に悪影響を及ぼす可能性がありますが、ガザ地区のリスクはこれ以上ないほど高いのです。イスラエル軍がデジタル・ツールを軍事的な意思決定の支援に使用し、それが、違法な攻撃や深刻な民間人被害に繋がってはなりません。」、と前出のキャンベルHRW上級監視調査員は語った。