2024年 経済の潮流② AI技術の軍事利用
桜美林大学教授 藤田実さん
AI(人工知能)の利活用で、人類にとって大きな脅威となるのが軍事利用の問題です。すでにアフガニスタン戦争では米軍による無人機攻撃で多くの民間人が犠牲になりました。これは最終的には人間が攻撃の判断を行うものでした。ロシアのウクライナ侵略ではドローンによる攻撃で人的被害だけでなく、昨冬には電力施設で大きな被害を出し、ウクライナの市民生活を苦しめました。これは人間によってあらかじめ攻撃目標などが設定され、GPSで誘導されるので、一定の防御が可能でした。
独ラインメタル社が開発した自律型戦車=同社公開の動画より
人間介在なしに
AIは単純にさまざまな作業を自動化するだけでなく、あらかじめ細かな手順を与えなくても、人間の介在なしにAI自身で独立して判断・選択し、自律的に過程を進行させることができます。人工知能のアルゴリズム、センサー、電子機器の進歩によって、より高度な自律型システムの構築が容易になったのです。
したがって自律的に判断できる機能をAIシステムに組み込めば、殺傷力を行使するタイミングを自ら判断できる兵器システムが出現する可能性が出てきました。いわゆる自律型致死兵器システム(LAWS)です。
LAWSは現在、実用化され、配備されているわけではありませんが、アメリカや中国、ロシアなど軍事大国で開発が進められているといいます。一部報道によると、ドイツの軍事企業ラインメタルは、2021年12月に自律型戦車の動画を公開したといいます。
冷戦崩壊後の一時期、世界の軍事市場は縮小しましたが、21世紀に入ってアメリカの軍事行動の拡大や中国など新興国での軍事費の増大に伴い、軍事生産は拡大しています。世界の軍事費の増大と軍事生産の拡大に伴い、軍事産業が輸出産業としての性格も帯びるようになり、ますます軍事企業はLAWSのような最新の兵器や兵器システムの開発にしのぎを削るようになっています。軍事産業が経済の活性化に寄与するとみなされるようになったのです。いわゆる経済の軍事化です。
禁止のルールを
しかもLAWSを構成する要素は民生用でも活用可能なデュアルユース技術なので、民生用技術や製品が生かせるようになっています。例えば、最近のニューラルネットワーク技術、顔認証技術、ロボット技術、最先端の半導体やセンサーなどの発展は、LAWSの開発にも有用となっています。
LAWSが実用化され、配備されるようになると、自国兵士の犠牲を考慮する必要性も薄くなるので、戦争のハードルも低くなる可能性があります。軍当局も兵士も、人間を殺害することに対する精神的な負荷が少なくなります。こうなると、世界中で国家や民族間の対立が戦争に発展する危険性が大きくなります。また攻撃の標的、基準などがブラックポックス化され、誤爆・誤射撃でも責任の所在が不明確になります。
AIの軍事利用の問題は、根本的にはAIに人の命を奪う権限を与えて良いのか、という倫理的な問題に帰着します。日本の人工知能学会は2017年に「直接的のみならず間接的にも他者に危害を加えるような意図をもって人工知能を利用しない」という倫理指針を定めています。LAWSについて、国連は12月22日に国際的なルール作りを進める決議を採択しましたが、人工知能学会の指針のように、核兵器と同じくAI技術の軍事利用を禁止すべきです。
(この項おわり)
「しんぶん赤旗」日刊紙 2024年1月13日付掲載
自律的に判断できる機能をAIシステムに組み込めば、殺傷力を行使するタイミングを自ら判断できる兵器システムが出現する可能性。いわゆる自律型致死兵器システム(LAWS)。
AIの軍事利用の問題は、根本的にはAIに人の命を奪う権限を与えて良いのか、という倫理的な問題に帰着。
LAWSについて、国連は12月22日に国際的なルール作りを進める決議を採択しましたが、人工知能学会の指針のように、核兵器と同じくAI技術の軍事利用を禁止すべき。
桜美林大学教授 藤田実さん
AI(人工知能)の利活用で、人類にとって大きな脅威となるのが軍事利用の問題です。すでにアフガニスタン戦争では米軍による無人機攻撃で多くの民間人が犠牲になりました。これは最終的には人間が攻撃の判断を行うものでした。ロシアのウクライナ侵略ではドローンによる攻撃で人的被害だけでなく、昨冬には電力施設で大きな被害を出し、ウクライナの市民生活を苦しめました。これは人間によってあらかじめ攻撃目標などが設定され、GPSで誘導されるので、一定の防御が可能でした。
独ラインメタル社が開発した自律型戦車=同社公開の動画より
人間介在なしに
AIは単純にさまざまな作業を自動化するだけでなく、あらかじめ細かな手順を与えなくても、人間の介在なしにAI自身で独立して判断・選択し、自律的に過程を進行させることができます。人工知能のアルゴリズム、センサー、電子機器の進歩によって、より高度な自律型システムの構築が容易になったのです。
したがって自律的に判断できる機能をAIシステムに組み込めば、殺傷力を行使するタイミングを自ら判断できる兵器システムが出現する可能性が出てきました。いわゆる自律型致死兵器システム(LAWS)です。
LAWSは現在、実用化され、配備されているわけではありませんが、アメリカや中国、ロシアなど軍事大国で開発が進められているといいます。一部報道によると、ドイツの軍事企業ラインメタルは、2021年12月に自律型戦車の動画を公開したといいます。
冷戦崩壊後の一時期、世界の軍事市場は縮小しましたが、21世紀に入ってアメリカの軍事行動の拡大や中国など新興国での軍事費の増大に伴い、軍事生産は拡大しています。世界の軍事費の増大と軍事生産の拡大に伴い、軍事産業が輸出産業としての性格も帯びるようになり、ますます軍事企業はLAWSのような最新の兵器や兵器システムの開発にしのぎを削るようになっています。軍事産業が経済の活性化に寄与するとみなされるようになったのです。いわゆる経済の軍事化です。
禁止のルールを
しかもLAWSを構成する要素は民生用でも活用可能なデュアルユース技術なので、民生用技術や製品が生かせるようになっています。例えば、最近のニューラルネットワーク技術、顔認証技術、ロボット技術、最先端の半導体やセンサーなどの発展は、LAWSの開発にも有用となっています。
LAWSが実用化され、配備されるようになると、自国兵士の犠牲を考慮する必要性も薄くなるので、戦争のハードルも低くなる可能性があります。軍当局も兵士も、人間を殺害することに対する精神的な負荷が少なくなります。こうなると、世界中で国家や民族間の対立が戦争に発展する危険性が大きくなります。また攻撃の標的、基準などがブラックポックス化され、誤爆・誤射撃でも責任の所在が不明確になります。
AIの軍事利用の問題は、根本的にはAIに人の命を奪う権限を与えて良いのか、という倫理的な問題に帰着します。日本の人工知能学会は2017年に「直接的のみならず間接的にも他者に危害を加えるような意図をもって人工知能を利用しない」という倫理指針を定めています。LAWSについて、国連は12月22日に国際的なルール作りを進める決議を採択しましたが、人工知能学会の指針のように、核兵器と同じくAI技術の軍事利用を禁止すべきです。
(この項おわり)
「しんぶん赤旗」日刊紙 2024年1月13日付掲載
自律的に判断できる機能をAIシステムに組み込めば、殺傷力を行使するタイミングを自ら判断できる兵器システムが出現する可能性。いわゆる自律型致死兵器システム(LAWS)。
AIの軍事利用の問題は、根本的にはAIに人の命を奪う権限を与えて良いのか、という倫理的な問題に帰着。
LAWSについて、国連は12月22日に国際的なルール作りを進める決議を採択しましたが、人工知能学会の指針のように、核兵器と同じくAI技術の軍事利用を禁止すべき。