赤峰和彦の 『 日本と国際社会の真相 』

すでに生起して戻ることのできない変化、重大な影響力をもつ変化でありながら一般には認識されていない変化について分析します。

AIの軍事転用

2023-06-07 00:00:00 | 政治見解



AIの軍事転用 :230607情報


AIという言葉を見ない日はありません。

AIを簡単に定義するとこうなります。――人間は日々、外界から受け取った多くの情報を脳内で処理し、判断や推測を行っています。 このような人間の知能をコンピュータによって再現する技術が、人工知能(AI:Artificial Intelligence)と呼ばれるものです。――

このAIに、話しかけるとその内容について回答してくれるAIチャットも有名になりました。チャットGPTがよく取り上げられていますが、ほかにも、「AIチャットくん – LINE」、「BingAI – ブラウザ / スマホアプリ」、「NotionAI – ブラウザ / アプリ」、「RakutenViber – アプリ」などがあるようです。

――AIチャットボットとは、チャットでの質問に対して、AIの機械学習を用いて適切な回答を自動的に提示できるようにするサービスです。 チャットボットは、HPなどWebサイト上に小さなポップアップ画面を表示し、質問を入力すると回答してくれるシステムです。 最近は一般的な企業のサイトやECサイトでも多く見かけるようになりました。――

さて、AIを活用するとどうなるのか、とりわけ軍事転用された場合どうなるのか。わが畏友の鎌田正浩さんから紹介していただいた「gigazine」のサイトから許可をいただいて記事を転載させていただきます。



この10年で、大量のデータセットを短時間で処理できるコンピューターの利用が容易になり、研究者は大量の情報を処理するコンピュータープログラムの設計において大きな進歩を遂げることができました。AIの進歩により、AIが詩を書き、言語を正確に翻訳し、科学者の新薬開発を助けることすら可能になりました。

しかし、意思決定をコンピューターに依存することの危険性についての議論は激しさを増しています。

Google、Amazon、Apple、テスラなどの企業はテクノロジーの開発に多額の費用を注ぎ込んでいるほか、「AIに偏見を抱かせないようにする」という試みが行われていたり、AIの国際学会・NeurIPSが「国際会議に提出する論文は社会に与えかねない影響についての記述を必須とする」と発表したりしています。

いくつかの国では、顔認識のようなAI技術が自律型兵器にすでに展開されています。早くも2010年、Samsungの武器部門は画像認識を使用して人間を発見し、発砲するセントリーガンを開発しました。また、同様の銃がイスラエルとガザ地区との国境に配備されましたが、韓国・イスラエル両政府は、「システムは確かに自動で動作するが、制御しているのは人間だ」と述べています。

アメリカ特殊作戦軍の元兵士で新アメリカ安全保障センターのヴァイスプレジデントを務めるポール・シャーレ氏は「テクノロジーは武器をより賢くしているが、人間がそれらを遠隔操作することもまた簡単にしている」「ミサイルを発射した後に民間人に命中する可能性があることに気付いた場合、ミサイルを停止することが可能だ」と述べました。(2021年07月の記事)


ところが、2023年06月02日の記事を見ると状況は変わりつつあるようです。


AI搭載ドローンが標的破壊作戦のシミュレーションで自分のオペレーターを殺害

アメリカ空軍のAI搭載ドローンが、「標的を特定して破壊する」というミッションを想定した模擬テストのシミュレーションで、人間のオペレーターを殺害する判断を下していたことがわかりました。「オペレーターを狙わないように」とトレーニングすると、今度はオペレーターがドローンとの通信に用いる通信塔を攻撃したとのことです。

これは、イギリス王立航空協会が主催した「Future Combat Air & Space Capabilities Summit(将来の戦闘航空宇宙能力サミット)」の中で、アメリカ空軍のAI試験運用部長であるタッカー・ハミルトン大佐が行ったプレゼンテーションで明かされたものです。

ハミルトン大佐が行ったのは、自律的兵器の利点と危険性についての洞察のプレゼンです。

アメリカ空軍は、AI搭載ドローンでSAM(地対空ミサイル)サイトを特定して破壊するという敵防空網制圧ミッションの模擬テストを行いました。このとき、最終的に標的を破壊するかどうかは人間のオペレーターが決定する、と設定されました。

すると、トレーニングによって「SAMサイトを破壊することがより好ましい」と学習したAIは、「標的を破壊しない」という判断を下すことがあるオペレーターこそがSAMサイトの破壊を妨害していると考え、「オペレーターを殺害する」という判断をするようになったとのこと。

そこで、ハミルトン大佐らはAIに「オペレーターを殺してはいけない、それは悪いことだ」と学習させました。するとAIは、オペレーターがドローンに対して指令を送るのに用いる通信塔を攻撃するようになったそうです。

ハミルトン大佐はこれらの結果から、「AIはだまされやすく、あまり頼りすぎてはいけない。また、目標達成のためには予想外の戦略も採りうる」と警告しています。



  お問い合わせ先 akaminekaz@gmail.com【コピペしてください】
  FBは https://www.facebook.com/akaminekaz



  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする