AI兵器の禁止を議論してきた国連。しかし、アメリカの新提案はこの流れに「逆行」するものだ。
アメリカやロシアなど軍事大国は「AI兵器の禁止」に反対してきた。
今年の2月にアメリカが「AIと自律性の責任ある軍事利用に関する政治宣言」を発表した。
そして日本も同意した。
外務省:こちら⇒
これは「AI兵器」の開発促進決議だ!
「国際人道法の国家の義務に合致した形で」という言葉を使っているが、まったくのまくら言葉だ。内容は開発促進だ。
AIの研究はいっきに広がった。
ちょうど1年前にChatGPTが公開されてから、すさまじい開発競争が行われている。
AIの危険性については欧州などで早くから議論されてきた。
EU(欧州連合)のAI規制の制度化を目指すなかで「4ランクのリスク」を打ち出した。
しんぶん赤旗 12月21日「AIとルール」より
公共空間のおけるリアルタイムの「顔認識」が「容認できないリスク」に入っている。
日本も見習いたいものだ。
AI兵器のLAWS(自律型致死兵器システム)は絶対に認められない。
映画ターミネーターにおける「スカイネット」、2001年宇宙の旅の「HAL9000」などに、早くからその恐ろしさが警告されていた。
すでにChatGPTや軍事用AIから「非人間的」な答えが返ってきたとの報道も。
「AI学習」によって、アルゴリズムは、まったくわからなくなる。
いくら倫理を強調しても、AIの開発が「資本の論理」と「軍事」によって歪み始めている。
国民的監視が必要だ。
私の古いブログも
〇 完全自立型AI兵器
〇 数学破壊兵器
追 記
22日、国連総会で、LAWS(ローズ:自律型致死兵器システム)への「対応が急務」という決議を採択した。「AI兵器」の禁止ではない。
反対はロシアなど、棄権はイスラエルなど。
賛成は152カ国。
「対応が急務」から早急に「禁止」という条約に進むべきだ。
人間の手から離れ、目標物の破壊や特定の個人を殺害する殺人ロボットはあってはならない。
映画「ターミネーター」の世界を現実のものにしてはならない。