きんちゃんのぷらっとドライブ&写真撮影

「しんぶん赤旗」の記事を中心に、政治・経済・労働問題などを個人的に発信。
日本共産党兵庫県委員会で働いています。

AIとルール④ 兵器利用禁止交渉に逆流

2023-12-26 07:09:35 | 経済・産業・中小企業対策など
AIとルール④ 兵器利用禁止交渉に逆流

経済研究者 友寄英隆さん(寄稿)

国連のアントニオ・グテレス事務総長は10月26日、人工知能(AI)のリスク、機会、国際ガバナンスに関する新たな諮問機関を国連に設置すると発表しました。この機関は、AIの開発・利用のあり方を国際的に見守り、支援するのが目的です。
グテレス事務総長は、「将来に目を向けると、気候危機とデジタル変革という二つの地殻変動が21世紀を形作ることになるだろう」(20年7月18日、ネルソン・マンデラ記念講演)と述べたことがあります。同事務総長は、以前から「AIには驚くべき可能性と潜在的な危険性がある」と指摘していました。

デジタル格差
国連になぜAIの諮問機関を設置するのか。事務総長は会見で次のように述べています。
―現在、AIの専門知識は一握りの企業や一部の国に集中しており、それが「グローバルな不平等を深刻化させ、デジタル格差を亀裂へと変えてしまう」おそれがある。引き起こされるおそれのある損害には、誤情報や偽情報の拡散の加速化、偏見や差別の定着、監視やプライバシーの侵害、詐欺、その他の人権侵害などがあげられる。AIなどのデジタル技術が一部の諸国に独占されることによって、地球的規模で格差と分断がいっそう拡大・固定する―。
AIに関する諮問機関は、世界各国から選ばれた39人の専門家で構成されています。発表されたメンバーは、ジェンダーのバランスがとれており、地理的にも多様で、年齢的にも多世代にわたっています(日本からは江間有沙東京大学准教授、北野宏明ソニーグループ最高技術責任者の2人が選ばれています)。
国連のAIとのかかわりを考えるときに忘れることができないのは、AIの軍事的利用(たとえば無人戦闘機や殺人ロポットなど)を禁止する国際的ルールを作る活動です。
すでに13年から、国連はAI兵器についての議論を行ってきました。具体的には、国際連合軍縮拡大委員会、専門家会合、政府間パネルなどの枠組みを通じて、AI兵器の使用に関する議論や交渉がすすめられています。(年表)しかし、この10年間、AI兵器を禁止する国際条約作りは、米国、ロシアなど軍事大国の思惑のために、たいへん難航してきました。


国連でのAI兵器交渉
動き
201311国連軍縮拡大委員会
20155初の専門家会合
201711特定通常兵器使用禁止制限条約(CCW)の枠組みで専門家会合
20183国連CCW締約国会議
20193ジュネーブ専門家会議
8政府間パネル設置
2020 国際人道法への適用
202111CCWでの議論の本格化
20232米国が「AIと自律化技術の責任ある軍事利用に関する政治宣君」を提案
7国連安保理でAIを初の議題に(AI兵器も議論)


米国の新提案
23年に入って、米国政府は、AI兵器の国際交渉のなかで、まったく新たな提案を行いました。米国務省が23年2月16日に発表した「AIと自律化技術の責任ある軍事利用に関する政治宣言」と呼ばれる文書に、西側諸国の同意を取り付けはじめたのです。
この米国提案の「政治宣言」では▽軍事AIは国際法に従って開発すること▽各国のAI兵器の技術の原理について透明性を確保すること▽AIシステムの性能を検証する高い基準を設定すること―などが盛り込まれています。つまり、AI兵器を禁止するのでなく、「責任ある軍事利用」をはかるというものです。国連のこれまでの国際交渉にとっては、まったくの「逆流」と言うべき「宣言」です。この米国提案の「宣言」には、23年11月時点で、日本を含め「西側」の46カ国・地域が賛同(外務省資料)しています。
こうしたAI兵器をめぐる複雑な情勢のもとで、23年7月に国連安全保障理事会は、AIに関する初の会合を開きました。
AI兵器をめぐる国際環境は、新たな重要局面を迎えています。(おわり)

「しんぶん赤旗」日刊紙 2023年12月22日付掲載


AIに関する諮問機関は、世界各国から選ばれた39人の専門家で構成。発表されたメンバーは、ジェンダーのバランスがとれており、地理的にも多様で、年齢的にも多世代に。
23年に入って、米国政府は、AI兵器の国際交渉のなかで、まったく新たな提案。AI兵器を禁止するのでなく、「責任ある軍事利用」をはかるというもの。AI兵器をめぐる国際環境は、新たな重要局面を。

AIとルール③ EUの包括的規制法案

2023-12-25 07:12:20 | 経済・産業・中小企業対策など
AIとルール③ EUの包括的規制法案

経済研究者 友寄英隆さん(寄稿)

12月8日、欧州連合(EU)は、人工知能(AI)の包括的規制法案を大筋で合意したと発表しました。それによると、同法案は、加盟国とヨーロッパ議会による正式な承認を経て成立し、2026年までに施行される見通しです。
EUは、すでに21年4月にAI規制の制度化を目指すAI規制案(AIAct)を発表していました。その後、生成AIなどの急速な進展を前にして、同法案(原案)に大幅な改善を加えながら、EU加盟27力国間の調整を精力的におこなって、ようやく最終合意にこぎつけたということです。
合意したAI規制法案の詳細な内容はまだ明らかにされていませんが、生成AIが作成した画像や文章などには、AIによるものだと明示するなど透明性を義務づけるとされています。

世界初の機関
同法案では、AIのリスクを4段階にランク付けし、最高ランクの「許容できないリスク」に違反したときには、最大で3500万ユーロ(日本円で約54億円)か、あるいは年間の売上高の7%か、どちらか高いほうを制裁金として科すとしています。
こうした規制を実効あるものとするために、AIについて監視する機構を各国に設置するとともに、EUレベルでも拘束力のある執行機関(AIオフィス)を新設します。
それが実現すると、世界初のAI監視機関となるでしょう。
しかし、業務と関係ない個人のAI利用や研究目的、開発段階のAIについては、規制対象外となります。また安全保障や軍事目的のAI利用にも適用されません。


EUのAI規制法の「4ランクのリスク」
OAI規則案では、リスクベースアプローチを採用し、四つのリスクレベルを設け、おのおののリスクに応じた要件・規制を設定。
容認できないリスク
(Unacceptable Risk)
サブリミナル技術、ソーシャルスコアリング、公共空間における法執行目的でのリアルタイム遠隔生体認証システム等原則禁止
ハイリスク
(High Risk)
機械、医療機器、重要インフラ、教育、雇用、法執行等
プロバイダー、輸入者、販売業者、利用者それぞれに対して、リスク管理、データガバナンス、技術文書の作成、人的監視措置、適合性評価手続き、ログ保存など厳格な規制
限定的なリスク
(Limited Risk)
自然人とやりとりするAI、感情認識システム等
AI使用の告知など限定的な義務
最小限のリスク
(Minimal Risk)
上記以外
自由に利用可能(自主的な行動規範の推奨あり)
欧州連合日本政府代表部「EUAI規制法案の最新動向」(2023年9月)から作成。図は今回の最終案によるものではないが、基本的な4ランクの構成は変化ないと思われる


国際基準にも
EUの包括的なAI法が施行されると、EU域内にAIシステムを提供する域外企業も適用対象となります。国境のないデジタル経済のもとでは、AI規制のEU法がデファクト(事実上)の国際基準になっていく可能性もあります。
AI規制の方法ではEUと対立する米国のメディアの報道をみると、今回のEU法案の歴史的意義を認めつつも、必ずしも手放しの評価ではありません。たとえば米国のニューヨーク・タイムズ(12月9日付)では、「突破口として歓迎されるが、その効果については疑問が残る」と解説しています。また有力な経済紙ウォール・ストリート・ジャーナル(12月9日付)も、「EUの産業界からは強い批判がある」、「2026年以前に完全に発効することはないだろう」などと報じています。
米国のバイデン大統領は10月30日、最新のAI技術に関する包括的な大統領令に署名しました。安全保障や国民に深刻なリスクとなりうるAI技術を開発する企業にたいし、開発時点で政府に通知し、安全性テストの結果を提示するよう義務づけました。
EUがAI包括規制法案に合意したことは、G7で進められている「広島プロセス」(共通のAIルール作り)には、どのような影響を与えるでしょうか。
いずれにせよ、AIのルール作りは、歴史的に新しい段階に入ったと言ってもよいでしょう。
(つづく)

「しんぶん赤旗」日刊紙 2023年12月21日付掲載


AI規制法案では、AIのリスクを4段階にランク付けし、最高ランクの「許容できないリスク」に違反したときには、最大で3500万ユーロ(日本円で約54億円)か、あるいは年間の売上高の7%か、どちらか高いほうを制裁金として科すと。
こうした規制を実効あるものとするために、AIについて監視する機構を各国に設置するとともに、EUレベルでも拘束力のある執行機関(AIオフィス)を新設。
米国のバイデン大統領は10月30日、最新のAI技術に関する包括的な大統領令に署名。安全保障や国民に深刻なリスクとなりうるAI技術を開発する企業にたいし、開発時点で政府に通知し、安全性テストの結果を提示するよう義務づけ。

AIとルール② 「風呂敷」作ったG7

2023-12-24 07:04:32 | 経済・産業・中小企業対策など
AIとルール② 「風呂敷」作ったG7

経済研究者 友寄英隆さん(寄稿)

12月1日に、日本が議長国を務める主要7力国(G7)が「デジタル・技術閣僚声明」を発表しました。この声明は、今年5月に広島で開かれたG7サミットのさいに設立された、人工知能(AI)のルール作りを継続的に議論する作業(「広島プロセス」)の成果を取りまとめたものです。
G7合意の内容は、声明本体のほか、さまざまな付属文書からなっています。(表)
これらのうちで最も注目されるのは、「全てのAI関係者向けの国際指針」です。このなかには▽「偽情報の拡散」への対応▽「個人データ及び知的財産」の保護▽「電子透かし」などによる「透明性の確保」▽AIがはらむリスク▽脆弱(ぜいじゃく)性検知への協力▽AIリテラシーの向上▽情報の共有―などが盛り込まれています。
しかし、こうしたAーリスクにたいしてどう対応するかという具体的な方策で合意したわけではありません。比喩的に言えば、目指すべきAIルールを包み込む大きな風呂敷は作ったが、その中に入れるべき具体的な方策そのものはこれからだということです。


「広島AIプロセス」の成果文書
G7デジタル・技術閣僚声明
(まえがき)
Ⅰ.広島AIプロセス包括的政策枠組み
Ⅱ.広島AIプロセスを前進させるための作業計画
(別添)広島AIプロセス包括的政策枠組み
(まえがき)
Ⅰ.生成AIに関するG7の共通理解に向けたOECDリポート
Ⅱ.全てのAI関係者向けおよび高度なAIシステムを開発する組織向けの広島プロセス国際指針
Ⅲ.高度なAIシステムを開発する組織向けの広島プロセス国際行動規範
Ⅳ.プロジェクト・ベースの協力
(付属書1)全てのAI関係者向けの広島プロセス国際指針
信頼性のあるデータ流通(DFFT)の具体化に関するG7デジタル・技術閣僚声明
(付属書)DFFT具体化のための国際枠組み(IAP)の設立およびG7の期待に関するコンセプトペーパー


異なるルール
声明の第3項には、次のような文言があります。
「信頼できるAIという共通のビジョンと目標を達成するためのアプローチと政策手段は、G7メンバー間で異なる場合があることを認識している(太字は引用者)」
つまり、「信頼できるAI」の共通のビジョンと目標は国際的に定めたが、それを実現する具体的な政策手段は各国で異なってもよいということです。これは、現実に欧州連合(EU)、米国、日本などのG7諸国の間で進められているAIのルール作りの大きな相違を追認したものと言えるでしょう。
しかし、米国のオープンAI社のチャットGPTが公開されてわずか1年の間に世界中を席巻したように、AIなどのデジタル技術には国境はありません。はたして、各国バラバラなルールでリスクを規制できるものなのかどうか、たいへん疑問です。


前進始まった
とはいえ、AIの開発と利用についてのルール作りの「国際的指針」をきめたこと自体は、一定の前進だと言えるでしょう。
AIの国際的なルール作りは、ようやく始まったばかりです。
19世紀の産業革命で急速に機械工業が発展し、産業や社会の各分野で機械が普及していったときには、労働条件を守るための工場法が制定されました。イギリスの場合は、1802年に最初の工場法が成立してから、その法的不備が明らかになるたびに、何度も改正が繰り返されて、1878年の包括的な工場法が制定されるまで実に76年もかかりました。この期間に、労働者・国民の粘り強いたたかいが継続的におこなわれました。
AIのルール作りについても、これから長期にわたる課題として、腰を据えてしっかりと監視していくことが求められています。
(つづく)

「しんぶん赤旗」日刊紙 2023年12月20日付掲載


最も注目されるのは、「全てのAI関係者向けの国際指針」です。このなかには▽「偽情報の拡散」への対応▽「個人データ及び知的財産」の保護▽「電子透かし」などによる「透明性の確保」▽AIがはらむリスク▽脆弱(ぜいじゃく)性検知への協力▽AIリテラシーの向上▽情報の共有―などが盛り込まれていること。
19世紀の工場法づくりは76年もかかった。AIのルール作りについても、これから長期にわたる課題として、腰を据えてしっかりと監視していくことが求められています。


AIとルール① アルトマン氏“騒動”

2023-12-23 07:23:04 | 経済・産業・中小企業対策など
AIとルール① アルトマン氏“騒動”

人工知能(AI)の国際的なルール作りが始まりました。これをどうみるか、経済研究者の友寄英隆さんに寄稿してもらいました。
経済研究者友寄英隆さん(寄稿)

2023年の夏から冬へかけて注目すべき四つの動きがありました。一つは米国のAI開発企業の最高経営責任者(CEO)の解任騒動。二つは主要7力国(G7)のAI規制の合意声明。三つは欧州連合(EU)のAI包括規制法案。四つは国連のAI兵器禁止交渉の逆流です。これらは今後のAIをめぐる開発と規制のルール作りの方向を展望するうえで、たいへん重要な動きでした。その意味を考えてみましょう。



オープンAI社のロゴマーク(ロイター)

解任すぐ復帰
チャットGPTを開発した米国のオープンAI社の共同創業者として知られるアルトマン氏の同社CEO解任のニュースは、「青天の霹靂(へきれき)」でした。しかも、その解任発表の4日後に、アルトマン氏がCEOに復帰するというニュースが続き、二度びっくりしました。
アルトマン氏は、1年前にチャットGPTを公開して以来、世界中で生成Aーブームを巻き起こしたオープンAI社のCEOとして世界各国を駆け巡ってきました。日本にも4月に来訪して岸田首相と会談しています。NHKの単独インタビューでは「日本のすぐれたエンジニアや研究者と協力し、日本を主要な市場の一つにしたい」と語りました。
今回のアルトマン氏の解任騒動について日本経済新聞は「オープンAI騒動の真相示せ」という社説(3日付)までかかげました。その中では「開発を加速した同氏と安全性を重視してブレーキを踏むことを求めた一部の理事が対立したとの見方が浮上している」と指摘しています。
オープンAI社の内部抗争の詳細は分かりませんが、最先端のAI技術の開発企業の内部にもAI技術のリスクを懸念する経営者がいることは確かなようです。
世界的に著名な経営学修士(MBA)で知られる米国ハーバード大学の経営大学院のもとで編集される『ハーバード・ビジネス・レビュー(HBR)』をみると、生成AIに関する論文が毎号のように掲載されています。それらの論文をもとにした同誌の日本語版(ダイヤモンド社)は、今年11月号で「AIリスクにどう対処するか」という大型特集を掲載しています。そのなかで、AIの開発技術者が潜在的に陥りがちな三つのリスクを指摘しています。
第一に、「スピード重視という業界の文化があること」。第二に、「技術者が自社製品を取り巻く環境を大局的に見られないこと」。第三に、「安全確保のためのガードレールが必要という常識が後回しになりがちなこと」。

経営者の倫理
AIの技術者が陥りやすいリスクを管理し、開発竸争の暴走にブレーキをかけるのは企業経営者の責任です。先のHBR誌の論文のなかで、リード・ブラックマン(デジタルリスク倫理コンサルタントCEO)は、次のように強調しています。
「ビジネスリーダーは『倫理』を語ることを恐れてはならない」「企業は全社的なデジタル倫理リスクプログラムを策定する必要がある」
しかし、技術者が陥りがちなリスクを避けるには、企業経営者の倫理に頼るだけでは不十分です。AIの開発・利用にともなうリスクを規制する国家的なルールが必要です。
(つづく)(4回連載です)

「しんぶん赤旗」日刊紙 2023年12月19日付掲載


2023年の夏から冬へかけて注目すべき四つの動き。一つは米国のAI開発企業の最高経営責任者(CEO)の解任騒動。二つは主要7力国(G7)のAI規制の合意声明。三つは欧州連合(EU)のAI包括規制法案。四つは国連のAI兵器禁止交渉の逆流。これらは今後のAIをめぐる開発と規制のルール作りの方向を展望するうえで、たいへん重要な動き。
AIの開発技術者が潜在的に陥りがちな三つのリスクを指摘しています。
第一に、「スピード重視という業界の文化があること」。第二に、「技術者が自社製品を取り巻く環境を大局的に見られないこと」。第三に、「安全確保のためのガードレールが必要という常識が後回しになりがちなこと」。

締約国会議機に 政治家を決意 仏領ポリネシアのモルガンクロス議員 「核禁止条約で補償・廃絶必ず」

2023-12-22 07:04:46 | 平和・憲法・歴史問題について
締約国会議機に 政治家を決意 仏領ポリネシアのモルガンクロス議員 「核禁止条約で補償・廃絶必ず」
南太平洋の仏領ポリネシアのヒナモエウラ・モルガンクロス議員(35)は、昨年開かれた核兵器禁止条約第1回締約国会議に参加して議員になろうと決意し、今年5月の選挙で初当選しました。核実験被害者への補償を充実させ、核廃絶を実現しようと11月末に米ニューヨークの国連本部で開かれた第2回会議にも参加しました。
(ニューヨーク=島田峰隆写真も)



【仏領ポリネシア】
南太平洋南東部に散在する約120の島と環礁から成るフランス特別自治体。面積4167平万キロ、人口約30万6000人。政庁所在地はタヒチ島パペーテ。1842年にタヒチ島がフランス保護領となった後、他の島も併合1946年からフランスの海外領土。2004年に特別自治体になりました。任期5年の議会が行政長官を選出します。

「議員になって初めての仕事が核兵器禁止条約の支持決議になりました」とガッツポーズするモルガンクロス氏。「政治で変化を起こせる手応えを感じています」と笑顔で語りました。
議会(57議席)が今年9月に可決した決議は禁止条約を支持し、マクロン仏大統領に条約への加入や締約国会議へのオブザーバー参加を要求。仏領ポリネシアは核実験の被害者だと強調し、被害者救済や環境修復を定めた禁止条約の順守を求めました。



第2回締約国会議に参加したナモエウラ・モルガンクロス議員=11月30日、ニューヨーク

193回の核実験 死の灰で汚染
フランスは1966~96年、仏領ポリネシアのムルロア環礁などで193回の核実験を実施しました。生活用水に雨水を使っていた住民は、放射性降下物(死の灰)で汚染された水を飲み、赤ちゃんは汚染された水でつくったミルクを飲みました。生活の糧の魚も汚染されました。
住民の間には、がんや白血病、出生異常などが多発しています。モルガンクロス氏自身も10年前に白血病と診断されました。曽祖母は甲状腺がん、祖母と母は乳がんや甲状腺がんを患いました。
「フランスはポリネシアの住民を実験材料に使い、核兵器大国になりました。住民には“きれいな爆弾だ”とうそをつきました。私たちは補償を受けて当然です」
核実験と健康被害の関係に関心を持って調べ始めたのは2018年秋のこと。仏領ポリネシアのオスカー・テマル元行政長官が、核実験は人道に対する犯罪だとフランスを国際刑事裁判所に提訴したことがきっかけでした。
「193回もの核実験があったと初めて知り、衝撃を受けました」。調べるうちに自身や家族の病気の原因が核実験にあると確信しました。国際NGO「核兵器廃絶国際キャンペーン(ICAN)」とつながり、生まれ育ったタヒチ島で補償や核廃絶を求める行動に参加しました。

被害の実態を住民に知らせ
大きな転機が、昨年6月にウィーンで開かれた禁止条約第1回締約国会議への参加でした。日本の被爆者、カザフスタンやマーシャル諸島でたたかう核実験被害者と交流し、「政治を変えなければ」と決意。議員となりました。
いま最も力を入れたい課題は、フランス政府が2010年に施行した核実験被害者救済補償法の拡充と、核実験被害の実態を住民に知らせる運動です。
モルガンクロス氏は「核実験は隠ぺいされ、被害を自覚できていない住民も多い。植民地支配の傷痕です」と指摘。「核兵器禁止条約は被害者に心を寄せた人間味のある条約です。この条約なら被害者補償と核兵器廃絶を必ず実現できると思います」

「しんぶん赤旗」日刊紙 2023年12月18日付掲載


ポリネシア議会(57議席)が今年9月に可決した決議は禁止条約を支持し、マクロン仏大統領に条約への加入や締約国会議へのオブザーバー参加を要求。仏領ポリネシアは核実験の被害者だと強調し、被害者救済や環境修復を定めた禁止条約の順守を求めました。
フランスは1966~96年、仏領ポリネシアのムルロア環礁などで193回の核実験を実施。生活用水に雨水を使っていた住民は、放射性降下物(死の灰)で汚染された水を飲み、赤ちゃんは汚染された水でつくったミルクを飲みました。生活の糧の魚も汚染。
いま最も力を入れたい課題は、フランス政府が2010年に施行した核実験被害者救済補償法の拡充と、核実験被害の実態を住民に知らせる運動。