Last Updated:March 14, 2024
EU欧州議会は3月14日、史上初の人工知能(AI)法を可決した。 この法案は議員の85%の賛成多数で可決された。 AI システムがプライバシー、人間の尊厳、基本的権利を確実に守りながら、AI に関連するリスクを軽減することを目的としている。(2024.3.14 補追)
ChatGPTなどの汎用人工知能(General-purpose AI models )テクノロジーは、AIシステムの構築と展開の方法を急速に変革している。これらのテクノロジーは今後数年間で大きなメリットをもたらし、多くのセクターでイノベーションを促進することが期待されているが、一方でその破壊的な性質は、プライバシーと知的財産権、責任と説明責任に関する政策問題等を提起する。
そして、偽情報と誤った情報を広めるこれら技術導入の可能性についての大きな懸念も生じている。
EU議会の議員は、適切な保護手段が整っていることを確認しながら、これらのテクノロジーの導入を促進することの間で微妙なバランスをとる必要があり、2018年以降取り組んできたAIに関する史上初の法的枠組みにつき、欧州議会は2月13 日、欧州議会の「域内市場および消費者保護に関する委員会IMCO)」と、「市民的自由・司法・内務委員会 (LIBE)」は、EU が提案した AI 法案の採択を圧倒的多数で可決、本年4月の最終可決段階に入る。
本ブログは最終段階の法案の修正内容を改めて整理する目的でまとめた。また、ブログの執筆のあたり、欧州議会や委員会の公式資料だけでなく、EUの主要AI研究者の顔ぶれ等についても補足、言及した。(その他、欧州 AI 事務局(European AI Office)の青写真問題(注0)などがあるが、別途整理する)
なお、本ブログで引用するとおり、わが国のAI法案の検討は2月中旬に自民党が「党AIの進化と実装に関する社会推進本部の下にあるプロジェクトチーム(PT、座長・平将明衆院議員)は、責任あるAI利活用を推進するための法制度の在り方について検討を進めている」という。
また、文化庁は「公開時点において議論・検討中である AI と著作権に関する論点整理の項目立て及び記載内容案の概要」等を公開しているのみである。
今回のブログは、2回に分けて掲載する。
1.EU委員会の AIに関する史上初の法的枠組み検討経緯(European approach to artificial intelligence Milestones)サイト解説
欧州委員会サイト“European approach to artificial intelligence”から一部抜粋、仮訳する。
同委員会はAIに関する史上初の法的枠組みを提案しており、これはAIのリスクに対処し、欧州が世界的に主導的な役割を果たす立場を確立するものである。
AI 法は、AI の開発者、導入者、ユーザーに、AI の特定の用途に関する明確な要件と義務を提供することを目的としている。 同時に、この規則は企業、特に中小企業(SME)の管理的および財政的負担を軽減することを目指している。
AI は、より広範な AI パッケージの一部であり、AI に関する最新の調整計画も含まれています。 規制の枠組みと調整計画が連携することで、AI に関して人々と企業の安全と基本的権利が保証される。 そして、EU全体でAIの導入、投資、イノベーションを強化することになる。
2.2021年以降のAI規則案(AI法案)の検討経緯
前述のとおり、欧州委員会が2021年4月21日にAI規則案(AI法案)の検討開始を公表しているが、主要なAI規則案の検討経緯をまとめたレポートがあるので、以下引用する。
2023年 7月 6日国際社会経済研究所 小泉雄介氏「EUのAI規則案の欧州議会修正案と顔識別システム等に対する規制動向」から以下、一部抜粋する。
◎AI規則案の審議状況
- 欧州委員会が2021年4月21日にAI規則案(AI法案)を公表。
- 「Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules onArtificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts」
- EU理事会では2022年12月に合意案(general approach)を採択済み。
- 欧州議会傘下のIMCO委員会とLIBE委員会で議会修正案に対する投票が2023年5月11日に行われ、賛成多数。 欧州委員会案に対する修正箇所が771件
- 欧州議会は2023年6月14日の総会で議会修正案を採択。
- 上記IMCO委員会とLIBE委員会が可決した議会修正案がそのまま採択された。
- 中道右派のEPPはリアルタイムリモート生体識別の禁止から「犯罪被害者の捜索」や「テロ攻撃等の防止」の例外を残そうとしたが、失敗。
- 今後、欧州委員会・欧州議会・EU理事会で非公式な三者協議(trilogue)が行われ、2023年内の合意が目指されている。早ければ、2024年春にAI規則(AI法)が制定される見込み。同規則の適用(施行)はその2年後。
3.2024 年 2 月 13 日、欧州議会の「域内市場および消費者保護に関する委員会(IMCO)」と、「市民的自由・司法・内務委員会 (LIBE)」は、EU が提案した AI 法案の採択を圧倒的多数で可決
2024.2.28 Inside privacy blog 「EU AI 法: 侵害本文からの重要なポイント」から抜粋、仮訳する。なお、必要に応じ筆者はリンクや注書きを追加した。
2024 年 2 月 13 日、欧州議会の「域内市場および消費者保護に関する委員会(Committee on the Internal Market and Consumer Protection:IMCO)」と、「市民的自由・司法・内務委員会 (Commission des libertés civiles, de la justice et des affaires intérieures:LIBE)」 (以下、「議会委員会」という) は、EU が提案した AI 法案の採択を圧倒的多数で可決した。 これは、2月初めに閣僚理事会の常任代表委員会(Council of Ministers’ Permanent Representatives Committee (以下、「Coreper委員会」という)による文書承認の投票に続くものである。これにより、この法案は最終版に近づきつつある。 立法プロセスの最後のステップは欧州議会全体による投票であり、現時点では2024年4月に行われる予定である。
Coreper 委員会と議会委員会によって承認された暫定合意法案には、以前の法案と比較して多くの重要な変更が含まれており、このブログでは以下のとおり、いくつかの重要なポイントを説明する。
(1) 汎用 AI モデル(General-purpose AI models):多くの議論の結果、最終法案は「汎用 AI (「GPAI」) 」モデルを規制することになるようである。 他の要件の中でも、GPAI モデルのプロバイダーは、特定の最小限の要素を含むモデルの技術文書を作成および維持し、これらのモデルを自社の AI システムに統合するプロバイダーに詳細な情報と文書を提供し、EU 著作権法を尊重するポリシーを採用し、GPAI モデルのトレーニングに使用されるコンテンツの「十分に」詳細な概要が公開されている。
(2) システミックリスクを伴う汎用 AI モデル: この法律は、「システミックリスクを伴う」GPAI モデルの提供者に高い義務を課している。 これらには、モデルの敵対的テストを含むモデル評価を実行し、起こり得る EU レベルのシステムリスクを評価および軽減し、適切なサイバーセキュリティ保護を確保するための要件が含まれる。
(3) 高リスク AI システムの適格性の例外: 本文の以前のバージョンと一致して、この法案の最も広範な義務は「高リスク」 AI システムに適用される。 この法律では、リスクの高い 2 種類の AI システムが特定されている。(注1)(1) 法案の附属書 II P.243以下 にリストされている特定の EU 法の対象となる製品 (または製品の安全コンポーネント) として使用されることを目的とした AI システム、および (2) 遠隔生体認証システムの特定の用途や法執行に使用される特定の AI システムなど、法案の附属書 IIIP.248以下に記載されている目的に使用される AI システム。 ただし、合意案にはこの要件の例外も含まれている。
附属書 III の範囲内にある AI システムが「自然人の健康、安全、または基本的権利に危害を及ぼす重大なリスクを引き起こさない」場合、プロバイダーは文書化することができる。
これに基づき、そのシステムをそのようなシステムに対するAI法の義務から除外される。EU加盟国の市場監視当局(注2)には、誤って分類されたとみなす理由があるシステムを評価し、是正措置を命令する権限が与えられている。
また、プロバイダーが高リスク AI システムに対する義務の適用を回避するために AI システムを誤って分類したと市場監視当局が判断した場合、当該プロバイダーは罰金の対象となる。
(4) 銀行、保険会社、政府に対する顧客の基本的権利の影響評価(impact assessment): 公法に準拠する機関である派遣会社、公共サービスを提供する民間事業者、および (一部の例外を除く) 自然人の信用力を評価するために高リスクの AI システムを導入する事業者、または個人の信用スコアを評価したり、自然人の生命保険や健康保険に関連するリスクと価格を評価したりするには、P.247以下の附属書 III (ANNEX III High-risk AI systems referred to in article 6(2))(注1)にリストされている高リスク AI システムを導入する前に、基本的権利への影響評価を実行する必要がある。これには、これらの事業体は、以下を評価する必要がある。
①高リスク AI システムが意図された目的に沿って使用される導入者のプロセス。
②高リスク AI システムが使用される予定の期間と頻度の説明。
③特定の状況での使用によって影響を受ける可能性のある自然人およびグループのカテゴリー。
④法案第 13 条(P.108以下)に基づく透明性義務に従ってプロバイダーによって提供される情報を考慮した、影響を受ける可能性が高いと特定された個人または個人のグループのカテゴリーに影響を与える可能性がある危害の具体的なリスク。
⑤使用説明書に従った人間による監視措置の実施の説明。
➅内部ガバナンスおよび苦情メカニズムの取り決めを含む、これらのリスクが現実化した場合にとるべき措置。
(5)透明性義務: AI 法は、(1) 合成音声、画像、ビデオ、またはテキスト コンテンツを生成する AI および GPAI システムのプロバイダー、(2) 感情認識(注3)(注4)の導入者を含む、特定の AI システムおよび GPAI モデルのプロバイダーおよびユーザーに透明性義務を課している。 (3) ディープフェイクを構成する画像、音声、またはビデオ コンテンツを生成または操作する AI システムの導入者、および (4) 問題について公衆に知らせることを目的として公開されたテキストを生成または操作するシステムの導入者 公共の利益(この法案は、特定の附属書 III 高リスク AI システムの導入者に追加の透明性義務を課している。 場合によっては、コンテンツが人工的に生成または操作されたものであることを識別できるように、コンテンツに機械可読な方法でラベルを付ける必要がある。 AI 法案では、AI システムが芸術、風刺、創造、または同様の目的で使用される場合など、一部の状況では例外が規定されている。
(6)AI法の発効日: AI 法は EU 官報に掲載されてから 20 日後に発効し、通常、発効から 2 年後に組織に適用され始めるが、一部の例外がある。特定の AI 慣行の禁止は 6 か月後に適用される。GPAI モデルに関する規則は 12 か月後に適用される (この日より前に市場に投入された GPAI モデルを除き、これらはさらに 24 か月後に適用される)。法案附属書 II の高リスク AI システムに適用される規則は36 か月後に適用される。
3.EUのシンクタンクがEUの急速なAI技術の進展に対する一方でその破壊的な性質は、プライバシーと知的財産権、責任と説明責任に関する政策問題を提起するとともに偽情報と誤った情報を広めるAI技術者の取組みの可能性についての大きな懸念を表明
2023.3.30「汎用人工知能のAt Glance」から一部抜粋、仮訳する。なお、ここに紹介されるAI研究者の論文等については別途本ブログでまとめたい。
EU AI法案における汎用AI(基礎モデル)
EU議会の議員らは現在、「高リスク」AIシステムにEU内の一連の要件と義務を課す、AIに関するEU規制枠組みを定義するための長期交渉に取り組んでいる。 提案されている人工知能法案 (AI 法案) の正確な範囲は議論の骨子である。 欧州委員会の当初の提案には汎用 AI 技術に関する具体的な規定は含まれていなかったが、EU理事会はそれらを検討する必要があると提案した。 一方、科学者たちは、次のようなことが起こると警告している。
将来の AI 法では、AI アプリケーションの特定の用途は規制されるものの、その基礎となる基盤モデルは規制されないため、意図された目的に応じて AI システムを高リスクかそうでないかに分類するアプローチは、汎用システムの抜け穴を生み出すことになる。
これに関連して、Future of Life Institute などの多くのAI関係者は、汎用 AI を AI 法の範囲に含めるよう求めている。このアプローチを支持する一部の学者は、それに応じて提案を修正することを提案した。アムステル大学法学部教授Natali Helberger 氏と米国ノースウェスターン大学Communication Studies and Computer Science 教授Nick Diakopoulos 氏は、汎用 AI システム用に別のリスク カテゴリーを作成することを検討することを提案している。これらは、その特性に合った法的義務と要件、およびデジタルサービス法 (DSA) に基づくものと同様のシステミックリスク監視システムの対象となる。
Natali Helberger 氏
Nick Diakopoulos 氏
フィッリプ・ハッカー(Philipp Hacker)氏(European New School of Digital Studies, European University Viadrina, Germany)、アンドレア・エンゲル(Andreas Engel)氏(Faculty of Law, Heidelberg University, Germany)、マルコ・マウアー(Marco Mauer)氏(Faculty of Law, Humboldt-University of Berlin)は、AI法は汎用AIのリスクの高い特定の用途に焦点を当て、透明性、リスク管理、非差別に関する義務を含めるべきだと主張している。 DSA のコンテンツ ・モデレーション(注5)・ルール (通知とアクションのメカニズムなど)および信頼できるフラッガーなど)を、そのような汎用 AI をカバーするように拡張する必要があると主張している。「Regulating ChatGPT and other Large Generative AI Models 」(注6)参照。
- 6.12 公表「ChatGPTおよびその他の大規模生成AIモデルの調整」参照。
Philipp Hacker 氏
Andreas Engel 氏
サブリナ・キュスパール(Sabrina Küspert)氏(German tech think tank Stiftung Neue Verantwortung)(注7)、ニコラ・モエ( Nicolas Moës)氏(注8)、コナー・ダンロップ(Connor Dunlop)氏は、特にバリューチェーンの複雑さに対処し、オープンソース戦略を考慮し、コンプライアンスとポリシー施行をさまざまなビジネスモデルに適応させることによって、汎用AI規制を将来にわたって使用できるものにするよう求めている。 アレックス・エングラー(Alex Engler)氏(注9)とアンドレア・レンダ(Andrea Renda)氏(注10)にとって、この法律はリスクの高いAIシステムでの汎用AI利用のためのAPIアクセスを阻止し、汎用AIシステムプロバイダーに対するソフトコミットメント(自主的な行動規範など)を導入し、バリューチェーンに沿ったプレーヤーの責任を明確にするべきであると指摘している。
Sabrina Küspert 氏
Nicolas Moës 氏
Connor Dunlop氏
Alex C.Engler 氏
Andrea Renda 氏
**************************************************************************************
(注0)2024.3.7 追加 3月7日欧州委員会は以下のリリースを行った。仮訳する。
2024.3.7 欧州委員会「欧州連合 AI オフィスでの雇用機会活動開始」
欧州委員会は、欧州連合AI事務局の新しいメンバーを募集するための関心表明の募集を2分野で開始した。 信頼できる AI を形成するユニークな機会を得るために、テクノロジー スペシャリストまたは管理アシスタントとして今すぐ応募されたい。
欧州連合 AI オフィス(European AI Office)は、最初の雇用活動を開始した。 EU の AI 専門知識の中心地として、欧州連合AIオフィスは、AI 法の施行、特に汎用 AI(general-purpose AI) に関して重要な役割を果たし、信頼できる AI の開発と使用、および国際協力を促進する。今回の最初の採用ラウンドでは、(1)テクノロジーのスペシャリストと(2)管理事務補助スタッフ(administrative assistants)を募集している。
関心表明の申込期限は、2024 年 3 月 27 日の 12:00 CET である。 テクノロジースペシャリストと管理事務補助スタッフのそれぞれの応募フォームを通じて興味を表明できる。
我われの協力は、情熱を持った個人にとって、ヨーロッパやその他の国で信頼できる AI の形成に大きく貢献できる、ユニークでスリリングな機会を提供する。 我われは、AI に関する世界初の包括的な法的枠組みとして AI 法を施行し、信頼できる AI への世界的なアプローチに向けて取り組んでいく。 AI オフィスは、コミュニケーションネットワーク・コンテンツと技術総局(DG-CONNECT)の一部として欧州委員会内に設立され、世界的な AI 政策とイノベーションの最前線に立っている。(以下、略す)
(注1) AI法案第 6 条 (2) に基づく高リスク AI システムとは、以下のいずれかの分野にリストされている AI システムをいう。
ANNEX III High-risk AI systems referred to in article 6(2)(P.222以下)を仮訳する。
1.関連する欧州連合法または参加国の国内法で使用が許可されている限り、生体認証:
(a) 遠隔生体認証識別システム。 これには、特定の自然人が本人であると主張する本人であることを確認することを唯一の目的とする生体認証に使用することを目的とした AI システムは含まれないものとする。
(aa) 機密属性または保護された属性または特性の推論に基づく、生体認証の分類に使用することを目的とした AI システム。
(ab) 感情認識に使用することを目的とした AI システム。
2.重要なインフラストラクチャ: (a) 重要なデジタル・インフラストラクチャ、道路交通、水道、ガス、暖房、電気の供給の管理と運用における安全コンポーネントとして使用することを目的とした AI システム。
3.教育および職業訓練:
(a)あらゆるレベルの教育および職業訓練機関へのアクセスまたは入学を決定する、または自然人を割り当てるために使用されることを目的とした AI システム。
(b) 学習成果を評価するために使用することを目的とした AI システム。これには、あらゆるレベルの教育機関および職業訓練機関における自然人の学習プロセスを導くためにその成果が使用される場合も含まれます。
(ba) 教育および職業訓練機関内で、またはその内部で、個人が受ける、またはアクセスできる適切な教育レベルを評価する目的で使用されることを目的とした AI システム。
(bb) 教育および職業訓練機関内でのテスト中の学生の禁止行為を監視および検出するために使用することを目的とした AI システム。
4.雇用、労働者の管理、および自営業へのアクセス:
(a) 自然人の採用または選択、特にターゲットを絞った求人広告の掲載、求人応募の分析とフィルタリング、および候補者の評価に使用することを目的とした AI システム。
(b) 仕事関連の関係条件、仕事関連の契約関係の促進と終了に影響を与える決定を下し、個人の行動や個人の特性や特性に基づいてタスクを割り当て、従業員のパフォーマンスと行動を監視および評価するために使用されることを目的とした AI そのような関係にある人。
5.必須の民間サービスおよび必須の公共サービスおよび給付金へのアクセスおよび享受:
(a) 必須の公的扶助給付金およびサービスに対する自然人の適格性を評価するために、公的機関または公的機関に代わって使用されることを目的とした AI システム。 ヘルスケア サービス、およびそのような特典やサービスの付与、削減、取り消し、または回収を含む。
(b) 金融詐欺を検出する目的で使用される AI システムを除く、自然人の信用度を評価したり、信用スコアを確立したりするために使用することを目的とした AI システム。
(c) 自然人による緊急通報を評価および分類することを目的とした AI システム、または警察、消防士、医療援助や救急医療を含む緊急初期対応サービスの派遣、または派遣における優先順位の確立に使用することを目的とした AI システム 患者トリアージシステム。
(ca) 生命保険や健康保険の場合、自然人に関するリスク評価と価格設定に使用することを目的とした AI システム。
6.関連する連合法または加盟国の国内法で使用が許可されている場合の法執行機関:
(a) 自然人が被害者になるリスクを評価するために、法執行機関によって、または法執行機関に代わって、または法執行機関を支援する連合機関、代理店、事務所もしくは団体によって、または法執行機関に代わって使用されることを目的とした事犯罪の AI システム 刑。
(b) 法執行機関によって、または法執行機関に代わって、または法執行機関を支援する連合機関、団体、機関によって、ポリグラフや同様のツールとして使用されることを目的とした AI システム。
(d) 刑事犯罪の捜査または訴追の過程で証拠の信頼性を評価するために、法執行機関によって、または法執行機関に代わって、あるいは法執行機関を支援する連合の機関、機関、事務所もしくは団体によって使用されることを目的とした AI システム
(e) 法執行機関によって、または法執行機関に代わって、または法執行機関を支援する連合機関、代理店、事務所もしくは団体によって、単独ではなく自然人の犯罪または再犯のリスクを評価するために使用されることを目的とした AI システム 指令 (EU) 2016/680 の第 3 条(4) に記載されている自然人のプロファイリング、または自然人または集団の性格特性および特性、または過去の犯罪行為を評価すること。
(f) 指令第 3 条 (4) に記載されている自然人のプロファイリングのために、法執行機関によって、または法執行機関に代わって、または法執行機関を支援する連合機関の機関、機関、事務所、または団体によって使用されることを目的とした AI システム (EU) 2016/680 刑事犯罪の発見、捜査、または起訴の過程において。
7.関連する連合法または国内法で使用が許可されている場合に限り、移住、亡命、および国境管理の管理:
(a) 管轄の公的機関によってポリグラフおよび同様のツールとして使用されることを目的とした AI システム。
(b) 自然災害によってもたらされる安全上のリスク、不規則な移住のリスク、または健康上のリスクを含むリスクを評価するために、権限のある公的機関、またはその代理として、または連合の機関、事務所、団体によって使用されることを目的とした AI システム。 加盟国の領土に入国しようとする、または加盟国の領土に入った人。
(d) 庇護、ビザ、居住許可の申請および資格に関する関連する苦情の審査のために管轄の公的当局を支援するために、管轄の公的当局によって、またはその代理として、または連合の機関、事務所、団体によって使用されることを目的とした AI システム。 証拠の信頼性に関する関連評価を含む、ステータスを申請する自然人の情報。
(da) 移住、亡命、国境管理の文脈において、以下の症状を有する自然人を検出、認識、または識別する目的で、連合機関、事務所、または団体を含む権限のある公的機関によって、またはその代理として使用されることを目的とした AI システム。 渡航書類の確認を除く。
8.司法の管理と民主的プロセス:
(a) 司法当局による、またはその代理として、司法当局が事実と法律を調査および解釈し、法律を一連の具体的な事実に適用するのを支援するために使用することを目的とした AI システム または裁判外紛争解決において同様の方法で使用されます。
(aa) 選挙や国民投票の結果、あるいは選挙や国民投票における自然人の投票行動に影響を与えるために使用されることを目的とした AI システム。 これには、管理上およびロジスティック上の観点から政治キャンペーンを組織、最適化、構築するために使用されるツールなど、自然人が出力に直接さらされない AI システムは含まれない。
(注2) 市場監視当局の役割につき欧州委員会サイトから抜粋、仮訳した(加盟国の市場監視当局詳細内容は、EUサイト参照)
市場監視は、市場にある製品が適用される法律や規制に準拠し、既存の EU の健康と安全要件に準拠していることを確認するために当局によって実施される活動である。 欧州市場の安全を維持し、消費者と経済運営者間の信頼を育むことが重要である。また、準拠する企業に対して平等な競争条件を維持し、不正なトレーダーによる市場シェアの損失を回避するのにも役立つ。
市場監視には、市場の監視と制御、必要に応じて是正措置や罰則の賦課を含むあらゆる範囲の行為が含まれる。 これには、当局と経済事業者(メーカー、輸入業者、流通業者、オンラインプラットフォーム、小売店)、および消費者および消費者団体との密接な接触が含まれる。
EU では、各国の市場監視当局が市場監視を実施する責任を負う。 また、危険な製品を発見した場合には適切な措置を講じる責任もある。この目的を達成するため、検査用のサンプルを採取したり、実店舗だけでなくオンライン市場からサンプルを集めて専門の研究所でテストしたりすることもある。
さらに市場監視当局は税関と緊密に連携しており、安全でない製品や規格に準拠していない製品が EU 市場に流入するのを防ぐことができ、輸入品を管理する最初のフィルターとなる。
(注3) EUのAI規則案の定義
・ 「感情認識システム(emotion recognition system)とは、生体データに基づいて自然人の感情または意図を識別または推測することを目的としたAIシステムを意味する。」(AI規則案第3条(34): ‘emotion recognition system’ means an AI system for the purpose of identifying or inferring emotions or intentions of natural persons on the basis of their biometric data;
・感情認識技術は比較的新しい技術として、様々なサービスへの応用が期待されており、日本でも人事採用やドライバーモニタリング、マーケティング、パブリックセキュリティ等の分野で実用化されつつある。
・しかし欧米では、感情認識技術に対して様々な懸念・批判が専門家・市民団体・メディア等から提示されている。
・EUのAI規則案など、感情認識技術の使用を法令やガイドラインで規制しようとする動きが2021年になって顕著になりつつある。(2022年5月(株)国際社会経済研究所 小泉 雄介氏の鋭い分析「海外における感情認識サービスと規制の動向」から抜粋)。
(注4) 感情認識技術に対する主な懸念・批判は、以下の4点にまとめることができる。
(1)個人に対する透明性の欠如。
(2)感情認識技術は科学的根拠が薄弱である。
(3)内心の自由・表現の自由などの基本的権利を侵害する
(4)感情認識技術における偏見・先入感
(注5) 不正・不適切な投稿内容監視(content modulation)とは、誤った情報であると判断された音声やコンテンツの配信を制限、制約、削除する、または誤った情報であると判断された音声やコンテンツに対して発言者を制裁するための、ソーシャル メディア プラットフォームによるあらゆる行為を意味する。(Law Insiderから抜粋、仮訳)
(注6) この論文につき機械翻訳を読んでみた。
「ChatGPTと他の大規模生成AIモデルの調節【JST・京大機械翻訳】」を一部抜粋する。特に専門用語については注記がないととても理解できない。ちなみに、筆者なりに赤字で補足した。
抄録/ポイント:
ChatGPT,GPT-4または安定拡散(画像生成AI(Stable Diffusion)とは、ユーザーが入力したテキストを頼りに、AIがオリジナルの画像を数秒~数十秒程度で自動生成するシステムを指す。日本でよく知られている画像生成AIには「Stable Diffusion(ステーブルディフュージョン)」や「Midjourney(ミッドジャーニー)」があり、デザイン業界の常識を覆す存在として注目を浴びている)のような大規模生成AIモデル(LGAIM)は,著者らが通信し,説明し,創造する方法を迅速に変換する。しかし,EUとそれ以上(以外の地域)におけるAI調節は,LGAIMではなく,従来のAIモデルに主に焦点を合わせている。本論文は,信頼できるAI規制に関する現在の議論において,これらの新しい生成モデルをin situ化し(据えて),その法則がそれらの能力にいかに調整できるかを問う。技術的基礎を敷設した後,論文の法的部分は,(1)直接規制,(2)データ保護,(3)コンテンツ・モデレーション(ウェブサイトまたはSNSに投稿されたコンテンツをチェックし、不適切なものを削除する作業),(4)政策提案をカバーする4段階で進行する。それは,LGAIM開発者,展開者,専門的および非専門的(家)ユーザー,ならびにLGAIM出力のレシピエントを区別することにより,LGAIM設定におけるAI値チェーンを捉える新しい用語を示唆する。(以下、略す)
Large generative AI models (LGAIMs), such as ChatGPT, GPT-4 or Stable Diffusion, are rapidly transforming the way we communicate, illustrate, and create. However, AI regulation, in the EU and beyond, has primarily focused on conventional AI models, not LGAIMs. This paper will situate these new generative models in the current debate on trustworthy AI regulation, and ask how the law can be tailored to their capabilities. After laying technical foundations, the legal part of the paper proceeds in four steps, covering (1) direct regulation, (2) data protection, (3) content moderation, and (4) policy proposals. It suggests a novel terminology to capture the AI value chain in LGAIM settings by differentiating between LGAIM developers, deployers, professional and non-professional users, as well as recipients of LGAIM output. We tailor regulatory duties to these different actors along the value chain and suggest strategies to ensure that LGAIMs are trustworthy and deployed for the benefit of society at large. Rules in the AI Act and other direct regulation must match the specificities of pre-trained models. The paper argues for three layers of obligations concerning LGAIMs (minimum standards for all LGAIMs; high-risk obligations for high-risk use cases; collaborations along the AI value chain).
(注7) 2023.2.10 Blog Sabrina Küspert , Nicolas Moës , Connor Dunlop共著「The value chain of general-purpose AI」:A closer look at the implications of API and open-source accessible GPAI for the EU AI Act
(注8) ニコラス氏は、地政学、経済、産業に対する汎用人工知能 (GPAI) の影響に焦点を当てたトレーニングを受けたベルギーの経済学者です。 彼は 独立系NPO“The Future Society” のエグゼクティブ・ ディレクターを務めており、組織の管理、戦略、ステークホルダーとの関わりに取り組んでいる。 彼は以前、AI を取り巻く法的枠組みにおけるヨーロッパの発展を研究および監視しており、EU AI 法の起草とその施行メカニズムの構築に積極的に取り組んでいる。
ニコラス氏は、国際標準化機構の SC42 および CEN-CENELEC JTC 21 の人工知能委員会のベルギー代表として、AI 標準化の取り組みにも携わっている。 ニコラス氏は、OECD.AI 政策監視機関の AI インシデントおよびリスクと説明責任に関する作業部会の専門家である。 The Future Society に入社する前は、ブリュッセルに本拠を置く経済政策シンクタンク、ブリューゲルで EU のテクノロジー、AI、イノベーション戦略に携わっていた。 彼の出版物は AI と自動化の影響に焦点を当てていますが、世界貿易と投資、EU と中国の関係、大西洋を越えたパートナーシップに関する研究も行っている。
(注9) Alex C. Engler氏 は、Senior Policy Advisor, AI @ White House Office of Science and Technology Policy
ブルッキングス研究所のガバナンス研究フェローであり、人工知能と新興データ技術が社会とガバナンスに与える影響を研究している。
(注10)Andrea Renda氏はSenior Research Fellow and Head of Global Governance, Regulation, Innovation and the Digital Economy (GRID) - Centre for European Policy Studies.
***********************************************************************::::
Copyright © 2006-2024 芦田勝(Masaru Ashida).All Rights Reserved.You may reproduce materials available at this site for your own personal use and for non-commercial distribution.
※コメント投稿者のブログIDはブログ作成者のみに通知されます