Latest Updated:March 16, 2024
4.IMCO およびLEBEのリリース文「Artificial Intelligence Act: committees confirm landmark agreement」
以下、要旨を仮訳する。
【要旨】
①汎用型人工知能に関する保護措置が合意された。
②法執行機関による生体認証システムの使用の制限を加えた。
③ユーザーの脆弱性を操作または悪用するために使用されるソーシャル・ スコアリングにつき AI の禁止。
④消費者が苦情を申し立て、意味のある説明を受ける権利を保障する。
欧州議会の議員は、安全性を確保し基本的権利を遵守する人工知能法に関する暫定合意(provisional agreement) (注11)を委員会レベルで承認した。
2月13日、域内市場委員会(IMCO)と市民的自由委員会(LIBE)は、人工知能法に関する加盟国との交渉結果を71対8(棄権7)で承認した。
この規則法案は、基本的権利、民主主義、法の支配、環境の持続可能性を高リスクの AI から守ることを目的としている。 同時に、イノベーションを促進し、ヨーロッパを AI 分野のリーダーとして確立することを目指している。 この規制法案は、AI の潜在的なリスクと影響のレベルに基づいて AI に対する義務を定めている。
(1)禁止されるAIアプリケーション(Banned applications)
この暫定合意では、①機密特性に基づく生体認証分類システム、②顔認識データベース用のインターネットまたは監視カメラ映像からの顔画像の対象外のスクレイピング、③職場や学校での感情認識(emotion recognition )、社会的スコアリング、予測ポリシングに基づく警察など、国民の権利を脅かす特定の AI アプリケーションが禁止されている。これらAIアプリは 人間のプロファイリングや特性の評価のみを目的としており、AI は人間の行動を操作したり、人々の脆弱性を突いたりする。
(2) 法執行機関へのAI法適用除外(Law enforcement exemptions)
法執行機関による生体認証識別システム (Remote Biometric Identification:RBI) (注12)の使用は、網羅的にリストされている狭義の状況を除き、原則として禁止される。「リアルタイム」RBI は、厳格な保護下でのみ展開できる。 事前の司法または行政の許可があれば、時間と地理的範囲が制限される。このような用途には、例えば、行方不明者の捜索やテロ攻撃の防止などが含まれる。 このようなシステムを事後的に使用する (「ポスト・リモート RBI」こともリスクが高いと考えられており、司法の許可が必要であり、刑事犯罪と関連付けられる必要がある。
(3) 高リスクAIシステムに対する義務の明確化
健康、安全、基本的権利、環境、民主主義、法の支配に重大な影響を与える可能性がある他の高リスク AI システムについても、明確な義務が合意されたた。 高リスクの用途には、重要なインフラ、教育および職業訓練、雇用、必須サービス(医療、銀行など)、法執行における特定のシステム、移民および国境管理、司法および民主的プロセス(選挙への影響など)が含まれる。 国民はAIシステムについて苦情を申し立て、自分たちの権利に影響を与えるリスクの高いAIシステムに基づく決定について説明を受ける権利を有することになる。
(4) 透明性の要件
汎用 AI (GPAI) システムとそのベースとなるモデルは、トレーニング中に一定の透明性要件を満たし、EU 著作権法に準拠する必要がある。 システミックリスクを引き起こす可能性のあるより強力な GPAI モデルには、モデルの評価、リスク評価、インシデントのレポートの実行など、追加の要件が必要になる。 さらに、人工または操作された画像、音声、またはビデオ コンテンツ (「ディープフェイク」(注13) には、そのように明確にラベル付けする必要がある。
(5)イノベーション・中小企業(SMEs)支援策
AI規制のサンドボックス(AI Regulatory Sandboxes)と現実世界でのテストが国家レベルで確立され、中小企業や新興企業に市場投入前に革新的な AI を開発およびトレーニングする機会が提供される。
AIサンドボックスにつき新旧規則案も含めた法案逐条解説サイトである「EU AI ACT」サイトから抜粋、仮訳する
第53条 AI 規制サンドボックス
2024年2月2日にCoreper Iによって承認されたバージョンに基づいて、2024年2月6日に更新された。
1.加盟国は、管轄当局が国家レベルで少なくとも 1 つの AI 規制サンドボックスを設立することを保証し、発効後 24 か月以内に運用を開始するものとする。このサンドボックスは、他の 1 つまたは複数の加盟国の管轄当局と共同で設立される場合もある。欧州委員会は、AI 規制サンドボックスの確立と運用のための技術サポート、アドバイス、ツールを提供する場合がある。
前の段落で定められた義務は、EU参加加盟国に同等レベルの全国範囲を提供する限り、既存のサンドボックスに参加することによっても履行することができる。
1a. 追加の AI 規制サンドボックスが、地域レベルまたは地方レベルで、または他の加盟国の管轄当局と共同で設立される場合もある。
1b. 欧州データ保護監督者は、EU の機関、団体、機関向けに AI 規制サンドボックスを確立し、本章に従って国内管轄当局の役割と任務を遂行することもできる。
1c.EU 加盟国は、第 1 項および第 1a 項で言及されている権限ある当局が、本条を効果的かつ適時に遵守するために十分な資源を割り当てることを確保するものとする。必要に応じて、国の管轄当局は他の関連当局と協力し、AI エコシステム内での他の関係者の関与を許可する場合がある。
この条項は、国内法または連合法に基づいて確立された他の規制サンドボックスには影響を与えないものとする。EU加盟国は、他のサンドボックスを監督する当局と国内の管轄当局との間で適切なレベルの協力を確保するものとする。
1d. 本規則の第 53 条(1)に基づいて設立された AI 規制サンドボックスは、第 53 条および第 53a 条に従って、市場での配置または使用開始に当たりイノベーションを促進し、革新的な AI システムの開発、トレーニング、テスト、検証を促進する制御された環境を提供するものとする。
将来のプロバイダーと管轄当局の間で合意された特定のサンドボックス計画に従われたい。 このような規制サンドボックスには、サンドボックス内で監視された現実世界の条件でのテストが含まれる場合がある。
1e. 所管当局は、リスク、特に基本的権利、健康と安全、検査、緩和策、およびこの義務と要件に関連したそれらの有効性を特定することを目的として、本規則、および関連する場合には、サンドボックス内で監督されるその他の連合および加盟国の法律に基づきサンドボックス内で必要に応じて指導、監督、および支援を提供するものとする。
1f. 所管当局は、プロバイダーおよび将来のプロバイダーに、規制上の期待および本規則に定められた要件および義務を履行する方法に関するガイダンスを提供するものとする。
AI システムのプロバイダーまたは将来のプロバイダーの要請に応じて、管轄当局はサンドボックス内で正常に実行されたアクティビティの書面による証拠を提供するものとする。また管轄当局は、サンドボックス内で実施された活動、関連する結果および学習成果を詳述した終了報告書を提供するものとする。 プロバイダーは、そのような文書を使用して、適合性評価プロセスまたは関連する市場監視活動を通じて本規則への準拠を証明することができる。 この点に関して、国内所轄官庁が提供する出口報告書と書面による証明は、適合性評価手続きを合理的な範囲で迅速化することを目的として、市場監視当局と通知機関によって積極的に考慮されるものとする。
1fa. 法案 第 70 条の機密保持規定(Confidentiality)に従い、サンドボックスプロバイダー/プロバイダー候補者の同意を得た上で、欧州委員会と理事会は出口レポートにアクセスする権限を与えられ、本条に基づく任務を遂行する際には、必要に応じて出口レポートを考慮するものとする。プロバイダーと将来のプロバイダーの両方、および国の管轄当局がこれに明示的に同意した場合、終了レポートは、この記事で言及されている単一の情報プラットフォームを通じて公開できる。
1g. AI 規制サンドボックスの設立は、以下の目的に貢献することを目的とする。
a本規則、または関連する場合には他の該当する連合および加盟国の法律への規制遵守を達成するために法的確実性を向上させる。
b.AI 規制サンドボックスに関与する当局との協力を通じてベスト プラクティスの共有をサポートする。
c.イノベーションと競争力を促進し、AI エコシステムの開発を促進させる。
d.証拠に基づいた規則の学習に貢献する。
e.特に新興企業を含む中小企業 (SME) が提供する場合、AI システムの欧州連合市場へのアクセスを促進および加速させる。
2.国の管轄当局は、革新的な AI システムが個人データの処理に関係する場合、またはその他のデータへのアクセスを提供またはサポートする他の国内当局または管轄当局、国のデータ保護当局、およびその他の管轄当局の監督上の権限に該当する限り、これらの他の国家当局は、AI 規制サンドボックスの運用に関連しており、該当する場合、それぞれの任務と権限の範囲内でそれらの側面の監督に関与する。
3.AI 規制サンドボックスは、地域レベルまたは地方レベルを含む、サンドボックスを監督する管轄当局の監督および是正権限に影響を与えないものとする。 かかる AI システムの開発およびテスト中に特定された健康と安全および基本的権利に対する重大なリスクは、適切に軽減されるものとする。加盟国の管轄当局は、一時的にまたは定期的に次のことを行う権限を有するものとする。
(以下、略す)
(6)AI法の最終成立に向けた次のステップ
この法案文書は、今後の欧州議会の本会議での正式な採択と最終的な理事会の承認を待っている。このAI法は発効後 24 か月後に完全に施行、適用されるが、(ⅰ)発効後 6 か月後に適用される禁止行為の禁止、(ⅱ)行動規範(発効後 9 か月に適用される)を除き、 (ⅲ)ガバナンスを含む汎用 AI ルール (発効後 12 か月)、(ⅳ)高リスクシステムに対する義務 (36 か月)を除く。
(2024.3.15 補追分)
5.3月14日、AI法案は、今後の欧州議会本会議での正式な採択
2024.3.15 Lexblog「EU Parliament Adopts AI Act」を以下、仮訳する。
3月14日、欧州議会議員(MEP)が待望のAI法に賛成票を投じた。 賛成523票、反対46票、棄権49票というこの投票は、欧州委員会が初めて同法の提案を公表した2021年4月に始まった取り組みの集大成となる。
今後には次のようなものが予定されている。
(1) 言語の最終決定: この法律が正式に法律となる前に、弁護士兼言語学者によるレビューが行われる (訂正手続き(corrigendum procedure)と呼ばれる)。 このステップは、本文が EU 官報 (Official Journal of the EU:OJ) に掲載される前に、本文内の誤りを特定して修正し、(内部情報源と外部情報源の両方への) 数値と参照が正しいことを確認することを目的としている。
(2) 欧州連合理事会(Council of the EU)の承認:この法律は次に正式な最終承認を得るために4月に欧州連合理事会に提出される予定である。
(3) 法律の施行・適用と影響: AI 法は、OJ に掲載されてから 20 日後に正式に発効する。 禁止されている AI 行為に関する同法の規定は発効後 6 か月後に適用され、汎用 AI モデルに関する規定は 6 か月後に適用される。他の規定は、その後、主に法律の発効後 2 年および 3 年後に適用される。
AI 法の採択は、AI テクノロジーを規制する最善の方法についての世界的な議論における重要な瞬間を表している。これは、バイデン政権の人工知能に関する大統領令(2023.12.22筆者ブログ参照)や中国における一連の規制イニシアチブなど、安全な AI の開発を支援する他の法域での取り組みと一致している。
この法律の正式な採択は規制プロセスの終わりではない。 加盟国は、自国の管轄区域内でのその実施を監督する国内の管轄当局を任命する必要がある一方、欧州委員会は、規制対象者が多数の規定を解釈し適用するのを支援するためのガイドラインを発行する必要がある。 AI 法が最終段階に進むにつれて、さらなる最新情報に注目されたい。
****************************************************************:
(注11) PROVISIONAL AGREEMENT RESULTING FROM INTERINSTITUTIONAL NEGOTIATIONS暫定合意の原本(全245頁)
暫定合意の主題:人工知能に関する調和のとれたルールを定める規則案の提案(人工知能法案) および特定の欧州連合の立法行為の改正(Proposal for a regulation laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union legislative acts) 2021/0106(COD)
(注12) 許容できないリスクをもたらすため、禁止されているAIシステム(第5条)
公的にアクセス可能な空間における法執行の目的での「リアルタイム」リモート生体識別システムの使用。ただし、そのような使用が以下の目的の1つに厳密に必要な場合を除く。
(注13)ディープフェイクとは、「ディープラーニング」と「フェイク」を組み合わせた造語で、AI(人工知能)を用いて、人物の動画や音声を人工的に合成する処理技術を指す。もともとは映画製作など、エンターテインメントの現場での作業効率化を目的に開発されたものである。しかし、あまりにリアルで高精細であることから、悪用されるケースが増えたことで、昨今ではフェイク(ニセ)動画の代名詞になりつつある。(docomo busuiness Watchから抜粋)
(2024.3.8 追加)米国連邦取引委員会は2 年以上にわたる協議と検討を経て、2024 年 2 月 15 日、連邦取引委員会 (以下、「FTC」 または「委員会」という) は、「商業に関わる、または商業に影響を及ぼす」問題において政府機関または企業のなりすまし(impersonation)を禁止する規則を最終決定した。なお、AIの進歩により、最終決定された規則では不十分になったという。 そこでFTCは、「直接的または暗示的に、商取引において、または商取引に影響を与える個人を実質的かつ虚偽に装うこと」、または「直接的または暗示的に、重大な虚偽の表示をすること」をFTC法違反とする補足規則案を提案している。
AI を利用したなりすましは、多くの場合、「ディープフェイク(deepfakes)」、つまり、個人が実際に言ったり行ったりしていないことを言ったり行ったりしているかのように見せる加工された画像、ビデオ、または録音の作成を通じて行われる。 最近の AI ツールの普及により、ディープフェイクの作成はかつてないほど簡単になり、規制当局や専門家は、ディープフェイクがすでにリベンジポルノの作成、誤った情報の拡散、消費者への詐欺に使用されているのではないかと懸念している。
(米国FTCの政府機関または企業のAIなりすまし(impersonation)を禁止する規則については、別途取りまとめる予定)
*************************************************************::
Copyright © 2006-2024 芦田勝(Masaru Ashida).All Rights Reserved.You may reproduce materials available at this site for your own personal use and for non-commercial distribution.
※コメント投稿者のブログIDはブログ作成者のみに通知されます