政府AI戦略会議がガイドライン最終案 「人間中心」など10の原則
(大手監査法人トップのメッセージにもAIにふれているものがありましたが)政府が、「AI戦略会議」という有識者会議の会合(首相も出席)(2023年12月21日)で国内事業者向けガイドラインの最終案を示したという記事。
「AIの開発にあたって、開発者は学習データに偏りがないか確認し、開発過程の記録を保存。学習方法を利用者に開示するなど、透明性の確保やリスクを抑える工夫も求める。12月に主要7カ国(G7)が合意した生成AIに関する国際指針と行動規範の内容を踏まえ、サイバーセキュリティー対策などを求めている。指針に法的拘束力はない。」
新しい組織も作るそうです。
「会議で岸田文雄首相はAIの安全性を評価する組織「AIセーフティーインスティテュート」を24年1月をめどに創設することを表明した。」
「AI開発企業の安全性評価基準の作成や、AIが悪用されるリスクなどを検証する。」
こちらの会議資料にガイドライン案が含まれています。
AI戦略会議 第7回(内閣府)
(概要より)
解説記事。これまで複数の官庁で公表されていたものをまとめたものだそうです。
「AI事業者ガイドライン案」 — 解説編(PwC)
「AIがもたらすメリットに期待が高まる一方で、AI特有のリスクも指摘されています。その点については国際的な場でも議論が進んでおり、日本が議長国をつとめた2023年5月の主要7カ国(G7)首脳会議(広島サミット)では、AIのルールについて話し合う枠組み「広島AIプロセス」が日本主導で立ち上がりました。
この流れを受けて、国際的にリーダーシップを発揮していきたい日本ですが、国内に目を向けると総務省主導の「国際的な議論のためのAI開発ガイドライン案*3」(2017年)と「AI利活用ガイドライン〜AI利活用のためのプラクティカルリファレンス〜*4」(2019年)、経済産業省主導の「AI原則実践のためのガバナンス・ガイドラインver1.1*5」(2022年)と3つのガイドラインが存在し、これらはそれぞれ個別に運用されているという状況がありました。また、策定されてから年月が経過しているため技術トレンドが変化していることなどを理由に統合・見直しが行われ、今回のガイドラインが策定されるに至ったのです。
この統合・見直しについてガイドラインは「従来のガイドラインに代わり、本ガイドラインを参照することで、AIを活用する事業者(政府・自治体などの公的機関を含む)が安全安心なAI活用のための望ましい行動につながる指針(Guiding Principles)を確認できる」としています。まさにAIを活用し、業務効率化やイノベーションを目指す企業や団体にとっての指針となるものと言えます。」