国内外の企業の間で、対話型の人工知能「チャットGPT」などの(いわゆる)「生成AI」を活用する動きが広がっていると報じられています。
現在注目されている「生成AI」とは、インターネット上などの膨大な情報を基に、あたかも人が作ったような文章や画像などを作成する機能を備えた人工知能のこと。業務の大幅な効率化につながると期待される一方で、セキュリティや著作権の取り扱いの問題なども指摘されており、リスク管理のための制度の方が追い付いていない印象も受けます。
実際、4月末に群馬県で開催された主要7カ国(G7)デジタル・技術相会合では、「責任あるAI」の推進が共同声明に明記され、個人情報の保護や偽情報に対処するルール作りが必要との認識で一致したものの、日米や欧州諸国で認識の差が大きく具体的なルール作りには踏み込めなかったとされています。
なお、大臣会合での議論を受け、先般閉幕したG7広島サミットの首脳声明には、「チャットGPT」に代表される「生成AI」について「年内に国際ルールを取りまとめる」との目標を定めるとともに、「民主的価値に沿った信頼できるAIを達成するために国際的な議論を進める」と明記されることとなりました。
今後、担当閣僚による協議にあたっての枠組みである「広島AIプロセス」を新たに立ち上げ、生成AIの利活用や規制のあり方などに関する見解を年内に取りまとめるということです。
誰にでも気軽に利用できる、まさに身近な存在になるであろう「生成AI」.。しかし、それはそれで「両刃の剣」のようなもの。汎用性の高さ、利便性の高さを活かすためにも、国際間で多くルールを定めておく必要があるということでしょう。
いよいよ現実のものとなってきた「生成AI」を巡るこうした状況を踏まえ、5月1日の時事通信が、「企業に広がる生成AI リスクを管理、効率化へ先取り」と題する記事において、件の「生成AI」の潜在的なリスクを整理しているのでこの機会に紹介しておきたいと思います。
蓄積された多くのデータから、人の手を介さずに高精度な文章や画像を生成する生成AI。インターネット上に公開された情報を学習して生成した人工的な画像やイラスト作成には、(まず)著作権侵害などの可能性が指摘されていると記事はしています。
また、生成AIはそれ自体、誰でも簡単に使える反面、間違った情報を拡散する危険性や偏見を助長する懸念もあり、(悪意なく)生み出された偽情報が社会に混乱をもたらすといった「脅威論」は相当に根強いということです。
こうした不安感から、イタリア当局が3月末、データ利用の扱いを問題視して米オープンAIの「ChatGPT(チャットGPT)」の国内利用を一時禁止したのは記憶に新しいところ。また、企業によっては、機密情報を入力しないなどのルールを設けるところも多いということです。
そうした中、記事は生成AI導入に当たってのリスクについて、以下の5つに整理しています。
その一つ目は「ハルシネーション」というもの。ハルシネーションとは、AIモデルが事実とは異なる不正確な回答を生成する問題を指す言葉です。
AIモデルは、意識を持った人間ではなく、あくまで訓練とデータにのみ基づいて回答を提供するためこのような問題が発生する。訓練に使われるデータが、偏った回答や的外れな回答につながる可能性があり、特に生成AI製品が信頼され活用されるようになればなるほど、誤りを発見することは難しくなるというのが記事の指摘するところです。
二つ目は、(広く知られた)「ディープフェイク」が生まれるリスクです。ディープフェイクとは、生成系AIを使用して、実在する人間の特徴を模倣した偽りの動画や写真、音声を作成すること。ハルシネーションと同様、ディープフェイクは偽のコンテンツや誤った情報の拡散につながり、深刻な社会問題を引き起こす可能性があるというのが記事の見解です。
そして三つ目のリスクは「データプライバシー」の問題だと記事は指摘しています。 生成系AIでは、大規模言語モデルの訓練のためにしばしばユーザーデータが保存される。このデータプライバシーに対する懸念が、イタリアがChatGPTを禁止した最大の理由であり、同国は、①データ収集についてユーザーに適切な情報提供がなされていないこと、②大規模なデータ収集を正当化する法的根拠がないこと、および③年齢確認がされていないこと…などを懸念材料として挙げているということです。
そして四つ目に挙げられているのは、「サイバーセキュリティ」に関するリスクです。 生成AIモデルはコーディングなどの高度な能力を備えるが、悪用されて、サイバーセキュリティの懸念を引き起こす可能性がある。より高度なソーシャルエンジニアリングやフィッシング攻撃に利用されたり、攻撃者が悪意あるコード生成を簡単に行うために生成系AIを利用する可能性もあると記事はしています。
そして五つ目、最後のリスクとして記事は「著作権の問題」を挙げています。生成 AIモデルは、インターネット上にある大量のデータを使用して回答を生成するため、著作権も大きな懸念材料となる。原作者が明示的に共有していない作品も使用して新しいコンテンツを生み出すため、(どこまでが許容されるのか)コピーライトの在り方に関する新たな議論が必要だということです。
さて、こうしてみてみると、親しみやすく簡単に扱えそうに見える「生成AI」も、(初めてこの技術に出会った)人間の方にはまだまだいろいろな準備が必要だということが判ります。実際、私もお試し版のChatGPTを使ってみましたが、本格的な利用には相当のトレーニングが必要だろうなと強く感じているところです。
とはいえ、遠い将来、人類のパートナーともなりうべきAIとのおつきあいは、まだまだ始まったばかりです。善意も悪意も持たない彼らに、我々は一体何を教え込んでいくのか。この技術を生かすも殺すも、私たちの心がけ次第と言うことでしょうか。
※コメント投稿者のブログIDはブログ作成者のみに通知されます