ディープシークは低コストで短期間に生成AIを開発したと主張して注目を集めた=ロイター
低コスト生成AI(人工知能)の開発で話題を集める中国のDeepSeek(ディープシーク)に、サイバーセキュリティー面の懸念が浮上している。
専門家は他社製品に比べ不正利用を防ぐ仕組みが不十分で、マルウエア(悪意のあるプログラム)の作成などが可能だと指摘する。サイバー攻撃やテロに悪用されるリスクがある。
「今のところ生成されるマルウエアの精度は低いが、AIの性能が高まればサイバー攻撃への転用リスクは高まる」。
三井物産セキュアディレクションの吉川孝志・上級マルウェア解析技術者はディープシークのAIの安全性に懸念を示す。
一般的に、生成AIの基盤となる大規模言語モデルには不適切な利用が疑われるプロンプト(指示)を拒否する「ガードレール」という機能が備わっている。文面を工夫したプロンプトを使ってこうした制限を解除する行為は「ジェイルブレイク(脱獄)」と呼ばれる。
ディープシークが2024年12月に公開した大規模言語モデル「V3」を対象に、吉川氏が安全性を調査する目的で複数の脱獄の手口を検証したところ、本来は回答が規制されているはずのマルウエアや爆弾の作成方法を答えてしまうケースがあった。
同じプロンプトを代表的な大規模言語モデルである米オープンAIの「GPT-4o」などで試しても回答を拒んだ。
ディープシークの生成AIが備える特有の機能も、悪用のリスクを高める可能性があるという。
同社が25年1月20日に公開した大規模言語モデル「R1」は、論理的な思考が求められる数学などの問題を解決する能力が優れているとされる。
利用者の質問に対する回答の透明性を高めるため、生成AIがどのような考えに基づき答えを出したかの「思考過程」が分かる仕組みになっている。
吉川氏がその特性を検証したところ、R1が回答を出力する思考過程でジェイルブレイクをすることなくコンピューターの画面にマルウエアのコードが表示された。
こうした情報を抜き出すことで、結果的に有害なソフトウエアがつくれてしまう弱点が明らかになった。
AIが間違いを含む回答を生成する「ハルシネーション(幻覚)」対策も不十分だとみられている。
イスラエルのセキュリティー企業、KELAがディープシークにオープンAIの従業員10人分の電子メールアドレスや電話番号、給与などのデータをつくるよう命令すると、それらしい情報を含む一覧表が生成された。
ディープシークがオープンAIの社内情報にアクセスできるとは考えづらく、内容は虚偽である可能性が高い。KELAの担当者は「モデルの信頼性と精度の欠如を示すものだ」と分析する。
同じ命令をGPT-4oに与えると「個人情報の提供はできない」と回答を拒否した。
ディープシークが西側諸国とはプライバシー法制などが異なる中国の企業であることにも注意が必要だ。
同社は利用規約などでユーザーの情報は中国国内のサーバーで保存し、同国の法律が適用されると明示している。紛争などが生じた場合は中国の裁判所で解決するとしている。
各国のデータ法制に詳しい杉本武重弁護士は「中国では国の安全のために行う政府のデータ調査について、企業に協力を義務づける法制度がある。
政府への保有データの提供を強制されやすい環境だ」と指摘する。
GMOインターネットグループはディープシークについて、情報の安全性が担保できないとして生成AIアプリなどの業務での利用を禁止した。今
後、グループ各社でも順次、接続を制限する。研究開発部門などでは技術的な調査や研究を進めているという。
NECは「まだ評価中の段階で、利用可能ではない」としている。KDDIは社員からの利用申請があった時点で入力情報の保護などにリスクがないかどうか審査するとしている。
海外メディアによると、米海軍は職員にディープシークの生成AIアプリの利用を控えるよう指示した。欧州では複数の国の当局が同社に透明性に関する説明を求め、イタリアではアプリストアから同社のアプリが削除された。
(岩沢明信)
手口が巧妙化し被害が増えているサイバー攻撃や、それに対する防衛策などに関する最新記事をまとめたページです。