ルール作成と現行法精査の同時並行がベスト
対話型人工知能(AI)「チャットGPT」に代表される文章や画像、
プログラムまで自動でつくる生成AIの進化に伴って、欧米が独自の
規制を検討し実施している。
先進7カ国(G7)も日本主導で新たなルールを模索している。
しかし、各国のAIに関する法規制の中で、日本でも生成AIの新たな規制と
並行して、AIを活用するための現行法の見直しが重要である。
昨今、欧米など各国は生成AIは従来のAIより大きなリスクをもたらし
得るとの認識で、具体的に生成AIのリスクを抽出して、それに適した
法制度の検討を始めている。
その方向性は極めて適切で妥当である。
生成AIは、学習の過程では個人情報保護法、生成した成果物については
著作権法、というように法律違反の可能性があるとの指摘がなされて
いるが、生成AIと法律の問題に光が当たった事は良かったと考える。
理由は生成AIに関する新たな法制度の検討は必要なことだからである。
活用・普及の妨げ
しかし、生成AIの急速な進化の前からAIビジネスに関する法務に携わって
きた法律家が実感していることは、従来のAIが想像以上に現行法に抵触して
いる点である。
具体的には、医療サービスにAIを活用しようとする場合には、医師法や
消防法、医薬品医薬機器等法、防災関連では、災害対策基本法や大規模
地震対策特別措置法などに抵触する可能性がある。
医療や防災は今後の日本でAIビジネスとして成立しやすいが、いざ始め
ようという時に違法ということになりかねない。
ビジネス上も国民を救う観点からも法律の見直しを進める必要がある。
AIを活用して自動走行ビジネスを提供する場合も、法整備が進んでいない
事例の1つである。
事故が起きた場合に誰が法的責任を負うのか特定しづらいことが、自動走行
ビジネスの普及の足かせの1つになっている。
実際に、ある企業がAIを活用したビジネスを始める直前に相談を受けた
法律家が「この法律の対策を立てているのはわかりましたが、あの法律
についてはどうですか」と尋ねると、対策がされておらず、事業化が遅れる
ということもあった。
日本企業は今後、AIの応用開発を進めることが多いとみられるが、現行法
との抵触事例が相次ぐのは、日本企業がAIを活用したビジネスを始める
うえで非常に残念なことである。
抵触事例の抽出が急務
こうした抵触事例の原因は、現行法が古いためにAIのことを想定して
ないからだ。
現行法に手を加えない限りは、人間に現行法が適用されるのと同じように、
AIが法規制を受けることになる新たな法規制を制定するとAI活用が
妨げられるというのは誤解で、現行法の方がAIビジネスを妨げる可能性が
高いということは盲点となっている。
欧米はAIの新たな法制を検討しつつ、現行法をAIに適合させるための
検討も同時並行で進めている。
米国では複数の行政機関がホームページで「このAIの活用はこの法律に
違反している」という注意喚起を掲載している。
欧州はAIの新たな包括規制を制定する際に、現行法のどういう点がAIを
想定していないかという視点で進めている。
日本も官民で協力して、現行法がAI活用の足かせになっている事例を
一つ一つ抽出していかなければならない。
事実関係をつかまなければ正しい答えにはたどり着かないからだ。
デジタル庁を中心として紙の提出などを要求する「アナログ規制」の
一斉見直しを政府が進めているが、それだけでは足りない。
現行法全体に目を向けなければ、AIビジネスを進めるに当たっての
障害が残り、せっかくのアイディアや開発が無駄になってしまう
ケースも出てくるだろう。
AI活用の際に現行法が抵触する例
①自動走行の場合
事故発生時に誰か法的責任を負うか。自動走行車に装備するカメラや
センサーのルールも未整備。
②医療関連の場合
生成AIが医師に代わってアドバイスを行うのは、医師法や医薬品医療
機器等法に違反しないか。
③防災関連の場合
南海トラフ巨大地震などの災害対策ビジネスが、災害発生時に災害対策
基本法などに抵触すると判断される可能性あり。