猫じじいのブログ

子どもたちや若者や弱者のために役立てばと、人権、思想、宗教、政治、教育、科学、精神医学について、自分の考えを述べます。

対話型AI「チャットGPT」への朝日新聞の危惧に同意

2023-04-24 23:46:03 | 脳とニューロンとコンピュータ

数日前のことだが、私が働いているNPOの理事長が、自分の入力した質問文と対話型AI「チャットGPT」の回答文を私に送ってきた。AIの回答に感激したからである。

私から見ると、この生成系AIが、モラルの低いコンサルタントと同じことを行っているだけだ。この対話型AIは、相手の聞きたい回答を、ユーザの質問文から推定し、膨大なデータベースからの情報をもとに、作成している。現在、多くのクライアント(依頼主)は、コンサルタントから真実を聞きたいのではなくて、自分の思いを擁護してくれば、喜んでコンサルタント料を払う。

              ☆                        ☆                        ☆                        ☆

ここ数年、朝日新聞は、AI(人工知能)をヨイショしてきた。ヨイショし過ぎであると私は思っていた。ところが、この3月の終わりから今月にかけて、朝日新聞は対話型AIに批判的な記事を載せている。

これまでのAIは、ディープラーニングに見られるように、与えられた目標に向かって、最善の統計的判断を下すことだった。典型的な利用は将棋の情勢判断である。昔は、マシンが統計的判断するには、人間が対象を確率モデル化する必要があったが、ディープラーニングの場合には、確率モデルの作成を必要とせず、マシンに大量のデータを与えるだけでよい。

将棋の場合は、目標が勝ちに導く指し手だから、特別の価値観なぞ不要で、ディープラーニングに向いている。勝つ確率を数値で示せば、プロの棋士も満足して利用する。そして、生身の人間と異なり、感情がないから、パニックになって情勢判断を誤ることもない。

しかし、統計的判断だから、私自身の評価や生に影響を与えることを、AIにしてもらいたいと思わない。統計的判断であるから、判断を誤ることがある。ディープラーニングは、確率モデルが欠如しているから、どうして、そう判断したのか、説明できない。

              ☆                         ☆                         ☆                         ☆

対話型AIは、どうも、ユーザの思いを、蓄積されたこれまでの人間たちの行動と質問文とから、判断しているようだ。単なる日本語らしい文を生成してるだけではないようだ。

朝日新聞は、4月11日の《耕論》に、チャットGPTの利用分野、限界を記者がチャットGPT自身に質問し、その回答文を載せている。読んで気づいたのは、チャットGPTが自分自身を防御していることだ。たぶん、質問文の「限界」という言葉や「対話型AIが人間の役割を奪っていくのではないか」にチャットGPTが反応したものと思われる。

これは、対話型AI「チャットGPT」が、質問者の聞きたいことを判断するだけでなく、自分のオーナーの望むことを代弁しようとしていることだ。このことから、対話型AIがペテン師として機能することを、開発者が狙っていると考える。対話型の意味が、古典ギリシアのダイアローグと異なり、デマゴーグに近い。

20年前、私がIT会社の研究所にまだいたとき、AIが、ユーザのネット上の行動から、好みや価値観を判断し、商品を売り込むという研究が流行していた。チャットGPTはこの延長上のように思われる。確かに、現在のビジネス界は儲かればよいという世界で、ペテン師まがいのことをしている輩がいっぱいいる。したがって、チャットGPTの市場は大きいように思える。

私は対話型AIを規制しようとしている欧米の政府は健全な反応をしていると考える。私は、日本政府が対話型AIを景気浮揚の起爆剤にしようとしていることに危惧をいだく。

ダイアローグとデマゴーグとは異なる。対話型AIでフェクニュースが拡散されても困る。



最新の画像もっと見る

コメントを投稿