猫じじいのブログ

子どもたちや若者や弱者のために役立てばと、人権、思想、宗教、政治、教育、科学、精神医学について、自分の考えを述べます。

宇野重規の朝日新聞論壇時評「生成AIとの対話」に妙に納得

2023-05-25 23:03:45 | 脳とニューロンとコンピュータ

きょうの朝日新聞に宇野重規が担当して2回目になる『論壇時評』がのった。今回の彼の時評対象は、いま お騒がせ中の生成AIである。読んで妙に納得感があった。

私はIBMの子会社、日本IBMに務めて 3回 AIのブームに遭遇している。そして、私の務める前にもAIブームがあった。だから、私から見れば、現在のAIブームは5度目である。だから、たいしたことでないのに、何を大騒ぎしているのか、と思ってしまう。

宇野も、「気になる」が、みんなが大騒ぎするほどのことでもないと思っているようだ。

何年か前に、YouTubeで1927年のドイツの映画『メトロポリス』を見たとき、帳簿をつけてお金を勘定することが、知的な労働とされていることに驚いた。映画のテーマは、未来都市メトロポリスで、地上に住む知的な労働者(HIRN脳)と地下に住む肉体労働者(HÄDEN手)が仲介者(HERZハート)によって仲良くなるというものである。

帳簿をつけて勘定することなど、だいじな仕事かもしれないが、機械的な単純作業である。それなのに、100年前は、知的な業務としていたのである。

宇野はつぎのように書く。

「会議の議事録やメールの文面作りも可能で、現在、人間がやっている仕事のかなりの部分を代替することになる。医療や法律関係など高収入の職業にも影響があり、……」

「判例などの大量のデータを活用して法律家の業務を支えることは充分に可能であろう。」

現在、人のやっている知的であろうと思われていることは、じつは機械的な作業であることが多い。AIによって、医療従事者や法務関係者がいらなくなることではなく、高い給料をとるということができなくなるだけである。AIによって「民主化」が進むことは望ましいことである。AIによって、医療費が削減され、多くの人に高度の医療が行き渡ることは良いことではないか。

宇野はつぎのように結論する。

「新たなテクノロジーを恐れるだけでは、問題は解決しない。「わたし」はどこにいるのか。「わたし」と「わたし」でないものを区別できるのか。人はいったい何を信じればいいのか。人間にとっての「意味」を再考する好機としたい。」

大したことのない生成AIに大騒ぎしないとともに、大したことをしていない「高級労働者(エリート)」が反省する「好機」として欲しい。

今のAIはあくまで単純なことしかできない。バカなのである。しかも間違いをしでかす。しかし、IT関係者は、何か素晴らしいことができるかのように、意図的にウソをつく。ITバブルが崩壊した2000年ごろからその傾向は強まった。

しかし、人間のやっていることも、ほとんどがバカなことしかしていない。なのに、社会的地位や待遇に格差がある。格差があることは、おかしいのだ。徹底的に民主化しなければならない。宇野が「民主化」とは「平等化」と発見したが、この「平等」とは「対等」という意味である。

宇野は、生成AI が誤りをしでかすだけでなく、「生成AIのポリシーやアルゴリズム次第で言論空間が大きくゆがめられ、国家の命運も左右される」という。

「国家」は不要なもので死滅すればよいが、個人の生活が左右されるのは、困る。「独裁国家」だけが危険なのではない。資本主義社会の枠組み自体が危険なのだ。儲けることを目的化している。いま、IT会社は自己利益の拡大のために研究開発を行っている。あるいは、研究開発を行っているフリをしている。

ソフトバンクの宮川社長は和製のチャットGPTの立ち上げに1000人を選んだという。株価対策のため、やっているフリをしているだけであろう。

「民主化」というた立場からは、「研究開発」の中身をオープンにしてもらわないといけない。また、テクノロジーの適用範囲に倫理的観点から制限していかないといけない。この観点からすると、現在の日本政府のやっているIT政策は、お金儲けしかない、危険極まりのないものである。


対話型AI「チャットGPT」への朝日新聞の危惧に同意

2023-04-24 23:46:03 | 脳とニューロンとコンピュータ

数日前のことだが、私が働いているNPOの理事長が、自分の入力した質問文と対話型AI「チャットGPT」の回答文を私に送ってきた。AIの回答に感激したからである。

私から見ると、この生成系AIが、モラルの低いコンサルタントと同じことを行っているだけだ。この対話型AIは、相手の聞きたい回答を、ユーザの質問文から推定し、膨大なデータベースからの情報をもとに、作成している。現在、多くのクライアント(依頼主)は、コンサルタントから真実を聞きたいのではなくて、自分の思いを擁護してくれば、喜んでコンサルタント料を払う。

              ☆                        ☆                        ☆                        ☆

ここ数年、朝日新聞は、AI(人工知能)をヨイショしてきた。ヨイショし過ぎであると私は思っていた。ところが、この3月の終わりから今月にかけて、朝日新聞は対話型AIに批判的な記事を載せている。

これまでのAIは、ディープラーニングに見られるように、与えられた目標に向かって、最善の統計的判断を下すことだった。典型的な利用は将棋の情勢判断である。昔は、マシンが統計的判断するには、人間が対象を確率モデル化する必要があったが、ディープラーニングの場合には、確率モデルの作成を必要とせず、マシンに大量のデータを与えるだけでよい。

将棋の場合は、目標が勝ちに導く指し手だから、特別の価値観なぞ不要で、ディープラーニングに向いている。勝つ確率を数値で示せば、プロの棋士も満足して利用する。そして、生身の人間と異なり、感情がないから、パニックになって情勢判断を誤ることもない。

しかし、統計的判断だから、私自身の評価や生に影響を与えることを、AIにしてもらいたいと思わない。統計的判断であるから、判断を誤ることがある。ディープラーニングは、確率モデルが欠如しているから、どうして、そう判断したのか、説明できない。

              ☆                         ☆                         ☆                         ☆

対話型AIは、どうも、ユーザの思いを、蓄積されたこれまでの人間たちの行動と質問文とから、判断しているようだ。単なる日本語らしい文を生成してるだけではないようだ。

朝日新聞は、4月11日の《耕論》に、チャットGPTの利用分野、限界を記者がチャットGPT自身に質問し、その回答文を載せている。読んで気づいたのは、チャットGPTが自分自身を防御していることだ。たぶん、質問文の「限界」という言葉や「対話型AIが人間の役割を奪っていくのではないか」にチャットGPTが反応したものと思われる。

これは、対話型AI「チャットGPT」が、質問者の聞きたいことを判断するだけでなく、自分のオーナーの望むことを代弁しようとしていることだ。このことから、対話型AIがペテン師として機能することを、開発者が狙っていると考える。対話型の意味が、古典ギリシアのダイアローグと異なり、デマゴーグに近い。

20年前、私がIT会社の研究所にまだいたとき、AIが、ユーザのネット上の行動から、好みや価値観を判断し、商品を売り込むという研究が流行していた。チャットGPTはこの延長上のように思われる。確かに、現在のビジネス界は儲かればよいという世界で、ペテン師まがいのことをしている輩がいっぱいいる。したがって、チャットGPTの市場は大きいように思える。

私は対話型AIを規制しようとしている欧米の政府は健全な反応をしていると考える。私は、日本政府が対話型AIを景気浮揚の起爆剤にしようとしていることに危惧をいだく。

ダイアローグとデマゴーグとは異なる。対話型AIでフェクニュースが拡散されても困る。


予測からの誤差が人の感情を引き起こす - 明和政子の『ヒトの発達の謎を解く』

2022-02-13 22:09:37 | 脳とニューロンとコンピュータ

明和政子の『ヒトの発達の謎を解く―胎児期から人類の未来まで』(ちくま新書)の最終章は「人類の未来を考える」である。人間はAI(人工知能)、VR(仮想現実)、アンドロイド(人型ロボット)と共存できるかということである。このなかで、彼女は、なまじ人間に似せたロボットは不気味であるという話しを紹介している。それを最初に指摘したのは、1970年のロボット工学者の森政弘であるという。

明らかに機械であるとわかる範囲では、ヒトに似てる、あるいは、機能が部分的にうわまわる程、好感度を増すが、ある敷居を越えると、不気味に思われ、ヒトとして受け入れられないという「不気味の谷」の仮説である。

2011年に、アメリカの研究者による心理実験で科学的に裏付けされたという。

また、傍証として、SF映画『ファイナルファンタジー』の興行上の大失敗、SONYのaiboが急に売り上げが落ちたことを明和は挙げている。

彼女はこれをつぎのように説明する。ヒトの脳は対人関係において「予測―誤差検出―予測の修正―更新」を繰り返しているという。予測からの誤差がなければ、ヒトの関心をひかない。少しの誤差なら関心を生む。場合によっては好感かもしれない。ところが、この予測からの大きな誤差は、大きな不安を生む。

ヒトに似せることでヒトとしての言動を予測するようになると、そこからの誤差、期待の裏切りが大きいのである。もし、その人型ロボットが力持ちであれば、恐怖を覚えるだろう。私は彼女の指摘に同意する。

100年前、精神医学の大家、エミール・クレペリンは、精神科医が心の動きをシミュレーションできない言動をする人を、精神疾患者と定義した。「不気味の谷」は予測不可能な言動をとることを狂気だとみなしたのに通じる話しである。

「予測―誤差検出―予測の修正―更新」のモデルは男女関係にも適用できる。この場合は誤差がないとなると、つまらない相手となる。私の妻は、私を危険な男と思って、ひかれたという。その危険度が度をすぎていなかったから結婚までいったのであろう。

いくつものバブルを目撃してきた私は、現在のAIやVRやアンドロイドの礼賛は、軽率すぎると思っている。資本主義の行き詰まりの反映にしか思えない。


「視覚優位」「聴覚優位」「言語優位」「体験優位」

2021-06-25 22:37:43 | 脳とニューロンとコンピュータ

あなたは「視覚優位」「聴覚優位」という言葉を聞いたことがあるだろうか。

「視覚優位」とは、目で見ることで物事を理解できる人のことを言う。それに対し、「聴覚優位」とは、耳で聞くことで、言葉を通じて物事を理解できる人のことを言う。

おかしなことに、「言語優位」という言葉さえある。これは、言葉で書かれているものを目で見ることで物事が理解できる人である。

これらの言葉は、「発達障害児」の指導の現場で使われている。また、「知能検査」の結果報告書にも現れる。

しかし、「視覚優位」「聴覚優位」とは、情報の種類に本来よるのではないか。また、「言語優位」は教育の結果生じるあだ花ではないか、と思う。

道を教えるのに地図を描いて説明することが多い。そして、多くの人はそれによって、理解が深まる。言葉は指示するに向いている。指示とは話し手が、聞き手の注意を特定のことに向けさせ、命令することである。

図は概観や構造や関係を理解するに向いている。しかし、地図を描くだけでは、工夫を凝らさないと、目はあらゆるところに行って、指示する側の思う方向に注意を向けてくれない。

新しい道具の扱い方を説明するとき、実物を手にとって説明するほうがわかりやすい。道具を使うとき、強く握るのか、軽く握るのか、口で「強く」とか「やさしく」とか言ったほうが理解されやすい。

このように、本当は、「視覚」と「聴覚」との協同が有効な場面が多い。したがって、この子は、「視覚優位」とか「聴覚優位」とかを真にうけて、型通り行うと失敗する。

会社や官庁のプレゼンテーションでは、パワーポイントかなんかでスクリーンに画面を写して説明することが多い。昔聴いた話では、みんな沢山のことを書こうとするが、1画面に1つのメッセージが望ましい、ということであった。画面に多数のことが書かれていると、聞き手の関心が拡散するからである。とくに、役人は頭が悪いから情報が多いと記憶に残らないと言われた。

コミュニケーションとプレゼンテーションとは異なる。

「言語優位」は適切な言葉でない。本やマニュアルを読んで、物事を理解するのではないと気が済まない、人のことである。書かれたものを読むときは、書かれた順に読む必要がなく、いったりきたりして読むことができる。したがって、聞いて理解するのと異なり、読み手が書き手に対し優位に立てる。書き手に支配されない。そして、わかりくい本やマニュアルに出くわすと、書き手を罵る。

私は「理数系」だから、「視覚優位」と思われるがちである。実際、作業記憶力の負担を軽くするため、考えていること、選択肢とか試行錯誤の過程を書き出すことが多い。

しかし、新しいことを聴いて理解することも好きだ。俗にいう「耳学問」である。聴くということは、対話が伴うから面白い。いろいろな質問や意見をぶつけって、ものごとの本質に迫ることができる。私は小学校、中学校、高校、大学を通じてよく質問する子どもだった。

ときには、先生の理解の浅さを引き出すための意地悪な質問もわざとした。だから、私が大学で講義したとき、意地悪な質問に出会うのでないかヒヤヒヤしていたが、そんな質問を受けることはなかった。

学生と先生の関係は、民主主義社会では、対等であるから、対話が日常的にあってしかるべきと思う。

もう1つ、「言語優位」に加えて「体験優位」という言葉もあって良いと思う。人は体験しないと本当に理解することはないと私は思う。私は、ITの会社の研究所にいたが、マニュアルを読まないで、直接、機械に触ったり、プログラムを書いたりして、その失敗の体験から学ぶことが多かった。


数学のABC予想の証明論文は評価になぜ長引くのか

2021-06-05 22:17:25 | 脳とニューロンとコンピュータ


私が不思議に思っていることは、京都大学教授の望月新一が ABC予想を証明したとする論文が2012年にネット上に現れて以来、その証明が正しいかどうかの決着がついていないことだ。

京都大学の数学専門誌PRIMSは、2020年に論文査読が終了したということで、2021年3月の4日の電子版に論文が掲載された。PRIMS側の見解は望月の証明が正しいと確信したということだ。

いっぽう、現在、ウイキペディアの英語版では、望月の証明は証明になっていないという見解が書かれている。

物理では、実験で決着のついていない予想や理論(仮説)は いっぱいある。しかし、数学は、他の学問分野と異なり、実験もいらず、論理だけで正しいかどうかが示されると、私は思っていたので、この長びく評価にびっくりしている。

数学の証明は、ゆるされる推論規則で、仮定された命題から予想の命題を導くことである。実際には、その証明の過程をつぶさに書くとあまりにも膨大になり、だれでも推論できると思われるものは飛ばす。いっぽう、査読する側は、また、論文の簡略化への自分の基準をもっていて、その飛躍をとがめる。論文投稿者と査読側との争いの結果、読みやすい適切な長さの間違いのない論文が出版される。

この査読過程で、証明の飛躍部分で、反例が見つかれば、その証明は明らかに誤りである。しかし、数学の予想自体はいまだ反例が見つかっていないものであるから、証明の飛躍部分に反例を見つけるのは一般にはむずかしいことが多い。出版されてから論文の証明が誤りだったということが判明したことも 歴史上 幾度もあった。

したがって、査読に1、2年かかるのは不思議ではないが、今回はそれでも長い。査読をする研究者も大変だろうと思う。

コンピュータが証明を考えだすのはむずかしいだろうが、人間が与えた証明の飛躍点をコンピュータが指摘するのは比較的容易ではないか、と私は思った。そのためには、コンピュータが人間の書いた証明を、コンピュータが扱える形式言語に変換すればよいのだ。ここで、ディープランニング型のAIが使えるのではないか、と思った。

そう思って、最近、数理論理学やゲーデルの定理についての本を読んでいるが、どうも命題の扱いが思いのほか、理解しがたく、コンピュータが数学の証明の判定に役立つか否かに自信を失いつつある。なんか、ゲーデルの不完全性定理の証明も納得がいかない。形式言語の枠を超えている。

もしかしたら、AIはあくまで統計的判断の高速大量実行の手段であって、真理を扱う分野や、誰かの人権に関係する分野を扱うには不適切なのかもしれない。AIは間違ってもかまわないという考えにもとづく。