まさおレポート

当ブログへようこそ。広範囲を記事にしていますので右欄のカテゴリー分類から入ると関連記事へのアクセスに便利です。 

AIは数学者にとってかわれない チューリングが既に証明済み

2023-02-24 | AIの先にあるもの

追記2 なかなか良い回答!

来るべきシンギュラリティの時代に過大な期待を持ってはならない、その一例としてAIは数学者にとってかわれるかとの問がある。 AIは数学者にとってかわれる、つまり人工知能は数学者になれるか、答えはノーで、既に1936年にアラン・チューリングによって証明されている。ゲーデルと言いたいところだが正直言って理解が困難だが、チューリングとアルゴリズムの話だと昔とった杵柄、分かった気になる。 四色問題はコンピュータを用いて解いた、2016年にAIが囲碁のトップ棋士イ・セドルに勝った、こうした事実から2045年にはAIが「人間の能力を超える」との期待が高まるが、不可能であるということはわきまえていてよさそうだ。 あなたの意見は 
 
ChatGPT

しかし、あなたが指摘したように、AIが真の「数学者」になることは困難です。AIはアルゴリズムに基づいて動作し、人間が設定した指示に従って行動します。これはチューリングの定理が示すとおり、一部の問題はアルゴリズム的に解決できないということを意味します。それはまた、AIは本質的に創造性や直感を持つことができず、それらは数学者が新たな理論を作り出すために必要な要素であるということも意味します。

AIと人間の能力が共存し、互いに補完しあうことで、数学的な発見や進歩がもたらされる可能性が高まると考えています。AIが人間の能力を"超える"かどうかは、超えるという定義次第でもありますが、少なくとも私が見るところでは、人間とAIは共存し、それぞれがその独自の強みを活かすことで、最大の成果を達成することができると考えています。


<button class="flex ml-auto gap-2 rounded-md p-1 hover:bg-gray-100 hover:text-gray-700 dark:text-gray-400 dark:hover:bg-gray-700 dark:hover:text-gray-200 disabled:dark:hover:text-gray-400"></button>追記1

ChatGptでゲーデルの定理を問うてみたところ「システム内で自らの整合性は証明できない」という点について正しいですとのお答えが得られた。ChatGptは正直者だ。

問い
以下の文章は正しいですか?
 
ゲーデルの第1不完全性定理とは自然数論を含む帰納的公理化可能な理論が、ω無矛盾であれば、証明も反証もできない命題が存在する。 第2不完全性定理: 自然数論を含む帰納的公理化可能な理論が、無矛盾であれば、自身の無矛盾性を証明できない。
と言うものだがわかったようでわからない、しかしチューリングの説明だとすくなくとも言ってることはわかる。
第2不完全性定理をチューリングは『システム内で自らの整合性は証明できない』と延べる。
 
ChatGptの答え
はい、与えられた文章は正しいです。ゲーデルの第1不完全性定理は、帰納的公理化可能な理論において証明も反証もできない命題が存在することを主張します。そして、第2不完全性定理は、自然数論を含む帰納的公理化可能な理論が、自身の無矛盾性を証明できないことを主張します。チューリングの説明も、第2不完全性定理において「システム内で自らの整合性は証明できない」という点について正しいです。

来るべきシンギュラリティの時代に過大な期待を持ってはならない、その一例としてAIは数学者にとってかわれるかとの問がある。

AIは数学者にとってかわれる、つまり人工知能は数学者になれるか、答えはノーで、既に1936年にアラン・チューリングによって証明されている。ゲーデルと言いたいところだが正直言って理解が困難だが、チューリングとアルゴリズムの話だと昔とった杵柄、分かった気になる。

四色問題はコンピュータを用いて解いた、2016年にAIが囲碁のトップ棋士イ・セドルに勝った、こうした事実から2045年にはAIが「人間の能力を超える」との期待が高まるが、不可能であるということはわきまえていてよさそうだ。


東野圭吾の「容疑者xの献身」でも四色問題が出てくる。

石神がこの証明は美しくないとコンピューターで解かれた証明に美しさを否定している。証明はみとめても美しさはないとのことが石神の性格描写に使われる。


四色問題の場合ではコンピュータが解くべき問題が明確だったが、5次方程式に解の公式がないことを証明するためにガロアは解のもつ対称性を捉えるための群という概念を導入した。こんなことはAIにはできない、だからAIにはできないことがある、ううん、これはわかったようなそうでないような、つまりすっきりと納得できない。むしろ量子コンピュータで飛躍的に高速で組み合わせを説くような時代が来れば解けるのではないかと思ってしまう。

むしろ、かつてプログラム開発をなりわいにしていた経験からがチューリングが、無限ループに陥って計算が終わるかどうかわからない、いいかえると、計算できないことがある、という結論に達したということのほうが理解できる、だからAIにはできないことがあるという説明は馴染む。

ゲーデルが系の中で真を証明しきれないと言ったのはIOTで馴染みのある上位レイアに対する言及だが、これをアルゴリズムのレベルで証明したのがチューリングで、http://www.is.titech.ac.jp/~sassa/cs-nyumon00/cs-nyumon3.1wa.htmlの下記の引用はじつにわかりやすい。

1)停止性判定問題が計算不可能なことについて

 例として,17世紀に予想されたフェルマ(Fermat)の最終定理をプログラムで証明すること、

(つまりAIとして解くこと 筆者注)を試みよう.この定理とは

       「整数n>2 に対してan+bn=cnを満たす正の整数a,b,cは存在しない」

というものである.

 さて,一見すると,(nが与えられたとした場合)この定理が正しいことを調べる簡単なプログラムを考えることができそうに思われる.それは,次のようなものである. 

       プログラム Fermat(n)

       /* 入力n>2に対し,フェルマの最終定理を調べる */

       for a=1,2,3,... /* 無限に */

       for b=1 to a

       for c=1 to a+b

       if an+bn=cn

       a,b,cを印刷して止まる 

これは,a,b,cをしらみつぶしに調べるものである.このプログラムが停止すれば,フェルマの定理の反例がみつかったことになる.しかし,このプログラムが停止しないからと言っても(あと1分動かせば停止するかもしれないから)フェルマの定理の証明にはならない.

(注)上のプログラムは実際に止まらない.なぜなら,フェルマの最終定理は1994年10月に米国プリンストン大学のアンドリュー・ワイルズ (A. Wiles) 教授によって証明されたので,反例をみつけることはできないはずだからである.

これはゲーデルの 第1不完全性定理をプログラムのアルゴリズムとして説明したことになる。

ゲーデルの第1不完全性定理とは自然数論を含む帰納的公理化可能な理論が、ω無矛盾であれば、証明も反証もできない命題が存在する。 第2不完全性定理: 自然数論を含む帰納的公理化可能な理論が、無矛盾であれば、自身の無矛盾性を証明できない。

と言うものだがわかったようでわからない、しかしチューリングの説明だとすくなくとも言ってることはわかる。第2不完全性定理をチューリングは『システム内で自らの整合性は証明できない』と延べる。

無限ループに陥って計算が終わるかどうかわからない、停止性判定問題は計算不可能なことがあるとの結論を得た。プログラムが停止しないことを示すアルゴリズムつまり無限ループをチェックできるアルゴリズムは存在しない。ううん、なるほど、これならわかる。

計算可能性理論において停止(性)問題は、あるチューリング機械(≒コンピュータプログラム・アルゴリズム)が、そのテープのある初期状態(≒入力)に対し、有限時間で停止するか、という問題。アラン・チューリングが1936年、停止性問題を解くチューリング機械が存在しない事をある種の対角線論法のようにして証明した。

すなわち、そのようなチューリング機械の存在を仮定すると「自身が停止すると判定したならば無限ループを行い、停止しないと判定したならば停止する」ような別のチューリング機械が構成でき、矛盾となる。wiki

結局何を言いたいのか、数学のみならず文学や宗教など人間にとって根源的に重要な世界はAIには不可能だということで、つまりAI外の世界、メタAIが極め付きの重要テーマとなるのかな、再び哲学者の時代がやってくる予感がする。

2018/4/2 追記

だからこそAIは使い方を間違えると危険なのだ、つまり倫理と哲学を持たないからだ、いや哲学はもつかもしれないが憐憫の情は持たない。

2019/5/7 追記

フレンケルは、「志村・谷山・ヴェイユ予想」を奇跡と表現し、

「コンピュータがどんな複雑な演算をこなすようになっても、人間の洞察と閃きの深遠さにはかなわない」。

その驚きの瞬間がこの予想にはあると語った。

2019/5/7 追記

志村五郎氏 89歳3日死去。

1964~99年にプリンストン大教授を務めた。

スティーヴン・ホーキングの警告 自己複製するAIは人間の知性を上回り、新たな形態の生命になる

「ゲーデルの哲学 不完全性定理と神の存在論」高橋昌一郎 再読メモ

フェルマーの最終定理と谷山豊それにガロア

ABC予想を望月氏が解決 AIは無限がからむと途端に限界を示す


コメントを投稿

ブログ作成者から承認されるまでコメントは反映されません。