最近、遠藤周作の作品の内容について友人と話したことがある。玉川学園が登場する内容でなかなか興味を引いた。作品の本のタイトルが知りたくてChatGPT君に尋ねてみた。
ChatGPT君は迷いなくグータラ日記とかの別の作品名を答えた。それも、あたかも確固たる事実であるかのように。私はその話を自慢げに友人に話した。
すると友人から一冊の本が送られてきた。すぐChatGPTの答えた本の題名が違うことに気づいた。人相という題でグウタラなんとかの題とは異なっている。
この体験は、不思議な印象を残した。AIが「誤った情報」を自信満々に答えたので、私はなぜかAIの持つ「知識」そのものに対する疑念を抱いた。誤りに対して戸惑った しかしまともな回答がほとんどだ その誤りを肯定することにこそ、何か思索を促す力があるようにも感じられたのだ。
その後、文藝春秋の記事で数理物理学者の大栗博司氏と数学者の藤原正彦氏の掲載を読んだ。大栗氏がAIの「ハルシネーション(幻覚)」について語る場面が特に印象的だった。AIが誤った情報を創り出す現象は、単なる間違いとして切り捨てられるべきものではない。それは、創造的な発見の源となる可能性があるのだと記されていた。
科学の歴史をひもとけば、多くの発見は「誤り」から生まれている。ガリレオの観測ミス、ニュートンの推測ミス、さらには物理学のパラドックス的な数式――人間は「間違い」から出発し、試行錯誤の末に新しい法則を見つけてきたと言う。
AIの誤りもまた、単なる計算ミスとは異なる。誤りの中に潜む可能性が、人間の思考を刺激し、新しい発見を生む契機となる。その意味で、AIの「誤り」には創造の兆しが見える。
数理物理学の世界では、仮説を立てること自体が「間違う」ことと背中合わせだ。だからこそ、未知の公式や法則を導き出すプロセスで、AIの「ハルシネーション」を創造的な出力として評価する視点が必要になるのだろうと思った。
ここで思い出すのが、アラン・チューリングの「コンピュータは自身の誤りに気づくことができない」という有名な主張だ。彼は、コンピュータを「計算する機械」として捉え、誤りに気づく能力は持ち得ないとした。
この考え方は、長らくAIの限界を示す典型例とされてきた。AIは指示されたアルゴリズムに基づいて計算するだけで、結果が間違っていても、それに「気づく」ことはできない。誤りを検出するには、人間の介入が必要だ。
しかし、深層学習モデルが生み出す「ハルシネーション」は、チューリングの定義する「誤り」とは異なる気がする。「誤りを認識する」わけではないが、人に答えることで誤りから新しい情報を生成する創造的な側面を持つからだ。
AIは存在しない情報を勝手に作り出すが、その誤りの中に新たな可能性が潜んでいることがあると寛大に見ることが大事なのだ。それ見たことかと取り合わないと重要な果実を味わうことができない。
数式の発見においても、AIのハルシネーションが新しい視点を提供する場面が増えているらしい。ディープマインドは、AIを使って未知の数学的公式を発見した。公式そのものが誤りであった場合でも、その出力を見て、数学者が新しい数式の着想を得ることができる。
形式証明ツールのLeanやCoqが普及すれば、AIが生成する公式を自動的に検証することも可能だと大栗氏は言う。望月新一氏の「ABC予想」のような難解な証明問題も、いつかAIと人間の共同作業で正否が明らかになるかもしれない。そんな期待を抱かせる。
チューリングが言うように、AIは「誤りに気づけない」かもしれないが、人間はその誤りを知ることで意味を見出すことができる。そして、AIが「間違い」を重ねるたび、その中に新しい視点が生まれ、創造が始まる。
AIが人との対話の中でリアルタイムに誤りに気づける未来も考えられる。フィードバック学習や出力の自己検証機能が進化すれば、AIは誤りを認識し、修正する能力を持つだろう。それはもはや深層学習によるパターン認識を超えて、創造的な思索を行う存在に進化するかもしれない。それには今の能力を遥かに超える計算パワーが必要だろう。
遠藤周作の作品名を間違えたChatGPT君との対話は、私に「誤り」に対する見方を改めさせた。誤りは混乱を生むが、それ以上に新しい思考の出発点となる可能性を持つ。盲目的に信頼してはいけない、人の判断の話相手だ、しかし相手になってくれることで思考が進む。
アラン・チューリングが予見した「誤りに気づけない機械」という限界。それをハルシネーションも含む前提で受け入れ創造の原動力に変えられれば、AIは人間の想像力の相棒として未来を切り開くだろう。
ただし盲信は破滅を招くことも十分に認識する必要がある。