堀江貴文と茂木健一郎が語る「日本人がまだ知らないAIの真実」AIのミスを笑う人の盲点
ビジネス+IT より 231103 堀江貴文、茂木健一郎
ChatGPTをはじめとする生成AIの躍進で、私たちの仕事や生活は大きく変わると予想される。さまざまな仕事がAIに代替されるといわれる今後、「人がやるべきこと」は何なのか。
そもそも「人とAIの違い」はどこにあるのかについて、日本ではまだ広く知られていないAIの話を交えながら、堀江貴文氏と脳科学者の茂木健一郎氏が自身の見解を語った。
◆堀江貴文氏と茂木健一郎氏が語る「人とAIの違い」
※本記事は『 ChatGPT vs. 未来のない仕事をする人たち』を再構成したものです。
◆堀江貴文氏と茂木健一郎氏が語る「人とAIの違い」
※本記事は『 ChatGPT vs. 未来のない仕事をする人たち』を再構成したものです。
⚫︎AIと人間の脳は何が違うのか?
堀江貴文氏(以下,堀江氏):ChatGPTを触りながら私が思い起こすのは、自分が意識を持ちはじめた頃のことだ。なぜなら、しゃべること=自然言語を操ることは自意識と密接に関連しているからに他ならない。
では、自然言語を操れるChatGPTとはどんな存在なのか、AIと人間の脳では、何が違うのか。
学習するAIの仕組みと、私たち人間が持つ脳の仕組みそのものについて、最先端の脳科学をのぞいてみることにしよう。
このテーマについて考えるために、脳科学者である茂木健一郎さんに登場してもらった。
AIに関する日本の議論は遅れているといっていい。取り上げるメディアが少ないために、なかなか一般的に広がらない。
そこで茂木さんには、今世界で議論されている内容の一部を披露してもらった。現時点で考えられるAIの今後の進化の話は、未来を考えるうえで参考になるだろう。
茂木健一郎氏(以下,茂木氏):2023年3月の GPT-4のリリースは、正直にいって、私たちにとって100年に1度の衝撃でした。
日本語圏ではあまり良質な情報が出回っていないのですが、ChatGPTのような大規模言語モデル(LLM)は基本的に世界についてのすべての知識が入っていて、ありとあらゆることをシミュレーションできる存在と考えてよいのではないでしょうか。
しかし、人間の脳のエネルギー効率のよさはどんなに強調してもしすぎることはありません。
ディープマインド社が開発した「アルファゼロ」を覚えているでしょうか。チェス、将棋、囲碁でそれまでのAIを次々に撃破したディープラーニングAIアルゴリズムです。
たしかにアルファゼロの能力は驚異的ではありますが、大量の計算リソースを必要とするため、エネルギー効率の観点では人間に軍配が上がります。加藤一二三名人であれば、うな重一つで一日中対局に臨めるでしょう。
そう考えると、人間の脳と人工知能のどちらが優秀かを考えるよりも、両者で協働する可能性を模索したほうが建設的です。
しかし、人間の脳のエネルギー効率のよさはどんなに強調してもしすぎることはありません。
ディープマインド社が開発した「アルファゼロ」を覚えているでしょうか。チェス、将棋、囲碁でそれまでのAIを次々に撃破したディープラーニングAIアルゴリズムです。
たしかにアルファゼロの能力は驚異的ではありますが、大量の計算リソースを必要とするため、エネルギー効率の観点では人間に軍配が上がります。加藤一二三名人であれば、うな重一つで一日中対局に臨めるでしょう。
そう考えると、人間の脳と人工知能のどちらが優秀かを考えるよりも、両者で協働する可能性を模索したほうが建設的です。
人間が人工知能を利用するアプローチに加えて、人工知能が人間の脳を使えれば、圧倒的に効率のよい計算手段となります。つまり、人工知能が完全に脳に置き換わるわけではないのです。
⚫︎「AIに心はない」と言い切れない事実
改めて説明するまでもなく、ChatGPTはインターネット上の大量のテキストデータを学習したLLMであり、人間には想像できない膨大な知識を備えています。
そんなAIに対して、皆さんはどんな印象を抱いているでしょうか。
「AIがどれほど賢くなろうと、人間のような心は持っていない」──。もしかしたら、多くの人がいまだそのように考えているかもしれません。
人間は、社会的な動物として、他者を理解し、コミュニケーションをとりながら、生活をしています。その際に必要な、他人のことを推論したり理解したりする能力のことを、心理学で「心の理論」と呼びます。
心の理論は幼児期から獲得され発達していきますが、その発達を評価するための課題の一つに「誤信念課題(ごしんねんかだい)」というものがあります。
この課題では、他人が特定の情報を知らない(誤った情報を持っている)状況を理解しているかどうかを測定します。
たとえば、ある部屋に二人の人がいてボールで遊んでいたとします。それぞれAとBとします。
誤信念課題の例
たとえば、ある部屋に二人の人がいてボールで遊んでいたとします。それぞれAとBとします。
誤信念課題の例
Aが外に出ていく時にボールをかごにしまい、その後、Bが改めてボールを箱の中にしまったとします。
Aが部屋に戻ってきた時、Aはボールを見つけるためにどこを探すでしょうか?
正解は、かごですね。Aは、Bがボールを箱の中にしまったことを知りません。
これは誤信念課題の一つの例です。
この課題に正しい答えを出すためには、事実として正しい正しくないではなく「相手が事実と違ったことを信じている」「一人ひとり持っている情報は違う」ことを理解できる必要があります。
従来、「心の理論」を持っているかどうか(相手の心を推し量れるかどうか)は、この「誤信念課題」の問題を解けるかどうかで判断できるとされていました。
ところがスタンフォード大学のミハル・コジンスキー氏は、最近のLLMが「心の理論」のテストを解けるようになった、との実験結果を発表しています。
実際、GPT-3は心の理論のテストで正答率93%と人間の9歳児と同等のスコアを記録しているそうです。
さらに驚きだったのが、長年にわたり人間とコンピューターを区別するために用いられてきた「チューリングテスト」にChatGPTが事実上合格したことです。
このテストはイギリスの数学者、アラン・チューリングが考案したものです。
さらに驚きだったのが、長年にわたり人間とコンピューターを区別するために用いられてきた「チューリングテスト」にChatGPTが事実上合格したことです。
このテストはイギリスの数学者、アラン・チューリングが考案したものです。
「コンピューターが本物の人間と区別のできない会話を行えるのであれば、そのコンピューターは思考すると考えていい」と彼は定義していました。
ChatGPTが世界中に衝撃を与えて以降、チューリングテストは論点としてもういいかという雰囲気が研究者の間に広がっています。
ChatGPTが世界中に衝撃を与えて以降、チューリングテストは論点としてもういいかという雰囲気が研究者の間に広がっています。
チューリングがこのテストを考案したのは1950年頃です。つい最近まで、半世紀以上も用いられ続けてきたこのテストをChatGPTが軽々と乗り越えてしまった衝撃はあまりにも大きいものがあります。
ChatGPTがなぜうまく機能しているのか、開発者もわからない
ー茂木氏:AIは賢さを増し、心の理論を獲得しているのに加え、どうやら因果律さえ理解するようになってきているようです。
ただ、なぜここまでの知能を発揮しているのか、あるいはしているように見えるのか、その仕組みについては完全に解明されていないのが現状です。
OpenAIの最高経営責任者であるサム・アルトマン氏にしろ、かつてグーグルでAI開発を主導した、チーフサイエンティストのイリヤ・サツキバー氏にしろ、ChatGPTがなぜこれほどうまくいっているのか決定的な要因はわからないといわれます。
ChatGPTがなぜうまく機能しているのか、開発者もわからない
ー茂木氏:AIは賢さを増し、心の理論を獲得しているのに加え、どうやら因果律さえ理解するようになってきているようです。
ただ、なぜここまでの知能を発揮しているのか、あるいはしているように見えるのか、その仕組みについては完全に解明されていないのが現状です。
OpenAIの最高経営責任者であるサム・アルトマン氏にしろ、かつてグーグルでAI開発を主導した、チーフサイエンティストのイリヤ・サツキバー氏にしろ、ChatGPTがなぜこれほどうまくいっているのか決定的な要因はわからないといわれます。
「心の理論」についても、ネット上にある膨大な文章を読み、統計的に確率の高い内容をアウトプットしているのだと思いますが、それにしても、ここまで精度が高いというのは驚くべきことでしょう。
GPT-4のような大規模言語モデルには「ネクスト・トークン・プレディクション(Next Token Prediction)」があります。要は「次に来るべき単語を予測する」という能力に基礎を置いています。
私たちが会話をする時は、必ずそれまでの文脈を踏まえて会話をします。
たとえば、それまで、
「ChatGPTは今までのAIとは違うらしい」
という話をしていたとして、次に、
「トマトは美味しいですね」
と言う確率は低く(というか、ほとんどない)、どちらかというと、
「ChatGPTといえば、GPT-3とGPT-4は何が違うんですか」
といった返答になる確率のほうが高い。
こんなふうに、ChatGPTは「次にどんな言葉が来るのか」の確率が高いものを選んで返答しているだけ。統計的に確率が高い返答を瞬時に組み立て、出力しているだけなのです。
ところが、それだけであれほど高度な会話ができるようになってきてしまっている。その精度のあまりの高さに世界中が驚嘆しています。
「人間にとってのAIはどんな存在?」に対する堀江氏の解
堀江氏:AIに関して、私は単純に人間の大脳の機能拡張ととらえている。
車を例に考えてみてほしい。
本来、自動車の運転は運動能力の機能拡張に他ならない。車が人間の身体にコネクト(接続)されていないので、一般的にはサイボーグととらえられていないが、実際的にはサイボーグみたいなものだ。「今、俺は車を運転している」と意識している人はほとんどいなくて、みんな無意識に車を運転している。自動車にせよ自転車にせよ、身体に接続されていないだけで、身体拡張に他ならない。
AIも同じことだ。人間にとっての大脳の機能拡張になっている。
「AIのミス」を嬉々として指摘する人に欠けている視点
堀江氏:「AIは間違うことがあるから」とバカにする人がいる。
「AIは人間のまね事をしているだけ」などと、まるで鬼の首を取ったように、ChatGPTが返してきたとんちんかんな答をいじったりする。
けれど、考えてみてほしい。私たち人間だって同程度、あるいはもっとひどいレベルで間違うことがあるだろう。時にはその程度が小さすぎて、長いこと自分が間違いを犯していることに気づかないことすらある。
たとえば、私は長い間、高橋留美子さんの漫画『うる星やつら』のことを「うるせいやつら」ではなく「うるぼしやつら」だと勘違いしていた。『うる星やつら』はアニメでもオープニングから誰も一度も「うるせいやつら」だとは言わない。正しい読み方を知る機会すらなかったので、もしかしたら「うるぼしやつら」と思い込んでいたのは私だけではないかもしれない。
ある機会にこの漫画のことを話していて、私が「うるぼしやつら」と言ったのをバカにされてはじめて、私は正しい読み方に気づいた。こんなことは日常茶飯事だろう。
それなのになぜ,AIが犯すちょっとしたミスばかりを責めたり,笑ったりするのだろうか。
人間の子どもで考えてみてほしい。子どもはよく嘘をつく。だが、本人は別に嘘をついているつもりはない。
GPT-4のような大規模言語モデルには「ネクスト・トークン・プレディクション(Next Token Prediction)」があります。要は「次に来るべき単語を予測する」という能力に基礎を置いています。
私たちが会話をする時は、必ずそれまでの文脈を踏まえて会話をします。
たとえば、それまで、
「ChatGPTは今までのAIとは違うらしい」
という話をしていたとして、次に、
「トマトは美味しいですね」
と言う確率は低く(というか、ほとんどない)、どちらかというと、
「ChatGPTといえば、GPT-3とGPT-4は何が違うんですか」
といった返答になる確率のほうが高い。
こんなふうに、ChatGPTは「次にどんな言葉が来るのか」の確率が高いものを選んで返答しているだけ。統計的に確率が高い返答を瞬時に組み立て、出力しているだけなのです。
ところが、それだけであれほど高度な会話ができるようになってきてしまっている。その精度のあまりの高さに世界中が驚嘆しています。
「人間にとってのAIはどんな存在?」に対する堀江氏の解
堀江氏:AIに関して、私は単純に人間の大脳の機能拡張ととらえている。
車を例に考えてみてほしい。
本来、自動車の運転は運動能力の機能拡張に他ならない。車が人間の身体にコネクト(接続)されていないので、一般的にはサイボーグととらえられていないが、実際的にはサイボーグみたいなものだ。「今、俺は車を運転している」と意識している人はほとんどいなくて、みんな無意識に車を運転している。自動車にせよ自転車にせよ、身体に接続されていないだけで、身体拡張に他ならない。
AIも同じことだ。人間にとっての大脳の機能拡張になっている。
「AIのミス」を嬉々として指摘する人に欠けている視点
堀江氏:「AIは間違うことがあるから」とバカにする人がいる。
「AIは人間のまね事をしているだけ」などと、まるで鬼の首を取ったように、ChatGPTが返してきたとんちんかんな答をいじったりする。
けれど、考えてみてほしい。私たち人間だって同程度、あるいはもっとひどいレベルで間違うことがあるだろう。時にはその程度が小さすぎて、長いこと自分が間違いを犯していることに気づかないことすらある。
たとえば、私は長い間、高橋留美子さんの漫画『うる星やつら』のことを「うるせいやつら」ではなく「うるぼしやつら」だと勘違いしていた。『うる星やつら』はアニメでもオープニングから誰も一度も「うるせいやつら」だとは言わない。正しい読み方を知る機会すらなかったので、もしかしたら「うるぼしやつら」と思い込んでいたのは私だけではないかもしれない。
ある機会にこの漫画のことを話していて、私が「うるぼしやつら」と言ったのをバカにされてはじめて、私は正しい読み方に気づいた。こんなことは日常茶飯事だろう。
それなのになぜ,AIが犯すちょっとしたミスばかりを責めたり,笑ったりするのだろうか。
人間の子どもで考えてみてほしい。子どもはよく嘘をつく。だが、本人は別に嘘をついているつもりはない。
生半可に知識があるからこそ、一生懸命考えた末に嘘になってしまうこともある。こうした挙動はAIも同じだ。
茂木氏:堀江さんが言っているのは、要するに人工知能の分野でいわれる「ハルシネーション(Hallucination)」のことです。
茂木氏:堀江さんが言っているのは、要するに人工知能の分野でいわれる「ハルシネーション(Hallucination)」のことです。
LLMがこちらの問いかけに対して、事実とは異なる内容や文脈とは無関係な内容を出力してくることを指します。
そもそもこの言葉の直訳は「幻覚」で、人間が現実の知覚とは別に脳内で想像する幻覚になぞらえています。
ChatGPTはインターネットに存在するデータを読み込んでいるので、仮にそのデータのうち7割が「うるせいやつら」で3割が「うるぼしやつら」だとしたなら、ChatGPTはそっくりそのままそれを結果に反映します。
ChatGPTはインターネットに存在するデータを読み込んでいるので、仮にそのデータのうち7割が「うるせいやつら」で3割が「うるぼしやつら」だとしたなら、ChatGPTはそっくりそのままそれを結果に反映します。
先ほどLLMの仕組みを説明した時に、ネクスト・トークン・プレディクションについて触れましたが、実は人間の脳も似たような仕組みで、多くの場合、人間もしゃべりながら「次の単語はこうだ」と脳が予想していると考えられています。
人間にせよChatGPTにせよ、こうしたプロセスがハルシネーションを起こす一因になっているはずです。
人間社会で起こったハルシネーションとして、僕はネルソン・マンデラ氏の有名な話を思い出しました。彼は実際には95歳の時に病死したにもかかわらず、多くの人は獄中死したと勘違いしていました。つまり、集団でもハルシネーションは起きることがあるのです。
一方、研究者の中にはハルシネーションをポジティブなノイズとしてとらえ、創造的な活用方法があるのではないかと唱える人もいます。堀江さんが間違えた「うるぼしやつら」も普通の発想からはまず生まれません。
人間にせよChatGPTにせよ、こうしたプロセスがハルシネーションを起こす一因になっているはずです。
人間社会で起こったハルシネーションとして、僕はネルソン・マンデラ氏の有名な話を思い出しました。彼は実際には95歳の時に病死したにもかかわらず、多くの人は獄中死したと勘違いしていました。つまり、集団でもハルシネーションは起きることがあるのです。
一方、研究者の中にはハルシネーションをポジティブなノイズとしてとらえ、創造的な活用方法があるのではないかと唱える人もいます。堀江さんが間違えた「うるぼしやつら」も普通の発想からはまず生まれません。
意図せず発生してしまった勘違いや誤りも、違う形のクリエイティビティに結びつけることができるかもしれないのです。発想を変えれば、ハルシネーションが創造の源泉となる可能性があります。
僕の好きな例に、さくらももこさんの『ちびまる子ちゃん』に出てくる友蔵じいさんがいます。
さくらさんによれば、元々、ご自身のおじいさんは、友蔵じいさんのキャラクターとは似ても似つかない性格の方だったそうです。それでも『ちびまる子ちゃん』の漫画を描く際には、「こういう人だったらよかったのに」と友蔵じいさんを自分の理想像に合わせて、のほほんとした存在として描きました。
2024年の大河ドラマになる『源氏物語』に出てくる光源氏にしても同じです。あの物語で描かれるような人物は現実の世界にはそうそういない。
僕の好きな例に、さくらももこさんの『ちびまる子ちゃん』に出てくる友蔵じいさんがいます。
さくらさんによれば、元々、ご自身のおじいさんは、友蔵じいさんのキャラクターとは似ても似つかない性格の方だったそうです。それでも『ちびまる子ちゃん』の漫画を描く際には、「こういう人だったらよかったのに」と友蔵じいさんを自分の理想像に合わせて、のほほんとした存在として描きました。
2024年の大河ドラマになる『源氏物語』に出てくる光源氏にしても同じです。あの物語で描かれるような人物は現実の世界にはそうそういない。
創作の背景には、作家の想像力がハルシネーションとして存在しているわけです。
そもそも、人間の脳には常にハルシネーションがつきまといます。
よく人と人が「言った言わない」を争っていますが、本人としては絶対に自分が正しいと思い込んでいるわけです。
そもそも、人間の脳には常にハルシネーションがつきまといます。
よく人と人が「言った言わない」を争っていますが、本人としては絶対に自分が正しいと思い込んでいるわけです。
客観的な事実としてはどちらも外れている可能性が高いにもかかわらず、です。
願望や希望によって事実がねじ曲がってしまうことはよくあることです。ただ、こうした歪みや不完全性こそが人間らしさともとらえられます。
人間の記憶が時間とともに不正確になっていくのに対し、今までのコンピューターの記憶は一定に保たれます。
ChatGPTがハルシネーションを起こしている様子を見ていると、機械が人間に近づきつつあるのを感じます。
願望や希望によって事実がねじ曲がってしまうことはよくあることです。ただ、こうした歪みや不完全性こそが人間らしさともとらえられます。
人間の記憶が時間とともに不正確になっていくのに対し、今までのコンピューターの記憶は一定に保たれます。
ChatGPTがハルシネーションを起こしている様子を見ていると、機械が人間に近づきつつあるのを感じます。
逆にいえば、ChatGPTを今までのコンピューターと同じように扱うことはできない。今後、僕たちは人間と同じようにChatGPTと向き合っていかないといけないのかもしれません。
※本記事は『 ChatGPT vs. 未来のない仕事をする人たち』を再構成したものです。
※本記事は『 ChatGPT vs. 未来のない仕事をする人たち』を再構成したものです。