日本の政府や大企業の官僚組織などのガバナンスにおいて、ほとんど無意識のうちに前提とされているのが「無謬(むびゅう)性の原則」だと言われています。
「無謬」というのも普段はあまり馴染みのない言葉ですが、思考や判断に誤り(つまり誤謬)がないことを指す言葉で、「無謬性」と言えば「誤りがあるべきでない」と考えること。つまり、政治や行政などの権威が、拠って立つ「間違いを認めない」という性質を指すことが多いようです。
一般に、組織が自らの過ちを認めたがらない背景には、結果の良し悪しや合理性よりも組織の安定や擁護を優先する権威主義的な価値観があり、その一方に権威に対してエラーを許容しない偏狭な責任社会の存在があると考えられます。
また、組織の行動原理が(結果ではなく)権威に拠っているがために、それ自体が、組織の構成員などに「万が一にでも間違いを犯してはいけない」という強烈なプレッシャーをかけていることの証左と言えるかもしれません。
因みに、こうしたことから政治や行政の無謬性は、「ある政策を成功させる責任を負った当事者は、その政策が失敗したときのことを考えたり議論したりしてはいけない」という信念として顕在化することも多いようです。
権威者の判断は間違うはずがないので、間違いだなんて口に出してはいけない。さらにはこれが「上手くいかなかった時のことを考えるなんてもっての外」ということになり、状況に応じて方針を変更したり代替案を用意したりすることもなく、ただ無批判に政策が進められていく場合も多いようです。
さて、いずれにしても、小さいものでは個人の意思決定から、大きなものでは国家や民族、宗教まで、ありとあらゆる権威が主張する無謬性が、現代社会の隅々までを頑固に規定していると言えるかもしれません。
こうした形で、私たちの社会から(ある意味)柔軟性を奪っているとも言える無謬性を前提とした政治哲学に対し、2月18日の日経新聞の紙面(コラム「経済教室」)には、慶応義塾大学教授の小林慶一郎氏が「求められる可謬性の哲学」と題する(力の入った)論考を寄せています。
小林氏はこの論考において、人工知能(AI)の進歩が、現代の無謬性によって規定されている政治哲学を、「可謬(かびゅう)性」すなわち「間違える可能性がある」ものに変えていく可能性があると指摘しています。
近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法(誤差を最小にする近似計算の一手法)にすぎない。つまり、これまで深淵な神秘と思われていた知能の働きが、実は単純な近似計算の寄せ集だったというのがAIがもたらした衝撃の本質ではないかと氏は言います。
近似計算なのだからAIの知は無謬の真理ではないし、(そういう意味では)人間の知も同様である。人やAIが作るあらゆる知は全て現実の「近似」であり、将来いずれ「間違いであった」と証明される可能性がある。そうした意味で、AI時代の判断は、常に可謬的と言わざるを得なくなるということです。
(ここから先が少し難しいのですが)自己の無謬性の前提に立って他者を淘汰するのがこれまでの人間社会や生物進化の自然淘汰のメカニズムだが、それは多くの社会(または生物種)が進化の袋小路に陥って絶滅することを容認する、いわば非効率な進化であったと氏はここで説明しています。
あるべきもの、ふさわしきものがそうでないものを凌駕、淘汰するのは当然の理だとする思考の下では、最終的に単一化された(選ばれた)考え方や種以外は不要なものとされ、進化はそこで止まってしまう。
一方、自己の可謬性を前提とした社会は、そうした自然淘汰のメカニズムを当然視しない、多様な存在者の自由な行動に寛容な社会となるはずだというのがこの論考における小林氏の見解です。
自己の可謬性を認識すれば、他者が自己を超える可能性を認識し、他者を淘汰せずにその可能性の存続を尊重し利用することが「合理的」な判断となる。
AI時代の到来によって、例え(「ホモ・デウス」で著者のユヴァル・ノア・ハラリ氏が予言したような)科学技術の力で増強された超人類が現れても、彼らが自己の可謬性を認識するならば、弱者を淘汰せず彼らと共存する多様な社会を維持することを目指すだろうということです。
プランAからプランBへ。(たとえ間違っていても)次善の策を用意しておく柔軟な発想があれば、未来社会における「多様性」は随分と違った価値を持つということでしょう。