ベイズ統計即習
今日、YouTubeでベイズ統計の幾つかのプレゼンテーション講義を見て、細かい計算式は抜きにして、何故ベイズ統計が機械学習や人工知能に大きな役割を与えているのか分かったような気がした。
ベイズ統計では頻度論者が嫌う事前確率なるものを使う。データが何もない処からは推定(事前確率)から始めるしかないからだ。事前確率は基本推定であるからして、どうでも良いのだ。用はデータを集めた後に解析した結果を事後確率にフィードバックできる点だ。まさしく(機械)学習ではないか。またマルコフ連鎖モンテカルロ法もしかり。多くのサンプリングデータを収集する事に確率密度を軌道修正していく。まさしくベイズ統計の基礎哲学が生きていく。ここで画像認識や音声認識が機械学習で得られていく。
ベイズ理論の神髄は理解した(と思う)。それは数学的理論というよりは、我々の脳がどのように世界を認知しているかのメカニズムに近い。だからこそ人工知能の分野で今脚光を浴びているのであり、と同時に数学的理論屋からは敬遠される存在なのだ。つまりベイズ理論とは認知科学なのだ。
今日、駆け足で勉強してやっとそのことが理解できたと思う。後の数学的理論はじっくりと身につければ良い。今日の収穫は大きかったな。