深層学習の源流
最近の深層学習の威力には驚かされるが、その源流はガウスの最小二乗法にあるのではないかと思う。階層型ニューラルネットワークの学習に用いられる誤差逆伝搬学習法も考え方の基本は最小二乗法にある。人工知能学会監修の「深層学習」を読んでみたが、人間の脳を少し真似た深層学習がこれだけ強力であるのだから、脳科学の発展により、脳の仕組みが更に解明され、それをうまく模倣すれば、更なる発展が見込まれる。深層学習以上の汎用的な方法が見つかるには長い年月を要するかも知れない。深層学習だけでもChatGPTなどの驚くべきアプリケーションが生まれ、自動翻訳なども格段に進化した。驚くべきだ。深層学習などの人工知能のこれからの進展が楽しみだ。
荒井公康
※コメント投稿者のブログIDはブログ作成者のみに通知されます