都市伝説かもしれないけど・・・
画像認識をディープラーニングで行うとき、
はじめにA,B,Cを分類するものを学習させる。
この学習に追加して、D,E,Fを学習させると、
(ABCとDEFはまったく関係ない画像)
D,E,Fの学習スピードが、
なにも学習させない時にD,E,Fを学習させるより
収束が早い・・・らしい。
もし、画像認識を、まず線とか、点(角)とかを認識したうえで、
それをつなげてA,B,Cとか、E,f,Gとか分類しているのであれば、
線とか、点(角)とかの認識・学習部分は省略できるので、
速く収束することは納得いくんだけど・・・・
本当にそうなの?
画像認識をディープラーニングで行うとき、
はじめにA,B,Cを分類するものを学習させる。
この学習に追加して、D,E,Fを学習させると、
(ABCとDEFはまったく関係ない画像)
D,E,Fの学習スピードが、
なにも学習させない時にD,E,Fを学習させるより
収束が早い・・・らしい。
もし、画像認識を、まず線とか、点(角)とかを認識したうえで、
それをつなげてA,B,Cとか、E,f,Gとか分類しているのであれば、
線とか、点(角)とかの認識・学習部分は省略できるので、
速く収束することは納得いくんだけど・・・・
本当にそうなの?