ウィリアムのいたずらの、まちあるき、たべあるき

ウィリアムのいたずらが、街歩き、食べ物、音楽等の個人的見解を主に書くブログです(たま~にコンピューター関係も)

線形回帰を習ってきた!

2019-08-20 08:38:27 | AI・BigData
お盆休みに、一通り機械学習習ってきた!
まずは線形回帰

8月10日

【入門者・初心者向け】scikit-learn を用いた機械学習入門ハンズオン~回帰モデル編~
https://liberal-arts-beginners.connpass.com/event/140224/


で学んできたことメモ




機械学習
教師あり学習、教師なし学習を行う
ここでは、回帰
・特徴選択が大事
 市場規模(兆円)→対数変換
 →特徴量
 
 線形回帰:多重共線性

→だけど、特徴選択は難しい

フレームワーク
・様々なモデル
 線形回帰
 正則化回帰
 ニューラルネットワーク

モデル:
 値が決まる:パラメータ
 人間が決める:ハイパーパラメータ

評価
 確率モデルは情報量基準、そうでない場合は誤差関数で評価
 訓練データ集合D={(x1,t1),・・・} 入力と正しい出力の組
 モデルy=f(x)

 正しい出力Tn
 モデルの出力f(xn)
 誤差:tn-f(xn)
 +の誤差とーの誤差で打ち消し合わさないように2乗(tn-f(xn))
 2乗和誤差、2乗和誤差の平均で評価
 
訓練データとテストデータに分ける
 train_test_split
  訓練8割 テスト2割が多い
  データが多く少ないデータで学習できるなら
   訓練5000個、テスト 残り
 →ハイパーパラメータ選択
  k-foldクロスバリデーションを各パラメータで実施して、
  一番良い結果を選ぶ

線形回帰
y = w0+w1x1+w2x2+・・・+wnxn
2乗和誤差
→Eをwで微分して、0とおく
→ハイパーパラメータが出てこない

正則化線形回帰
 汎化能力
   解が求まらない:回避するようにできている
   過学習
 →正則化 regularization
  正則化線形回帰:ridge回帰を取り上げる
   →2乗和誤差関数にパラメータの2乗和を加える
    ハイパーパラメータλあり
    λ>0
    もしλ<0だと、誤差関数がマイナスになる可能性がある

ニューラルネットワーク回帰
 作るモデルy=f(x)が複雑
  →複雑なデータでも
 層→重みのところでいう入力→中間層→出力の場合(3層でなく)2層
 活性化関数relu,logistic,tanh
 出力層では活性化関数はない(そのままのあたい)
 誤差関数E+'alpha'/2 - ∑


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする