回帰、分類、次元圧縮ときて、Scikit learnを使った機械学習のお勉強はここまで
(普通はあと、決定木をやると思う)。
ディープラーニングでscikit learnはつらいので、Pytorchで習ってきた!
【初心者向け】ゼロからわかるPyTorch実践入門ハンズオン~前編~
https://liberal-arts-beginners.connpass.com/event/142006/
をメモメモ
・今日の目標
PyTorchの基礎文法
ニューラルネット
動かせるようになるまで
・自動微分を用いて簡単にニューラルネットワークを記述できる
PyTorchでできること
・テンソル
・自動微分
・損失関数、最適化関数が用意されている
単回帰分析
学習→推論
損失関数・最適化関数
・パラメータを決めるのに必要
・例:予測値の値と実測値の値の差の二乗を足し合わせる
E(Θ)=∑(yk-y~k)^2
↑
パラメータ、いまはa,b
最適化関数
E(Θ)を最小化するa,b
→勾配降下法を使う
微分して、傾きで決める
改良1・確率的勾配法(SGD)、Adam
ニューラルネットワークについて
重みw
活性化関数:非線形の関数をはさむと・・
活性化関数
ReLU関数(れる):0までは0、それ以降は直線
シグモイド
ハンズオン
Google colabの利用
PyTorchはインストール簡単
import torchで使える
初期化されていない行列:何か入ってる
add_ → +=
転置
itemで肩まで出ししてくれる
.numpyでnumpyが入れるようになる
自動微分
テンソル用意
式を用意
.backword
勾配
最適化
tourch.optimにはいってる
やること(学習)
モデルを決める
損失関数を決める
最適化関数を決める
ネットワーク
何X何のデータが来るか確認→ここがわからないと、組めない
(1)今日の内容理解
(2)論理和
(3)モデルの中身を変えてみる
公式ドキュメント
https://pytorch.org/
(普通はあと、決定木をやると思う)。
ディープラーニングでscikit learnはつらいので、Pytorchで習ってきた!
【初心者向け】ゼロからわかるPyTorch実践入門ハンズオン~前編~
https://liberal-arts-beginners.connpass.com/event/142006/
をメモメモ
・今日の目標
PyTorchの基礎文法
ニューラルネット
動かせるようになるまで
・自動微分を用いて簡単にニューラルネットワークを記述できる
PyTorchでできること
・テンソル
・自動微分
・損失関数、最適化関数が用意されている
単回帰分析
学習→推論
損失関数・最適化関数
・パラメータを決めるのに必要
・例:予測値の値と実測値の値の差の二乗を足し合わせる
E(Θ)=∑(yk-y~k)^2
↑
パラメータ、いまはa,b
最適化関数
E(Θ)を最小化するa,b
→勾配降下法を使う
微分して、傾きで決める
改良1・確率的勾配法(SGD)、Adam
ニューラルネットワークについて
重みw
活性化関数:非線形の関数をはさむと・・
活性化関数
ReLU関数(れる):0までは0、それ以降は直線
シグモイド
ハンズオン
Google colabの利用
PyTorchはインストール簡単
import torchで使える
初期化されていない行列:何か入ってる
add_ → +=
転置
itemで肩まで出ししてくれる
.numpyでnumpyが入れるようになる
自動微分
テンソル用意
式を用意
.backword
勾配
最適化
tourch.optimにはいってる
やること(学習)
モデルを決める
損失関数を決める
最適化関数を決める
ネットワーク
何X何のデータが来るか確認→ここがわからないと、組めない
(1)今日の内容理解
(2)論理和
(3)モデルの中身を変えてみる
公式ドキュメント
https://pytorch.org/