理乃美

ソフトとハードと論理の覚え書き

CGANは学習が重い

2024-03-11 01:27:49 | AI
引き続いて、Generative Deep Learning [1] の 4章 Conditional GAN (CGAN)のサンプル (cgan.ipynb)[2]を何とか実行。多少パラメータをいじることで、やっとそれらしい結果を得られた。
cgan.ipynbは、セレブ顔画像セットを Blond_Hairであるかどうかでラベル付きで学習し、生成する画像をブロンドにするかどうかをラベルで制御できるようにするというもの。

前回のサンプルまではそのままで動いたが、cgan.jpynbは2か所ほど手を加える必要があった。
変更点1: トレーニングデータ不足を補うため、下記のようにrepeatメソッドを追加。これをしないと学習の途中でデータが尽きたといって止まってしまう。

変更点2: ブラウザとjupyter labの負荷軽減のため途中経過の画像出力の頻度を制限。これをしないと、ブラウザあるいはjpyterのサーバがクラッシュすることがある。


実行環境は、メモリが16GBでCPUが Core i5 10600 (3.3GHz) 6 コア 12 Thread.
前回のWGANがRTX A2000だと無理だったので、最初からあきらめてCPUでの実行とした。

最初は、動かすための前記変更だけを行ったサンプルコードの場合。
全部で2000epoch のうち、500epochごとの進捗がこちら. おなじlatent空間の点からlabelだけ変えて生成した画像を並べている。
501/2000

1001/2000

1501/2000

1991/2000

そして、学習完了後に生成画像がこちら。なお、latent空間の点はお互いにばらばら。

金髪か否かで生成し分けているのだが、どうだろう。 言われればそうかもしれないが、よくわからない。そもそも、顔イメージそのものが学習しきれていないように思うがどうだろう。
ちなみに、学習にかかった時間は120分30秒

まず試したのがcriticの回数をepockあたり3回から5回に増やすこと。
501/2000

1001/2000

1501/2000

1981/2000

Generate imagesの結果

所要時間 3時間6分 (186分)

次に、criticをepockあたり5回で、さらにepochの回数を倍の4000にした。
1001/4000

2001/4000

3001/4000

3951/4000

Generate imagesの結果

所要時間 6時間12分(372分)

ばらばらのlaten vectorから作った画像を並べた Generate images の結果だと分かりにくいが、同じlatent vectorからlabelだけ変えて作った画像を並べた3951epochでの画像をみると、Blond Hair という属性を学習して画像を作り分けられるようになったと言えるだろう。

CGANサンプルの実行にはかなり時間がかかりしんどかった。学習に費やされる時間が長かったのはもちろんだが、エラー終了してしまって無駄になった時間がさらに長かった。延々とCPUを走らせて、そろそろ終わりかなというところブラウザがクラッシュとかなると、ちょっと辛い。
いろいろと試すには大容量VRAMを搭載したGPUが必須かな...
24GBを積んだP40ならヤフオクでも3万円で出品されているけれど、パッシブ冷却だからパワフルな送風ファンが必須。AI実験用のサブPCは、古いタワーなので 送風ファンのスペースが足りなくてP40は使えない。メインPCは、そのつもりで買った大型ケースなので送風ファンごと収まるけれど、AIの実験でメインPCが長い時間使えなくなるのが不便。それが理由でAI実験環境にサブPCに移したのだからなぁ。

[1] Generative Deep Learning, 2nd Edition by David Foster, Released May 2023, Publisher: O'Reilly Media, Inc. ISBN: 9781098134181
[2] https://github.com/davidADSP/Generative_Deep_Learning_2nd_Edition
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

WGAN-GPは安定していたが...

2024-02-25 23:31:50 | AI
引き続いて、Generative Deep Learning [1] の 4章 Wasserstein GAN with Gradient Penalty (WGAN-GP)のサンプル (wgan_gp.ipynb)[2]を試し、学習の安定性が向上していることは見て取れた。一方で、Gradient Penalty のためにInterpolated imageを使うことによってアーティファクトが発生していた。実用的には単純なinterpolationではなくもっと工夫が必要なことが見て取れた。

このサンプルは、VRAM 6GBのRTX A2000では メモリ不足で実行できなかったが、GPU無し用のdocker imageを使いCPUのみを使って実行した。

このサンプルでは、下記のような64x64のカラー画像の画像セットで学習する。

学習は、1epochあたり判別機の学習をCRITIC_STEPS 回 行って 200 epoch 行う。
まずは、サンプルそのままに CRITIC_STEPS = 3 で実行。
その学習の進捗を50 epochごとに示すと、
1/200
.
50/200

100/200

150/200

199/200

となる。
最終的に生成される画像の例がこちら。

教科書figure 4-14の生成例と比べるといまいち。WGAN-GPの学習の安定性を見るために学習と生成を3回行い、その結果を並べてみるとこの通りで、DCGANを試した時と比べるとずっと学習が安定している。しかし、教科書にあるほど良い結果にはなってない。あれは良い画像だけを選んだものかな?




ちなみに、学習にかかった時間は約120分。 マシンは、メモリが16GBでCPUが Core i5 10600 (3.3GHz) 6 コア 12 Thread.
結果がいまいちに思えたので、CRITIC_STEPSを変えて試してみた。CRITIC_STEPSが 2, 3, 5, 7 で最終的な生成画像を並べてみるとこうなる。この結果で言うとサンプルのCRITIC_STEPSはちょっと少なかったかな。ただ回数を増やせば学習の所要時間も増して、それに見合うほどの画質向上が得られるかというところがある。
CRITIC_STEPS=2 使用時間 85分

CRITIC_STEPS=3 所要時間 118分

CRITIIC_STEPS=5 所要時間 186分

CRITIC_STEPS=7 所要時間 253分


下記は生成された画像の一つだが、二重写しのように見える。思うに、Gradient Penalty のためにオリジナルと生成物の二つをミックスしてほどほどの評価点の物として学習させているため、二重写しもそれなりに受け入れられる画像として学習してしまっているのかと推測した。


[1] Generative Deep Learning, 2nd Edition by David Foster, Released May 2023, Publisher: O'Reilly Media, Inc. ISBN: 9781098134181
[2] https://github.com/davidADSP/Generative_Deep_Learning_2nd_Edition
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

DCGANはなかなか難しい

2024-02-10 22:35:58 | AI
Generative Deep Learning [1] の 4章 deep convolutional GANのサンプル (dcgan.ipynb)[2]を試してみたところ、DCGANで思うような結果を出すのが難しいと実感できた。
このサンプルでは、下記のようなレゴブロックのモノクロ画像(64x64 dot)を教師データとしてレゴブロックの画像生成を行う。

生成器と識別器がだまし/だまされないように互いに切磋琢磨(?)するのが、敵対的生成ネットワーク (Generative adversarial networks: GAN) で、生成器と識別器が畳み込みニューラルネットワークでできたGANが deep convolutional GAN: DCGAN.

で、上手く訓練ができれば、このように画像が生成できる。出来がいまいちだって? DCGANの規模が小さいからかな。でも、これは4回目にやっとできた上出来の結果なんだ。

一回目だと、最初は良い感じに訓練できていたものの途中でこんな風に偏ってしまい、

結果としてこういう画像を生成するようになってしまった。

二回目もやっぱり、途中までは良いものの突然このように道を踏み外して、

結果はこれ。

三回目もやっぱり、途中で偏ってしまってこの結果。



識別器が、画像の特定の特徴のみを見て真偽判定するように訓練され、生成器もそれに合わせてその特徴のみを模倣するように訓練されてしまったという事なのだろう。

教科書では、「GANは生成モデルにブレークスルーをもたらしたが、GANはとても訓練が難しい」とさらっと書いてある。が、実際にコードを動かしてみると長々待ってできたのが使えない生成器という繰り返しは結構しんどい。
このサンプルは、VRAM 6GBの RTX A2000で動かしている。一つのstepに二十数秒かかっていてそれを300回繰り返しているから、トータルで1時間以上かかる。それだけ時間をかけて出てきた結果が使えない生成器だとがっかり。

何事もやってみないと分からない。

[1] Generative Deep Learning, 2nd Edition by David Foster, Released May 2023, Publisher: O'Reilly Media, Inc. ISBN: 9781098134181
[2] https://github.com/davidADSP/Generative_Deep_Learning_2nd_Edition
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

Generative Deep Learning 2nd Editionのサンプルを動かしてみた

2023-12-01 22:56:24 | AI
オライリーから出ている、Generative Deep Learning Second Edition [1]のサンプルは、Githubから入手できる。 03_vae/01_autoencoder/autoencoder.ipynbまでのサンプルを動かしてみたので、戸惑った点をメモに残しておく。 1. .env の置き場所 githubからpullすると、Generative_Deep_Learning_2nd_Editionというディレクトリができて、sample.envをはじめとするファイルが配置される。このディレクトリに.env ファイルを置く。 2. GPUを使う場合は NVIDIA Container Toolkit が必要 CPUだけとGPUを使う場合の両方がサポートされているが、GPUを使う場合はDockerをセットアップしたあとNVIDIAのサイトを参照して NVIDIA Container Toolkitをインストールする必要がある。 3. Jupyter notebookの開き方 Dockerイメージをアップするとその最後に下図のように http://172.0.0.1:8888/lab?token=*** というURLが表示されるので、それを開く。その部分は端末でURLとして認識されるのでプルアップメニューで「リンクを開く」を選べばよい。 Readme.mdには、http://localhost:8888 とあるが、それだとtoken authentication enabled という認証を求める画面が開いてしまう。 ちなみにPC環境は、 第10世代 core i5 10600 (6コア 12スレッド) メモリ 16GB GPU: NVIDIA RTX A2000 OS: Ubuntu 22.04.3 LTS 2nd Edition の邦訳はまだない。英語版はAmazon.co.jp で kindle版も購入可能。 また、eBooks.comからだとPDFやEPUB形式で購入できるようだ。 なお初版は、生成 Deep Learning [2] というタイトルで邦訳が出ているが、サンプルが腐っているのでお勧めできない。そう、初版と2nd EditionではGithubにあるサンプルも全く別物で、初版の方はすでにサポート終了と宣言されている。おそらく、kerasの仕様変更が原因だと思うが03_03_vae_digits_train.ipynbなどがエラーになってしまう。 そんな訳で私は2nd editionを買いなおした。 [1] Generative Deep Learning, 2nd Edition by David Foster, Released May 2023, Publisher: O'Reilly Media, Inc. ISBN: 9781098134181 [2] 生成 Deep Learning, David Foster著 松田 晃一, 小沼千絵 訳、オライリー・ジャパン ISBN978-4-87311-920-5
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

Tesla K80でStable Diffusionを動かした

2023-10-18 00:31:25 | AI
もはやAI実験機と化したサブPCで、RTX A2000を使ってサクッとStable Diffusionが動いたのは先日の記事の通りだが、その一方で RTX A2000のメモリが6GBしか無いという制限は厳に存在する。 ということで、24GB搭載のTesla K80 でも試してみることにした。 空冷ファンの都合上サブPCには収まらないのでメインPCで実験。一度、RTX A2000でcuda 12.0の環境にしてしまっていたので、K80に戻して動作確認するまでにドライバやcuda tool kitの再インストールとかで手間取ったが、あとはstable-diffusion-webui をインストールしてStable Diffusionがさくっと動いたが、...

1. K80をちゃんと冷やさないとcudaのエラーで止まる. やけに処理に時間がかかるな、と思ってshellの画面をみるとcudaのエラーで stable-diffusionが落ちているという事がある。
2. K80の半分しか使われていない。Tesla K80はソフトから見ると12GBのメモリを搭載した2台のGPUなのだが、そのうち1台しか利用されない。どうも、複数のGPUを束ねて利用する機能は無いようだ。その代わり、Stable Diffusionを二つ立ち上げて、それぞれが別のGPUを使うというやり方があるそうな。
3. 遅い. RTX A2000で4枚40秒だったのがTesla K80だと2分16秒. まあ、K80はTensor コアも半精度も無い古いアーキテクチャなので当然の結果と言えなくもないが。

という事で、Stable Diffusionについてはヤフオクなどで捨て値で手に入るTesla k80で楽しめなくもないが、冷却のためのあれやこれやを考えたらアクティブ冷却(=冷却ファン内蔵)のGPUを選んだ方が合理的だろうというのが私の結論。
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする