昨今、界隈を賑わせている画像精製AIですが、
様々なところでゲームチェンジを起こしてくれそうな感じなので
この波に乗り遅れない為にも、検証がてら Stable Diffusion を使ってみましたというお話です。
最初は、ネット経由で使えるオンライン版を触ってみたところ
あれ?こんなものか?という感じでしたが・・・
https://stablediffusionweb.com/
webuiと、モデル、等を色々と組み合わせたらだいぶ良い感じに生成出来る様になってきました。
生成にはプロンプトが大事だという話でしたが、
なるほど確かにプロンプト次第でいくらでも様相が変わってきますね。
特にネガティブプロンプト、これ次第で絵の質感がガラリと変わります。
代表的なものとしては
bad anatomy(悪い解剖学)
low quality(低品質)
bokeh(ボケ)
error(なんらかのエラー)
といったところでしょうか。
low quality(低品質)とか、そんな抽象的な事で良いのか?と思うところも
入れてみると全然ちがいますね。
bokeh(ボケ)は、通常プロンプトに入れると雰囲気のある背景になったりするので
場合によって入れ処を考える必要がありそうです。
個人的に一番影響が大きく感じたのは、bad anatomy(悪い解剖学)ですかね。
これを入れてしまうと、ホラー調の画像を生成するのは、かなり難しくなりそうです。
なるほど、プロンプトが売れるというのも頷けますね。
とはいえ、素人がちょっと触ったくらいでは
欲しいものが全然出来ずに、ヤキモキする感じでした。
絵が描ける人なら「自分で描いた方が早いわッ」と、なりそうです。
現状では、レイアウトの案を出したり、
素材として使えそうな物を生成する使い方が良いのかなと思います。
あとは、使っているモデルの影響でしょうか
なんだかんだで「カワイイ女の子」の生成が一番得意なイメージですかね。
人類からの需要が高いせいで、学習が捗っているのかも知れません。
腹筋の割れた美女も、生成し放題でウハウハです。
調子に乗って色々出していると、ふと我に返ったとき、
「これが自分の癖なのかぁ・・・」と、なんだか恥ずかしくなるので御注意下さい。。。
≫Next
様々なところでゲームチェンジを起こしてくれそうな感じなので
この波に乗り遅れない為にも、検証がてら Stable Diffusion を使ってみましたというお話です。
最初は、ネット経由で使えるオンライン版を触ってみたところ
あれ?こんなものか?という感じでしたが・・・
https://stablediffusionweb.com/
webuiと、モデル、等を色々と組み合わせたらだいぶ良い感じに生成出来る様になってきました。
生成にはプロンプトが大事だという話でしたが、
なるほど確かにプロンプト次第でいくらでも様相が変わってきますね。
特にネガティブプロンプト、これ次第で絵の質感がガラリと変わります。
代表的なものとしては
bad anatomy(悪い解剖学)
low quality(低品質)
bokeh(ボケ)
error(なんらかのエラー)
といったところでしょうか。
low quality(低品質)とか、そんな抽象的な事で良いのか?と思うところも
入れてみると全然ちがいますね。
bokeh(ボケ)は、通常プロンプトに入れると雰囲気のある背景になったりするので
場合によって入れ処を考える必要がありそうです。
個人的に一番影響が大きく感じたのは、bad anatomy(悪い解剖学)ですかね。
これを入れてしまうと、ホラー調の画像を生成するのは、かなり難しくなりそうです。
なるほど、プロンプトが売れるというのも頷けますね。
とはいえ、素人がちょっと触ったくらいでは
欲しいものが全然出来ずに、ヤキモキする感じでした。
絵が描ける人なら「自分で描いた方が早いわッ」と、なりそうです。
現状では、レイアウトの案を出したり、
素材として使えそうな物を生成する使い方が良いのかなと思います。
あとは、使っているモデルの影響でしょうか
なんだかんだで「カワイイ女の子」の生成が一番得意なイメージですかね。
人類からの需要が高いせいで、学習が捗っているのかも知れません。
腹筋の割れた美女も、生成し放題でウハウハです。
調子に乗って色々出していると、ふと我に返ったとき、
「これが自分の癖なのかぁ・・・」と、なんだか恥ずかしくなるので御注意下さい。。。
≫Next