Stable Diffusion を試してみました

画像生成

昨今のAI画像生成関連の動向は速すぎてなかなかついていけないですね。Midjourneyでは新たなテストモードが追加されアニメ系も写真系も品質が向上し、DALL・E2では外側に画像を書き足せるOutPainting機能が追加され、Stable Diffusionでは、PhotoshopやFigmaのプラグインが即座にリリースされるなど、創作界にどんどん変革が進んでいると感じてます。

私も、今までMidjourneyやDALL・E2でいろいろ画像を生成しましたが、Stable Diffusion(以下SD)もついに試してみることになりました。SDはローカル環境にインストール可能ということで、いろいろな可能性を感じ、元々使っていたPCの調子が悪かったのもありますが自宅PCの買い替えを決心しました。

PCは今まで自作していたのですが面倒になってきたので、昔から購入しているドスパラさんのBTOパソコンを購入しました。問題はGPU選びですが、ゲームもしないので低消費電力 140WとVRAM 16Gの大容量が魅力のA4000を搭載したraytrek ZQ-A4000のワークステーションモデルを選びました。

ちょっとお値段は高かったですが、標準の512×512画像が約6秒で出力できて想定していたより高速だったので満足です。画像サイズは、512×960までは出力できました。(それ以上はメモリエラー発生)

SDのローカル環境へのインストールは面倒ですが、Pythonを自分で組んでいろいろ試せるのが魅力です。Google Colabでも同様のことはできますが、まあ第一の目的がPCの買い替えだったので。

こんなアニメの女の子がたくさん自動で生成できるのは楽でいいですね。省電力GPUなのでぶん回しても電気代も安心。ただ、風景画とかいい加減ちがうジャンルも考えなきゃな・・・

最後に、役に立つかどうかはわかりませんが、私のインストール方法はちょっと長くなるので、次回に説明します。。。

コメント

タイトルとURLをコピーしました