Stable Diffusion WebUI+SDXLで高画質画像生成2023年9月最新版

スポンサーリンク
Stable Diffusion
スポンサーリンク

Stable Diffusion WebUI AUTOMATIC1111のv1.6.0にアップデートされてリファイナー対応のSDXLに完全対応となりました。ここでは、SDXLをフルで使うためのWebUIのv1.6.0の使用方法をみていきます。

準備

WebUIでSDXLを使うためにはWebUIを最新のv1.6.0以上にアップデートする必要があります。アップデートの方法はこちらの記事をご確認ください。(リンク:Stable Diffusion WebUIのバージョン1.6.0のアップデートを試してみる

WebUIのセットアップから行う方はこちらをご参照ください。

また、SDXLのモデルは以下からダウンロード可能です。

Checkpoint(stable-diffusion-webuiのmodelsの中のStable-diffusionフォルダに入れる)
sd_xl_base_1.0.safetensors(baseモデル)
sd_xl_refiner_1.0.safetensors(refinerモデル)
VAE(stable-diffusion-webuiのmodelsの中のVAEフォルダに入れる)
sdxl_vae.safetensors

もし、VRAMが12GB未満のGPUを使っている場合は通常の設定ではSDXL生成時にOutOfMemoryErrorが起こるので、起動時にクリックするstable-diffusion-webuiの中の「webui-user.bat」をシフト+右クリックで「編集」を選択して、テキストエディタで「set COMMANDLINE_ARGS=」の行に「–medvram-sdxl」を追記します。

以下に私が使っている「webui-user.bat」の設定内容を示します。

@echo off

set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS= --no-half-vae --opt-channelslast --autolaunch --xformers --medvram-sdxl

call webui.bat

SDXLでの画像生成

それではSDXLの画像生成の基本設定をしてきます。

モデルの設定

まず、SDXLの公式モデルを使っていきます。ベースモデルに「sd_xl_base_1.0.safetensors」を、リファイナーに「sd_xl_refiner_1.0.safetensors」を選択します。「Switch steps」でベースモデルからリファイナーモデルに切り替えるステップを設定します。今回は総ステップ30のうち、50%の15ステップはベースモデル、残りの50%の15ステップでリファイナーモデルを適用します。後半にリファイナーモデルを適用することで、高品質な画像にすることができます。

VAEはSettings(設定)で「VAE」を開いて、「sdxl_vae.safetensors」を選択し、「Apply settings」(設定を適用)のボタンを押します。

スタイルの設定

SDXLでの画像生成を行ってみます。v1.6.0になってスタイルエディターが実装されました。最初にスタイルの設定をしてみます。生成ボタンを押すとスタイルエディターが開きます。

スタイルエディターには画像共通の品質に関するプロンプトを入れます。今回はイラスト用のプロンプトを準備します。作成したスタイルを保存ボタンで保存します。

Style Prompt例
(illustration:1.0), masterpiece, best quality

Style Negative Prompt例
EasyNegative, nsfw, (worst quality, low quality:1.4), (depth of field, blurry, bokeh:1.5), (greyscale, monochrome:1.0), multiple views, text, title, logo, signature, (tooth, lip, nose, 3d, realistic:1.0), dutch angle,(cropped:1.4), text, title, signature, logo,( loli:1.2)

※上記のNegative PromptではEmbeddingsのEasyNegativeを使っています。使う場合は、EasyNegativeをダウンロードしてembeddingsのフォルダ内に入れてください。

スタイルはリストから選択することで適用されます。これまでのバージョンとは適用のさせ方が違うので注意してください。

画像生成例

プロンプトを入力して画像を生成します。今回、リファイナーの効果を確認するために、baseモデルだけを30ステップ行った場合と、baseモデル15ステップとrefinerモデル15ステップ行った場合を比較します。

桜とウサギ

close up photo of a rabbit, forest, haze, halation, bloom, dramatic atmosphere, centred, rule of thirds, 200mm 1.4f macro shot

baseモデルのみ

baseモデル+refinerモデル

学校の建物を正面から

building, front, outdoor, trees, school, garden, baroque architecture, 3d

baseモデルのみ

baseモデル+refinerモデル

ロボット兵器

complex 3d render ultra detailed combat robot weapon, mobile suit, analog 150 mm lens, beautiful natural soft rim light, Beautiful metal luster, Mud stains, colorful details, cable wires, microchip, badass, hyper realistic, ultra detailed, octane render, mechanical gauge, volumetric lighting, 8k post-production, red and white with a bit of black, detailled metalic bones, semi human, iridescent colors, futuristic room, power of the god, high-angle shot, complex body poses

baseモデルのみ

baseモデル+refinerモデル

アニメ調の女性

1girl, solo, smile, pure face, ponytail, school uniform, looking at veiwer, flat chest, standing, outdoor, animation, CG graphics, cute face, highly detail, harajuku street

baseモデルのみ

baseモデル+refinerモデル

1girl,solo, rain, night city, anime style, close-up, an extremely delicate and beautiful
negative prompt
umbrella

baseモデルのみ

baseモデル+refinerモデル

アニメ系のイラストを出すなら、CounterfeitXLやAnimagineXLなどのアニメ系の学習を強化したモデルを使った方が良いかもしれません。

counterfeitXL
AnimagineXL

counterfeitXL

AnimagineXL

Stable Diffusion
スポンサーリンク
鷹の目週末プログラマー

コメント