画像生成AI Stable Diffusionを使って画像出力する。その1
今回の目標:取り敢えず画像を出力できるようになる。
Google Colabにアクセスする。
右上の「接続」をクリック。接続されたら、
左上の「編集」内の「ノートブックの設定」を選択
#有料ではあるが、 より高性能なGPUも選択できる。
すると、接続が一旦切れるので、再接続するのを確認する。
!pip install --upgrade diffusers accelerate transformers
実行。
右上の「+コード」をクリックして新しい欄を追加。以下を記述。
from diffusers import StableDiffusionPipeline, DPMSolverMultistepScheduler
import torch
from diffusers import StableDiffusionPipeline
# 利用したいAIモデル
# Stable Diffusionにはさまざまな派生モデルがあります
model_id = "gsdf/Counterfeit-V2.5"
# パイプラインの作成
pipeline = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16)
# GPUを使うように変更
pipeline = pipeline.to("cuda")
右上の「+コード」をクリックして新しい欄を追加。以下を記述。
prompt = """Unreal Engine,
Realistic,photorealistic,
4k,8k,16k,
elaborate,
hyper quality,
villa,
global illumination,
highly detailed,
soft lighting,
cinematic,
wide shot,
sharp focus,
realistic shaded,
light shining through"""
n_prompt = "human"
cfg_scale = 20 # スケール
steps = 100# ステップ
width = 512 # 出力画像の幅
height = 512 # 出力画像の高さ
# 画像を生成
image = pipeline(prompt=prompt,
negative_prompt=n_prompt,
guidance_scale=cfg_scale,
num_inference_steps=steps,
width=width,
height=height).images[0]
# 画像を表示
image
実行。
こんな感じのものが、出力されました。何回も実行すると、全然違うものができるのでびっくりします。
今回は、疲れたのでここまでにします。
次回は、出力画像の調整やコードの意味を説明する予定です。次回のブログを見れば、女の子のイラストを出力することもできるようになるので、ぜひみてください。
できれば、感想が欲しいな...
コメント
コメントを投稿