画像生成AI Stable Diffusionを使って画像出力する。その1

今回の目標:取り敢えず画像を出力できるようになる。

Google Colabにアクセスする。


新規ノートを作成する。


右上の「接続」をクリック。接続されたら、

左上の「編集」内の「ノートブックの設定」を選択

ハードウェア アクセレータの項目をGPUに設定し「T4」に設定。保存を押す。
#有料ではあるが、 より高性能なGPUも選択できる。
すると、接続が一旦切れるので、再接続するのを確認する。


再生マークが実行、その隣にコードを打ち込む。


    !nvidia-smi 


実行して、GPUが使用されるようになっているか確認する。実行出来たら◯



右上の「+コード」をクリックして新しい欄を追加。以下を記述。

    !pip install --upgrade diffusers accelerate transformers


実行。

右上の「+コード」をクリックして新しい欄を追加。以下を記述。


from diffusers import StableDiffusionPipeline, DPMSolverMultistepScheduler
import torch
from diffusers import StableDiffusionPipeline

# 利用したいAIモデル
# Stable Diffusionにはさまざまな派生モデルがあります
model_id = "gsdf/Counterfeit-V2.5"

# パイプラインの作成
pipeline = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16)

# GPUを使うように変更
pipeline = pipeline.to("cuda")

実行。
右上の「+コード」をクリックして新しい欄を追加。以下を記述。

prompt = """Unreal Engine,
Realistic,photorealistic,
4k,8k,16k,
elaborate,
hyper quality,
villa,
global illumination,
highly detailed,
soft lighting,
cinematic,
wide shot,
sharp focus,
realistic shaded,
light shining through"""
n_prompt = "human"

cfg_scale = 20 # スケール
steps = 100# ステップ

width = 512 # 出力画像の幅
height = 512 # 出力画像の高さ

# 画像を生成
image = pipeline(prompt=prompt,
negative_prompt=n_prompt,
guidance_scale=cfg_scale,
num_inference_steps=steps,
width=width,
height=height).images[0]

# 画像を表示
image

実行。






こんな感じのものが、出力されました。何回も実行すると、全然違うものができるのでびっくりします。




今回は、疲れたのでここまでにします。
次回は、出力画像の調整やコードの意味を説明する予定です。次回のブログを見れば、女の子のイラストを出力することもできるようになるので、ぜひみてください。




できれば、感想が欲しいな...

コメント

このブログの人気の投稿

FFmpegで画像のピクセルサイズを指定して、変換する方法 忘備録

画像生成AI Stable Diffusionを使って画像出力する。その3 自分好みの女の子を作成しよう