Stable Diffusion入門:ローカル環境で完全無料の画像生成AIを始める方法
Stable Diffusionのローカル環境(AUTOMATIC1111)での導入方法を初心者向けに解説。無料で無制限に画像生成するための設定・プロンプト・モデルの選び方を紹介。
Stable Diffusion入門:ローカル環境で完全無料の画像生成AIを始める方法
Midjourneyは月$10〜かかりますが、Stable Diffusionは自分のPCで動かせば完全無料・無制限に使えます。この記事では初心者向けに導入方法から基本的な使い方まで解説します。
この記事でわかること
- Stable Diffusionをローカルで動かすための環境要件
- AUTOMATIC1111(Web UI)のインストール方法
- 基本的なプロンプトの書き方
- クオリティを上げるモデル(Checkpoint)の選び方
- Midjourneyとの使い分け
ローカル実行の環境要件
最低要件
| 項目 | 最低 | 推奨 |
|---|---|---|
| GPU(NVIDIA) | VRAM 4GB | VRAM 8GB以上 |
| CPU | 任意 | - |
| RAM | 8GB | 16GB以上 |
| ストレージ | 10GB | 50GB以上(モデル保存用) |
| OS | Windows 10/11 or Linux | - |
重要: NVIDIA製GPUが必須(CUDAを使用するため)。AMD GPUやCPUのみでも動作するが大幅に遅い。
Mac対応: Apple Siliconの場合、Automatic1111またはDiffusion Beeで動作可能(少し設定が異なる)。
インストール方法(Windows版)
Step 1:Python・Gitのインストール
- Python 3.10.x をPython公式サイトからダウンロード・インストール
- インストール時に「Add Python to PATH」にチェック
- Git をgit-scm.comからダウンロード・インストール
Step 2:AUTOMATIC1111のダウンロード
PowerShellまたはコマンドプロンプトを開いて:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
Step 3:起動
webui-user.bat
(Macの場合:bash webui.sh)
初回起動時は必要なライブラリが自動でインストールされます(10〜20分かかります)。
Step 4:Webブラウザでアクセス
起動後、ブラウザで http://127.0.0.1:7860 にアクセスするとUIが表示されます。
基本的な使い方
テキストから画像生成(txt2img)
- 「txt2img」タブを選択
- プロンプト欄に生成したい画像の説明を英語で入力
- ネガティブプロンプトに不要な要素を入力
- 「Generate」ボタンをクリック
基本プロンプト例(人物):
Prompt:
portrait of a beautiful japanese woman, 25 years old, long black hair, wearing casual clothes,
warm smile, soft natural lighting, bokeh background, photorealistic, 8k
Negative Prompt:
ugly, blurry, deformed, bad anatomy, extra limbs, low quality, watermark
重要なパラメータ
| パラメータ | 説明 | 推奨値 |
|---|---|---|
| Sampling Steps | ステップ数(多いほど高品質・時間がかかる) | 20〜30 |
| CFG Scale | プロンプトへの忠実度(高いほど固い) | 7〜12 |
| Size | 画像サイズ | 512×512(標準)、768×768(高品質) |
| Seed | 乱数シード(-1でランダム) | -1 |
モデル(Checkpoint)の選び方
Stable Diffusionの画質はモデル次第です。Civitai(civitai.com)から様々なモデルをダウンロードできます。
用途別おすすめモデル
| 用途 | モデル例 | 特徴 |
|---|---|---|
| 写真リアリスティック | Realistic Vision, epiCRealism | 人物・風景のリアル表現 |
| アニメ・イラスト | Anything V5, counterfeit | アニメスタイル |
| 2.5Dスタイル | ChilloutMix | リアルとアニメの中間 |
| 風景・建築 | Landscape, Architecture | 自然・都市シーン |
モデルの設置場所:
stable-diffusion-webui/models/Stable-diffusion/ フォルダに .safetensors または .ckpt ファイルを配置。
ControlNetで構図を正確にコントロール
ControlNetを使うと、参照画像と同じ構図・姿勢で画像を生成できます。
使用例:
- 人物の姿勢を参照画像と同じにする(OpenPose)
- 下書きスケッチから清書する(Canny/Scribble)
- 参照画像の構図を維持したスタイル変換
Midjourneyとの比較と使い分け
| 比較項目 | Stable Diffusion | Midjourney |
|---|---|---|
| 料金 | 無料(ローカル) | $10〜/月 |
| 画質(デフォルト) | △ | ◎ |
| カスタマイズ性 | ◎ | △ |
| 操作の簡単さ | △ | ◎ |
| 商用利用 | モデル依存 | プラン依存 |
Stable Diffusionが向いている用途:
- 大量の画像生成(コスト0)
- 特定スタイルの一貫した画像量産
- ControlNetで構図を厳密に制御したい
- AIの仕組みを深く理解・カスタマイズしたい
Midjourneyが向いている用途:
- 手軽に最高品質の画像を得たい
- Discordでコミュニティと共有しながら学びたい
- プロンプトのテクニックを深く学ばなくても高品質を出したい
Google Colabで試す(GPU非搭載の場合)
GPUがない場合、Google Colabを使えば無料または低コストでStable Diffusionを試せます:
- 無料版:週数時間の実行が可能
- Colab Pro:月約1,300円で高速GPU使用可能
まとめ
Stable Diffusionは初期設定に多少の技術知識が必要ですが、一度セットアップすれば完全無料で無制限の画像生成ができます。
VRAM 8GBのGPUがあれば、月$10のMidjourneyを使わずに同等以上の柔軟性を持った画像生成環境が手に入ります。
ブログのアイキャッチ・SNS素材・デジタルアート販売など、画像生成を頻繁に行う方には、最初の設定時間を投資する価値が十分にあります。