AIアフィリエイト戦略室
AIツールレビュー

Stable Diffusion入門:ローカル環境で完全無料の画像生成AIを始める方法

Stable Diffusionのローカル環境(AUTOMATIC1111)での導入方法を初心者向けに解説。無料で無制限に画像生成するための設定・プロンプト・モデルの選び方を紹介。

公開:2026/01/05読了:6

Stable Diffusion入門:ローカル環境で完全無料の画像生成AIを始める方法

Midjourneyは月$10〜かかりますが、Stable Diffusionは自分のPCで動かせば完全無料・無制限に使えます。この記事では初心者向けに導入方法から基本的な使い方まで解説します。

この記事でわかること

  • Stable Diffusionをローカルで動かすための環境要件
  • AUTOMATIC1111(Web UI)のインストール方法
  • 基本的なプロンプトの書き方
  • クオリティを上げるモデル(Checkpoint)の選び方
  • Midjourneyとの使い分け

ローカル実行の環境要件

最低要件

項目最低推奨
GPU(NVIDIA)VRAM 4GBVRAM 8GB以上
CPU任意-
RAM8GB16GB以上
ストレージ10GB50GB以上(モデル保存用)
OSWindows 10/11 or Linux-

重要: NVIDIA製GPUが必須(CUDAを使用するため)。AMD GPUやCPUのみでも動作するが大幅に遅い。

Mac対応: Apple Siliconの場合、Automatic1111またはDiffusion Beeで動作可能(少し設定が異なる)。


インストール方法(Windows版)

Step 1:Python・Gitのインストール

  1. Python 3.10.x をPython公式サイトからダウンロード・インストール
    • インストール時に「Add Python to PATH」にチェック
  2. Git をgit-scm.comからダウンロード・インストール

Step 2:AUTOMATIC1111のダウンロード

PowerShellまたはコマンドプロンプトを開いて:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

Step 3:起動

webui-user.bat

(Macの場合:bash webui.sh

初回起動時は必要なライブラリが自動でインストールされます(10〜20分かかります)。

Step 4:Webブラウザでアクセス

起動後、ブラウザで http://127.0.0.1:7860 にアクセスするとUIが表示されます。


基本的な使い方

テキストから画像生成(txt2img)

  1. 「txt2img」タブを選択
  2. プロンプト欄に生成したい画像の説明を英語で入力
  3. ネガティブプロンプトに不要な要素を入力
  4. 「Generate」ボタンをクリック

基本プロンプト例(人物):

Prompt:
portrait of a beautiful japanese woman, 25 years old, long black hair, wearing casual clothes,
warm smile, soft natural lighting, bokeh background, photorealistic, 8k

Negative Prompt:
ugly, blurry, deformed, bad anatomy, extra limbs, low quality, watermark

重要なパラメータ

パラメータ説明推奨値
Sampling Stepsステップ数(多いほど高品質・時間がかかる)20〜30
CFG Scaleプロンプトへの忠実度(高いほど固い)7〜12
Size画像サイズ512×512(標準)、768×768(高品質)
Seed乱数シード(-1でランダム)-1

モデル(Checkpoint)の選び方

Stable Diffusionの画質はモデル次第です。Civitai(civitai.com)から様々なモデルをダウンロードできます。

用途別おすすめモデル

用途モデル例特徴
写真リアリスティックRealistic Vision, epiCRealism人物・風景のリアル表現
アニメ・イラストAnything V5, counterfeitアニメスタイル
2.5DスタイルChilloutMixリアルとアニメの中間
風景・建築Landscape, Architecture自然・都市シーン

モデルの設置場所: stable-diffusion-webui/models/Stable-diffusion/ フォルダに .safetensors または .ckpt ファイルを配置。


ControlNetで構図を正確にコントロール

ControlNetを使うと、参照画像と同じ構図・姿勢で画像を生成できます。

使用例:

  • 人物の姿勢を参照画像と同じにする(OpenPose)
  • 下書きスケッチから清書する(Canny/Scribble)
  • 参照画像の構図を維持したスタイル変換

Midjourneyとの比較と使い分け

比較項目Stable DiffusionMidjourney
料金無料(ローカル)$10〜/月
画質(デフォルト)
カスタマイズ性
操作の簡単さ
商用利用モデル依存プラン依存

Stable Diffusionが向いている用途:

  • 大量の画像生成(コスト0)
  • 特定スタイルの一貫した画像量産
  • ControlNetで構図を厳密に制御したい
  • AIの仕組みを深く理解・カスタマイズしたい

Midjourneyが向いている用途:

  • 手軽に最高品質の画像を得たい
  • Discordでコミュニティと共有しながら学びたい
  • プロンプトのテクニックを深く学ばなくても高品質を出したい

Google Colabで試す(GPU非搭載の場合)

GPUがない場合、Google Colabを使えば無料または低コストでStable Diffusionを試せます:

  • 無料版:週数時間の実行が可能
  • Colab Pro:月約1,300円で高速GPU使用可能

まとめ

Stable Diffusionは初期設定に多少の技術知識が必要ですが、一度セットアップすれば完全無料で無制限の画像生成ができます。

VRAM 8GBのGPUがあれば、月$10のMidjourneyを使わずに同等以上の柔軟性を持った画像生成環境が手に入ります。

ブログのアイキャッチ・SNS素材・デジタルアート販売など、画像生成を頻繁に行う方には、最初の設定時間を投資する価値が十分にあります。


関連記事

関連記事

他のAIツール比較・副業記事も読む

AIツールの選び方から収益化まで、実体験ベースで解説しています。