NovelAI精密参照をローカルで再現する方法を調べた — ComfyUI + IP-Adapter
NovelAI精密参照とは
2026年2月、NovelAIが「精密参照(Precise Reference)」機能をリリースした。従来の「キャラ参照」に加えて「絵柄参照」が追加され、両方を組み合わせて使えるようになった。
| 機能 | 役割 |
|---|---|
| キャラ参照 | キャラクターの外見(顔・髪・服等)を維持 |
| 絵柄参照 | 画風・タッチ・カラーパレットを維持 |
参照画像を指定するだけでキャラと絵柄の一貫性を保てる。LoRA学習不要で手軽に使える点が強み。
ただしNovelAIはクラウドサービスで、生成ごとにAnlasを消費する。ローカルで同等のことをやりたい場合は IP-Adapter が選択肢になる。
IP-Adapterとは
Tencent AIが開発した画像プロンプト手法。参照画像の特徴をCLIP Visionで抽出し、生成時に反映させる。「1枚画像LoRA」のような動作をする。
NovelAIの精密参照との対応関係:
| NovelAI機能 | IP-Adapter |
|---|---|
| キャラ参照 | IP-Adapter FaceID / Plus Face |
| 絵柄参照 | IP-Adapter(通常版) |
| 強度スライダー | weight パラメータ |
| 忠実度スライダー | start_at / end_at パラメータ |
動作環境
| 項目 | スペック |
|---|---|
| マシン | Mac Studio / MacBook Pro等(Apple Silicon) |
| メモリ | 32GB以上推奨(64GBあれば余裕) |
| ストレージ | 50GB以上の空き |
M1 Max 64GBで試す予定。SDXLモデル + IP-Adapter + CLIP Visionを同時ロードしてもメモリ的には余裕があるはず。生成速度はRTX 3060相当で、1枚30秒〜1分程度という報告が多い。
セットアップ
1. ComfyUIのインストール
Apple Silicon対応のComfyUIをインストールする。
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
pip install -r requirements.txt
2. ComfyUI_IPAdapter_plusのインストール
cd custom_nodes
git clone https://github.com/cubiq/ComfyUI_IPAdapter_plus.git
3. 必要なモデルのダウンロード
CLIP Visionモデル
ComfyUI/models/clip_vision/ に配置:
| モデル | 用途 |
|---|---|
CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors | SD1.5 / SDXL両対応 |
CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors | SDXL向け(より高精度) |
ダウンロード元: Hugging Face - openai/clip-vit-large-patch14
IP-Adapterモデル
ComfyUI/models/ipadapter/ に配置:
| モデル | 用途 |
|---|---|
ip-adapter-plus_sdxl_vit-h.safetensors | 汎用(絵柄参照向け) |
ip-adapter-plus-face_sdxl_vit-h.safetensors | 顔特化(キャラ参照向け) |
ダウンロード元: Hugging Face - h94/IP-Adapter
ベースモデル(SDXL)
ComfyUI/models/checkpoints/ に配置。アニメ系なら以下がおすすめ:
- Animagine XL 3.1
- Counterfeit-V3.0
- Kohaku XL
ワークフロー構成
キャラ参照のみ
[Load Image] → [IPAdapter Face] → [KSampler] → [Save Image]
↓
[CLIP Vision Encode]
基本的な構成。参照画像からキャラの顔特徴を抽出して生成に反映する。
キャラ参照 + 絵柄参照(精密参照相当)
[キャラ参照画像] → [IPAdapter Face] ─┐
├→ [KSampler] → [Save Image]
[絵柄参照画像] → [IPAdapter] ─┘
2つのIP-Adapterを直列に接続する。1つ目でキャラ特徴、2つ目で絵柄特徴を注入。
パラメータ調整
weight(強度)
NovelAIの「強度スライダー」に相当。参照画像の影響度を調整する。
| 値 | 効果 |
|---|---|
| 0.5〜0.7 | 軽い影響。プロンプトの自由度が高い |
| 0.7〜0.85 | バランス型。顔の場合の推奨値 |
| 0.85〜1.0 | 強い影響。参照画像に引っ張られやすい |
高すぎると参照画像の表情・ポーズまで引き継いでしまうので注意。
start_at / end_at
IP-Adapterが介入するタイミングを制御する。
| 設定 | 効果 |
|---|---|
| start_at: 0, end_at: 1 | 全工程で介入(デフォルト) |
| start_at: 0, end_at: 0.8 | 後半はプロンプト優先 |
| start_at: 0.2, end_at: 1 | 序盤の構図決定はプロンプト優先 |
絵柄参照は end_at: 0.8 程度にすると、細部がプロンプトに従いやすくなる。
複数参照の組み合わせ
キャラ参照と絵柄参照を同時に使う場合:
| 参照タイプ | 推奨weight |
|---|---|
| キャラ参照(Face) | 0.7〜0.85 |
| 絵柄参照(通常) | 0.5〜0.7 |
両方を高くしすぎると破綻しやすい。片方を強めにしたら、もう片方は控えめに。
制限事項
複数キャラの同時参照
NovelAIと同様、複数のキャラ参照を同時に使うと特徴が混合される。別々のキャラとして扱われない。
複数キャラを出したい場合は:
- Regional Promptingで領域を分ける
- インペイントで個別に生成
- ControlNetと組み合わせてポーズを固定
FaceID系モデル
より高精度な顔一貫性が必要な場合は IP-Adapter FaceID シリーズがある。ただしInsightFaceのインストールが必要で、Apple Siliconでの動作に追加設定が必要になる場合がある。
NovelAI vs ローカルIP-Adapter
| 項目 | NovelAI精密参照 | ローカルIP-Adapter |
|---|---|---|
| 初期コスト | サブスク(月額$25〜) | 無料(ハードウェアは別) |
| 生成コスト | 5 Anlas/回 | 電気代のみ |
| セットアップ | 不要 | 必要 |
| 品質 | 専用モデルで最適化済み | モデル選択次第 |
| カスタマイズ | 限定的 | 自由度高い |
| オフライン | 不可 | 可能 |
月に数百枚以上生成するなら、ローカル環境を整える価値がある。
関連記事
- SeaArt LoRA学習ガイド — クラウドでLoRA学習してキャラ一貫性を実現する方法
- RTX 3060でLoRA学習環境構築 — ローカルでLoRA学習する場合の手順
- Gemに食わせるための素体画像をFlowで作成する — Gemini Flowでの参照画像アプローチ