技術 約4分で読めます

NovelAI精密参照をローカルで再現する方法を調べた — ComfyUI + IP-Adapter

NovelAI精密参照とは

2026年2月、NovelAIが「精密参照(Precise Reference)」機能をリリースした。従来の「キャラ参照」に加えて「絵柄参照」が追加され、両方を組み合わせて使えるようになった。

機能役割
キャラ参照キャラクターの外見(顔・髪・服等)を維持
絵柄参照画風・タッチ・カラーパレットを維持

参照画像を指定するだけでキャラと絵柄の一貫性を保てる。LoRA学習不要で手軽に使える点が強み。

ただしNovelAIはクラウドサービスで、生成ごとにAnlasを消費する。ローカルで同等のことをやりたい場合は IP-Adapter が選択肢になる。

IP-Adapterとは

Tencent AIが開発した画像プロンプト手法。参照画像の特徴をCLIP Visionで抽出し、生成時に反映させる。「1枚画像LoRA」のような動作をする。

NovelAIの精密参照との対応関係:

NovelAI機能IP-Adapter
キャラ参照IP-Adapter FaceID / Plus Face
絵柄参照IP-Adapter(通常版)
強度スライダーweight パラメータ
忠実度スライダーstart_at / end_at パラメータ

動作環境

項目スペック
マシンMac Studio / MacBook Pro等(Apple Silicon)
メモリ32GB以上推奨(64GBあれば余裕)
ストレージ50GB以上の空き

M1 Max 64GBで試す予定。SDXLモデル + IP-Adapter + CLIP Visionを同時ロードしてもメモリ的には余裕があるはず。生成速度はRTX 3060相当で、1枚30秒〜1分程度という報告が多い。

セットアップ

1. ComfyUIのインストール

Apple Silicon対応のComfyUIをインストールする。

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
pip install -r requirements.txt

2. ComfyUI_IPAdapter_plusのインストール

cd custom_nodes
git clone https://github.com/cubiq/ComfyUI_IPAdapter_plus.git

3. 必要なモデルのダウンロード

CLIP Visionモデル

ComfyUI/models/clip_vision/ に配置:

モデル用途
CLIP-ViT-H-14-laion2B-s32B-b79K.safetensorsSD1.5 / SDXL両対応
CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensorsSDXL向け(より高精度)

ダウンロード元: Hugging Face - openai/clip-vit-large-patch14

IP-Adapterモデル

ComfyUI/models/ipadapter/ に配置:

モデル用途
ip-adapter-plus_sdxl_vit-h.safetensors汎用(絵柄参照向け)
ip-adapter-plus-face_sdxl_vit-h.safetensors顔特化(キャラ参照向け)

ダウンロード元: Hugging Face - h94/IP-Adapter

ベースモデル(SDXL)

ComfyUI/models/checkpoints/ に配置。アニメ系なら以下がおすすめ:

  • Animagine XL 3.1
  • Counterfeit-V3.0
  • Kohaku XL

ワークフロー構成

キャラ参照のみ

[Load Image] → [IPAdapter Face] → [KSampler] → [Save Image]

              [CLIP Vision Encode]

基本的な構成。参照画像からキャラの顔特徴を抽出して生成に反映する。

キャラ参照 + 絵柄参照(精密参照相当)

[キャラ参照画像] → [IPAdapter Face] ─┐
                                    ├→ [KSampler] → [Save Image]
[絵柄参照画像]  → [IPAdapter]      ─┘

2つのIP-Adapterを直列に接続する。1つ目でキャラ特徴、2つ目で絵柄特徴を注入。

パラメータ調整

weight(強度)

NovelAIの「強度スライダー」に相当。参照画像の影響度を調整する。

効果
0.5〜0.7軽い影響。プロンプトの自由度が高い
0.7〜0.85バランス型。顔の場合の推奨値
0.85〜1.0強い影響。参照画像に引っ張られやすい

高すぎると参照画像の表情・ポーズまで引き継いでしまうので注意。

start_at / end_at

IP-Adapterが介入するタイミングを制御する。

設定効果
start_at: 0, end_at: 1全工程で介入(デフォルト)
start_at: 0, end_at: 0.8後半はプロンプト優先
start_at: 0.2, end_at: 1序盤の構図決定はプロンプト優先

絵柄参照は end_at: 0.8 程度にすると、細部がプロンプトに従いやすくなる。

複数参照の組み合わせ

キャラ参照と絵柄参照を同時に使う場合:

参照タイプ推奨weight
キャラ参照(Face)0.7〜0.85
絵柄参照(通常)0.5〜0.7

両方を高くしすぎると破綻しやすい。片方を強めにしたら、もう片方は控えめに。

制限事項

複数キャラの同時参照

NovelAIと同様、複数のキャラ参照を同時に使うと特徴が混合される。別々のキャラとして扱われない。

複数キャラを出したい場合は:

  1. Regional Promptingで領域を分ける
  2. インペイントで個別に生成
  3. ControlNetと組み合わせてポーズを固定

FaceID系モデル

より高精度な顔一貫性が必要な場合は IP-Adapter FaceID シリーズがある。ただしInsightFaceのインストールが必要で、Apple Siliconでの動作に追加設定が必要になる場合がある。

NovelAI vs ローカルIP-Adapter

項目NovelAI精密参照ローカルIP-Adapter
初期コストサブスク(月額$25〜)無料(ハードウェアは別)
生成コスト5 Anlas/回電気代のみ
セットアップ不要必要
品質専用モデルで最適化済みモデル選択次第
カスタマイズ限定的自由度高い
オフライン不可可能

月に数百枚以上生成するなら、ローカル環境を整える価値がある。

関連記事