技術 約5分で読めます

VNCCS — キャラ設計図をComfyUIで自動生成するツールを調べた

動機

Qwen-Image-Editでキャラのイラストを生成しているが、サイドツインテールがまともに出ない問題にずっと悩んでいる。後ろで束ねる普通のツインテールは出せるが、サイドツインテール(耳の前あたりから垂らすタイプ)は構造が複雑なのか、崩れるか無視されるかのどちらか。

QWEN v16 Editなら精度が上がるかも、とか色々試行錯誤している最中に、Redditで「VNCCS Utils 0.20 — QWEN Detailer」というポストを見つけた。VNCCSはビジュアルノベル向けのキャラスプライト生成ツールで、キャラクターシート(設計図)の自動生成ができるらしい。キャラの一貫性を保つ仕組みが組み込まれているなら、髪型の安定生成にも効くかもしれない。

調べてみた。

VNCCSとは

Visual Novel Character Creation Suiteの略。ComfyUIのカスタムノード集で、ビジュアルノベル用のキャラスプライトを一貫した外見で量産するためのツール。開発者はAHEKOT。

「同じキャラを、表情や衣装を変えて何十枚も出したい。でも毎回顔が変わる」という、画像生成AIでキャラを扱う人間なら誰もがぶつかる問題を正面から解決しようとしている。

GitHubリポジトリ: ComfyUI_VNCCS

5段階のワークフロー

VNCCSはキャラ生成を5つのステップに分割している。

ステップ内容ワークフロー
Step 1ベースキャラクター生成VN_Step1_QWEN_CharSheetGenerator
Step 1.1既存キャラのクローン
Step 2衣装セット作成VN_Step2_QWEN_ClothesGenerator
Step 3感情表現セット生成VN_Step3_QWEN_EmotionStudio
Step 4完成スプライト出力VN_Step4_SpritesGenerator
Step 5LoRA訓練用データセット作成(オプション)VN_Step5_DatasetCreator

Step 1でキャラクターシート(正面・横・後ろなどの設計図)を生成し、以降のステップではその設計図を参照しながら衣装違い・表情違いを量産していく。

一貫性を保つ仕組み

VNCCSの核心は3パス生成システム。

  1. First Pass: 粗い生成(Match値 約0.5)
  2. Stabilizer: キャラクターシート用LoRA(vn_character_sheet_v4.safetensors)で安定化。Match 0.85推奨
  3. Third Pass: RMBG(背景除去)で最終化

Match値というパラメータでキャラの一貫性と多様性のバランスを取る。低すぎると毎回違う顔になり、高すぎると前フレームをコピーするだけになる。

キャラクターシートLoRAが専用に訓練されていて、これが一貫性の鍵になっている。

QWEN Detailerとは

VNCCS Utilsの目玉機能。Qwen-Image-Edit 2511を使って、YOLO等で検出した領域(顔・手など)を高精細化するノード。

従来のDetailerとの違い:

  • 視覚理解ベース: QWENが画像を見て「何をどう直すべきか」を判断する
  • ドリフト防止: 強化した領域が元の構図からズレるのを抑制
  • Poissonブレンディング: 修正箇所と周囲の境界をなめらかに合成
  • カラーマッチング内蔵: 色味のズレを自動補正

顔が崩れた画像をYOLOで顔検出 → QWENで修正、という流れ。手動でマスクを描く必要がない。

必要なモデル群

VNCCSを動かすにはそこそこのモデル群が必要。

必須:

  • SDXLチェックポイント(Illustriousベース推奨)
  • vn_character_sheet_v4.safetensors(キャラシートLoRA)
  • YOLO顔検出モデル(bbox/segm)
  • SAM(セグメンテーション)

QWEN Detailer用:

  • Qwen-Image-Edit 2511モデル

ControlNet用:

  • AnytestV4
  • IllustriousXL_openpose

SDXLベースなのは、キャラ系LoRAのエコシステムがSDXL(特にIllustrious系)に集中しているから。

サイドツインテールに使えるか

正直なところ、直接的な髪型制御パラメータはない。髪型の指定はプロンプト(Danbooruタグ)に依存する。

ただし、VNCCSのアプローチには期待できる点がある:

  1. キャラクターシートでの固定: Step 1で生成したシートにサイドツインテールが正しく描画されていれば、以降のステップでもその髪型が維持される可能性が高い
  2. 3パス生成の安定化: Stabilizerパスでキャラシートの特徴を強く参照するため、髪型の崩れが抑制されるかもしれない
  3. QWEN Detailerでの修正: 崩れた部分をQWENで後から修正できる

問題は「Step 1でサイドツインテールが正しく出るか」で、ここが崩れたら後続ステップでも崩れたまま増幅される。結局はSDXL + プロンプトの精度次第。

一方で、Qwen-Image-Editで直接生成するよりは、SDXLベース + キャラシートLoRA + ControlNetの組み合わせの方が構造的に安定しやすいのは確か。SDXLにはDanbooruタグベースの髪型LoRAが大量にあるので、サイドツインテール特化のLoRAを見つけるか訓練すれば精度は上がる。

VNCCSの制限

調査で気になった制限事項:

  • 全身画像推奨: 部分画像だと欠落部位を補完しようとして一貫性が下がる
  • 複雑な多層衣装は不安定: サイドツインテールのような複雑な構造も同様の問題が出る可能性がある
  • 衣装LoRAはベータ版: パーツが欠落する場合あり

VNCCS Utils単体でも使える

VNCCSの全ワークフローを導入しなくても、VNCCS Utilsのノード群は単体で使える。

  • QWEN Detailer: 既存ワークフローに組み込んで顔・手の修正だけ使う
  • カメラ制御ノード: Multi-angle LoRA向けの方位角・仰角制御
  • モデル管理: Civitai/HuggingFaceからのモデルDL管理

今の環境にQWEN Detailerだけ追加して、生成後の顔修正に使うのが一番手軽な導入パス。

関連記事

参考リンク