ComfyUI-FramePackWrapper_PlusOne は、ComfyUI-FramePackWrapperおよびComfyUI-FramePackWrapper_Plusから派生した、FramePackの1フレーム推論ノード(kisekaeichi対応)を含むフォークです。
本リポジトリは、 @tori29umai0123 氏の依頼を受けて公開用にフォークしました。
- 1フレーム推論: 基本的な1フレーム推論および、kisekaeichi方式に対応しています。技術的詳細はmusubi-tunerのドキュメントを参照してください。
- F1サンプラー対応: より高品質で時間的一貫性の高い動画生成のための改良されたF1方式を採用
- LoRA統合: 適切な重み付けと融合オプションを備えたHunyuanVideo LoRAの完全サポート
- タイムスタンプ付きプロンプト: 特定のタイムスタンプでプロンプトを変更できる動的動画の作成
- 柔軟な入力オプション: 参照画像と空の潜在空間の両方で完全なクリエイティブコントロールが可能
- 解像度制御: 最適な動画サイズのための自動バケット検出
- ブレンド制御: タイムスタンプ間の異なるプロンプトのスムーズな遷移
- 1フレーム推論のうち、f-mc (one frame multi-control) 方式は未対応です。
- このリポジトリをComfyUIのcustom_nodesフォルダにクローンします:
cd ComfyUI/custom_nodes
git clone https://github.com/xhiroga/ComfyUI-FramePackWrapper_PlusOne.git- 必要な依存パッケージをインストールします:
pip install -r requirements.txt- 必要なモデルファイルをダウンロードして、modelsフォルダに配置します:
- FramePackI2V_HY: HuggingFace Link
- FramePack_F1_I2V_HY: HuggingFace Link
- FramePackI2V_HY_fp8_e4m3fn.safetensors - Optimized fp8 version (smaller file size)
- FramePackI2V_HY_bf16.safetensors - BF16 version (better quality)
- CLIP Vision: sigclip_vision_384
- Text Encoder and VAE: HunyuanVideo_repackaged
example_workflowsを参照ください。
| 1-Frame / LoRA @tori29umai | 1-Frame / LoRA @kohya-ss | Kisekaeichi / LoRA @tori29umai |
|---|---|---|
![]() |
![]() |
![]() |
- 2回目以降の生成が失敗するバグの修正: 連続して生成を実行した際に発生していたdtype不一致エラー(BFloat16とFloat32)を修正しました。
複数リファレンス画像使用時の推論結果の一貫性を改善するため、musubi-tuner仕様との完全互換性を実現しました。
-
v0.0.2までに作成したワークフローの
denoise_strengthが0になってしまうことがあります。 ノードの更新後は、手動で1.0に設定し直してください。 -
既存のkisekaeichiワークフローはこの更新では使い回しができません。 リファレンス画像の入力がリスト形式に変更され、複数のリファレンス画像が読み込めるようになりました。example_workflowsフォルダ内の
Oneframe_kisekae_V2.jsonを参考に修正してください。
1. エンベッディング統合方式の改善
- ❌ 従来:重み付き平均による統合処理(入力画像70%、参照画像30%)
- ✅ 新版: musubi-tuner互換の処理方式(最初の参照画像エンベッディングを使用)
2. Latent結合構造の統一
- ❌ 従来:入力画像と参照画像を分離管理後に結合
- ✅ 新版: musubi-tuner仕様のcontrol_latents直接結合
control_latents = [入力画像, 参照画像1, 参照画像2, ..., ゼロlatent] clean_latents = torch.cat(control_latents, dim=2)
3. マスク適用タイミングの最適化
- ❌ 従来:latent結合前の個別適用
- ✅ 新版: clean_latents生成後にマスク適用(musubi-tuner仕様)
4. インデックス設定の動的処理
- ❌ 従来:固定的なclean_latent_indices設定
- ✅ 新版: control_indicesパラメータの動的適用
# control_index="0;7;8;9;10" → clean_latent_indices = [0, 7, 8, 9, 10] while i < len(control_indices_list) and i < clean_latent_indices.shape[1]: clean_latent_indices[:, i] = control_indices_list[i]
5. latent_indicesの初期化改善
- ❌ 従来:ComfyUI独自の初期化方式
- ✅ 新版: musubi-tuner仕様の初期化
latent_indices = torch.zeros((1, 1), dtype=torch.int64) latent_indices[:, 0] = latent_window_size # デフォルト値 latent_indices[:, 0] = target_index # パラメータ適用
- 推論結果の一貫性向上: 同じリファレンス画像・同じパラメータでmusubi-tunerと完全に同じ結果を生成
- 複数リファレンス処理の安定化: より正確なインデックス管理による安定した品質
- パラメータ互換性: musubi-tunerのcontrol_indexとtarget_indexパラメータが正しく動作
この更新により、以下の処理フローがmusubi-tunerと完全に一致します:
- 制御画像処理:
--control_image_pathで指定された複数画像の順次処理 - インデックス管理:
--one_frame_inference="control_index=0;7;8;9;10,target_index=5"の動的適用 - エンベッディング処理: セクション毎の個別処理を模擬した実装
- マスク適用: clean_latents構築後の統一的なマスク処理
- FramePack: @lllyasviel 氏によるオリジナルの実装です。
- ComfyUI-FramePackWrapper: @kijai 氏によるオリジナルの実装です。
- ComfyUI-FramePackWrapper_Plus: @ShmuelRonen 氏によるF1対応のフォークです。
- ComfyUI-FramePackWrapper_PlusOne: @tori29umai0123 氏による1フレーム推論対応のフォークです。
- musubi-tuner: @kohya-ss 氏による高品質なFramePack学習・推論ライブラリ


