diff --git a/docs.json b/docs.json
index 8dac946c8..088a28fd3 100644
--- a/docs.json
+++ b/docs.json
@@ -338,6 +338,7 @@
{
"group": "Luma",
"pages": [
+ "tutorials/partner-nodes/luma/luma-uni-1",
"tutorials/partner-nodes/luma/luma-text-to-image",
"tutorials/partner-nodes/luma/luma-image-to-image",
"tutorials/partner-nodes/luma/luma-text-to-video",
@@ -2441,6 +2442,7 @@
{
"group": "Luma",
"pages": [
+ "zh/tutorials/partner-nodes/luma/luma-uni-1",
"zh/tutorials/partner-nodes/luma/luma-text-to-image",
"zh/tutorials/partner-nodes/luma/luma-image-to-image",
"zh/tutorials/partner-nodes/luma/luma-text-to-video",
@@ -4549,6 +4551,7 @@
{
"group": "Luma",
"pages": [
+ "ja/tutorials/partner-nodes/luma/luma-uni-1",
"ja/tutorials/partner-nodes/luma/luma-text-to-image",
"ja/tutorials/partner-nodes/luma/luma-image-to-image",
"ja/tutorials/partner-nodes/luma/luma-text-to-video",
diff --git a/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx b/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx
new file mode 100644
index 000000000..94dfc1231
--- /dev/null
+++ b/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx
@@ -0,0 +1,272 @@
+---
+title: "Luma Uni-1 ガイド"
+description: "Luma の統一モデル Uni-1 による画像生成と精密編集の実践ガイド"
+sidebarTitle: "Luma Uni-1"
+---
+
+Uni-1 は、画像生成と精密編集の両方に対応する Luma 初の統一モデルです。ほとんどの画像モデルとは異なり、Uni-1 は拡散モデルではなく、**デコーダーのみの自己回帰型トランスフォーマー**です。テキストと画像をひとつのインターリーブされたシーケンスとして扱い、時間・空間・論理を単一のアーキテクチャで統合的にモデリングします。その結果、モデルは生成前にプロンプトを**推論**し、指示を分解し、制約を解決し、最先端の LLM のように構図を計画します。まず考え、それから描きます。
+
+出力品質だけでなく、**コントロール性**こそがその真価です。新しい画像をゼロから生成することも、既存の画像を外科手術のように精密に編集することもでき、参照画像・シード・構造化されたプロンプトを使って結果を意図通りに導けます。
+
+本ガイドでは、最初の 1 枚から高度なマルチリファレンス構成まで、実用的なメンタルモデルとワークフローを紹介します。
+
+## Uni-1 の特徴
+
+- **2 つの明確なモード**:Create Image(新規生成)と Modify Image(既存画像の編集)
+- **最大 9 枚の参照画像**、それぞれに役割を指定可能
+- ニッチで具体的なビジュアルスタイルへの**強力なコントロール**
+- 再現性と制御された反復のための**シード対応**
+- 縦長から横長まで**9 種類のアスペクト比**
+- **テキストレンダリング** — 画像内で読める文字、インフォグラフィックやポスターに最適
+- **ウェブ検索グラウンディング** — 実世界のコンテキストを活用
+- **多言語プロンプト**対応
+- **マルチパネル出力** — 複数フレーム間でのキャラクター・シーン一貫性
+
+モードと参照画像の制御方法を理解すれば、Uni-1 を理解したと言えます。
+
+## 得意分野
+
+Uni-1 は幅広いタスクで優れた性能を発揮します:
+
+- **フォトリアリズム**と素材の正確な再現
+- **イラストとスタイライズドアート**、強い美的コントロール
+- **古写真の修復**とビンテージ再現
+- **シュールでコンセプチュアル**な構図
+- **テキストレンダリング** — 画像内で読める文字、インフォグラフィックやポスターに最適
+- **画像編集**とマルチターンでのリファイン
+- **参照画像ガイド生成**、人物のアイデンティティ保持
+- **マルチパネル出力** — 複数フレーム間でのキャラクター・シーン一貫性
+
+## 核となる区別:Create か Modify か
+
+Uni-1 のすべては、シンプルな問いから始まります:**新しいものを作るのか、それとも既にあるものを変えるのか?**
+
+| モード | 役割 | 使用シーン |
+| --- | --- | --- |
+| **Create Image** | 全く新しい構図を生成。参照画像から着想を得ることも可能 | 「この写真のスタイルで新しいシーンを作る」 |
+| **Modify Image** | 入力画像を編集。指示がない限り構図と構造を保持 | 「この写真を夜の雰囲気にする」 |
+
+迷ったとき:
+
+- 出力が入力画像の**バリエーション**であるべきなら Modify
+- 入力に**着想を得つつ新しい**ものなら Create
+
+## 始め方
+
+Uni-1 を使用する方法は 2 つあります:
+
+- **Comfy Cloud**:テンプレートをプレビューし、ブラウザで直接実行。
+- **デスクトップ版**:ComfyUI を最新バージョンにアップデートし、ノードライブラリから **Luma UNI-1 Image** ノードを見つけてワークフローに接続。
+
+### Image Create ワークフロー
+
+
+
+ Comfy Cloud で Image Create ワークフローを即座に試す。
+
+
+ JSON をダウンロード、またはテンプレートライブラリで "Luma UNI-1 Image Create" を検索
+
+
+
+### Image Edit ワークフロー
+
+
+
+ Comfy Cloud で Image Edit ワークフローを即座に試す。
+
+
+ JSON をダウンロード、またはテンプレートライブラリで "Luma UNI-1 Image Edit" を検索
+
+
+
+ワークフローはシンプルです:**プロンプト → 評価 → 改善**。探索中はシードを空にしておき、良い結果を得たらシードを固定して反復します。
+
+## 主要パラメーター
+
+| パラメーター | 説明 |
+| --- | --- |
+| **Prompt(プロンプト)** | 主要な制御手段。最大 6,000 文字。具体的に。 |
+| **Aspect ratio(アスペクト比)** | 構図枠を制御し、品質には影響しない。用途に応じて選択。 |
+| **Seed(シード)** | 同シード+同プロンプト → 同結果。同シード+変更プロンプト → 制御された変化。シードなし → 探索。 |
+| **Reference images(Create)** | 最大 9 枚の参照画像。生成のさまざまな側面を導く。 |
+| **Source image(Modify)** | 編集対象の画像。寸法は自動的に保持される。 |
+
+## 参照画像の使い方
+
+参照画像は、用途を伝えなければ機能しません。次の構造を使います:
+
+```text
+Use IMAGE1 ([description]) as a [ROLE] reference.
+```
+
+利用可能なロール:**Style(スタイル)**、**Character(キャラクター)**、**Composition(構図)**、**Color palette(カラーパレット)**、**Lighting(ライティング)**、**Texture(質感)**、**Mood(雰囲気)**。
+
+ロールを指定しないと、モデルは推測することになり、結果は不安定になります。
+
+### Create モードの例
+
+**スタイル参照**
+
+```text
+Use IMAGE1 (impressionist oil painting with loose brushwork and warm
+sunset tones) as a STYLE reference. Create a portrait of a woman in her
+30s applying IMAGE1's color palette and painterly texture. The subject
+should be new.
+```
+
+**キャラクター参照**
+
+```text
+Use IMAGE1 (woman with short copper-red hair, freckles) as a CHARACTER
+reference. Preserve her features. Generate a new scene: she's sitting
+in a softly lit café.
+```
+
+**マルチリファレンス**
+
+```text
+Use IMAGE1 as a COLOR PALETTE reference, IMAGE2 as LIGHTING, IMAGE3 as
+COMPOSITION. Create a lone figure walking through a rain-slicked street
+at night.
+```
+
+### Modify モードの例
+
+Modify モードでは明確さが何より重要です。**何を変えるか**と**何を変えないか**を必ず明示します。
+
+```text
+Change the time of day to golden hour. Update sky, light direction,
+shadows, and color temperature. Keep all subjects and composition
+unchanged.
+```
+
+```text
+Make the rain heavier and add reflections on the ground. Keep all other
+elements unchanged.
+```
+
+## プロンプト作成のガイドライン
+
+推奨される長さ:
+
+- **テキスト → 画像** → 80–250 語
+- **参照画像ありの生成** → 100–300 語
+- **Modify** → 30–100 語
+
+避けるべきこと:
+
+- 曖昧な語(「beautiful」「amazing」など)
+- 冗長な表現
+- 矛盾する指示
+
+代わりに、具体的で名前のある美学を使います:
+
+- `Golden hour, 85mm lens, shallow depth of field`
+- `1970s Italian giallo film poster, high-contrast color blocking`
+
+精密さは一般性に勝ります。
+
+## アスペクト比
+
+画像が使われる場所に応じて選択します:
+
+| 比率 | 用途 |
+| --- | --- |
+| 1:1 | SNS 投稿 |
+| 9:16 | 縦型動画 |
+| 16:9 | ワイドスクリーン |
+| 3:2 / 2:3 | 写真 |
+| 2:1 / 3:1 | シネマティック / パノラマ |
+| 1:2 / 1:3 | 超縦長 |
+
+Modify モードでは、アスペクト比はソース画像に固定されます。
+
+## シード:制御と再現性
+
+シードは試行錯誤を体系的なプロセスへと変えます。
+
+- **固定シード** → 一貫性
+- **シードなし** → 探索
+
+ワークフロー:
+
+1. シードなしで探索
+2. 良い結果を見つける
+3. シードを固定する
+4. 一度に 1 つの変数だけを変える
+
+プロンプトとシードはセットで保存しましょう。それが再利用可能なレシピになります。
+
+## 高度なテクニック
+
+### キャラクターの一貫性
+
+1. クリーンで正面向きの参照画像を生成する
+2. 各シーンで `IMAGE1 (CHARACTER)` として再利用する
+3. ラベルをすべてのプロンプトで同一に保つ
+
+### マルチリファレンスのアーキテクチャ
+
+各画像に 1 つの役割を割り当てます:
+
+- IMAGE1 → キャラクター
+- IMAGE2 → スタイル
+- IMAGE3 → ライティング
+- IMAGE4 → 環境
+
+プロンプトの最後に次を付け加えます:
+
+```text
+Treat each reference as having authority over its assigned layer only.
+```
+
+### Create → Modify の連鎖
+
+Create で構図を探索し、Modify でディテールを仕上げる。これは最も強力なワークフローの 1 つです。
+
+### 反復的な精緻化
+
+1. シードなしで探索
+2. シードを固定
+3. 1 世代につき 1 変数だけ変更
+4. 結果を記録
+
+遅く感じるかもしれませんが、何が変わったかが常に分かるため、実際にはずっと速いです。
+
+## トラブルシューティング
+
+| 問題 | 対処法 |
+| --- | --- |
+| 参照画像が無視される | それぞれに明確なラベルを付ける |
+| Modify で変化が大きすぎる | 変えてはいけない部分を明示する |
+| 出力が一貫しない | シードを固定する |
+| プロンプトが部分的に無視される | 矛盾を取り除くか、ステップに分ける |
+| 出力が参照画像そのものに見える | Modify モードを誤って使っている可能性 |
+| キャラクターが安定しない | 標準となる参照画像を再利用する |
+
+## クイックリファレンス
+
+**Create Image**
+
+- 新しい構図
+- テキスト + 最大 9 枚の参照画像
+- 描写的なプロンプト
+
+**Modify Image**
+
+- 既存画像の編集
+- ソース画像 + 参照画像
+- 直接的で外科的なプロンプト
+
+## ゴールデンルール
+
+1. すべての参照画像にラベルを付ける
+2. Modify モードでは、**変えない**部分を必ず明示する
+3. 改善時は一度に 1 つの変数だけ変える
+4. 再現性のためプロンプトとシードを保存する
+5. Create = 新しいシーン、Modify = 編集
+
+## 重要なポイント
+
+Uni-1 を使いこなす鍵は 3 つです:**正しいモードを選ぶ → 参照画像を制御する → 意図を持って反復する**。これらが揃えば、もはや当てずっぽうではなく「ディレクション」しているのです。
diff --git a/tutorials/partner-nodes/luma/luma-uni-1.mdx b/tutorials/partner-nodes/luma/luma-uni-1.mdx
new file mode 100644
index 000000000..5591903b6
--- /dev/null
+++ b/tutorials/partner-nodes/luma/luma-uni-1.mdx
@@ -0,0 +1,266 @@
+---
+title: "Luma Uni-1 Guide"
+description: "A practical guide to Luma's Uni-1 unified model for image creation and precision editing"
+sidebarTitle: "Luma Uni-1"
+---
+
+Uni-1 is Luma's first unified model designed for both image creation and precision editing. Unlike most image models, Uni-1 isn't a diffusion model — it's a **decoder-only autoregressive transformer** that treats text and images as a single interleaved sequence, jointly modeling time, space, and logic in one architecture. The result: a model that reasons about your prompt before generating — decomposing instructions, resolving constraints, and planning composition like a frontier LLM. It thinks first, then draws.
+
+Beyond raw output quality, what makes it powerful is **control**: you can generate entirely new images or surgically modify existing ones, while guiding the system with references, seeds, and structured prompts.
+
+This guide gives you a working mental model and practical workflows, from your first image to advanced multi-reference setups.
+
+## What makes Uni-1 different
+
+- **Two clear modes**: Create Image (generate something new) and Modify Image (edit something existing)
+- **Up to 9 reference images**, each with a defined role
+- **Strong control over niche and specific visual styles**
+- **Seed support** for reproducibility and controlled iteration
+- **Nine aspect ratios**, from ultra-tall to ultra-wide
+- **Text rendering** that's actually readable
+- **Web search grounding** for real-world context
+- **Multilingual prompts**
+- **Multi-panel output** with temporal consistency
+
+If you understand the modes and how to control references, you understand Uni-1.
+
+## Strengths
+
+Uni-1 excels across a wide range of tasks:
+
+- **Photorealism** with material accuracy
+- **Illustration & stylized art** with strong aesthetic control
+- **Old photo restoration** and vintage reproduction
+- **Surreal and conceptual** compositions
+- **Text rendering** — readable text inside images, great for infographics and posters
+- **Image editing** and multi-turn refinement
+- **Reference-guided generation** with identity preservation
+- **Multi-panel output** — consistent characters/scenes across multiple frames
+
+## The core distinction: Create vs Modify
+
+Everything in Uni-1 starts with one question: **Am I creating something new, or changing something that already exists?**
+
+| Mode | What it does | When to use |
+| --- | --- | --- |
+| **Create Image** | Produces a brand-new composition. Can be inspired by references. | "Create a new scene in the style of this photo" |
+| **Modify Image** | Edits a specific input image. Preserves composition and structure unless told otherwise. | "Make this photo look like nighttime" |
+
+When in doubt:
+
+- If the output should look like a **version of your input**, use Modify
+- If it should feel **inspired but new**, use Create
+
+## Getting started
+
+You can use Uni-1 in two ways:
+
+- **Comfy Cloud**: Preview the template and run it directly in your browser.
+- **Desktop**: Update ComfyUI to the latest version, find the **Luma UNI-1 Image** node via the Node Library, and connect it to your workflow.
+
+### Image Create workflow
+
+
+
+ Try the Image Create workflow instantly on Comfy Cloud.
+
+
+ Download JSON or search "Luma UNI-1 Image Create" in Template Library
+
+
+
+### Image Edit workflow
+
+
+
+ Try the Image Edit workflow instantly on Comfy Cloud.
+
+
+ Download JSON or search "Luma UNI-1 Image Edit" in Template Library
+
+
+
+The workflow is simple: **prompt → evaluate → refine**. Leave the seed blank while exploring. Once you find something strong, lock the seed and iterate from there.
+
+## Core parameters
+
+| Parameter | Description |
+| --- | --- |
+| **Prompt** | Your primary control. Up to 6,000 characters. Be precise. |
+| **Aspect ratio** | Controls framing, not quality. Choose based on use case. |
+| **Seed** | Same seed + same prompt → same result. Same seed + changed prompt → controlled variation. No seed → exploration. |
+| **Reference images** (Create) | Up to 9 images to guide different aspects. |
+| **Source image** (Modify) | The image you are editing. Dimensions are preserved automatically. |
+
+## Working with reference images
+
+References only work if you tell the model what they are for. Use this structure:
+
+```text
+Use IMAGE1 ([description]) as a [ROLE] reference.
+```
+
+Possible roles: **Style**, **Character**, **Composition**, **Color palette**, **Lighting**, **Texture**, **Mood**.
+
+Without roles, the model guesses, and guesses are unreliable.
+
+### Create mode examples
+
+**Style reference**
+
+```text
+Use IMAGE1 (impressionist oil painting with loose brushwork and warm
+sunset tones) as a STYLE reference. Create a portrait of a woman in her
+30s applying IMAGE1's color palette and painterly texture. The subject
+should be new.
+```
+
+**Character reference**
+
+```text
+Use IMAGE1 (woman with short copper-red hair, freckles) as a CHARACTER
+reference. Preserve her features. Generate a new scene: she's sitting
+in a softly lit café.
+```
+
+**Multi-reference**
+
+```text
+Use IMAGE1 as a COLOR PALETTE reference, IMAGE2 as LIGHTING, IMAGE3 as
+COMPOSITION. Create a lone figure walking through a rain-slicked street
+at night.
+```
+
+### Modify mode examples
+
+In Modify mode, clarity is everything. Always specify **what to change** and **what must stay untouched**.
+
+```text
+Change the time of day to golden hour. Update sky, light direction,
+shadows, and color temperature. Keep all subjects and composition
+unchanged.
+```
+
+```text
+Make the rain heavier and add reflections on the ground. Keep all other
+elements unchanged.
+```
+
+## Prompting guidelines
+
+Recommended lengths:
+
+- **Text-to-image** → 80–250 words
+- **Reference-guided** → 100–300 words
+- **Modify** → 30–100 words
+
+Avoid vague terms ("beautiful", "amazing"), redundant phrasing, and conflicting instructions. Instead, use specific, named aesthetics:
+
+- `Golden hour, 85mm lens, shallow depth of field`
+- `1970s Italian giallo film poster, high-contrast color blocking`
+
+Precision beats generality.
+
+## Aspect ratios
+
+Choose based on where the image will live:
+
+| Ratio | Use case |
+| --- | --- |
+| 1:1 | Social posts |
+| 9:16 | Vertical video |
+| 16:9 | Widescreen |
+| 3:2 / 2:3 | Photography |
+| 2:1 / 3:1 | Cinematic / panoramic |
+| 1:2 / 1:3 | Ultra-tall |
+
+In Modify mode, aspect ratio is locked to the source image.
+
+## Seeds: control and reproducibility
+
+Seeds turn experimentation into systems.
+
+- **Fixed seed** → consistency
+- **No seed** → exploration
+
+Workflow:
+
+1. Explore with no seed
+2. Find a strong result
+3. Lock the seed
+4. Change one variable at a time
+
+Save your prompt and seed together. That's your reusable recipe.
+
+## Advanced techniques
+
+### Character consistency
+
+1. Generate a clean, front-facing reference image
+2. Reuse it as `IMAGE1 (CHARACTER)` in every scene
+3. Keep the label identical across prompts
+
+### Multi-reference architecture
+
+Assign one role per image:
+
+- IMAGE1 → character
+- IMAGE2 → style
+- IMAGE3 → lighting
+- IMAGE4 → environment
+
+End the prompt with:
+
+```text
+Treat each reference as having authority over its assigned layer only.
+```
+
+### Create → Modify chain
+
+Use Create to explore compositions, then Modify to refine details. This is one of the most powerful workflows.
+
+### Iterative refinement
+
+1. Explore (no seed)
+2. Lock seed
+3. Change one variable per generation
+4. Document results
+
+It feels slower, but it's actually faster, because you always know what changed.
+
+## Troubleshooting
+
+| Problem | Fix |
+| --- | --- |
+| References ignored | Label each one clearly |
+| Modify changes too much | Explicitly state what must stay unchanged |
+| Inconsistent outputs | Lock the seed |
+| Prompt partially ignored | Remove conflicts or split into steps |
+| Output looks like the reference image | You may be in Modify mode |
+| Character inconsistency | Reuse a canonical reference image |
+
+## Quick reference
+
+**Create Image**
+
+- New compositions
+- Text + up to 9 references
+- Descriptive prompts
+
+**Modify Image**
+
+- Edits existing images
+- Source image + references
+- Direct, surgical prompts
+
+## The golden rules
+
+1. Label every reference
+2. In Modify mode, always state what should **not** change
+3. Change one variable at a time when refining
+4. Save prompt + seed for reproducibility
+5. Create = new scenes, Modify = edits
+
+## Key takeaway
+
+Mastering Uni-1 comes down to three things: **choose the right mode → control your references → iterate with intention**. Once those are in place, you're no longer guessing, you're directing.
diff --git a/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx b/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx
new file mode 100644
index 000000000..54fdb53c2
--- /dev/null
+++ b/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx
@@ -0,0 +1,272 @@
+---
+title: "Luma Uni-1 使用指南"
+description: "Luma Uni-1 统一模型使用指南:图像创建与精准编辑"
+sidebarTitle: "Luma Uni-1"
+---
+
+Uni-1 是 Luma 推出的首款统一模型,同时支持图像创建(Create)与精准编辑(Modify)。与大多数图像模型不同,Uni-1 不是扩散模型——它是一个 **decoder-only autoregressive transformer(仅解码器自回归变换器)**,将文本和图像视为单一交错序列,在单一架构中联合建模时间、空间和逻辑。结果是:模型会在生成之前**先推理你的提示词**——分解指令、解决约束条件、像一个前沿 LLM 一样规划构图。先思考,再绘画。
+
+它真正的优势不仅在于输出质量,更在于**可控性**——你既可以从零生成全新图像,也可以对已有图像进行精细编辑,并通过参考图、种子(seed)和结构化提示词来引导生成结果。
+
+本指南将帮助你建立可用的心智模型与实用工作流,从你的第一张图像到进阶的多参考图组合。
+
+## Uni-1 的特点
+
+- **两种清晰的模式**:Create Image(创建新图像)和 Modify Image(编辑已有图像)
+- **最多 9 张参考图**,每张都可以指定明确的角色
+- **强力控制**特定的小众视觉风格
+- **支持种子(seed)**,便于复现和受控迭代
+- **9 种宽高比**,从超高到超宽
+- **文字渲染** — 图像内可读的文字,非常适合信息图和海报
+- **网页搜索**作为背景知识来源
+- **多语言提示词**支持
+- **多面板输出** — 跨多帧保持角色/场景一致性
+
+理解了模式与参考图控制方式,你就理解了 Uni-1。
+
+## 强项
+
+Uni-1 在广泛的任务中表现优异:
+
+- **照片级真实感**与材质精度
+- **插画与风格化艺术**,审美控制力强
+- **老照片修复**与复古再现
+- **超现实与概念性**构图
+- **文字渲染** — 图像内可读的文字,擅长信息图与海报
+- **图像编辑**与多轮细化
+- **参考图引导生成**,可保持人物身份一致性
+- **多面板输出** — 多帧间保持角色/场景一致
+
+## 核心区别:Create 还是 Modify
+
+使用 Uni-1 之前,先问自己一个问题:**我是要创建全新的内容,还是要修改已有的内容?**
+
+| 模式 | 作用 | 适用场景 |
+| --- | --- | --- |
+| **Create Image** | 生成全新的构图,可参考输入图像 | "以这张照片的风格创建一个新场景" |
+| **Modify Image** | 编辑指定的输入图像,默认保留构图与结构 | "把这张照片改成夜晚" |
+
+判断不清时:
+
+- 如果输出应当像输入图像的**某个版本**,使用 Modify
+- 如果输出应当**受其启发但全新**,使用 Create
+
+## 开始使用
+
+你可以通过以下两种方式使用 Uni-1:
+
+- **Comfy Cloud**:预览模板并直接在浏览器中运行。
+- **桌面版**:将 ComfyUI 更新到最新版,通过节点库找到 **Luma UNI-1 Image** 节点并连接到你的工作流中。
+
+### Image Create 工作流
+
+
+
+ 在 Comfy Cloud 上即时体验 Image Create 工作流。
+
+
+ 下载 JSON 或在模板库中搜索 "Luma UNI-1 Image Create"
+
+
+
+### Image Edit 工作流
+
+
+
+ 在 Comfy Cloud 上即时体验 Image Edit 工作流。
+
+
+ 下载 JSON 或在模板库中搜索 "Luma UNI-1 Image Edit"
+
+
+
+工作流很简单:**提示词 → 评估 → 优化**。探索阶段保持种子为空,找到效果不错的结果后再锁定种子并迭代。
+
+## 核心参数
+
+| 参数 | 说明 |
+| --- | --- |
+| **Prompt 提示词** | 你最主要的控制手段,最多 6,000 字符,越精确越好 |
+| **Aspect ratio 宽高比** | 控制画面框比例,不影响质量,根据用途选择 |
+| **Seed 种子** | 同种子+同提示词 → 同结果;同种子+改提示词 → 受控变化;无种子 → 自由探索 |
+| **Reference images(Create)** | 最多 9 张参考图,引导生成的不同方面 |
+| **Source image(Modify)** | 待编辑的源图,尺寸会被自动保留 |
+
+## 使用参考图
+
+参考图必须指定用途才会生效。使用以下结构:
+
+```text
+Use IMAGE1 ([description]) as a [ROLE] reference.
+```
+
+可选角色:**Style(风格)**、**Character(角色)**、**Composition(构图)**、**Color palette(色板)**、**Lighting(光照)**、**Texture(纹理)**、**Mood(氛围)**。
+
+不指定角色时,模型只能猜测,结果不可靠。
+
+### Create 模式示例
+
+**风格参考**
+
+```text
+Use IMAGE1 (impressionist oil painting with loose brushwork and warm
+sunset tones) as a STYLE reference. Create a portrait of a woman in her
+30s applying IMAGE1's color palette and painterly texture. The subject
+should be new.
+```
+
+**角色参考**
+
+```text
+Use IMAGE1 (woman with short copper-red hair, freckles) as a CHARACTER
+reference. Preserve her features. Generate a new scene: she's sitting
+in a softly lit café.
+```
+
+**多参考组合**
+
+```text
+Use IMAGE1 as a COLOR PALETTE reference, IMAGE2 as LIGHTING, IMAGE3 as
+COMPOSITION. Create a lone figure walking through a rain-slicked street
+at night.
+```
+
+### Modify 模式示例
+
+Modify 模式中,**清晰**最重要,必须明确说明**要改什么**与**不能动什么**。
+
+```text
+Change the time of day to golden hour. Update sky, light direction,
+shadows, and color temperature. Keep all subjects and composition
+unchanged.
+```
+
+```text
+Make the rain heavier and add reflections on the ground. Keep all other
+elements unchanged.
+```
+
+## 提示词撰写建议
+
+推荐长度:
+
+- **文生图(Text-to-image)** → 80–250 词
+- **参考图引导** → 100–300 词
+- **Modify** → 30–100 词
+
+避免:
+
+- 模糊词汇("beautiful"、"amazing")
+- 重复表达
+- 自相矛盾的指令
+
+应使用具体、有命名的美学描述:
+
+- `Golden hour, 85mm lens, shallow depth of field`
+- `1970s Italian giallo film poster, high-contrast color blocking`
+
+精确胜过笼统。
+
+## 宽高比
+
+按用途选择:
+
+| 比例 | 用途 |
+| --- | --- |
+| 1:1 | 社交媒体帖子 |
+| 9:16 | 竖屏视频 |
+| 16:9 | 宽屏 |
+| 3:2 / 2:3 | 摄影 |
+| 2:1 / 3:1 | 电影感 / 全景 |
+| 1:2 / 1:3 | 超高画幅 |
+
+Modify 模式下,宽高比锁定为源图比例。
+
+## 种子(Seed):控制与可复现
+
+种子能让试验变成系统化流程。
+
+- **固定种子** → 一致性
+- **无种子** → 自由探索
+
+工作流:
+
+1. 不设种子,自由探索
+2. 找到效果不错的结果
+3. 锁定种子
+4. 一次只改一个变量
+
+将提示词和种子一起保存,就是你可复用的"配方"。
+
+## 进阶技巧
+
+### 角色一致性
+
+1. 先生成一张干净的、正面的角色参考图
+2. 在每个场景中复用该图作为 `IMAGE1 (CHARACTER)`
+3. 保持标签在所有提示词中一致
+
+### 多参考图架构
+
+为每张参考图分配一个角色:
+
+- IMAGE1 → 角色
+- IMAGE2 → 风格
+- IMAGE3 → 光照
+- IMAGE4 → 环境
+
+提示词末尾加上:
+
+```text
+Treat each reference as having authority over its assigned layer only.
+```
+
+### Create → Modify 链式工作流
+
+先用 Create 探索构图,再用 Modify 精修细节,这是最强大的工作流之一。
+
+### 迭代式优化
+
+1. 不设种子探索
+2. 锁定种子
+3. 每次只改一个变量
+4. 记录结果
+
+看似更慢,但因为每次都明确知道改了什么,实际效率更高。
+
+## 故障排查
+
+| 问题 | 解决方法 |
+| --- | --- |
+| 参考图被忽略 | 给每张参考图明确打标签 |
+| Modify 改动过多 | 显式声明哪些部分必须保持不变 |
+| 输出不一致 | 锁定种子 |
+| 提示词被部分忽略 | 删除冲突项或拆分为多步 |
+| 输出看起来就是参考图本身 | 可能误用了 Modify 模式 |
+| 角色不一致 | 复用同一张标准参考图 |
+
+## 快速参考
+
+**Create Image**
+
+- 全新构图
+- 文本 + 最多 9 张参考图
+- 描述性提示词
+
+**Modify Image**
+
+- 编辑已有图像
+- 源图 + 参考图
+- 直接、外科式的指令
+
+## 黄金法则
+
+1. 给每张参考图打标签
+2. Modify 模式下,永远说明**不能改**的部分
+3. 优化时,一次只改一个变量
+4. 保存提示词 + 种子,便于复现
+5. Create = 新场景,Modify = 编辑
+
+## 核心要点
+
+掌握 Uni-1 的核心是三件事:**选对模式 → 控制参考图 → 有意识地迭代**。三者到位后,你就不再是"碰运气",而是在"导演"。