diff --git a/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx b/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx index 94dfc123..ff2f5792 100644 --- a/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx +++ b/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx @@ -1,14 +1,14 @@ --- title: "Luma Uni-1 ガイド" -description: "Luma の統一モデル Uni-1 による画像生成と精密編集の実践ガイド" +description: "ComfyUI で Luma Uni-1 パートナーノードを使った画像生成・編集。" sidebarTitle: "Luma Uni-1" --- -Uni-1 は、画像生成と精密編集の両方に対応する Luma 初の統一モデルです。ほとんどの画像モデルとは異なり、Uni-1 は拡散モデルではなく、**デコーダーのみの自己回帰型トランスフォーマー**です。テキストと画像をひとつのインターリーブされたシーケンスとして扱い、時間・空間・論理を単一のアーキテクチャで統合的にモデリングします。その結果、モデルは生成前にプロンプトを**推論**し、指示を分解し、制約を解決し、最先端の LLM のように構図を計画します。まず考え、それから描きます。 +**ComfyUI** では、Luma **Uni-1** は **パートナー API ノード**として利用します。**Create** はプロンプト(と任意の参照画像)から新規画像を生成し、**Modify** は入力画像を編集します。**Load Image** / **Save Image** などとノードを接続し、プロンプト・シード・アスペクト比・参照スロットを Luma ノード上で設定してグラフをキューするか、**Comfy Cloud** のテンプレートから開いて試せます。 -出力品質だけでなく、**コントロール性**こそがその真価です。新しい画像をゼロから生成することも、既存の画像を外科手術のように精密に編集することもでき、参照画像・シード・構造化されたプロンプトを使って結果を意図通りに導けます。 +Luma は Uni-1 を拡散モデルではないデコーダのみの自己回帰モデルとして説明しており、生成前にプロンプトを推論します。キャンバス上では **Create / Modify の選択**、参照画像の役割の明示、シードによる反復が実務上の要点です。 -本ガイドでは、最初の 1 枚から高度なマルチリファレンス構成まで、実用的なメンタルモデルとワークフローを紹介します。 +本ページでは **ComfyUI 上のつなぎ方とノードの使い方**を中心に、単純なグラフからマルチリファレンスまで扱います。 ## Uni-1 の特徴 @@ -51,12 +51,7 @@ Uni-1 のすべては、シンプルな問いから始まります:**新しい - 出力が入力画像の**バリエーション**であるべきなら Modify - 入力に**着想を得つつ新しい**ものなら Create -## 始め方 - -Uni-1 を使用する方法は 2 つあります: - -- **Comfy Cloud**:テンプレートをプレビューし、ブラウザで直接実行。 -- **デスクトップ版**:ComfyUI を最新バージョンにアップデートし、ノードライブラリから **Luma UNI-1 Image** ノードを見つけてワークフローに接続。 +## 利用可能なワークフロー ### Image Create ワークフロー diff --git a/tutorials/partner-nodes/luma/luma-uni-1.mdx b/tutorials/partner-nodes/luma/luma-uni-1.mdx index 5591903b..8af0e50d 100644 --- a/tutorials/partner-nodes/luma/luma-uni-1.mdx +++ b/tutorials/partner-nodes/luma/luma-uni-1.mdx @@ -1,14 +1,14 @@ --- title: "Luma Uni-1 Guide" -description: "A practical guide to Luma's Uni-1 unified model for image creation and precision editing" +description: "Use Luma Uni-1 partner nodes in ComfyUI for Create and Modify image workflows." sidebarTitle: "Luma Uni-1" --- -Uni-1 is Luma's first unified model designed for both image creation and precision editing. Unlike most image models, Uni-1 isn't a diffusion model — it's a **decoder-only autoregressive transformer** that treats text and images as a single interleaved sequence, jointly modeling time, space, and logic in one architecture. The result: a model that reasons about your prompt before generating — decomposing instructions, resolving constraints, and planning composition like a frontier LLM. It thinks first, then draws. +In **ComfyUI**, Luma **Uni-1** shows up as **partner API nodes** for unified image work: **Create** graphs generate new images from prompts (with optional references); **Modify** graphs take an existing image as input and edit it in place. You drive both through the usual workflow—wire **Load Image** / **Save Image**, set prompts, seeds, aspect ratio, and reference slots on the Luma node, then queue the graph locally or open a template on **Comfy Cloud**. -Beyond raw output quality, what makes it powerful is **control**: you can generate entirely new images or surgically modify existing ones, while guiding the system with references, seeds, and structured prompts. +Luma describes Uni-1 as a non-diffusion, decoder-only autoregressive model that reasons over your prompt before drawing. On the canvas, what matters most is choosing **Create vs Modify**, labeling references clearly, and iterating with seeds. -This guide gives you a working mental model and practical workflows, from your first image to advanced multi-reference setups. +This page focuses on how to use Uni-1 **inside ComfyUI**, from simple graphs to multi-reference setups. ## What makes Uni-1 different @@ -51,12 +51,7 @@ When in doubt: - If the output should look like a **version of your input**, use Modify - If it should feel **inspired but new**, use Create -## Getting started - -You can use Uni-1 in two ways: - -- **Comfy Cloud**: Preview the template and run it directly in your browser. -- **Desktop**: Update ComfyUI to the latest version, find the **Luma UNI-1 Image** node via the Node Library, and connect it to your workflow. +## Available workflows ### Image Create workflow diff --git a/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx b/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx index 54fdb53c..0e9d8eda 100644 --- a/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx +++ b/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx @@ -1,14 +1,14 @@ --- title: "Luma Uni-1 使用指南" -description: "Luma Uni-1 统一模型使用指南:图像创建与精准编辑" +description: "在 ComfyUI 中使用 Luma Uni-1 合作伙伴节点进行图像创建与编辑。" sidebarTitle: "Luma Uni-1" --- -Uni-1 是 Luma 推出的首款统一模型,同时支持图像创建(Create)与精准编辑(Modify)。与大多数图像模型不同,Uni-1 不是扩散模型——它是一个 **decoder-only autoregressive transformer(仅解码器自回归变换器)**,将文本和图像视为单一交错序列,在单一架构中联合建模时间、空间和逻辑。结果是:模型会在生成之前**先推理你的提示词**——分解指令、解决约束条件、像一个前沿 LLM 一样规划构图。先思考,再绘画。 +在 **ComfyUI** 里,Luma **Uni-1** 以 **合作伙伴 API 节点**形式接入:**Create** 路线根据提示词生成新图(可挂多张参考图);**Modify** 路线以已有图像为输入做定向编辑。操作上与普通工作流相同——用 **加载图像** / **保存图像** 与 Luma 节点串联,在节点上填写提示词、种子、宽高比与参考图槽位,再在本地排队运行或通过 **Comfy Cloud** 打开下方模板。 -它真正的优势不仅在于输出质量,更在于**可控性**——你既可以从零生成全新图像,也可以对已有图像进行精细编辑,并通过参考图、种子(seed)和结构化提示词来引导生成结果。 +Luma 将 Uni-1 表述为非扩散、自回归类的模型,会在成图前对提示词做推理;在画布侧更需要关注的是 **Create / Modify** 选型、参考图角色写清楚,以及用种子做可控迭代。 -本指南将帮助你建立可用的心智模型与实用工作流,从你的第一张图像到进阶的多参考图组合。 +下文说明如何在 **ComfyUI 工作流**里用好 Uni-1——从最简单的节点连线到多参考组合。 ## Uni-1 的特点 @@ -51,12 +51,7 @@ Uni-1 在广泛的任务中表现优异: - 如果输出应当像输入图像的**某个版本**,使用 Modify - 如果输出应当**受其启发但全新**,使用 Create -## 开始使用 - -你可以通过以下两种方式使用 Uni-1: - -- **Comfy Cloud**:预览模板并直接在浏览器中运行。 -- **桌面版**:将 ComfyUI 更新到最新版,通过节点库找到 **Luma UNI-1 Image** 节点并连接到你的工作流中。 +## 可用工作流 ### Image Create 工作流