UStackUStack
UNI-1 icon

UNI-1

UNI-1 是 Luma 的多模态推理模型,可生成像素,支持可引导、参考引导的图像生成,用于场景补全与变换等任务。

UNI-1

UNI-1 是什么?

UNI-1 是 Luma 的多模态推理模型,可生成像素。该页面将 UNI-1 定位为一个系统,能够结合输入引导和结构化参考,旨在理解意图、响应指令,并“与您共同思考”。

在产品页面上,UNI-1 的能力被描述为场景补全、空间推理和可信度驱动的变换,以及参考引导和源 grounding 生成控制。

主要特性

  • 多模态推理用于像素生成:UNI-1 被描述为多模态模型,可生成像素,支持涉及多种输入解释的任务。
  • 常识场景补全和空间推理:页面强调场景补全、空间推理和可信度驱动变换为核心能力。
  • 可引导、参考引导生成:UNI-1 被呈现为可响应指令,使用源 grounding 控制来引导输出。
  • 文化感知视觉生成:页面描述了跨美学、表情包和漫画的视觉生成。
  • 角色参考作为输入:界面包括角色参考(例如肖像和全身),表明支持基于参考的生成工作流。

如何使用 UNI-1

  • 从产品页面“免费”开始使用 UNI-1,该页面还链接到技术报告。
  • 提供您的创意目标和引导(页面描述该模型可引导且响应指令)。
  • 需要时使用参考:页面展示了角色参考输入,可用于引导生成。
  • 探索模型输出,涵盖定价部分展示的编辑、图像到图像和基于参考的生成等任务。

使用场景

  • 从部分视图进行场景补全:使用 UNI-1 进行常识场景补全,注重空间关系和可信度。
  • 使用角色输入的参考引导生成:提供角色参考(肖像或全身)来影响生成结果的风格或构图。
  • 源 grounding 图像编辑和变换:使用可引导控制进行可信度驱动变换,而非纯无约束生成。
  • 风格和文化框架:生成与请求美学、表情包或漫画参考一致的视觉内容,如页面所述。
  • 基于参考的生成评估工作流:如果您比较输出以评估整体偏好或基于参考的生成质量,页面提到 UNI-1 在多个类别的用户偏好 Elo 排名。

常见问题

  • UNI-1 用于什么? 页面描述 UNI-1 用于智能图像生成任务,如场景补全、空间推理、可信度驱动变换和参考引导生成。

  • UNI-1 与标准文本到图像生成有何不同? 页面强调 UNI-1 可引导,并可使用源 grounding 控制引导,还突出参考引导生成和角色参考作为输入。

  • 我可以通过 API 访问 UNI-1 吗? 页面表示 API “即将推出”,并提供早期 API 访问的等待列表表单。

  • 哪里可以找到 UNI-1? 产品页面表示您可以免费试用 UNI-1,并链接到技术报告。它未描述其他分发渠道。

  • UNI-1 支持哪些输入? 页面的事实细节包括角色参考(例如肖像和全身)以及图像生成、图像编辑/i2i 和多参考生成等描述的工作流。

替代方案

  • 其他多模态图像生成模型:如果您需要结合指令和视觉输入的模型,请比较支持引导编辑和参考条件的多模态图像生成器。
  • 文本到图像和图像编辑模型:对于纯文本驱动或标准图像编辑工作流,请考虑专用的文本到图像或图像到图像工具,并比较它们对参考引导的支持程度。
  • 参考条件生成工具:如果您的主要需求是使用参考图像(角色、风格或源 grounding)引导输出,请寻找专注于参考条件而非仅指令生成的模型或编辑器。
  • AI 研究演示平台:如果您评估推理质量和基于偏好的结果,请与发布技术报告和基准式评估的研究导向模型平台进行比较。