UStackUStack
UNI-1 icon

UNI-1

LumaのUNI-1はマルチモーダル推論モデル。ピクセル生成で、シーン補完や変換を指示・参照ガイドで作成可能。

UNI-1

UNI-1とは?

UNI-1はLumaのマルチモーダル推論モデルで、ピクセル生成が可能です。このページでは、UNI-1を入力ガイダンスと構造化された参照の両方に対応したシステムとして位置づけ、意図を理解し、指示に応答し、「あなたと一緒に考える」ことを目指しています。

製品ページでは、UNI-1の機能がシーン補完、空間推論、妥当性駆動の変換、参照ガイド付きおよびソース grounding 制御による生成として説明されています。

主な機能

  • ピクセル生成のためのマルチモーダル推論:UNI-1は複数の入力種別を解釈するマルチモーダルモデルとして記述され、ピクセル生成をサポートします。
  • 常識的なシーン補完と空間推論:ページではシーン補完、空間推論、妥当性駆動の変換をコア機能として強調しています。
  • 指示可能・参照ガイド付き生成:UNI-1は指示に応答し、ソース grounding 制御で出力を制御可能として紹介されています。
  • 文化意識的なビジュアル生成:ページでは美学、ミーム、マンガにわたるビジュアル生成を記述しています。
  • キャラクター参照を入力として:インターフェースにキャラクター参照(例:ポートレート、全身)が含まれており、参照ベースの生成ワークフローをサポートします。

UNI-1の使い方

  • 製品ページから「無料」でUNI-1を始め、技術レポートへのリンクもあります。
  • クリエイティブな目標とガイダンスを提供(ページではモデルを指示可能で指示に応答すると記述)。
  • 必要に応じて参照を使用:ページにキャラクター参照入力が表示され、生成をガイドします。
  • 価格セクションに示された編集、image-to-image、参照ベース生成などのタスクでモデル出力を探索。

ユースケース

  • 部分ビューからのシーン補完:空間関係と妥当性が重要な常識的シーン補完にUNI-1を使用。
  • キャラクター入力付き参照ガイド生成:生成結果のスタイルや構成に影響を与えるためにキャラクター参照(ポートレートまたは全身)を提供。
  • ソース grounding 画像編集と変換:純粋に制約なし生成ではなく、指示可能制御で妥当性駆動の変換を実行。
  • スタイルと文化的枠組み:ページに記述された依頼美学、ミーム、マンガ参照に沿ったビジュアルを生成。
  • 参照ベース生成評価ワークフロー:全体好みや参照ベース生成品質の出力比較の場合、ページで複数のカテゴリでの人間好みEloランキングを記載。

FAQ

  • UNI-1は何に使いますか? ページでは、シーン補完、空間推論、妥当性駆動変換、参照ガイド生成などのインテリジェント画像生成タスクにUNI-1を記述。

  • UNI-1は標準的なtext-to-image生成とどう違うのですか? ページではUNI-1を指示可能でソース grounding 制御でガイド可能と強調し、参照ガイド生成とキャラクター参照を入力として挙げています。

  • UNI-1をAPIでアクセスできますか? ページではAPIが「まもなく利用可能」とし、早期APIアクセス用の待機リストフォームを提供。

  • UNI-1はどこで入手できますか? 製品ページでは無料でUNI-1を試せ、技術レポートへのリンクあり。他の流通チャネルは記述なし。

  • UNI-1はどのような入力をサポートしますか? ページの事実詳細として、キャラクター参照(例:ポートレート、全身)、画像生成、画像編集/i2i、マルチ参照生成などのワークフローを記述。

代替案

  • 他のマルチモーダル画像生成モデル:指示とビジュアル入力を組み合わせるモデルが必要なら、ガイド編集と参照 conditioning をサポートするマルチモーダル画像生成器を比較。
  • Text-to-imageおよび画像編集モデル:純粋テキスト駆動や標準画像編集ワークフローなら、text-to-imageやimage-to-imageツールを検討し、参照ガイダンスのサポートを比較。
  • 参照 conditioning 生成ツール:参照画像(キャラクター、スタイル、ソース grounding)で出力を制御するのが主なら、方向指示のみ生成ではなく参照 conditioning に特化したモデルやエディタを探す。
  • AI研究デモプラットフォーム:推論品質と好みベース結果を評価する場合、技術レポートとベンチマーク評価を公開する研究指向モデルプラットフォームと比較。
UNI-1 | UStack