UStackUStack
StartupOS icon

StartupOS

StartupOSは、1行のスタートアップ案から戦略ドキュメント、ブランディング、動くプロトタイプ、品質スコアを生成するNext.js単体アプリ。LLMパイプライン対応。

StartupOS

StartupOSとは?

StartupOSは、1行のスタートアップアイデアを、LLM呼び出しのオーケストレーションされたパイプラインで生成される一連の成果物に変換する単一のNext.jsアプリケーションです。戦略ドキュメント、ブランディング、動作するプロトタイプ、品質スコアを生成し、ローカルGPUまたはクラウドAPIモードでの推論実行がオプションで可能です。

リポジトリはデモ指向の「1アプリ内パイプライン」として構成されており、設定変更(例: ローカルGPU対クラウド推論変数)で同一コードベースを各種推論環境で使用できます。

主な機能

  • 1行アイデア入力で多段階LLMパイプラインを駆動: 短いアイデアを入力し、連続したLLM呼び出しで戦略、ブランディング、プロトタイプ出力、評価スコアを生成します。
  • 単一DAGスタイルチェーンのオーケストレーションされたワークフロー: パイプラインはエージェント/コード生成/評価をチェーンするワークフローオーケストレータとして実装され、再生成ステップをトリガーします。
  • Zodスキーマによる構造化出力: 評価の各「ディメンション」はLLM呼び出しとZodスキーマの組み合わせで記述され、コード生成フローはファイル解析とビルドループを含みます。
  • 多ディメンションルーブリックによる品質スコアリング: 評価は複数「ディメンション」のLLMスコアリングプロンプトを使用し、リポジトリ概要で記述された「cortical map」/ルーブリックアプローチを採用します。
  • 実行環境に応じたオプションインフラ: コアデモはオプションコンポーネントなしで動作可能。GPUテレメトリ解析、キュー基盤スケーリング(BullMQ/Redis)、追加サーバー(TRIBE v2 Python)はオプションパスとして記述されています。
  • デモアプリ内のストリーミングと永続化: アプリはSSEストリーミングと.data/ディレクトリへの永続化を標準デモ動作に含みます。

StartupOSの使い方

  • リポジトリをクローンし、付属READMEのセットアップ手順に従ってください(リポジトリにはpackage.jsonnext.config.ts.env.exampleなどの設定ファイルが含まれます)。
  • 実行したい推論モード(ローカルGPUオプションまたはクラウドAPIモード)の環境設定を提供。リポジトリ概要では、クラウド「デモモード」が同一ソースツリーと異なる推論環境変数を使用すると記載されています。
  • Next.jsアプリを起動し、1行のスタートアップアイデアを入力。
  • パイプラインをエンドツーエンドで実行して戦略/ブランディング/プロトタイプ出力と品質スコアを生成。ワークフローはストリーミング(SSE)をサポートし、中間/最終結果をデモフロー内で永続化します。

ユースケース

  • ハッカソンスタイルの実現可能性デモ: チームはリポジトリの「単一Next.jsアプリ + オーケストレーションされたパイプライン」パターンを使って、厳しい時間制約下でアイデアからプロトタイプへのフローを迅速にデモできます。
  • ローカルGPU評価: NVIDIA DGX Sparkハードウェアがある場合、ローカルGPUでパイプラインを実行し、自己完結型デモ環境を実現できます。
  • クラウドベースの審査者向けデモ: ローカルGPUハードウェアがない審査者のために、推論関連環境変数を設定して同一コードベースをクラウドモードで実行できます。
  • 自動レビューループ付きプロトタイプ反復: ワークフローはコード生成と評価に再生成ステップを含み、スコアに基づく複数反復のプロトタイプ探索に適しています。
  • アプリ内スコアリングルーブリック実験: 評価が複数ディメンション(各LLM呼び出しとZodスキーマに紐づく)で実装されているため、パイプライン内でルーブリック境界を研究・調整できます。

FAQ

  • StartupOSはメッセージキュー(BullMQ/Redis)や特定ハードウェア設定が必要ですか? いいえ。リポジトリ概要では、コアのハッピーパスがワークフロー/API内でインライン実行され、キューはデモの前提条件ではないと記載されています。GPUテレメトリとキュー基盤スケーリングはオプションです。

  • クラウドデモは別途事前ビルドされた製品ですか? リポジトリでは、クラウド「デモモード」が環境変数でクラウド推論APIを設定した同一ソースツリーであり、秘密裏に事前ビルドされた別製品ではないと述べられています。

  • パイプラインはどのような出力を作成しますか? 概要では戦略ドキュメント、ブランディング、動作するプロトタイプ、品質スコアを挙げています。

  • 出力はどのように検証・構造化されますか? 概要では「ディメンション」をLLM呼び出しとZodスキーマのペアとして記述し、コード生成と評価ステップでファイル解析および検証関連動作を言及しています。

代替案

  • シングルエージェントまたはチャットベースのアイデア-to-プロトタイプ ワークフロー: DAGスタイルのオーケストレーション・パイプラインなしの会話型LLMに依存するツールはシンプルだが、構造化された再現可能なマルチステップ生成とスコアリングが通常少ない。
  • LLMステップ付きローコードワークフロー自動化: 自動化プラットフォームはドラフト/評価のためのLLM呼び出しをチェーン可能だが、ここで説明された統合ストリーミングと永続化付きのタイトな「単一Next.jsアプリ」プロトタイプフローを生成しない場合がある。
  • オープンソースのマルチエージェントオーケストレーションフレームワーク: 複数エージェントとツール呼び出しをサポートするフレームワークはマルチステップ動作を再現可能だが、同じエンドツーエンド・パイプライン構造の単一Next.jsデモアプリとして提供されるかは異なる。
  • チャットのみに特化したローカルLLM推論UI: ローカルUIはハードウェア上でモデルを実行可能だが、通常ボックス外で同じアイデア-to-戦略-to-プロトタイプ・パイプラインとルーブリックベースのスコアリングを実装しない。
StartupOS | UStack