UStackUStack
模力方舟(Gitee AI) icon

模力方舟(Gitee AI)

模力方舟(Gitee AI)は複数AIモデルを集約。モデル体験〜推論・学習・デプロイまで一括で提供し、serverless推論APIとGPU計算も対応。

模力方舟(Gitee AI)

模力方舟(Gitee AI)とは?

模力方舟(Gitee AI)は、AIアプリケーション開発向けの「一站式」プラットフォームです。複数種の事前学習済みモデルを集約し、モデル体験、推論、訓練、デプロイからアプリケーションまでの関連機能を備えています。プラットフォームの主眼は、開発者がインフラを自前管理せずに、モデルを迅速に業務やアプリケーションに統合できるようにすることです。

プラットフォーム内で、ユーザーはオンライン体験や標準インターフェースでモデル推論が可能です。カスタマイズが必要な場合、モデル微調整やデータ前処理も行えます。算力面では、Elastic GPU算力レンタルを提供し、GPU種別の選択もサポートします。また、アプリケーション開発者向けのアプリケーション市場とデプロイ・収益化サポートにより、モデル成果をアプリケーションとして公開し、「モデルからアプリケーション」までの閉ループを形成します。

主な機能

  • Serverless 大模型推理 API:推論シーン向けAPIサービスを提供し、基盤インフラ管理不要を強調。自動拡張縮小、GPU加速、低遅延特性をサポート(ページ表記準拠)。
  • オンライン模型体験と標準インターフェース:モデル体験エントリーを提供し、OpenAI SDK互換の標準インターフェースを宣言。既存アプリケーションや開発フローに容易に統合可能。
  • 多模態モデル対応と継続更新:テキスト、画像、音声、多模態など多様なモデルタイプをサポートし、モデルの継続更新を強調。
  • モデル微調整と訓練追跡:モデル微調整(Model Finetune)機能を提供。データ前処理(例: 画像ラベル付け・クロップ)を含み、可視化訓練追跡記録(例: Lossのバッチ変化)を提供。
  • Elastic GPU算力レンタル(Reserved GPUs):従量課金GPU算力レンタルを供与。単カードから大規模クラスタまで対応し、時間単位レンタル・起動停止が可能。
  • 国産異構算力対応:NVIDIA GPU以外に、Muxi、Ascendなど国産異構算力をサポートし、国産ソフトハード技術スタックの適応・最適化を提供。

模力方舟(Gitee AI)の使い方

  1. 推論経路を選択
    まずプラットフォームでモデル体験を実施。その後、提供標準インターフェース(OpenAI SDK互換)または推論APIでモデルをアプリケーションに統合。

  2. カスタマイズが必要な場合: データ準備と微調整
    業務データを準備後、ビルトインデータ前処理ツール(例: 画像ラベル付け/クロップ)で処理。微調整モジュールで訓練を開始し、可視化インターフェースで訓練追跡情報(例: Loss指標)を確認。

  3. 算力と開発環境をオンデマンド設定
    Elastic算力が必要ならGPUをレンタル。ブラウザワークスペースでビルトインフレームワークとJupyter環境を使い開発・検証。

  4. デプロイとアプリケーション化(アプリ市場上架)
    モデル機能をサービス化後、アプリケーション市場機能でデプロイ・上架。プロモーション・商用化サポートを活用し、サービスをユーザー公開。

ユースケース

  • 推論APIでテキスト/多模態機能を迅速公開:標準推論APIをアプリケーションに統合し、テキスト生成や画像/音声関連機能を実現。自動拡張縮小で突発トラフィック対応。
  • 特定業務データでカスタム微調整(画像関連):ビルトイン画像ラベル付け・クロップツールでデータ前処理後、モデル微調整。可視化訓練追跡でLossのバッチ変化を確認し、訓練スキームを反復。
  • 時間単位GPUレンタルで訓練/推論しリソース制御:訓練/推論タスクで時間単位GPU算力をレンタルし、いつでも起動停止。ワークロードとリソース使用に適合。
  • 国産算力オプションが必要時、デプロイリソース計画:デプロイ/訓練環境で国産異構算力が必要時、Muxi、Ascendなどサポートを活用しリソース選択・計画。
  • モデル成果を利用可能アプリケーションとして公開:アプリ市場フローでサービス上架・デプロイ。上架・審査・プロモーション/トラフィック分配で機能をユーザー提供。

FAQ

1. プラットフォームでインフラを自前管理する必要は?
推論APIはserverless方式で、インフラ運維不要を強調。Elastic GPUレンタル時はプラットフォーム算力を使用。カスタム運維の詳細はページ未記載。

2. 既存コードを直接統合可能か?
OpenAI SDK互換標準インターフェースをサポート。OpenAI SDKワークフロー使用時は、プラットフォームモデルを既存開発に容易統合。

3. 微調整と訓練プロセス監視をサポートか?
サポート。モデル微調整サービスを提供し、可視化訓練追跡記録(例: Lossのバッチ変化)をビルトイン。

4. 国産GPUや異構算力をサポートか?
サポート。NVIDIA GPU以外にMuxi、Ascendなど国産異構算力選択を明記し、国産ソフトハード技術スタックの適応・最適化を提供。

5. モデルからアプリケーション公開機能を備えるか?
備える。AIアプリ開発者向けアプリ市場を列挙し、上架・サービスデプロイ・商用化の全链路サポート。

代替案

  • 自社モデル推論サービス(自管推論フレームワーク/サーバー):基盤運維に熟練チームがあり、高度カスタマイズ制御が必要なシーン向け。serverless推論比、インフラ・運維作業が増大。
  • 汎用クラウドAI推論プラットフォーム/モデルホストサービス:モデル推論・デプロイに使用可能だが、インターフェース標準、モデル体験、アプリ上架/エコシステム連携で模力方舟(Gitee AI)の「一站式」経路と異なる可能性。
  • オープンソース訓練・微調整ツールチェーン(自有訓練リソース併用):訓練フロー・環境を完全制御したいユーザー向け。プラットフォームビルトイン微調整・可視化追跡比、自建で自主管理増。
  • アプリ構築プラットフォーム(ローコード/ワークフロー編成)+ 外部モデルAPI:アプリプロトタイプ迅速構築時、ワークフロー編成と外部モデルを組み合わせ可能。ただし、モデル体験・訓練・デプロイを自前串聯し、単一プラットフォーム閉ループに非依存。
模力方舟(Gitee AI) | UStack