UStackUStack
模力方舟(Gitee AI) icon

模力方舟(Gitee AI)

模力方舟(Gitee AI)brings multi-model AI for end-to-end development—model experience, inference, training, deployment, plus serverless inference API.

模力方舟(Gitee AI)

What is 模力方舟(Gitee AI)?

模力方舟(Gitee AI)是一个面向 AI 应用开发的“一站式”平台,汇聚多种预训练模型,并提供从模型体验、推理、训练、部署到应用的相关能力。平台的核心目标是让开发者在不自行管理基础设施的情况下,更快地把模型接入到业务或应用中。

在平台内,用户可以通过在线体验与标准接口进行模型推理;在需要定制的情况下,还可以进行模型微调与数据预处理。算力侧提供弹性 GPU 算力租赁,并支持不同类型的 GPU 选择。此外,平台提供面向应用开发者的应用市场与部署变现支持,用于把模型成果进一步发布为可用的应用,形成“从模型到应用”的闭环流程。

Key Features

  • Serverless 大模型推理 API:提供面向推理场景的 API 服务,并强调无需管理底层基础设施;同时支持自动扩缩容、GPU 加速与低延迟特性(以页面表述为准)。
  • 在线模型体验与标准接口:提供模型体验入口,并声明支持兼容 OpenAI SDK 的标准接口,便于接入到现有应用或开发工作流。
  • 多模态模型覆盖与持续更新:支持文本、图像、音频与多模态等多种模型类型,并强调模型持续更新。
  • 模型微调与训练追踪:提供模型微调(Model Finetune)能力;包含数据预处理(如图像打标与裁切)并提供可视化训练追踪记录(例如 Loss 随批次变化)。
  • 弹性 GPU 算力租赁(Reserved GPUs):提供按需付费的 GPU 算力租赁,支持从单卡到大规模集群,并提供小时级起租与启停能力。
  • 国产异构算力适配:除 NVIDIA GPU 外,支持沐曦、昇腾等国产异构算力选择,并提供对国产软硬件技术栈的适配与优化。

How to Use 模力方舟(Gitee AI)

  1. 选择推理路径
    先在平台进行模型体验;随后通过平台提供的标准接口(兼容 OpenAI SDK)或推理 API 将模型接入到你的应用中。

  2. 如需定制:准备数据并进行微调
    准备业务数据后,使用平台内置的数据预处理工具(例如图像打标/裁切)完成处理;然后在微调模块中启动训练,并在可视化界面查看训练追踪信息(如 Loss 等指标)。

  3. 按需配置算力与开发环境
    如果需要弹性算力,可按需租用 GPU;在浏览器工作区中使用内置框架与 Jupyter 开发环境进行开发与验证。

  4. 部署与应用化(上架到应用市场)
    将模型能力服务化后,使用平台的应用市场能力进行部署与上架;结合平台提供的推广与商业化支持,将服务面向用户发布。

Use Cases

  • 用推理 API 快速上线文本或多模态能力:在应用中接入标准推理 API,实现文本生成、以及与图像/音频相关的能力,并利用平台强调的自动扩缩容特性应对突发流量。
  • 对特定业务数据进行定制微调(图像相关):使用平台内置图像打标与裁切工具做数据预处理,再进行模型微调;可通过可视化训练追踪查看 Loss 随批次变化,辅助迭代训练方案。
  • 按小时租用 GPU 进行训练/推理并控制资源占用:在训练或推理任务中按小时租用 GPU 算力,并可随时启停,以匹配工作负载与资源使用节奏。
  • 在需要国产算力选项时规划部署资源:当部署或训练环境需要国产异构算力选项时,可结合平台对沐曦、昇腾等算力的支持进行资源选择与规划。
  • 将模型成果发布为可用应用:通过应用市场流程将服务上架并部署,利用上架、审核与推广/流量分发机制将能力提供给用户。

FAQ

1. 平台是否需要我自行管理基础设施?
平台的推理 API 采用 serverless 方案,强调无需自行运维基础设施。若选择弹性 GPU 算力租赁,仍使用平台提供的算力资源;页面未进一步细化你是否需要做自定义运维。

2. 现有代码是否可以直接接入?
平台声明支持兼容 OpenAI SDK 的标准接口。若你的应用使用 OpenAI SDK 相关工作流,通常更便于把平台模型接入到现有开发方式中。

3. 是否支持微调以及训练过程监控?
支持。页面提到提供模型微调服务,并内置可视化训练追踪记录(例如 Loss 随批次变化)。

4. 是否支持国产 GPU 或异构算力?
支持。页面明确提到除 NVIDIA GPU 外,还支持沐曦、昇腾等国产异构算力选择,并提供对国产软硬件技术栈的适配与优化。

5. 是否提供从模型到应用的发布能力?
提供。页面列出面向 AI 应用开发者的应用市场能力,包括应用上架、服务部署与商业化变现相关的全链路支持。

Alternatives

  • 自建模型推理服务(自管推理框架/推理服务器):适合对底层运维有成熟团队、需要高度定制化控制的场景。相对 serverless 推理,这通常需要更多基础设施与运维工作。
  • 通用云 AI 推理平台/模型托管服务:可用于模型推理与部署,但在接口标准、模型体验、以及是否包含应用上架/生态联动等方面,可能与模力方舟(Gitee AI)的“一站式”路径不同。
  • 开源训练与微调工具链(结合自有训练资源):适合希望完全控制训练流程与环境的用户。相对平台内置的微调与可视化追踪,自建通常需要更多自主管理工作。
  • 应用构建平台(低代码/工作流编排)+ 外部模型 API:当目标是快速构建应用原型,这类方案可以把工作流编排与外部模型能力组合起来;但可能需要自行串联模型体验、训练与部署等环节,而不是直接依赖单一平台的闭环能力。