UStackUStack
模力方舟(Gitee AI) icon

模力方舟(Gitee AI)

模力方舟(Gitee AI)reúne modelos de IA y ofrece desarrollo y publicación de modelos a aplicaciones: API serverless, GPUs elásticas y marketplace.

模力方舟(Gitee AI)

¿Qué es 模力方舟(Gitee AI)?

模力方舟(Gitee AI) es una plataforma "todo en uno" para el desarrollo de aplicaciones de IA que reúne diversos modelos preentrenados y ofrece capacidades desde la experiencia con modelos, inferencia, entrenamiento, despliegue hasta aplicaciones. El objetivo principal de la plataforma es permitir que los desarrolladores integren modelos en sus negocios o aplicaciones de forma más rápida, sin gestionar su propia infraestructura.

En la plataforma, los usuarios pueden realizar inferencia de modelos mediante experiencia en línea e interfaces estándar; en casos de personalización, también es posible afinar modelos y preprocesar datos. En el lado de la potencia de cálculo, ofrece alquiler de GPU elásticas y soporta selección de diferentes tipos de GPU. Además, la plataforma proporciona un mercado de aplicaciones y soporte para despliegue y monetización dirigido a desarrolladores de aplicaciones, para publicar los resultados de modelos como aplicaciones utilizables y formar un flujo cerrado "de modelo a aplicación".

Características principales

  • Serverless API de inferencia de grandes modelos: Proporciona servicios API para escenarios de inferencia, sin necesidad de gestionar infraestructura subyacente; soporta autoescalado, aceleración GPU y baja latencia (según se describe en la página).
  • Experiencia en línea con modelos e interfaces estándar: Ofrece acceso a experiencia con modelos y declara soporte para interfaces estándar compatibles con OpenAI SDK, facilitando la integración en aplicaciones existentes o flujos de desarrollo.
  • Cobertura de modelos multimodales y actualizaciones continuas: Soporta tipos de modelos como texto, imagen, audio y multimodales, con énfasis en actualizaciones continuas de modelos.
  • Ajuste fino de modelos y seguimiento de entrenamiento: Proporciona capacidades de ajuste fino (Model Finetune); incluye preprocesamiento de datos (como etiquetado y recorte de imágenes) y registros de seguimiento visual de entrenamiento (por ejemplo, cambios en Loss por lotes).
  • Alquiler de potencia GPU elástica (Reserved GPUs): Ofrece alquiler de potencia GPU por uso, desde tarjetas individuales hasta clústeres a gran escala, con arranque por horas y capacidades de inicio/parada.
  • Adaptación a potencia de cálculo heterogénea nacional: Además de GPU NVIDIA, soporta opciones como Moore Threads, Ascend, con adaptación y optimización para stacks de software y hardware nacionales.

Cómo usar 模力方舟(Gitee AI)

  1. Seleccionar ruta de inferencia
    Primero, experimenta con modelos en la plataforma; luego, integra el modelo en tu aplicación mediante interfaces estándar (compatibles con OpenAI SDK) o API de inferencia proporcionadas por la plataforma.

  2. Para personalización: preparar datos y ajustar fino
    Tras preparar datos de negocio, usa las herramientas de preprocesamiento integradas (como etiquetado/recorte de imágenes); inicia el entrenamiento en el módulo de ajuste fino y visualiza el seguimiento (como métricas de Loss) en la interfaz gráfica.

  3. Configurar potencia de cálculo y entorno de desarrollo según necesidad
    Si requieres potencia elástica, alquila GPU a demanda; usa el espacio de trabajo en navegador con frameworks integrados y entorno Jupyter para desarrollo y validación.

  4. Despliegue y aplicación (subir al mercado de aplicaciones)
    Tras servir las capacidades del modelo, usa las funciones del mercado de aplicaciones de la plataforma para desplegar y publicar; combina con soporte de promoción y comercialización para lanzar servicios a usuarios.

Casos de uso

  • Lanzar rápidamente capacidades de texto o multimodales con API de inferencia: Integra API de inferencia estándar en la aplicación para generación de texto y capacidades relacionadas con imágenes/audio, aprovechando el autoescalado para picos de tráfico.
  • Ajuste fino personalizado sobre datos de negocio específicos (relacionados con imágenes): Usa herramientas integradas de etiquetado y recorte de imágenes para preprocesar datos, luego ajusta fino el modelo; visualiza cambios en Loss por lotes para iterar esquemas de entrenamiento.
  • Alquilar GPU por horas para entrenamiento/inferencia y controlar uso de recursos: En tareas de entrenamiento o inferencia, alquila potencia GPU por horas y enciende/apaga según necesidad, adaptándose al ritmo de carga de trabajo.
  • Planificar recursos de despliegue con opciones de potencia nacional: Cuando se necesiten opciones de potencia heterogénea nacional en despliegue o entrenamiento, selecciona y planifica con soporte para Moore Threads, Ascend, etc.
  • Publicar resultados de modelos como aplicaciones utilizables: Sube y despliega servicios vía flujo del mercado de aplicaciones, usando mecanismos de publicación, revisión, promoción y distribución de tráfico para ofrecer capacidades a usuarios.

Preguntas frecuentes

1. ¿La plataforma requiere que gestione infraestructura por mi cuenta?
La API de inferencia usa esquema serverless, sin necesidad de gestionar infraestructura. Si eliges alquiler de GPU elástica, usas recursos de la plataforma; la página no detalla gestión personalizada adicional.

2. ¿Puedo integrar mi código existente directamente?
La plataforma declara soporte para interfaces estándar compatibles con OpenAI SDK. Si tu aplicación usa flujos de OpenAI SDK, suele ser más sencillo integrar modelos de la plataforma.

3. ¿Soporta ajuste fino y monitoreo del proceso de entrenamiento?
Sí. La página menciona servicio de ajuste fino de modelos con registros visuales de seguimiento de entrenamiento (como cambios en Loss por lotes).

4. ¿Soporta GPU nacionales u otras potencias heterogéneas?
Sí. La página indica soporte para opciones como Moore Threads y Ascend además de NVIDIA GPU, con adaptación y optimización para stacks nacionales.

5. ¿Proporciona capacidades de publicación de modelos a aplicaciones?
Sí. La página lista capacidades de mercado de aplicaciones para desarrolladores de IA, con soporte completo para publicación, despliegue de servicios y monetización.

Alternativas

  • Servicios de inferencia de modelos propios (frameworks/servidores de inferencia autogestionados): Adecuados para equipos maduros en operaciones subyacentes con alta necesidad de control. Frente a inferencia serverless, requiere más infraestructura y trabajo de O&M.
  • Plataformas de inferencia IA en la nube genéricas/servicios de alojamiento de modelos: Útiles para inferencia y despliegue, pero pueden diferir en estándares de interfaces, experiencia de modelos y soporte para publicación de aplicaciones/ecosistema respecto al camino "todo en uno" de 模力方舟(Gitee AI).
  • Cadenas de herramientas de entrenamiento y ajuste fino open source (con recursos propios): Para usuarios que desean control total del flujo y entorno de entrenamiento. Frente al ajuste fino y seguimiento visual integrados, requiere más gestión autónoma.
  • Plataformas de construcción de aplicaciones (bajo código/orquestación de flujos) + API de modelos externos: Para prototipos rápidos, combinan orquestación con capacidades externas; pero pueden necesitar integración manual de experiencia, entrenamiento y despliegue, en vez de depender de un ciclo cerrado en una sola plataforma.
模力方舟(Gitee AI) | UStack