UStackUStack
模力方舟(Gitee AI) icon

模力方舟(Gitee AI)

模力方舟(Gitee AI) : un hub pour découvrir, inférer, fine-tuner, entraîner et déployer des modèles, avec API d’inférence serverless et marché d’apps.

模力方舟(Gitee AI)

Qu'est-ce que 模力方舟(Gitee AI) ?

模力方舟(Gitee AI) est une plateforme « tout-en-un » pour le développement d'applications IA, qui regroupe divers modèles pré-entraînés et fournit des capacités de modèle expérience, inférence, entraînement, déploiement et application. L'objectif principal est de permettre aux développeurs d'intégrer plus rapidement les modèles à leurs services ou applications sans gérer eux-mêmes l'infrastructure.

Sur la plateforme, les utilisateurs peuvent effectuer de l'inférence de modèles via une expérience en ligne et des interfaces standard ; pour des besoins personnalisés, ils peuvent aussi réaliser du fine-tuning et du prétraitement de données. Côté calcul, la location de GPU élastiques est disponible avec choix de différents types de GPU. De plus, la plateforme propose un marché d'applications et un support de déploiement monétisable pour les développeurs, afin de publier les résultats des modèles sous forme d'applications utilisables, formant un flux fermé « du modèle à l'application ».

Fonctionnalités principales

  • API d'inférence serverless pour grands modèles : Fournit des services API pour les scénarios d'inférence, sans gestion d'infrastructure sous-jacente ; supporte l'auto-scaling, l'accélération GPU et une faible latence (selon la page).
  • Expérience en ligne des modèles et interfaces standard : Offre un point d'accès pour tester les modèles, avec compatibilité OpenAI SDK pour une intégration aisée dans les applications ou workflows existants.
  • Couverture de modèles multimodaux et mises à jour continues : Prend en charge texte, image, audio et multimodaux, avec mises à jour régulières des modèles.
  • Fine-tuning de modèles et suivi d'entraînement : Fournit des capacités de fine-tuning (Model Finetune) ; inclut prétraitement de données (ex. annotation et découpe d'images) et suivi visuel de l'entraînement (ex. évolution de la Loss par batch).
  • Location de GPU élastiques (Reserved GPUs) : Location de puissance GPU à la demande, de la carte unique aux clusters massifs, avec démarrage/arrêt à l'heure.
  • Adaptation à la puissance de calcul hétérogène nationale : En plus des GPU NVIDIA, supporte Moore Threads, Ascend, etc., avec adaptation et optimisation des stacks logiciels/matériels nationaux.

Comment utiliser 模力方舟(Gitee AI)

  1. Choisir le chemin d'inférence
    Testez d'abord les modèles sur la plateforme ; intégrez-les ensuite à votre application via les interfaces standard (compatibles OpenAI SDK) ou l'API d'inférence.

  2. Pour personnaliser : préparer les données et fine-tuner
    Préparez vos données métier, utilisez les outils intégrés de prétraitement (ex. annotation/découpe d'images) ; lancez l'entraînement dans le module de fine-tuning et suivez les métriques (ex. Loss) via l'interface visuelle.

  3. Configurer la puissance et l'environnement de dev à la demande
    Louez des GPU élastiques si besoin ; développez et validez dans l'espace de travail browser avec frameworks intégrés et Jupyter.

  4. Déployer et appliquer (publication sur le marché d'apps)
    Servicez les capacités de modèles, déployez et publiez via le marché d'applications ; profitez des outils de promotion et monétisation pour diffuser aux utilisateurs.

Cas d'usage

  • Mettre rapidement en ligne des capacités texte ou multimodales via API d'inférence : Intégrez l'API standard dans votre app pour génération de texte, image/son, et gérez les pics de trafic via l'auto-scaling.
  • Fine-tuning personnalisé sur données métier (images) : Prétraitement avec outils intégrés d'annotation/découpe, puis fine-tuning ; suivez visuellement la Loss par batch pour itérer.
  • Louer des GPU à l'heure pour entraînement/inférence et contrôler les ressources : Utilisez à l'heure pour tâches, avec démarrage/arrêt pour matcher charge et usage.
  • Planifier les ressources avec options de calcul national : Choisissez Moore Threads, Ascend, etc., pour déploiements/entraînements nécessitant du hétérogène national.
  • Publier les résultats modèles comme applications utilisables : Via le marché, publiez, auditez et distribuez/promouvez les services aux utilisateurs.

FAQ

1. La plateforme nécessite-t-elle de gérer moi-même l'infrastructure ?
L'API d'inférence est serverless, sans maintenance d'infra. Pour GPU élastiques, utilisez les ressources de la plateforme ; pas de détails sur maintenance custom.

2. Mon code existant peut-il s'intégrer directement ?
Oui, interfaces standard compatibles OpenAI SDK. Si votre app utilise ce workflow, l'intégration est facilitée.

3. Supporte-t-elle le fine-tuning et le monitoring d'entraînement ?
Oui. Fine-tuning avec suivi visuel (ex. Loss par batch).

4. Supporte-t-elle GPU nationaux ou calcul hétérogène ?
Oui. En plus NVIDIA, Moore Threads, Ascend, avec adaptation stacks nationaux.

5. Fournit-elle une publication du modèle à l'application ?
Oui. Marché d'apps avec déploiement, publication et monétisation en chaîne complète.

Alternatives

  • Service d'inférence auto-hébergé (framework/serveur géré) : Pour équipes matures en ops, hautement custom. Plus d'infra/ops que serverless.
  • Plateformes cloud IA génériques/hosting modèles : Pour inférence/déploiement, mais différences en interfaces, expérience modèles, publication/écosystème vs tout-en-un de 模力方舟(Gitee AI).
  • Chaîne outils open source entraînement/fine-tuning (avec ressources propres) : Pour contrôle total. Plus de gestion que fine-tuning/visuel intégrés.
  • Plateformes low-code/workflows + API modèles externes : Pour prototypes rapides via orchestration + modèles ; nécessite liaison manuelle expérience/entraînement/déploiement vs boucle fermée unique.