UStackUStack
Maritime icon

Maritime

Maritime est un hébergement cloud pour agents IA : déployez votre conteneur vers un service prêt pour la prod avec endpoint HTTPS et secrets chiffrés.

Maritime

Qu'est-ce que Maritime ?

Maritime est un hébergement cloud pour agents IA qui les déploie en production avec un endpoint HTTPS API en direct. Au lieu de gérer l'infrastructure vous-même, vous fournissez un agent dans un conteneur et Maritime l'exécute avec routage, scaling, logs et gestion des secrets.

Son objectif principal est de rendre pratique le passage d'un agent du développement local à un service accessible — afin que votre application, vos webhooks ou d'autres agents puissent l'appeler via un endpoint stable.

Fonctionnalités clés

  • Déployer des agents en conteneurs : Si votre agent s'exécute dans un conteneur, il peut tourner sur Maritime — compatible avec des frameworks comme OpenClaw, CrewAI, LangGraph et d'autres setups d'agents.
  • Endpoint HTTPS API stable intégré : Chaque agent déployé obtient une URL publique dès le déploiement pour l'intégrer dans des apps et workflows.
  • Apportez votre propre stack : Maritime est conçu pour fonctionner avec votre code d'agent et vos choix de frameworks tant qu'il tourne dans un conteneur.
  • Déploiement en un clic depuis GitHub : Connectez un repo GitHub et déployez sans configurer manuellement YAML ou cloud.
  • Secrets chiffrés injectés au runtime : Stockez les identifiants dans le dashboard Maritime ; les secrets sont chiffrés et injectés dans l'environnement de l'agent en cours d'exécution.
  • Logs de requêtes en direct et métriques de base : Consultez les logs de requêtes et métriques de base, et utilisez-les avec le scaling en fonction du trafic.

Comment utiliser Maritime

  1. Créez le conteneur de votre agent et assurez-vous qu'il peut s'exécuter dans un environnement de conteneur style Docker.
  2. Connectez un repo GitHub contenant votre code d'agent et la configuration de déploiement.
  3. Déployez depuis Maritime pour obtenir une URL HTTPS publique pour votre agent.
  4. Ajoutez des secrets dans le dashboard Maritime (par exemple, clés API et autres identifiants). Maritime les injecte au runtime.
  5. Appelez votre agent depuis votre app, des webhooks ou d'autres agents via l'endpoint fourni après déploiement.

Cas d'usage

  • Construire un agent de support backed par une app : Déployez un agent de support pour qu'une web app puisse l'appeler via un endpoint HTTPS stable au lieu de le faire tourner localement.
  • Exécuter un bot de recherche pour workflows planifiés ou à la demande : Hébergez un agent déclenchable par vos systèmes via appels API ou webhooks.
  • Déployer un agent de pipeline de données : Exposez un agent comme service API pour orchestrer ou déclencher des étapes de traitement de données depuis d'autres services.
  • Passer des workflows multi-agents en production : Hébergez des agents construits avec des frameworks comme CrewAI ou LangGraph pour router le trafic vers un service live et observer les requêtes.
  • Démos d'équipe et prototypes avec lien partageable : Remplacez les « screenshots localhost » par un lien live en déployant rapidement sur un endpoint public.

FAQ

  • Maritime supporte-t-il mon framework d'agents ? Maritime indique supporter l'apport de votre propre stack et que si ça tourne dans un conteneur, ça tourne sur Maritime. Il liste aussi des intégrations/exemples comme OpenClaw, CrewAI, LangGraph et setups d'agents avec OpenAI Agents.

  • Comment Maritime rend-il mon agent accessible ? Au déploiement, Maritime fournit une URL HTTPS stable pour chaque agent.

  • Comment sont gérées les clés API et autres identifiants ? Maritime propose un dashboard secrets où les secrets sont chiffrés et injectés au runtime.

  • Quelle visibilité opérationnelle j'obtiens ? Maritime inclut des logs de requêtes en direct et métriques de base.

  • Comment déployer ? Le site décrit la connexion d'un repo GitHub et le déploiement en un clic, sans wiring manuel YAML/cloud.

Alternatives

  • Hébergement serveur traditionnel (VMs/conteneurs) : Exécutez l'agent vous-même sur de l'infra et configurez routage, SSL et scaling. Cela transfère le travail opérationnel vers vous plutôt que d'offrir un flux de déploiement agent-first.
  • Fonctions serverless : Packagez la logique pour exécution style fonction. Mieux adapté aux tâches éphémères mais peut nécessiter plus d'attention aux contraintes comme cold starts et limites d'exécution/temps.
  • Plateformes gérées de workflow/orchestration : Utilisez des outils qui orchestrent des workflows AI multi-étapes mais ne fournissent pas le même modèle d'hébergement conteneur agent et expérience endpoint live décrite par Maritime.
Maritime | UStack