UStackUStack
eron icon

eron

Eron es un cliente ligero de chat con IA para iOS con Ollama: conéctalo a tu endpoint local o alojado con tu API key y chatea.

eron

¿Qué es eron?

Eron es un cliente ligero de IA para usar tu configuración de Ollama desde iOS. Se conecta a un endpoint local o alojado de Ollama y te permite chatear con los modelos disponibles en ese endpoint.

El propósito principal de eron es ofrecer acceso rápido y móvil a los modelos de Ollama, manteniendo las solicitudes dirigidas al endpoint que especifiques y los controles que manejes.

Características principales

  • Conéctate a un endpoint local o alojado de Ollama usando tu API key, para que la app acceda a tu backend elegido.
  • Acceso rápido a los modelos configurados en tu setup de Ollama, con posibilidad de cambiar entre modelos.
  • Chatea con cualquier modelo que aparezca del endpoint de Ollama conectado.
  • Opciones de carga y búsqueda web, incluyendo envío de imágenes y documentos, y activación de búsqueda web para respuestas actualizadas.
  • Procesamiento local y sin recopilación de datos/análisis, con solicitudes procesadas a través de tu propio setup de Ollama y sin servicios de análisis o seguimiento usados por la app.

Cómo usar eron

  1. Instala eron desde la App Store de iOS.
  2. En la app, proporciona los detalles de conexión para tu endpoint de Ollama e ingresa tu API key.
  3. Selecciona un modelo de la lista mostrada por el endpoint conectado.
  4. Inicia un chat. Si es necesario, adjunta imágenes o documentos y/o activa la búsqueda web para respuestas basadas en información actual.

Casos de uso

  • Chatear desde móvil con tus propios modelos de Ollama cuando estás lejos de tu ordenador, usando el mismo conjunto de modelos que en tu servidor.
  • Cambiar rápidamente entre modelos para diferentes tareas (por ejemplo, usando distintos modelos disponibles en tu endpoint de Ollama).
  • Compartir contexto con el modelo enviando imágenes o documentos directamente desde tu dispositivo iOS.
  • Obtener respuestas que usen búsqueda web cuando necesites información más actual que la disponible solo en el modelo.
  • Mantener el tráfico de IA bajo tu control dirigiendo todas las solicitudes a través de tu propio setup de Ollama y especificando el endpoint manualmente.

Preguntas frecuentes

  • ¿Eron envía mensajes de usuario a un servicio externo?
    La página indica que todos los mensajes de usuario se transmiten solo al endpoint que el usuario ingresa manualmente, y ese endpoint es operado y controlado por el usuario.

  • ¿Eron usa análisis o seguimiento?
    No. La página indica que eron no usa servicios de análisis o seguimiento.

  • ¿Puedo usar modelos de un endpoint local o alojado de Ollama?
    Sí. Eron puede conectarse a un endpoint local o alojado de Ollama usando tu API key.

  • ¿Qué contenido puedo enviar al modelo?
    La página indica que puedes enviar imágenes y documentos.

  • ¿Está disponible la búsqueda web para respuestas actualizadas?
    Sí. Eron incluye una opción para activar la búsqueda web.

Alternativas

  • Clientes de chat genéricos compatibles con Ollama en iOS: Busca otras apps móviles que actúen como frontends de Ollama, ofreciendo selección de modelos y chat contra un endpoint de Ollama configurable.
  • Apps de chat con IA de escritorio que se conectan a Ollama: Los clientes de escritorio pueden ofrecer un espacio de trabajo más completo (p. ej., manejo de documentos o vistas multi-sesión) mientras usan el mismo backend local/alojado de Ollama.
  • Frontends de Ollama basados en web: Las apps de navegador pueden ofrecer acceso rápido y entornos compartidos, con funcionalidad similar (cambio de modelos, chat) impulsada por tu endpoint de Ollama configurado.
  • Integración directa con la API (app personalizada o scripts): Para equipos que necesitan flujos de trabajo a medida, construir contra la API de Ollama puede reemplazar un cliente independiente, a costa de más configuración y mantenimiento.
eron | UStack