UStackUStack
eron icon

eron

Eron ist ein leichter iOS-Chat-Client für Ollama: Verbinde dich mit deinem lokalen oder gehosteten Endpoint per API-Key und chatte mit deinen Modellen.

eron

Was ist eron?

Eron ist ein leichter AI-Client, um deine Ollama-Installation von iOS aus zu nutzen. Es verbindet sich mit einem lokalen oder gehosteten Ollama-Endpoint und ermöglicht das Chatten mit den Modellen, die dort verfügbar sind.

Der Kernzweck von eron ist es, schnellen mobilen Zugriff auf Ollama-Modelle zu bieten, wobei Anfragen an den von dir angegebenen Endpoint geleitet und von dir gesteuert werden.

Wichtige Funktionen

  • Verbinde dich mit einem lokalen oder gehosteten Ollama-Endpoint per API-Key, damit die App deinen gewählten Backend erreicht.
  • Schneller Zugriff auf in deiner Ollama-Installation konfigurierte Modelle, mit Möglichkeit zum Wechseln zwischen Modellen.
  • Chatte mit jedem Modell, das vom verbundenen Ollama-Endpoint angezeigt wird.
  • Upload- und Web-Suchoptionen, inklusive Versenden von Bildern und Dokumenten sowie Aktivieren der Web-Suche für aktuelle Antworten.
  • Lokale Verarbeitung ohne Datensammlung/Analytics, Anfragen werden über deine eigene Ollama-Installation verarbeitet, ohne Analytics- oder Tracking-Dienste der App.

So nutzt du eron

  1. Installiere eron aus dem iOS App Store.
  2. Gib in der App die Verbindungsdetails für deinen Ollama-Endpoint ein und trage deinen API-Key ein.
  3. Wähle ein Modell aus der Liste des verbundenen Endpoints.
  4. Starte einen Chat. Bei Bedarf füge Bilder oder Dokumente bei und/oder aktiviere Web-Suche für aktuelle Informationen.

Anwendungsfälle

  • Mobiles Chatten mit deinen eigenen Ollama-Modellen unterwegs, mit derselben Modellauswahl wie auf deinem Server.
  • Schnelles Wechseln zwischen Modellen für verschiedene Aufgaben (z. B. Nutzung unterschiedlicher Modelle deines Ollama-Endpoints).
  • Teilen von Kontext mit dem Modell durch direkten Versand von Bildern oder Dokumenten von deinem iOS-Gerät.
  • Erhalten von Antworten mit Web-Suche, wenn du aktuellere Infos brauchst als im Modell gespeichert.
  • Halten des AI-Traffics unter deiner Kontrolle durch Leiten aller Anfragen über deine Ollama-Installation und manuelle Endpoint-Angabe.

FAQ

  • Sendet eron Nutzer-Nachrichten an einen externen Dienst?
    Die Seite gibt an, dass alle Nutzer-Nachrichten nur an den manuell eingegebenen Endpoint gesendet werden, der vom Nutzer betrieben und kontrolliert wird.

  • Verwendet eron Analytics oder Tracking?
    Nein. Die Seite gibt an, dass eron keine Analytics- oder Tracking-Dienste nutzt.

  • Kann ich Modelle von einem lokalen oder gehosteten Ollama-Endpoint nutzen?
    Ja. Eron kann sich per API-Key mit einem lokalen oder gehosteten Ollama-Endpoint verbinden.

  • Welchen Inhalt kann ich an das Modell senden?
    Die Seite gibt an, dass du Bilder und Dokumente senden kannst.

  • Ist Web-Suche für aktuelle Antworten verfügbar?
    Ja. Eron bietet eine Option zur Aktivierung der Web-Suche.

Alternativen

  • Generische Ollama-kompatible Chat-Clients für iOS: Suche nach anderen mobilen Apps als Ollama-Frontends mit Modellauswahl und Chat gegen konfigurierbaren Ollama-Endpoint.
  • Desktop-AI-Chat-Apps, die mit Ollama verbinden: Desktop-Clients bieten reichhaltigere Arbeitsumgebungen (z. B. Dokumentenhandling oder Multi-Session-Ansichten) bei Nutzung desselben lokalen/gehosteten Ollama-Backends.
  • Web-basierte Ollama-Frontends: Browser-Apps ermöglichen schnellen Zugriff und geteilte Umgebungen mit ähnlicher Funktionalität (Modellwechsel, Chat) über deinen konfigurierten Ollama-Endpoint.
  • Direkte API-Integration (Custom-App oder Skripte): Für Teams mit maßgeschneiderten Workflows kann eine Entwicklung gegen die Ollama-API einen Standalone-Client ersetzen, bei höherem Setup- und Wartungsaufwand.
eron | UStack