UStackUStack
Edgee icon

Edgee

Edgee ist ein edge-natives AI-Gateway: komprimiert Prompts vor LLM-Providern und bietet eine OpenAI-kompatible API zum Routing über 200+ Modelle.

Edgee

Was ist Edgee?

Edgee ist ein edge-natives AI-Gateway, das zwischen Ihrer Anwendung oder Coding Agents und LLM-Providern sitzt. Seine Kernaufgabe ist es, Prompts zu komprimieren, bevor sie Model-Providern erreichen, mit dem Ziel, Token-Verbrauch zu reduzieren (und damit Kosten sowie Latenz zu senken), während die Intention erhalten bleibt.

Es stellt eine einzige OpenAI-kompatible API bereit, um Anfragen über 200+ Modelle zu routen, und fügt eine „Edge-Intelligence“-Schicht für Routing-Richtlinien, Kostensteuerung, private Modelle, geteilte Tools und Observability hinzu.

Wichtige Funktionen

  • Token-Komprimierung für Prompts: Reduziert die Prompt-Größe, bevor Anfragen an LLM-Provider gesendet werden, zielt auf geringere Token-Zahlen bei langen Kontexten, RAG-Pipelines und Multi-Turn-Agent-Läufen ab.
  • OpenAI-kompatible Gateway-API: Bietet eine API-Schnittstelle, die Traffic über 200+ Modelle routen kann, statt separater provider-spezifischer Integrationen.
  • Transparenter Proxy-Modus für Coding Agents: Entwickelt für nahtlose Nutzung ohne Code-Änderungen bei Agents, mit Komprimierung ab der ersten Anfrage.
  • Routing-Richtlinien und Kostensteuerung: Fügt Edge-Level-Steuerungen für Routing von Anfragen und Verwaltung des Modellverbrauchs hinzu.
  • Tools am Edge: Unterstützt das Aufrufen geteilter, von Edgee verwalteter Tools sowie das Deployen eigener privater Tools näher an Nutzern und Providern für bessere Kontrolle und geringere Latenz.
  • Eigene Keys oder Edge-verwaltete Keys: Ermöglicht die Nutzung von Edgee-Keys für Bequemlichkeit oder das Einbinden eigener Provider-Keys für Abrechnungskontrolle und benutzerdefinierte Modellkonfigurationen.
  • Observability: Erfassung von Latenz, Fehlern und Verbrauch inklusive Kosten pro Modell, pro App und pro Environment.
  • Private Modell-Deployment via serverless Open-Source-LLMs: Deployt serverless Open-Source-Modelle on-demand und stellt sie über dieselbe Gateway-API wie öffentliche Provider bereit.

So nutzen Sie Edgee

  1. Edgee CLI installieren: Führen Sie den auf der Site gezeigten Installationsbefehl aus (curl -fsSL https://install.edgee.ai | bash).
  2. Edgee mit Agent oder App verbinden: Für Coding Agents nutzen Sie den CLI/Launch-Flow, um Edgee als transparenten Proxy zu verbinden, damit Token-Komprimierung ohne Code-Änderungen erfolgt.
  3. Anfragen über die Gateway-API senden: Ihre Anwendung oder Agent sendet Anfragen an Edgee via OpenAI-kompatibler Schnittstelle; Edgee wendet Token-Komprimierung sowie konfigurierte Routing, Tools und Steuerungen an.
  4. Ergebnisse überwachen: Nutzen Sie Edgee-Observability, um Latenz, Fehler und Verbrauch/Kosten pro Modell, App und Environment zu prüfen.

Anwendungsfälle

  • Coding Agents mit wiederholten, langen Kontexten: Nutzen Sie Edgee, um Prompts für Coding-Assistenten zu komprimieren, damit Multi-Turn-Coding-Sessions und Long-Context-Interaktionen weniger Tokens verbrauchen.
  • RAG-Pipelines: Platzieren Sie Edgee vor LLM-Aufrufen in Retrieval-Augmented-Generation-Flows, um den Token-Fußabdruck von Prompts mit abgerufenen Kontexten zu reduzieren.
  • Apps mit mehreren LLM-Providern: Integrieren Sie einmal via OpenAI-kompatible Gateway-API und routen Sie Anfragen über viele Modelle durch Edgee statt separater provider-spezifischer Logik.
  • Teams mit Bedarf an Verbrauchs- und Kosten-Transparenz: Nutzen Sie Observability für Aufschlüsselung von Latenz, Fehlern und Verbrauch/Kosten pro Modell, pro App und pro Environment.
  • Private Modelle und Custom-Tools deployen: Stellen Sie serverless Open-Source-LLMs und private Tools über dieselbe Gateway-API bereit, mit Modell- und Tool-Ausführung kontrolliert am Edge.

FAQ

Ist Edgee ein Proxy für bestehende Agents?

Edgee wird als transparenter Proxy für Coding Agents beschrieben, mit Token-Komprimierung ab der ersten Anfrage und ohne erforderliche Code-Änderungen.

Verwendet Edgee eine OpenAI-kompatible API?

Ja. Die Site gibt an, dass Edgee hinter einer einzigen OpenAI-kompatiblen API sitzt.

Wie reduziert Edgee Kosten?

Edgee verringert den Token-Verbrauch durch Komprimierung von Prompts vor LLM-Providern, was die Site mit niedrigeren Rechnungen und geringerer Latenz verknüpft – besonders bei langen Kontexten und Multi-Turn-Agents.

Kann ich eigene Provider-API-Keys nutzen?

Die Site sagt, Sie können Edgee-Keys für Bequemlichkeit verwenden oder eigene Provider-Keys einbinden für Abrechnungskontrolle und Custom-Modelle.

Was zeigt Edgee in der Observability an?

Edgee-Observability umfasst Latenz, Fehler und Verbrauch/Kosten pro Modell, pro App und pro Environment.

Alternativen

  • Provider-spezifische SDK-Integrationen: Statt über ein Gateway zu routen, direkt mit einem oder mehreren LLM-Providern integrieren. Das kann einfacher sein, erfordert aber typischerweise separate Handhabung pro Provider und weniger gemeinsame Steuerungen über Modelle hinweg.
  • RAG- und Prompt-Optimierungs-Layer ohne Gateway: Tools, die sich nur auf Prompt-Erstellung, Zusammenfassung oder Kürzung konzentrieren, können Tokens reduzieren, zentralisieren aber möglicherweise keine Routing-Richtlinien, Tool-Management oder Multi-Model-Observability.
  • Selbst gehostete Proxy-/Gateway-Lösungen: Ein benutzerdefiniertes oder Open-Source-Gateway/Proxy kann API-Kompatibilität und Logging zentralisieren, aber Token-Kompression, Tool-Ausführung und privater Model-Deployment erfordern zusätzlichen Implementierungsaufwand.