OpenMolt
Mit OpenMolt baust du in Node.js programmgesteuerte KI-Agents, die mit Tools, Integrationen und Memory aus deinem Code heraus denken, planen und handeln.
Was ist OpenMolt?
OpenMolt ist ein programmgesteuertes Node.js-System zum Erstellen von KI-Agents, die mit deinem Codebase denken, planen und handeln können. Statt der Agentenlogik in einer separaten Produkt-UI auszuführen, definierst du Agents, verbindest Tools und Integrationen und steuerst das Agentenverhalten direkt aus dem Anwendungs-Code.
Der Kernzweck ist es, dir beim Aufbau produktionsreifer Agenten-Workflows zu helfen – tool-verwendend, strukturiert-ausgebend und zustandsbehaftet –, während API-Credentials auf deinem Server bleiben.
Wichtige Features
- Programmgesteuerte Agentenerstellung für Node.js: Erstelle Agents aus deinem Code mit einer JavaScript/TypeScript-freundlichen API.
- Multi-Provider-LLM-Unterstützung via einheitlicher Model-Strings: Verwende ein konsistentes Modellformat, um zwischen Providern wie OpenAI GPT-4o, Anthropic Claude und Google Gemini zu wechseln.
- Sicherheitsmodell mit scope-basierten Berechtigungen: Credentials werden serverseitig gespeichert; Tool-Aufrufe werden in HTTP-Requests umgewandelt, sodass das LLM Tool-Ergebnisse erhält und keine rohen API-Keys oder Tokens.
- Deklarative Tools und Integrationen: Definiere Tools als Daten (Endpoint, Auth-Template und Schemas), um Boilerplate-HTTP-Code zu vermeiden.
- Strukturierte Ausgabe mit Zod-Schemas: Stelle ein Zod-Schema bereit und erhalte ein validiertes, typisiertes Objekt statt manuellem Parsen von LLM-Antworten.
- Scheduling und cron-ähnliche Automatisierung: Führe Agents in Intervall-Schedules oder cron-ähnlichen täglichen Zeitplänen mit Zeitzonenunterstützung aus.
- Event-getriebene Einblicke in die Reasoning-Schleife: Hake dich in Schleifenschritte ein, um Tool-Aufrufe, Plan-Updates, LLM-Ausgaben und finale Ergebnisse zu beobachten.
- Persistente Memory mit Callbacks: Halte langfristige und kurzfristige Memory-Stores aufrecht und nutze onUpdate-Callbacks, um Memory extern zu persistieren; Agents können Memory während des Laufs aktualisieren.
So nutzt du OpenMolt
- Installiere das Paket in deinem Node.js-Projekt.
- Initialisiere OpenMolt mit der Konfiguration deines gewählten LLM-Providers (z. B. setze den OpenAI-API-Key via Umgebungsvariable).
- Erstelle einen Agenten mit Name, Modell-Identifier (im einheitlichen Model-String-Format) und Anweisungen.
- Führe den Agenten mit einem User-Prompt aus deinem Anwendungs-Code aus.
Beispiel-Flow auf der Site:
- Install:
npm install openmolt - Erstelle und führe einen Agenten aus: instanziiere
OpenMolt, rufecreateAgent(...)auf, dannagent.run('...')und logge das Ergebnis.
Anwendungsfälle
- Tägliche Reporting-Automatisierung: Plane einen Agenten, der morgens Metriken (z. B. von Stripe) zieht, eine Zusammenfassung generiert und den Report in einen Slack-Kanal postet.
- Multi-Step-Content-Pipelines: Nutze einen Agenten, um Inhalte basierend auf einer Strategiebeschreibung zu schreiben, zugehörige Assets zu generieren und Ausgaben als Teil eines End-to-End-Workflows auf Disk zu speichern.
- E-Mail-Entwurfs mit Human Review: Entwerfe Antworten auf eingehende Gmail-Nachrichten basierend auf Vorgaben, während Review und Versand in Gmail bleiben.
- Developer-Workflow-Automatisierung: Löse GitHub-bezogene Tasks aus, wie Issue-Triaging, Label-Anwendung, Posten von Release-Notes zu Slack und Generieren von Changelogs als Teil von CI/CD.
- Commerce-Operations und Reporting: Überwache Shopify-Bestellungen, aktualisiere Records in Airtable, sende Benachrichtigungen via Twilio und publiziere tägliche Umsatz-Zusammenfassungen auf ein Notion-Dashboard.
FAQ
Was meint OpenMolt mit „programmgesteuerten KI-Agents“?
OpenMolt ist so konzipiert, dass du Agents, Tools und Workflows aus deiner Node.js/TypeScript-Codebase definierst – statt Agents über eine separate UI zu konfigurieren und auszuführen.
Kann ich mehrere LLM-Provider mit demselben Agenten-Code nutzen?
Die Dokumentation besagt, dass OpenMolt mehrere LLM-Provider (inkl. OpenAI, Anthropic Claude und Google Gemini) mit einem einheitlichen Model-String-Format unterstützt, sodass du Provider wechseln kannst, ohne deinen Code zu ändern.
Wie handhabt OpenMolt API-Keys und Agentenzugriff auf Tools?
OpenMolt verwendet ein scope-basiertes Berechtigungsmodell: Credentials werden serverseitig gespeichert und via Liquid-Templates in HTTP-Requests eingefügt. Das LLM erhält Tool-Ergebnisse (Tool-Outputs) statt roher API-Keys oder Tokens.
Welche Ausgaben kann mein Agent zurückgeben?
OpenMolt unterstützt strukturierte Ausgabe mit Zod-Schemas; du kannst ein Schema bereitstellen und erhältst ein validiertes, typisiertes Objekt.
Unterstützt OpenMolt wiederkehrende Läufe und Automatisierung?
Ja. Es unterstützt Scheduling mit intervallbasierten Läufen und cron-ähnlichen täglichen Zeitplänen inkl. Zeitzonenunterstützung.
Alternativen
- Low-Code-Agent-Workflow-Plattformen: Tools mit visuellen Buildern zur Integration von LLMs, Prompts und Aktionen. Sie eignen sich schneller zum Prototyping, verlagern die Konfiguration aber meist aus deinem App-Code heraus.
- Allgemeine Workflow-/Orchestrierungstools mit LLM-Aufrufen: Alternativen, die sich auf Workflows konzentrieren (Schritte, Scheduling, Retries), während du LLM-/Tool-Aufrufe selbst implementierst. Im Vergleich zu OpenMolt brauchst du oft mehr Klebercode für strukturierte Ausgaben, Tool-Definitionen und Memory-Muster.
- Open-Source-Agent-Frameworks in anderen Ökosystemen: Agent-Bibliotheken in Python oder anderen Sprachen mit ähnlichen Konzepten (Tools, Memory, strukturierte Ausgaben). Unterschiede ergeben sich meist aus Sprache/Runtime-Integration (Node.js vs. andere Stacks) sowie dem Umfang integrierter Features und Security-Muster.
- Eigenständige Tool-Calling-Services: Eigene Agent-Runner und Tool-Registries bieten maximale Kontrolle, erfordern aber meist mehr Engineering-Aufwand für Scheduling, Validierung strukturierter Ausgaben und persistente Memory-Speicherung.
Alternativen
AakarDev AI
AakarDev AI ist eine leistungsstarke Plattform, die die Entwicklung von KI-Anwendungen mit nahtloser Integration von Vektordatenbanken vereinfacht und eine schnelle Bereitstellung und Skalierbarkeit ermöglicht.
Arduino VENTUNO Q
Arduino VENTUNO Q ist ein Edge-AI-Computer für Robotik und physische Systeme: KI-Inferenz mit Microcontroller für deterministische Steuerung. Entwickeln in Arduino App Lab.
Devin
Devin ist ein AI-Coding-Agent für Softwareteams: unterstützt Parallelisierung von Migrations- und Refactoring-Subtasks, während Engineers steuern und Änderungen freigeben.
BenchSpan
BenchSpan führt KI-Agent-Benchmarks parallel aus, erfasst Scores und Fehler in einer geordneten Run-Historie und macht Ergebnisse commit-gebunden reproduzierbar.
Edgee
Edgee ist ein edge-natives AI-Gateway: komprimiert Prompts vor LLM-Providern und bietet eine OpenAI-kompatible API zum Routing über 200+ Modelle.
Codex Plugins
Mit Codex Plugins bündelst du Skills, App-Integrationen und MCP-Server zu wiederverwendbaren Workflows und erweiterst Codex für Tools wie Gmail, Google Drive und Slack.