Dify
Dify ist ein agentisches Workflow-Builder für autonome AI-Agents und RAG-Pipelines: erstellen, bereitstellen und verwalten – mit Tools, Integrationen & Observability.
Was ist Dify?
Dify ist ein agentischer Workflow-Builder zum Erstellen, Bereitstellen und Verwalten autonomer AI-Agents und RAG-(Retrieval-Augmented-Generation)-Pipelines. Das Produkt positioniert sich als zentrale Plattform für den Aufbau „production-ready“ agentischer Workflows und zugehöriger Komponenten.
Sein Kernzweck ist es, Teams zu helfen, von einem Workflow-Konzept zu etwas Fortschrittlichem, das sie veröffentlichen und ausführen können – indem Modelle, Datenabruf und externe Tools zu einem kohärenten Anwendungsfluss verbunden werden.
Wichtige Funktionen
- Drag-and-Drop-Workflow-Erstellung: Erstellen Sie AI-Apps und Workflows visuell, inklusive Workflows für vielfältige Aufgaben und sich wandelnde Anforderungen.
- Unterstützung für mehrere globale LLMs: Greifen Sie auf verschiedene Large-Language-Modelle zu, wechseln Sie zwischen ihnen und vergleichen Sie sie – inklusive Open-Source- und proprietärer Optionen.
- RAG-Pipeline-Erstellung („Get Your Data LLM Ready with RAG“): Bereiten Sie App-Daten für LLM-Nutzung vor, indem Sie Retrieval in den Workflow integrieren.
- Integration via Tools und Plugins („Add Wings with Tools“): Erweitern Sie die Möglichkeiten einer AI-Anwendung durch Hinzufügen von Tools/Plugins.
- Native MCP-Integration: Verbinden Sie externe APIs, Datenbanken und Services mit standardisierten MCP-Protokollen, inklusive Unterstützung für HTTP-basierte MCP-Services (Protokoll vom 2025-03-26) sowie vor-autorisierten/auth-freien Modi.
- Worksheets/Agents als MCP-Server veröffentlichen („Publish as an Universal MCP Server“): Stellen Sie Dify-Workflows oder Agents bereit, damit sie von unbegrenzt vielen MCP-Clients genutzt werden können.
- Integrationen und Observability an einem Ort: Die Seite beschreibt Dify als Anbieter von agentischen Workflows, RAG-Pipelines, Integrationen und Observability zusammen.
So nutzen Sie Dify
- Erstellen Sie einen Workflow mit dem visuellen (Drag-and-Drop)-Builder, um die Schritte Ihrer AI-Anwendung zu definieren.
- Wählen und konfigurieren Sie LLMs, die der Workflow nutzen soll, mit Option zum Zugriff und Vergleich von Modellen.
- Fügen Sie RAG-Komponenten hinzu, um Ihre Daten mit den LLM-Teilen des Workflows zu verbinden.
- Hängen Sie Tools/Plugins an und/oder verbinden Sie externe Services via MCP, damit der Workflow Aktionen ausführen oder Informationen abrufen kann.
- Veröffentlichen Sie den Workflow mit Dify-Optionen, inklusive der Möglichkeit, als universalen MCP-Server für breiten Client-Zugriff bereitzustellen.
Anwendungsfälle
- Autonomer Agent-Workflow für mehrstufige Aufgaben: Erstellen Sie einen Workflow, der mehrere Schritte (Denken, Tool-Nutzung und Aktionen) verknüpft, um Aufgaben zu bewältigen, die mehr als einen einzelnen Prompt erfordern.
- RAG-gestützter Support- oder Wissensassistent: Bauen Sie eine App, in der Retrieval aus Ihren Datenquellen die LLM-Generierung unterstützt.
- Tool-erweiterte Assistenten: Erweitern Sie eine AI-App über Textgenerierung hinaus durch Tools/Plugins, damit der Workflow zusätzliche Operationen ausführen kann.
- Verknüpfung von Business-Systemen durch MCP: Nutzen Sie native MCP-Integration, um externe APIs, Datenbanken und Services mit standardisierten MCP-Protokollen zu erreichen.
- Wiederverwendbarer interner Workflow über MCP-Clients: Veröffentlichen Sie einen Workflow/Agent als universalen MCP-Server, damit andere MCP-Clients ihn nutzen können.
FAQ
Ist Dify auf eine Art von AI-App beschränkt (nur Chat)?
Nein. Die Seite beschreibt den Aufbau von agentischen Workflows und RAG-Pipelines, nicht nur Chat-Interaktionen.
Kann ich verschiedene LLM-Provider im selben Workflow-Setup nutzen?
Das Produkt ermöglicht Zugriff, Wechsel und Vergleich unterschiedlicher LLMs (inklusive Open-Source und proprietär), was Flexibilität bei der Workflow-Erstellung andeutet.
Wie verbindet Dify meine Daten mit dem LLM?
Dify bietet RAG-Funktionen („Get Your Data LLM Ready with RAG“), sodass Sie Retrieval konfigurieren können, damit das LLM Ihre Daten bei der Generierung nutzt.
Wofür wird MCP-Integration in Dify genutzt?
MCP-Integration dient zum Verbinden externer APIs, Datenbanken und Services mit standardisierten MCP-Protokollen. Sie unterstützt auch das Veröffentlichen von Workflows/Agents als MCP-Server.
Unterstützt Dify HTTP-basierte MCP-Services?
Ja. Die Seite nennt Unterstützung für HTTP-basierte MCP-Services mit Protokoll 2025-03-26, inklusive vor-autorisierter und auth-freier Modi.
Alternativen
- Low-Code-LLM-Workflow-Builder: Tools mit visuellen Buildern zum Verbinden von Prompts, Modellen und Retrieval. Diese konzentrieren sich meist auf App-Erstellung, variieren jedoch in der Unterstützung von Agentenmustern und MCP-ähnlicher Server-Veröffentlichung.
- RAG-fokussierte Orchestrierungsplattformen: Lösungen zum Erstellen von Retrieval- und Dokumentenpipelines, oft mit weniger Fokus auf Multi-Tool-Agenten-Workflows oder standardisierten Server-Interfaces.
- API-first Agent-Frameworks und SDKs: Entwicklerorientierte Frameworks, in denen Agentenlogik und Integrationen in Code implementiert werden. Diese bieten mehr Kontrolle, erfordern aber mehr Engineering-Aufwand als ein visueller Workflow-Builder.
- Allgemeine Automatisierungsplattformen mit AI-Add-ons: Workflow-Automatisierungstools, die LLM-Schritte und Connectoren integrieren können. Sie sind breiter für Automatisierung aufgestellt, bieten aber nicht dieselbe agentische Workflow- + MCP-Veröffentlichungsorientierung wie bei Dify beschrieben.
Alternativen
Codex Plugins
Mit Codex Plugins bündelst du Skills, App-Integrationen und MCP-Server zu wiederverwendbaren Workflows und erweiterst Codex für Tools wie Gmail, Google Drive und Slack.
Struere
Struere ist ein AI-natives Betriebssystem, das Spreadsheet-Workflows durch strukturierte Software ersetzt – mit Dashboards, Alerts und Automationen.
Falconer
Falconer ist eine selbstaktualisierende Wissensplattform für schnelle Teams: interne Doku und Code-Context schreiben, teilen und gezielt finden – an einem Ort.
OpenFlags
OpenFlags ist ein Open-Source, self-hosted Feature-Flag-System für progressive Delivery: lokale Evaluation in App-SDKs und ein simples Control-Plane für gezielte Rollouts.
AakarDev AI
AakarDev AI ist eine leistungsstarke Plattform, die die Entwicklung von KI-Anwendungen mit nahtloser Integration von Vektordatenbanken vereinfacht und eine schnelle Bereitstellung und Skalierbarkeit ermöglicht.
AgentMail
AgentMail ist eine E-Mail-Postfach-API für AI Agents: E-Mails per REST erstellen, senden, empfangen und durchsuchen für bidirektionale Gespräche.