xAI API
Entwickler-Tutorial zur Nutzung von Grok-Modellen mit der xAI API: Konto, API-Schlüssel, SDK-Installation und erste Text- oder Bildanfragen.
Was ist die xAI API?
Die xAI API ist eine developerorientierte Möglichkeit, die Grok-Modelle von xAI direkt aus Ihrem Anwendungs-Code zu nutzen. Der Hauptzweck der API besteht darin, Prompts (und bei einigen Modellen Bilder) zu akzeptieren und generierte Antworten zurückzugeben, die Sie anzeigen, verarbeiten oder für nachgelagerte Anwendungen strukturieren können.
Der Quickstart führt durch den gesamten Workflow: Erstellen eines xAI-Kontos und von Credits, Generieren eines API-Schlüssels, Installieren eines SDK und Senden der ersten Anfrage an ein Grok-Modell mit unterstützten Endpunkten und Beispielen.
Wichtige Features
- API-Key-Authentifizierung über Umgebungsvariable: Konfigurieren Sie Ihren Code mit
XAI_API_KEY, die die xAI SDKs automatisch lesen. - SDK-Unterstützung für gängige Sprachen: Installieren Sie das xAI SDK für Python oder JavaScript, um Grok-Modelle ohne rohe HTTP-Anfragen aufzurufen.
- Chat-ähnliche Textgenerierung: Senden Sie System- und Benutzernachrichten und sampeln Sie die Modellausgabe für Textantworten.
- Kompatibilität mit Responses-Endpunkt: Rufen Sie
https://api.x.ai/v1/responsesdirekt mit einem API-Key für Modell-Inferenz auf. - Multimodale Eingaben (Text + Bild): Bei unterstützenden Modellen Bild-URL zusammen mit Text in einer einzigen Anfrage einbeziehen.
- Strukturierte Ausgaben (für unterstützte Modelle): Einige Modelle erlauben die Erzwingung eines Ausgabeschemas, um die Form der generierten Ergebnisse zu steuern.
So nutzen Sie die xAI API
- Erstellen Sie ein xAI-Konto unter
accounts.x.aiund fügen Sie Credits hinzu, um die API nutzen zu können. - Erstellen Sie einen API-Key in der xAI Console unter API Keys.
- Setzen Sie
XAI_API_KEYentweder durch Export im Terminal oder in einer.env-Datei:export XAI_API_KEY="your_api_key"XAI_API_KEY=your_api_key
- Installieren Sie ein SDK je nach Sprache:
- Python:
pip install xai-sdk - JavaScript:
npm install ai @ai-sdk/xai zod
- Python:
- Senden Sie eine Anfrage an ein Grok-Modell (Beispiel zeigt
grok-4.20-reasoningfür Text undgrok-4für Bild+Text). Nutzen Sie entweder SDK-Beispiele oder die direkteresponses-HTTP-Anfrage.
Anwendungsfälle
- Chat-Oberfläche für Grok erstellen: Bauen Sie eine App, die Benutzerfragen und optionale Systemanweisungen sendet, dann
response.contentodercompletion.output_textanzeigt. - Text mit bekanntem Model-Endpunkt generieren: Nutzen Sie den
POST https://api.x.ai/v1/responses-Workflow, um Grok in Services zu integrieren, bei denen Sie direkte HTTP-Aufrufe bevorzugen. - Bildverständnis in Q&A-Flow hinzufügen: Reichen Sie eine Bild-URL mit einem Prompt wie „What’s in this image?“ im multimodalen Request-Format aus dem Quickstart ein.
- Ausgabeformatierung für nachgelagerte Verarbeitung erzwingen: Bei unterstützenden Grok-Modellen Structured Outputs anwenden, damit Ergebnisse einem von Ihnen definierten Schema folgen.
- Schnelle Experimente über Runtimes: Wechseln Sie zwischen Python- und JavaScript-Beispielen bei gleicher Umgebungsvariablen-Konfiguration (
XAI_API_KEY).
FAQ
Wie authentifiziere ich Anfragen an die xAI API?
Erstellen Sie einen API-Key in der xAI Console und setzen Sie ihn als XAI_API_KEY (z. B. via export XAI_API_KEY="..." oder .env-Datei). Das xAI SDK liest diese Umgebungsvariable automatisch.
Welches Grok-Modell kann ich für meine erste Anfrage nutzen?
Die Quickstart-Beispiele verwenden grok-4.20-reasoning für reine Text-Chat-Generierung und grok-4 für Bild+Text-Eingaben.
Kann ich die API ohne SDK aufrufen?
Ja. Der Quickstart enthält ein direktes curl-Beispiel, das an https://api.x.ai/v1/responses mit JSON-Body postet, der model und input enthält.
Wie sende ich Bilder an Grok?
Bei bildfähigen Modellen Bild-URL zusammen mit Text in der Eingabe einbeziehen (Beispiel nutzt input_image / input_text-Struktur im SDK oder typisierte Content-Struktur im responses-Aufruf).
Was sind Structured Outputs?
Der Quickstart erwähnt, dass bestimmte Modelle Structured Outputs unterstützen, mit denen Sie ein Schema für die LLM-Ausgabe erzwingen können. Die Seite verweist auf einen dedizierten „Text Generation Guide“ für detaillierte Nutzung.
Alternativen
- Chat/Assistants-API eines anderen LLM-Anbieters nutzen: Bei Workflow „Prompt rein, generierter Text raus“ können Sie einen anderen Anbieter mit ähnlicher Key-basierter Authentifizierung und Request-Format einsetzen.
- Framework-agnostischen Textgenerierungsansatz: Statt vendor-spezifischem SDK Requests direkt gegen einen „completions/responses“-Endpunkt bauen, um Integration sprachübergreifend konsistent zu halten.
- Multimodale Model-APIs nutzen: Bei primärem Bedarf an Bild+Text-Verständnis Anbieter mit expliziter Bild-Unterstützung im Request-Schema wählen und Payload entsprechend anpassen.
Alternativen
AakarDev AI
AakarDev AI ist eine leistungsstarke Plattform, die die Entwicklung von KI-Anwendungen mit nahtloser Integration von Vektordatenbanken vereinfacht und eine schnelle Bereitstellung und Skalierbarkeit ermöglicht.
Ably Chat
Ably Chat ist eine Chat-API und SDKs für maßgeschneiderte Realtime-Chat-Apps: Reactions, Presence sowie Nachrichten editieren/löschen.
BookAI.chat
BookAI ermöglicht es Ihnen, mit Ihren Büchern zu chatten, indem Sie einfach den Titel und den Autor angeben.
DeepMotion
DeepMotion ist eine AI-Motion-Capture- und Body-Tracking-Plattform für 3D-Animationen aus Video (und Text) im Browser – per Animate 3D API integrierbar.
skills-janitor
skills-janitor prüft, verfolgt die Nutzung und vergleicht deine Claude Code Skills mit neun Slash-Command-Aktionen – ohne Abhängigkeiten.
Arduino VENTUNO Q
Arduino VENTUNO Q ist ein Edge-AI-Computer für Robotik und physische Systeme: KI-Inferenz mit Microcontroller für deterministische Steuerung. Entwickeln in Arduino App Lab.