UStackUStack
xAI API icon

xAI API

Entwickler-Tutorial zur Nutzung von Grok-Modellen mit der xAI API: Konto, API-Schlüssel, SDK-Installation und erste Text- oder Bildanfragen.

xAI API

Was ist die xAI API?

Die xAI API ist eine developerorientierte Möglichkeit, die Grok-Modelle von xAI direkt aus Ihrem Anwendungs-Code zu nutzen. Der Hauptzweck der API besteht darin, Prompts (und bei einigen Modellen Bilder) zu akzeptieren und generierte Antworten zurückzugeben, die Sie anzeigen, verarbeiten oder für nachgelagerte Anwendungen strukturieren können.

Der Quickstart führt durch den gesamten Workflow: Erstellen eines xAI-Kontos und von Credits, Generieren eines API-Schlüssels, Installieren eines SDK und Senden der ersten Anfrage an ein Grok-Modell mit unterstützten Endpunkten und Beispielen.

Wichtige Features

  • API-Key-Authentifizierung über Umgebungsvariable: Konfigurieren Sie Ihren Code mit XAI_API_KEY, die die xAI SDKs automatisch lesen.
  • SDK-Unterstützung für gängige Sprachen: Installieren Sie das xAI SDK für Python oder JavaScript, um Grok-Modelle ohne rohe HTTP-Anfragen aufzurufen.
  • Chat-ähnliche Textgenerierung: Senden Sie System- und Benutzernachrichten und sampeln Sie die Modellausgabe für Textantworten.
  • Kompatibilität mit Responses-Endpunkt: Rufen Sie https://api.x.ai/v1/responses direkt mit einem API-Key für Modell-Inferenz auf.
  • Multimodale Eingaben (Text + Bild): Bei unterstützenden Modellen Bild-URL zusammen mit Text in einer einzigen Anfrage einbeziehen.
  • Strukturierte Ausgaben (für unterstützte Modelle): Einige Modelle erlauben die Erzwingung eines Ausgabeschemas, um die Form der generierten Ergebnisse zu steuern.

So nutzen Sie die xAI API

  1. Erstellen Sie ein xAI-Konto unter accounts.x.ai und fügen Sie Credits hinzu, um die API nutzen zu können.
  2. Erstellen Sie einen API-Key in der xAI Console unter API Keys.
  3. Setzen Sie XAI_API_KEY entweder durch Export im Terminal oder in einer .env-Datei:
    • export XAI_API_KEY="your_api_key"
    • XAI_API_KEY=your_api_key
  4. Installieren Sie ein SDK je nach Sprache:
    • Python: pip install xai-sdk
    • JavaScript: npm install ai @ai-sdk/xai zod
  5. Senden Sie eine Anfrage an ein Grok-Modell (Beispiel zeigt grok-4.20-reasoning für Text und grok-4 für Bild+Text). Nutzen Sie entweder SDK-Beispiele oder die direkte responses-HTTP-Anfrage.

Anwendungsfälle

  • Chat-Oberfläche für Grok erstellen: Bauen Sie eine App, die Benutzerfragen und optionale Systemanweisungen sendet, dann response.content oder completion.output_text anzeigt.
  • Text mit bekanntem Model-Endpunkt generieren: Nutzen Sie den POST https://api.x.ai/v1/responses-Workflow, um Grok in Services zu integrieren, bei denen Sie direkte HTTP-Aufrufe bevorzugen.
  • Bildverständnis in Q&A-Flow hinzufügen: Reichen Sie eine Bild-URL mit einem Prompt wie „What’s in this image?“ im multimodalen Request-Format aus dem Quickstart ein.
  • Ausgabeformatierung für nachgelagerte Verarbeitung erzwingen: Bei unterstützenden Grok-Modellen Structured Outputs anwenden, damit Ergebnisse einem von Ihnen definierten Schema folgen.
  • Schnelle Experimente über Runtimes: Wechseln Sie zwischen Python- und JavaScript-Beispielen bei gleicher Umgebungsvariablen-Konfiguration (XAI_API_KEY).

FAQ

Wie authentifiziere ich Anfragen an die xAI API?

Erstellen Sie einen API-Key in der xAI Console und setzen Sie ihn als XAI_API_KEY (z. B. via export XAI_API_KEY="..." oder .env-Datei). Das xAI SDK liest diese Umgebungsvariable automatisch.

Welches Grok-Modell kann ich für meine erste Anfrage nutzen?

Die Quickstart-Beispiele verwenden grok-4.20-reasoning für reine Text-Chat-Generierung und grok-4 für Bild+Text-Eingaben.

Kann ich die API ohne SDK aufrufen?

Ja. Der Quickstart enthält ein direktes curl-Beispiel, das an https://api.x.ai/v1/responses mit JSON-Body postet, der model und input enthält.

Wie sende ich Bilder an Grok?

Bei bildfähigen Modellen Bild-URL zusammen mit Text in der Eingabe einbeziehen (Beispiel nutzt input_image / input_text-Struktur im SDK oder typisierte Content-Struktur im responses-Aufruf).

Was sind Structured Outputs?

Der Quickstart erwähnt, dass bestimmte Modelle Structured Outputs unterstützen, mit denen Sie ein Schema für die LLM-Ausgabe erzwingen können. Die Seite verweist auf einen dedizierten „Text Generation Guide“ für detaillierte Nutzung.

Alternativen

  • Chat/Assistants-API eines anderen LLM-Anbieters nutzen: Bei Workflow „Prompt rein, generierter Text raus“ können Sie einen anderen Anbieter mit ähnlicher Key-basierter Authentifizierung und Request-Format einsetzen.
  • Framework-agnostischen Textgenerierungsansatz: Statt vendor-spezifischem SDK Requests direkt gegen einen „completions/responses“-Endpunkt bauen, um Integration sprachübergreifend konsistent zu halten.
  • Multimodale Model-APIs nutzen: Bei primärem Bedarf an Bild+Text-Verständnis Anbieter mit expliziter Bild-Unterstützung im Request-Schema wählen und Payload entsprechend anpassen.
xAI API | UStack