Grok 4.1 Parameter, Kontextfenster & API-Modell-Liste (März 2026)
Grok 4.1 hat 1,7 Billionen Parameter mit einem 256K-Kontextfenster. Vollständige xAI-API-Modell-Identifikatoren: grok-4.1, grok-4.1-mini, grok-3. Genaue Parameterzahlen und Kontextgrößen für jedes Grok-Modell. Aktualisiert im März 2026.
Aktuelle xAI Grok Modell-Identifikatoren (März 2026)
Hier ist der exakte, aktuelle Modell-Identifikator (String) für jedes über die API verfügbare xAI Grok-Modell mit Stand März 2026:
| Modell | Parameter | API-Identifikator | Kontextfenster | Status |
|---|---|---|---|---|
| Grok-5 | 6 Billionen | grok-5 (erwartet) | 512K+ (erwartet) | Erscheint Q1-Q2 2026 |
| Grok-4.1 | ~3 Billionen (MoE) | grok-4.1 | 256K | Aktuelles Flaggschiff |
| Grok-4.1 Mini | ~400 Mrd. (MoE) | grok-4.1-mini | 128K | Aktuelles schnelles Modell |
| Grok-3 | ~3 Billionen (MoE) | grok-3 | 128K | Legacy |
| Grok-3 Mini | ~400 Mrd. (MoE) | grok-3-mini | 128K | Legacy |
| Grok-2 | ~300 Mrd. (geschätzt) | grok-2 | 128K | Veraltet |
| Grok-1 | 314 Mrd. (MoE, 86 Mrd. aktiv) | grok-1 | 8K | Open-Source, veraltet |
grok-4.1. Das aktuelle Grok-Modell (Grok-4.1) verfügt über etwa 3 Billionen Parameter in einer Mixture-of-Experts-Architektur. Die Basis-URL der xAI API lautet https://api.x.ai/v1.
Aktuelle Liste der verfügbaren xAI Grok API-Modelle (März 2026)
Falls Sie nach dem exakten Modell-Identifikator suchen, den Sie jetzt in Ihren API-Aufrufen verwenden können:
grok-4.1— Aktuelles Flaggschiff-Modell. Beste Qualität. 256K Kontextfenster. ~3 Bio. Parameter (MoE).grok-4.1-mini— Aktuelles schnelles Modell. Kosteneffizient. 128K Kontextfenster. ~400 Mrd. Parameter (MoE).grok-3— Legacy. Immer noch verfügbar. 128K Kontextfenster. ~3 Bio. Parameter (MoE).grok-3-mini— Veraltetes schnelles Modell. 128K Kontextfenster. ~400 Mrd. Parameter (MoE).
https://api.x.ai/v1
Um alle verfügbaren Modelle programmatisch aufzulisten:
curl https://api.x.ai/v1/models -H "Authorization: Bearer $XAI_API_KEY"
Grok Kontextfenster-Größen (März 2026)
| Modell | Kontextfenster-Größe | Token |
|---|---|---|
| Grok-4.1 | 256K | 262.144 |
| Grok-4.1 Mini | 128K | 131.072 |
| Grok-3 | 128K | 131.072 |
| Grok-3 Mini | 128K | 131.072 |
| Grok-5 (erwartet) | 512K+ | 524.288+ |
Wie viele Parameter hat Grok?
Die Antwort hängt davon ab, welches Grok-Modell Sie meinen. xAI hat mehrere Generationen veröffentlicht, jede mit unterschiedlichen Parameterzahlen:
Grok-1 (Open Source, 2023)
Grok-1 war das erste öffentliche Modell von xAI und bleibt das einzige Grok-Modell, das vollständig Open-Source ist. Es verwendet eine Mixture-of-Experts (MoE) Architektur mit insgesamt 314 Milliarden Parametern, von denen 86 Milliarden pro Inferenz-Durchgang aktiv sind. Das bedeutet, dass nur etwa 27 % der Gewichte des Modells für einen bestimmten Token aktiviert werden.
- Gesamtparameter: 314 Milliarden
- Aktive Parameter: 86 Milliarden
- Architektur: MoE mit 8 Experten, 2 aktiv
- Kontextfenster: 8.192 Token
- Lizenz: Apache 2.0 (Open-Source)
- API-String:
grok-1(veraltet)
Grok-2 (2024)
Grok-2 war ein bedeutender Sprung in der Leistungsfähigkeit. xAI hat die genaue Parameteranzahl nie offiziell bekannt gegeben, aber externe Schätzungen gehen von etwa 300 Milliarden Parametern in einer dichten oder spärlichen Architektur aus. Es führte Bildverständnis und verbessertes logisches Schlussfolgern ein.
- Gesamtparameter: ~300 Mrd. (geschätzt, nicht bestätigt)
- Kontextfenster: 128K Token
- API-String:
grok-2(veraltet)
Grok-3 (Ende 2024 / Anfang 2025)
Grok-3 markierte den Sprung von xAI zu Modellen im Billionen-Bereich. Trainiert auf dem Colossus-Supercomputer in Memphis mit über 100.000 NVIDIA H100 GPUs, verwendet Grok-3 eine Mixture-of-Experts-Architektur mit etwa 3 Billionen Parametern insgesamt.
- Gesamtparameter: ~3 Billionen (MoE)
- Aktive Parameter: Nicht bekannt gegeben (geschätzt 300–600 Mrd. aktiv)
- Kontextfenster: 128K Token
- API-String:
grok-3
Grok-4.1 (Aktuelles Flaggschiff, 2025-2026)
Grok-4.1 ist das aktuelle Produktionsmodell, das über die xAI API und den Grok-Chatbot auf X verfügbar ist. Es baut auf der Architektur von Grok-3 auf, mit zusätzlichem Training und Verfeinerungen. Die Parameteranzahl bleibt im Bereich von ~3 Billionen mit verbesserten Trainingsdaten und Techniken.
- Gesamtparameter: ~3 Billionen (MoE)
- Kontextfenster: 256K Token
- API-String:
grok-4.1 - Mini-Variante:
grok-4.1-mini(~400 Mrd. MoE, 128K Kontext)
Grok-5 (Bevorstehend)
Es wird erwartet, dass Grok-5 die Parameteranzahl auf 6 Billionen Parameter verdoppelt. Es wird über native multimodale Fähigkeiten (Text, Bild, Video, Audio) und Echtzeit-Datenzugriff von der Tesla-Flotte und X verfügen.
- Gesamtparameter: 6 Billionen (erwartet)
- Kontextfenster: 512K+ (erwartet)
- API-String:
grok-5(erwartet) - Veröffentlichung: Q1-Q2 2026
So finden Sie den Grok Modell-Identifikator
Wenn Sie den exakten Modell-Identifikator für API-Aufrufe benötigen, verwenden Sie diese Werte:
xAI API (Direkt)
Die xAI API folgt der OpenAI-kompatiblen Formatierung. Ihr API-Aufruf sieht so aus:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hallo"}]
}'
Verfügbare Modell-Strings Stand März 2026:
| Modell-String | Beschreibung |
|---|---|
grok-4.1 | Aktuelles Flaggschiff, beste Qualität |
grok-4.1-mini | Schnell, kosteneffizient |
grok-3 | Vorherige Generation |
grok-3-mini | Vorherige Generation (schnell) |
Abrufen der verfügbaren Modelle
Sie können die API abfragen, um alle aktuell verfügbaren Modell-Identifikatoren zu erhalten:
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
Dies gibt eine JSON-Liste aller Modell-Objekte zurück, wobei jedes ein Feld id mit dem Modell-Identifikator enthält.
Verwendung von Grok in Drittanbieter-Tools
Viele Tools und Frameworks unterstützen die Grok-Modelle von xAI. Der Modell-Identifikator ist derselbe — Sie benötigen lediglich die xAI API Basis-URL:
- Basis-URL:
https://api.x.ai/v1 - Modell-ID:
grok-4.1(oder die von Ihnen benötigte Variante) - Authentifizierung: Bearer-Token mit Ihrem xAI API-Key
Grok vs. andere Frontier-Modelle (März 2026)
Wie schneidet Grok im Vergleich zur Konkurrenz ab?
| Merkmal | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Parameter | ~3 Bio. (MoE) | ~2 Bio. (gesch.) | Nicht bekannt | Nicht bekannt |
| Kontextfenster | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80,0% | 80,8% | 80,6% |
| GPQA Diamond | ~90% | 92,4% | 91,3% | 94,3% |
| ARC-AGI-2 | ~55% | 52,9% | 68,8% | 77,1% |
| API-Preise (In/Out) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| Open-Source | Nur Grok-1 | Nein | Nein | Nein |
| Echtzeitdaten | Ja (X, Tesla) | Begrenzt (Browsing) | Nein | Ja (Google Suche) |
Wichtige Erkenntnisse
- Grok führt bei Echtzeitdaten — der Zugriff auf Daten von X und der Tesla-Flotte ist ein echtes Alleinstellungsmerkmal, mit dem kein anderes Labor mithalten kann.
- Grok hinkt beim logischen Schlussfolgern hinterher — die Lücke bei ARC-AGI-2 (55 % vs. 77,1 % bei Gemini) ist signifikant. Grok-5 muss hier aufholen.
- Grok ist preislich konkurrenzfähig — günstiger als GPT-5.2 und Claude Opus, aber teurer als Gemini 3.1 Pro.
- Die Parameteranzahl allein bestimmt nicht die Qualität — Grok-4.1 hat die meisten offengelegten Parameter, führt aber nicht alle Benchmarks an. Architektur, Trainingsdaten und RLHF sind entscheidender.
Verständnis von Mixture-of-Experts (MoE) Parametern
Wenn xAI sagt, Grok habe „3 Billionen Parameter“, muss diese Zahl im Kontext betrachtet werden. In einer Mixture-of-Experts-Architektur ist während jedes Vorwärtspasses nur ein Bruchteil der Parameter aktiv.
So funktioniert MoE:- Das Modell verfügt über viele „Experten“-Subnetzwerke.
- Ein Router-Netzwerk entscheidet, welche Experten für jeden Token aktiviert werden.
- Typischerweise sind pro Token 2–4 von 8–16+ Experten aktiv.
- Die Gesamtparameterzahl ist groß, aber die Rechenkosten liegen näher an einem kleineren dichten Modell.
Grok-1 ist das einzige Modell, bei dem xAI die exakten Zahlen bestätigt hat: 314 Mrd. insgesamt, 86 Mrd. aktiv (8 Experten, 2 aktiv). Bei den späteren Modellen wurden die Experten-Konfigurationen nicht öffentlich bestätigt.
Häufig gestellte Fragen (FAQ)
Wie lautet der aktuelle Grok xAI Modell-Identifikator im Jahr 2026?
Der aktuelle Grok xAI Modell-Identifikator ist grok-4.1 für das Flaggschiff-Modell und grok-4.1-mini für die schnelle Variante. Dies sind die exakten Strings, die Sie in API-Aufrufen an https://api.x.ai/v1/chat/completions verwenden.
Welche Modelle sind in der xAI Grok API-Liste im März 2026 verfügbar?
Die im März 2026 verfügbaren xAI Grok API-Modelle sind: grok-4.1, grok-4.1-mini, grok-3 und grok-3-mini. Sie können https://api.x.ai/v1/models abfragen, um die vollständige Liste programmatisch zu erhalten.
Wie viele Parameter hat das aktuelle Grok-Modell?
Grok-4.1, das aktuelle Flaggschiff-Modell, verfügt über etwa 3 Billionen Parameter in einer Mixture-of-Experts (MoE) Architektur. Die Anzahl der aktiven Parameter pro Inferenz ist niedriger und liegt wahrscheinlich bei 300–600 Milliarden.
Wie groß ist das Kontextfenster von Grok xAI im März 2026?
Grok-4.1 hat eine Kontextfenster-Größe von 256K Token (262.144). Grok-4.1-mini verfügt über 128K Token. Für das kommende Grok-5 wird eine Erweiterung auf über 512K Token erwartet.
Wie hoch ist die Parameteranzahl von Grok 4.1?
Die Parameteranzahl von Grok 4.1 beträgt etwa 3 Billionen Gesamtparameter in einer Mixture-of-Experts-Architektur. Die genaue Anzahl der aktiven Parameter pro Inferenz wurde von xAI nicht offengelegt, wird aber auf 300–600 Milliarden geschätzt.
Ist Grok Open-Source?
Nur Grok-1 (314 Mrd. Parameter) ist unter einer Apache 2.0-Lizenz Open-Source. Alle nachfolgenden Modelle (Grok-2, 3, 4.1 und das kommende 5) sind proprietär.
Wie schneidet die Grok xAI Modellgröße im Vergleich zu GPT-5 ab?
Grok-4.1 hat mit ~3 Billionen Parametern die größte offengelegte Parameteranzahl unter den Frontier-Modellen. Die genaue Parameteranzahl von GPT-5.2 ist nicht bestätigt, wird aber auf etwa 2 Billionen geschätzt. Die Parameteranzahl allein bestimmt jedoch nicht die Modellqualität.
Wann wird Grok-5 veröffentlicht?
xAI hat eine Veröffentlichung von Grok-5 mit 6 Billionen Parametern für das erste Quartal 2026 angedeutet. Stand März 2026 wurde noch kein exaktes Datum bekannt gegeben. Es könnte jeden Tag erscheinen oder sich in das zweite Quartal verschieben.
Wie viele Parameter hat Grok AI?
Die Anzahl der Parameter in Grok AI hängt von der Version ab: Grok-1 hat 314 Mrd., Grok-2 hat ~300 Mrd., Grok-3 hat ~3 Bio., Grok-4.1 hat ~3 Bio. und das kommende Grok-5 wird 6 Bio. haben. Alle Modelle ab Grok-1 verwenden die Mixture-of-Experts-Architektur.
Bauen Sie mit jedem KI-Modell
Die KI-Modelllandschaft im Jahr 2026 ist fragmentiert — Grok, GPT, Claude und Gemini haben alle unterschiedliche Stärken. Der kluge Schachzug ist der Aufbau von Produkten, die zwischen den Modellen wechseln können, wenn sich die Landschaft verändert.
Y Build bietet Ihnen den vollen Growth-Stack für KI-gestützte Produkte: Deployment, Demo Cut Produktvideos, KI-SEO und Analytics. Funktioniert mit jedem Modell und jedem Framework. Kostenlos starten →Quellen: