Grok 4.1 Parameters, Context Window & API Model Lijst (maart 2026)
Grok 4.1 heeft 1,7T parameters met een 256K context window. Volledige xAI API model identifier strings: grok-4.1, grok-4.1-mini, grok-3. Exacte parameter-aantallen en context sizes voor elk Grok-model. Bijgewerkt in maart 2026.
Huidige xAI Grok Model Identifier Strings (maart 2026)
Hier is de exacte, huidige model identifier string voor elk xAI Grok-model dat beschikbaar is via de API vanaf maart 2026:
| Model | Parameters | API Identifier | Context Window | Status |
|---|---|---|---|---|
| Grok-5 | 6 triljoen | grok-5 (verwacht) | 512K+ (verwacht) | Verwacht in Q1-Q2 2026 |
| Grok-4.1 | ~3 triljoen (MoE) | grok-4.1 | 256K | Huidig vlaggenschip |
| Grok-4.1 Mini | ~400B (MoE) | grok-4.1-mini | 128K | Huidig snel model |
| Grok-3 | ~3 triljoen (MoE) | grok-3 | 128K | Legacy |
| Grok-3 Mini | ~400B (MoE) | grok-3-mini | 128K | Legacy |
| Grok-2 | ~300B (geschat) | grok-2 | 128K | Deprecated |
| Grok-1 | 314B (MoE, 86B actief) | grok-1 | 8K | Open-source, deprecated |
grok-4.1. Het huidige Grok-model (Grok-4.1) heeft ongeveer 3 triljoen parameters in een Mixture-of-Experts architectuur. De xAI API base URL is https://api.x.ai/v1.
Lijst van beschikbare xAI Grok API-modellen (maart 2026)
Als je op zoek bent naar de exacte model identifier string om nu te gebruiken in je API-aanroepen:
grok-4.1— Huidig vlaggenschipmodel. Beste kwaliteit. 256K context window. ~3T parameters (MoE).grok-4.1-mini— Huidig snel model. Kosteneffectief. 128K context window. ~400B parameters (MoE).grok-3— Legacy. Nog steeds beschikbaar. 128K context window. ~3T parameters (MoE).grok-3-mini— Legacy snel model. 128K context window. ~400B parameters (MoE).
https://api.x.ai/v1
Om alle beschikbare modellen programmatisch op te lijsten:
curl https://api.x.ai/v1/models -H "Authorization: Bearer $XAI_API_KEY"
Grok Context Window Groottes (maart 2026)
| Model | Context Window Grootte | Tokens |
|---|---|---|
| Grok-4.1 | 256K | 262.144 |
| Grok-4.1 Mini | 128K | 131.072 |
| Grok-3 | 128K | 131.072 |
| Grok-3 Mini | 128K | 131.072 |
| Grok-5 (verwacht) | 512K+ | 524.288+ |
Hoeveel parameters heeft Grok?
Het antwoord hangt af van welk Grok-model je bedoelt. xAI heeft meerdere generaties uitgebracht, elk met verschillende parameter-aantallen:
Grok-1 (Open Source, 2023)
Grok-1 was het eerste publieke model van xAI en blijft het enige Grok-model dat volledig open-source is. Het maakt gebruik van een Mixture-of-Experts (MoE) architectuur met 314 miljard totale parameters, waarvan er 86 miljard actief zijn per inference pass. Dit betekent dat slechts ~27% van de gewichten van het model worden geactiveerd voor een gegeven token.
- Totale parameters: 314 miljard
- Actieve parameters: 86 miljard
- Architectuur: MoE met 8 experts, 2 actief
- Context window: 8.192 tokens
- Licentie: Apache 2.0 (open-source)
- API string:
grok-1(deprecated)
Grok-2 (2024)
Grok-2 was een aanzienlijke sprong in capaciteit. xAI heeft nooit het exacte aantal parameters bekendgemaakt, maar externe schattingen plaatsen het rond de 300 miljard parameters in een dense of sparse architectuur. Het introduceerde beeldherkenning en verbeterd redeneren.
- Totale parameters: ~300B (geschat, niet bevestigd)
- Context window: 128K tokens
- API string:
grok-2(deprecated)
Grok-3 (Eind 2024 / Begin 2025)
Grok-3 markeerde de sprong van xAI naar modellen op triljoenen-schaal. Getraind op de Colossus supercomputer in Memphis met 100.000+ NVIDIA H100 GPU's, gebruikt Grok-3 een Mixture-of-Experts architectuur met ongeveer 3 triljoen totale parameters.
- Totale parameters: ~3 triljoen (MoE)
- Actieve parameters: Niet bekendgemaakt (naar schatting 300-600B actief)
- Context window: 128K tokens
- API string:
grok-3
Grok-4.1 (Huidig vlaggenschip, 2025-2026)
Grok-4.1 is het huidige productiemodel dat beschikbaar is via de xAI API en de Grok chatbot op X. Het bouwt voort op de architectuur van Grok-3 met extra training en verfijningen. Het aantal parameters blijft in de ~3 triljoen range met verbeterde trainingsdata en technieken.
- Totale parameters: ~3 triljoen (MoE)
- Context window: 256K tokens
- API string:
grok-4.1 - Mini variant:
grok-4.1-mini(~400B MoE, 128K context)
Grok-5 (Aanstaand)
Grok-5 zal naar verwachting het aantal parameters verdubbelen naar 6 triljoen parameters. Het zal beschikken over native multimodale mogelijkheden (tekst, beeld, video, audio) en real-time datatoegang vanuit de vloot van Tesla en X.
- Totale parameters: 6 triljoen (verwacht)
- Context window: 512K+ (verwacht)
- API string:
grok-5(verwacht) - Release: Q1-Q2 2026
Hoe vind je de Grok Model Identifier String?
Als je de exacte model identifier string nodig hebt voor API-aanroepen, gebruik dan het volgende:
xAI API (Direct)
De xAI API volgt OpenAI-compatibele formattering. Je API-aanroep ziet er als volgt uit:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
Beschikbare model strings vanaf maart 2026:
| Model String | Beschrijving |
|---|---|
grok-4.1 | Huidig vlaggenschip, beste kwaliteit |
grok-4.1-mini | Snel, kosteneffectief |
grok-3 | Vorige generatie |
grok-3-mini | Snel model van de vorige generatie |
Beschikbare modellen oplijsten
Je kunt de API bevragen om alle momenteel beschikbare model identifiers op te halen:
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
Dit retourneert een JSON-lijst van alle modelobjecten, elk met een id veld dat de model identifier string bevat.
Grok gebruiken in tools van derden
Veel tools en frameworks ondersteunen de Grok-modellen van xAI. De model identifier string is hetzelfde — je hebt alleen de xAI API base URL nodig:
- Base URL:
https://api.x.ai/v1 - Model ID:
grok-4.1(of de variant die je nodig hebt) - Authenticatie: Bearer token met je xAI API key
Grok vs Andere Frontier Models (maart 2026)
Hoe verhoudt Grok zich tot de concurrentie?
| Kenmerk | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Parameters | ~3T (MoE) | ~2T (geschat) | Niet bekendgemaakt | Niet bekendgemaakt |
| Context Window | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80,0% | 80,8% | 80,6% |
| GPQA Diamond | ~90% | 92,4% | 91,3% | 94,3% |
| ARC-AGI-2 | ~55% | 52,9% | 68,8% | 77,1% |
| API-prijzen (in/uit) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| Open Source | Alleen Grok-1 | Nee | Nee | Nee |
| Real-time Data | Ja (X, Tesla) | Beperkt (browsen) | Nee | Ja (Google Search) |
Belangrijkste inzichten
- Grok loopt voorop met real-time data — toegang tot data van X en de Tesla-vloot is een echt onderscheidend kenmerk dat geen enkel ander lab kan evenaren.
- Grok blijft achter op het gebied van redeneren — het gat in ARC-AGI-2 (55% vs 77,1% voor Gemini) is aanzienlijk. Grok-5 moet dit dichten.
- Grok is concurrerend geprijsd — goedkoper dan GPT-5.2 en Claude Opus, maar duurder dan Gemini 3.1 Pro.
- Parameter-aantal bepaalt niet de kwaliteit — Grok-4.1 heeft de meeste bekende parameters, maar voert de benchmarks niet aan. Architectuur, trainingsdata en RLHF zijn belangrijker.
Mixture-of-Experts (MoE) Parameters begrijpen
Wanneer xAI zegt dat Grok "3 triljoen parameters" heeft, verdient dat cijfer context. In een Mixture-of-Experts architectuur is slechts een fractie van de parameters actief tijdens elke forward pass.
Hoe MoE werkt:- Het model heeft veel "expert" sub-netwerken.
- Een router-netwerk beslist welke experts geactiveerd moeten worden voor elke token.
- Meestal zijn 2-4 van de 8-16+ experts actief per token.
- De totale parameters zijn groot, maar de rekenkosten liggen dichter bij die van een kleiner dense model.
Grok-1 is het enige model waarbij xAI de exacte cijfers heeft bevestigd: 314B totaal, 86B actief (8 experts, waarvan 2 actief). Bij de latere modellen zijn de expert-configuraties niet publiekelijk bevestigd.
Veelgestelde Vragen
Wat is de huidige Grok xAI model identifier string in 2026?
De huidige Grok xAI model identifier string is grok-4.1 voor het vlaggenschipmodel en grok-4.1-mini voor de snelle variant. Dit zijn de exacte strings die je gebruikt in API-aanroepen naar https://api.x.ai/v1/chat/completions.
Wat zijn de beschikbare modellen in de xAI Grok API in maart 2026?
De beschikbare xAI Grok API-modellen vanaf maart 2026 zijn: grok-4.1, grok-4.1-mini, grok-3 en grok-3-mini. Je kunt https://api.x.ai/v1/models bevragen om de volledige lijst programmatisch op te halen.
Hoeveel parameters heeft het huidige Grok-model?
Grok-4.1, het huidige vlaggenschipmodel, heeft ongeveer 3 triljoen parameters in een Mixture-of-Experts (MoE) architectuur. Het aantal actieve parameters per inference is lager, waarschijnlijk 300-600 miljard.
Wat is de grootte van de Grok xAI context window in maart 2026?
Grok-4.1 heeft een context window van 256K tokens (262.144). Grok-4.1-mini heeft 128K tokens. De aanstaande Grok-5 zal naar verwachting uitbreiden naar 512K+ tokens.
Wat is het aantal parameters van Grok 4.1?
Het aantal parameters van Grok 4.1 is ongeveer 3 triljoen totale parameters in een Mixture-of-Experts architectuur. Het exacte aantal actieve parameters per inference is niet bekendgemaakt door xAI, maar wordt geschat op 300-600 miljard.
Is Grok open-source?
Alleen Grok-1 (314B parameters) is open-source onder een Apache 2.0-licentie. Alle volgende modellen (Grok-2, 3, 4.1 en de aanstaande 5) zijn propriëtair.
Hoe verhoudt de grootte van het Grok xAI-model zich tot GPT-5?
Grok-4.1 heeft met ~3 triljoen parameters het grootste bekende aantal parameters onder de frontier models. Het exacte aantal parameters van GPT-5.2 is niet bevestigd, maar wordt geschat op ongeveer 2 triljoen. Echter, het aantal parameters alleen bepaalt niet de kwaliteit van het model.
Wanneer wordt Grok-5 uitgebracht?
xAI heeft een release in Q1 2026 aangegeven voor Grok-5 met 6 triljoen parameters. Vanaf maart 2026 is er nog geen exacte datum aangekondigd. Het zou elke dag kunnen verschijnen of kunnen uitlopen naar Q2.
Hoeveel parameters heeft Grok AI?
Het aantal parameters in Grok AI hangt af van de versie: Grok-1 heeft 314B, Grok-2 heeft ~300B, Grok-3 heeft ~3T, Grok-4.1 heeft ~3T en de aanstaande Grok-5 zal 6T hebben. Alle modellen vanaf Grok-1 maken gebruik van de Mixture-of-Experts architectuur.
Bouwen met elk AI-model
Het landschap van AI-modellen in 2026 is gefragmenteerd — Grok, GPT, Claude, Gemini hebben allemaal verschillende sterktes. De slimme zet is het bouwen van producten die kunnen wisselen tussen modellen naarmate het landschap verandert.
Y Build biedt je de volledige growth stack voor AI-gestuurde producten: deployment, Demo Cut productvideo's, AI SEO en analytics. Werkt met elk model, elk framework. Begin gratis →Bronnen: