Grok-modellparametrar, storlek och identifierare: Komplett xAI-guide (2026)
Hur manga parametrar har Grok? Komplett guide till xAI:s Grok-modellstorlekar, parameterantal, modellidentifierare och API-strangar. Tacker Grok-3, Grok-4 och kommande Grok-5 med 6 biljoner parametrar.
Sammanfattning
Varje Grok-modell i en overblick — parameterantal, API-identifierarstrangar och kontextfonster:
| Modell | Parametrar | API-identifierare | Kontextfonster | Status |
|---|---|---|---|---|
| Grok-5 | 6 biljoner | grok-5 (forvantat) | 512K+ (forvantat) | Forvantas Q1-Q2 2026 |
| Grok-4.1 | ~3 biljoner (MoE) | grok-4.1 | 256K | Nuvarande flaggskepp |
| Grok-4.1 Mini | ~400 mdr (MoE) | grok-4.1-mini | 128K | Nuvarande snabb modell |
| Grok-3 | ~3 biljoner (MoE) | grok-3 | 128K | Aldre |
| Grok-3 Mini | ~400 mdr (MoE) | grok-3-mini | 128K | Aldre |
| Grok-2 | ~300 mdr (uppskattat) | grok-2 | 128K | Avvecklad |
| Grok-1 | 314 mdr (MoE, 86 mdr aktiva) | grok-1 | 8K | Oppen kallkod, avvecklad |
Hur manga parametrar har Grok?
Svaret beror pa vilken Grok-modell du menar. xAI har slappt flera generationer, var och en med olika parameterantal:
Grok-1 (Oppen kallkod, 2023)
Grok-1 var xAI:s forsta offentliga modell och forblir den enda Grok-modellen som ar helt oppen kallkod. Den anvander en Mixture-of-Experts (MoE)-arkitektur med 314 miljarder totala parametrar, varav 86 miljarder ar aktiva per inferenspass. Detta innebar att bara ~27% av modellens vikter aktiveras for varje token.
- Totala parametrar: 314 miljarder
- Aktiva parametrar: 86 miljarder
- Arkitektur: MoE med 8 experter, 2 aktiva
- Kontextfonster: 8 192 tokens
- Licens: Apache 2.0 (oppen kallkod)
- API-strang:
grok-1(avvecklad)
Grok-2 (2024)
Grok-2 var ett betydande hopp i kapacitet. xAI avslojde aldrig det exakta parameterantalet, men externa uppskattningar placerar det runt 300 miljarder parametrar. Den introducerade bildforstaelse och forbattrat resonemang.
- Totala parametrar: ~300 mdr (uppskattat, ej bekraftat)
- Kontextfonster: 128K tokens
- API-strang:
grok-2(avvecklad)
Grok-3 (Sent 2024 / Tidigt 2025)
Grok-3 markerade xAI:s sprung till biljonskaliga modeller. Tranad pa Colossus-superdatorn i Memphis med 100 000+ NVIDIA H100 GPU:er, anvander Grok-3 en Mixture-of-Experts-arkitektur med ungefar 3 biljoner totala parametrar.
- Totala parametrar: ~3 biljoner (MoE)
- Aktiva parametrar: Ej avslojat (uppskattat 300-600 mdr aktiva)
- Kontextfonster: 128K tokens
- API-strang:
grok-3
Grok-4.1 (Nuvarande flaggskepp, 2025-2026)
Grok-4.1 ar den nuvarande produktionsmodellen tillganglig via xAI API och Grok-chatboten pa X. Den bygger pa Grok-3:s arkitektur med ytterligare traning och forfiningar. Parameterantalet forblir i ~3 biljonerintervalletm med forbattrade traningsdata och tekniker.
- Totala parametrar: ~3 biljoner (MoE)
- Kontextfonster: 256K tokens
- API-strang:
grok-4.1 - Mini-variant:
grok-4.1-mini(~400 mdr MoE, 128K kontext)
Grok-5 (Kommande)
Grok-5 forvantas fordubbla parameterantalet till 6 biljoner parametrar. Den kommer ha inbyggda multimodala funktioner (text, bild, video, ljud) och realtidsdataatkomst fran Teslas flotta och X.
- Totala parametrar: 6 biljoner (forvantat)
- Kontextfonster: 512K+ (forvantat)
- API-strang:
grok-5(forvantat) - Slapp: Q1-Q2 2026
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.
Hur man hittar Grok-modellidentifierarsträngen
Om du behover den exakta modellidentifierarsträngen for API-anrop, har ar vad du ska anvanda:
xAI API (Direkt)
xAI API foljer OpenAI-kompatibel formatering. Ditt API-anrop ser ut sa har:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
Tillgangliga modellstrangar per mars 2026:
| Modellstrang | Beskrivning |
|---|---|
grok-4.1 | Nuvarande flaggskepp, bast kvalitet |
grok-4.1-mini | Snabb, kostnadseffektiv |
grok-3 | Foregaende generation |
grok-3-mini | Foregaende generation snabb |
Lista tillgangliga modeller
Du kan fraga API:et for att fa alla tillgangliga modellidentifierare:
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
Detta returnerar en JSON-lista over alla modellobjekt, vart och ett med ett id-falt som innehaller modellidentifierarsträngen.
Anvanda Grok i tredjepartsverktyg
Manga verktyg och ramverk stodjer xAI:s Grok-modeller. Modellidentifierarsträngen ar densamma — du behover bara xAI API:s bas-URL:
- Bas-URL:
https://api.x.ai/v1 - Modell-ID:
grok-4.1(eller den variant du behover) - Autentisering: Bearer-token med din xAI API-nyckel
Grok vs andra frontiermodeller (mars 2026)
Hur star sig Grok mot konkurrenterna?
| Egenskap | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Parametrar | ~3T (MoE) | ~2T (uppsk.) | Ej avslojat | Ej avslojat |
| Kontextfonster | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80,0% | 80,8% | 80,6% |
| GPQA Diamond | ~90% | 92,4% | 91,3% | 94,3% |
| ARC-AGI-2 | ~55% | 52,9% | 68,8% | 77,1% |
| API-pris (in/ut) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| Oppen kallkod | Bara Grok-1 | Nej | Nej | Nej |
| Realtidsdata | Ja (X, Tesla) | Begransat (surfning) | Nej | Ja (Google Sok) |
Nyckelinsikter
- Grok leder pa realtidsdata — atkomst till X och Tesla-flottdata ar en genuin differentiator som inget annat lab kan matcha.
- Grok halkar efter pa resonemang — ARC-AGI-2-gapet (55% vs 77,1% for Gemini) ar betydande. Grok-5 maste stanga detta.
- Grok har konkurrenskraftigt pris — billigare an GPT-5.2 och Claude Opus, dyrare an Gemini 3.1 Pro.
- Parameterantal bestammer inte kvalitet — Grok-4.1 har flest avslojande parametrar men leder inte benchmarks. Arkitektur, traningsdata och RLHF spelar storre roll.
Forsta Mixture-of-Experts (MoE)-parametrar
Nar xAI sager att Grok har "3 biljoner parametrar" fortjanar det talet kontext. I en Mixture-of-Experts-arkitektur ar bara en brakdel av parametrarna aktiva under varje framatpass.
Hur MoE fungerar:- Modellen har manga "expert"-undernatverk
- Ett routernatverk bestammer vilka experter som ska aktiveras for varje token
- Typiskt ar 2-4 experter av 8-16+ aktiva per token
- Totala parametrar ar stora, men berakningskostnaden ar narmare en mindre tat modell
Grok-1 ar den enda modellen dar xAI bekraftade de exakta siffrorna: 314 mdr totalt, 86 mdr aktiva (8 experter, 2 aktiva). Senare modeller har inte fatt sina expertkonfigurationer offentligt bekraftade.
Vanliga fragor
Hur manga parametrar har den nuvarande Grok-modellen?
Grok-4.1, den nuvarande flaggskeppsmodellen, har ungefar 3 biljoner parametrar i en Mixture-of-Experts-arkitektur. Det aktiva parameterantalet per inferens ar lagre, troligen 300-600 miljarder.
Vad ar modellidentifierarsträngen for Grok?
Den nuvarande modellidentifieraren for xAI API ar grok-4.1 for flaggskeppsmodellen och grok-4.1-mini for den snabba varianten.
Ar Grok oppen kallkod?
Bara Grok-1 (314 mdr parametrar) ar oppen kallkod under Apache 2.0-licens. Alla efterfoljande modeller ar proprietara.
Nar slapper Grok-5?
xAI har indikerat Q1 2026. Per mars 2026 ar inget exakt datum annonerat.
Vilket kontextfonster stodjer Grok?
Grok-4.1 stodjer 256K tokens. Grok-4.1-mini stodjer 128K tokens. Grok-5 forvantas utoka till 512K eller mer.
Bygg med vilken AI-modell som helst
Y Build ger dig den kompletta tillvaxtstacken for AI-drivna produkter: driftsattning, Demo Cut produktvideor, AI SEO och analys. Fungerar med vilken modell som helst, vilket ramverk som helst. Borja gratis →Kallor:
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.