Grok 4.1 Parametrar, Context Window & API-modellista (mars 2026)
Grok 4.1 har 1,7 biljoner parametrar med 256K context window. Fullständiga xAI API-modellidentifierar-strängar: grok-4.1, grok-4.1-mini, grok-3. Exakt antal parametrar och context-storlekar för varje Grok-modell. Uppdaterad mars 2026.
Aktuella xAI Grok modellidentifierar-strängar (mars 2026)
Här är de exakta, aktuella modellidentifierar-strängarna för varje xAI Grok-modell som är tillgänglig via API:et från och med mars 2026:
| Modell | Parametrar | API-identifierare | Context Window | Status |
|---|---|---|---|---|
| Grok-5 | 6 biljoner | grok-5 (förväntad) | 512K+ (förväntad) | Kommer kvartal 1–2 2026 |
| Grok-4.1 | ~3 biljoner (MoE) | grok-4.1 | 256K | Nuvarande flaggskepp |
| Grok-4.1 Mini | ~400 miljarder (MoE) | grok-4.1-mini | 128K | Nuvarande snabb modell |
| Grok-3 | ~3 biljoner (MoE) | grok-3 | 128K | Legacy |
| Grok-3 Mini | ~400 miljarder (MoE) | grok-3-mini | 128K | Legacy |
| Grok-2 | ~300 miljarder (estimerat) | grok-2 | 128K | Utfasad |
| Grok-1 | 314 miljarder (MoE, 86 miljarder aktiva) | grok-1 | 8K | Öppen källkod, utfasad |
grok-4.1. Den nuvarande Grok-modellen (Grok-4.1) har cirka 3 biljoner parametrar i en Mixture-of-Experts-arkitektur. Bas-URL för xAI API är https://api.x.ai/v1.
Lista över tillgängliga modeller i xAI Grok API (mars 2026)
Om du letar efter den exakta modellidentifierar-strängen att använda i dina API-anrop just nu:
grok-4.1— Nuvarande flaggskeppsmodell. Bäst kvalitet. 256K context window. ~3 biljoner parametrar (MoE).grok-4.1-mini— Nuvarande snabb modell. Kostnadseffektiv. 128K context window. ~400 miljarder parametrar (MoE).grok-3— Legacy. Fortfarande tillgänglig. 128K context window. ~3 biljoner parametrar (MoE).grok-3-mini— Legacy snabb modell. 128K context window. ~400 miljarder parametrar (MoE).
https://api.x.ai/v1
För att lista alla tillgängliga modeller programmatiskt:
curl https://api.x.ai/v1/models -H "Authorization: Bearer $XAI_API_KEY"
Grok Context Window-storlekar (mars 2026)
| Modell | Context Window-storlek | Tokens |
|---|---|---|
| Grok-4.1 | 256K | 262 144 |
| Grok-4.1 Mini | 128K | 131 072 |
| Grok-3 | 128K | 131 072 |
| Grok-3 Mini | 128K | 131 072 |
| Grok-5 (förväntad) | 512K+ | 524 288+ |
Hur många parametrar har Grok?
Svaret beror på vilken Grok-modell du menar. xAI har släppt flera generationer, var och en med olika antal parametrar:
Grok-1 (Öppen källkod, 2023)
Grok-1 var xAI:s första offentliga modell och förblir den enda Grok-modellen som är helt öppen källkod. Den använder en Mixture-of-Experts (MoE)-arkitektur med 314 miljarder parametrar totalt, varav 86 miljarder är aktiva per inferenspass. Detta innebär att endast ~27 % av modellens vikter aktiveras för varje given token.
- Totalt antal parametrar: 314 miljarder
- Aktiva parametrar: 86 miljarder
- Arkitektur: MoE med 8 experter, 2 aktiva
- Context window: 8 192 tokens
- Licens: Apache 2.0 (öppen källkod)
- API-sträng:
grok-1(utfasad)
Grok-2 (2024)
Grok-2 innebar ett betydande kliv i förmåga. xAI offentliggjorde aldrig det exakta antalet parametrar, men externa uppskattningar placerar den runt 300 miljarder parametrar i en tät (dense) eller gles (sparse) arkitektur. Den introducerade bildförståelse och förbättrad resonemangsförmåga.
- Totalt antal parametrar: ~300 miljarder (estimerat, ej bekräftat)
- Context window: 128K tokens
- API-sträng:
grok-2(utfasad)
Grok-3 (Sent 2024 / Tidigt 2025)
Grok-3 markerade xAI:s steg till modeller i biljonskala. Grok-3 tränades på superdatorn Colossus i Memphis med över 100 000 NVIDIA H100-GPU:er och använder en Mixture-of-Experts-arkitektur med cirka 3 biljoner parametrar totalt.
- Totalt antal parametrar: ~3 biljoner (MoE)
- Aktiva parametrar: Ej offentliggjort (uppskattningsvis 300–600 miljarder aktiva)
- Context window: 128K tokens
- API-sträng:
grok-3
Grok-4.1 (Nuvarande flaggskepp, 2025-2026)
Grok-4.1 är den nuvarande produktionsmodellen som är tillgänglig via xAI API och Grok-chatboten på X. Den bygger på Grok-3:s arkitektur med ytterligare träning och finjusteringar. Antalet parametrar ligger kvar i intervallet ~3 biljoner med förbättrad träningsdata och teknik.
- Totalt antal parametrar: ~3 biljoner (MoE)
- Context window: 256K tokens
- API-sträng:
grok-4.1 - Mini-variant:
grok-4.1-mini(~400 miljarder MoE, 128K context)
Grok-5 (Kommande)
Grok-5 förväntas fördubbla antalet parametrar till 6 biljoner parametrar. Den kommer att ha infödda multimodala förmågor (text, bild, video, ljud) och tillgång till realtidsdata från Teslas flotta och X.
- Totalt antal parametrar: 6 biljoner (förväntat)
- Context window: 512K+ (förväntat)
- API-sträng:
grok-5(förväntat) - Släpp: Kvartal 1–2 2026
Hur man hittar modellidentifierar-strängen för Grok
Om du behöver den exakta modellidentifierar-strängen för API-anrop, använd följande:
xAI API (Direkt)
xAI API följer OpenAI-kompatibel formatering. Ditt API-anrop ser ut så här:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
Tillgängliga modellsträngar per mars 2026:
| Modellsträng | Beskrivning |
|---|---|
grok-4.1 | Nuvarande flaggskepp, bäst kvalitet |
grok-4.1-mini | Snabb, kostnadseffektiv |
grok-3 | Föregående generation |
grok-3-mini | Föregående generations snabba modell |
Lista tillgängliga modeller
Du kan fråga API:et för att få alla aktuella tillgängliga modellidentifierare:
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
Detta returnerar en JSON-lista med alla modellobjekt, där varje objekt har ett id-fält som innehåller modellidentifierar-strängen.
Använda Grok i tredjepartsverktyg
Många verktyg och ramverk stöder xAI:s Grok-modeller. Modellidentifierar-strängen är densamma – du behöver bara bas-URL:en för xAI API:
- Bas-URL:
https://api.x.ai/v1 - Modell-ID:
grok-4.1(eller den variant du behöver) - Autentisering: Bearer-token med din xAI API-nyckel
Grok jämfört med andra banbrytande modeller (mars 2026)
Hur står sig Grok mot konkurrenterna?
| Funktion | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Parametrar | ~3 biljoner (MoE) | ~2 biljoner (est.) | Ej offentliggjort | Ej offentliggjort |
| Context Window | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80,0% | 80,8% | 80,6% |
| GPQA Diamond | ~90% | 92,4% | 91,3% | 94,3% |
| ARC-AGI-2 | ~55% | 52,9% | 68,8% | 77,1% |
| API-prissättning (in/ut) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| Öppen källkod | Endast Grok-1 | Nej | Nej | Nej |
| Realtidsdata | Ja (X, Tesla) | Begränsat (webbsökning) | Nej | Ja (Google Search) |
Viktiga slutsatser
- Grok leder på realtidsdata — tillgång till data från X och Teslas flotta är en verklig differentiering som inget annat labb kan matcha.
- Grok ligger efter på resonemang — gapet i ARC-AGI-2 (55 % mot 77,1 % för Gemini) är betydande. Grok-5 behöver minska detta avstånd.
- Grok är konkurrenskraftigt prissatt — billigare än GPT-5.2 och Claude Opus, dyrare än Gemini 3.1 Pro.
- Antal parametrar avgör inte kvalitet — Grok-4.1 har det högsta antalet offentliggjorda parametrar men leder inte alla benchmarks. Arkitektur, träningsdata och RLHF spelar större roll.
Att förstå Mixture-of-Experts (MoE) parametrar
När xAI säger att Grok har \"3 biljoner parametrar\", kräver den siffran ett sammanhang. I en Mixture-of-Experts-arkitektur är endast en bråkdel av parametrarna aktiva under varje forward pass.
Hur MoE fungerar:- Modellen har många \"expert\"-undernätverk.
- Ett router-nätverk bestämmer vilka experter som ska aktiveras för varje token.
- Vanligtvis är 2–4 experter av 8–16+ aktiva per token.
- Det totala antalet parametrar är stort, men beräkningskostnaden ligger närmare en mindre dense-modell.
Grok-1 är den enda modell där xAI har bekräftat de exakta siffrorna: 314 miljarder totalt, 86 miljarder aktiva (8 experter, 2 aktiva). För de senare modellerna har expertkonfigurationerna inte bekräftats offentligt.
Vanliga frågor
Vilken är den aktuella Grok xAI modellidentifierar-strängen 2026?
Den aktuella modellidentifierar-strängen för Grok xAI är grok-4.1 för flaggskeppsmodellen och grok-4.1-mini för den snabba varianten. Dessa är de exakta strängarna du använder i API-anrop till https://api.x.ai/v1/chat/completions.
Vilka modeller finns i listan över tillgängliga xAI Grok API-modeller i mars 2026?
De tillgängliga xAI Grok API-modellerna i mars 2026 är: grok-4.1, grok-4.1-mini, grok-3 och grok-3-mini. Du kan anropa https://api.x.ai/v1/models för att få den fullständiga listan programmatiskt.
Hur många parametrar har den nuvarande Grok-modellen?
Grok-4.1, den nuvarande flaggskeppsmodellen, har cirka 3 biljoner parametrar i en Mixture-of-Experts (MoE)-arkitektur. Antalet aktiva parametrar per inferens är lägre, sannolikt 300–600 miljarder.
Vad är storleken på Grok xAI context window i mars 2026?
Grok-4.1 har en context window-storlek på 256K tokens (262 144). Grok-4.1-mini har 128K tokens. Den kommande Grok-5 förväntas expandera till 512K+ tokens.
Vad är antalet parametrar i Grok 4.1?
Grok 4.1 har cirka 3 biljoner parametrar totalt i en Mixture-of-Experts-arkitektur. Det exakta antalet aktiva parametrar per inferens har inte offentliggjorts av xAI, men uppskattas till 300–600 miljarder.
Är Grok öppen källkod?
Endast Grok-1 (314 miljarder parametrar) är öppen källkod under en Apache 2.0-licens. Alla efterföljande modeller (Grok-2, 3, 4.1 och kommande 5) är proprietära.
Hur förhåller sig Grok xAI:s modellstorlek till GPT-5?
Grok-4.1 med ~3 biljoner parametrar har det största offentliggjorda antalet parametrar bland de ledande modellerna. GPT-5.2:s exakta antal parametrar är inte bekräftat men uppskattas till cirka 2 biljoner. Antalet parametrar ensamt avgör dock inte modellens kvalitet.
När släpps Grok-5?
xAI har indikerat att Grok-5 med 6 biljoner parametrar ska släppas under kvartal 1 2026. Per mars 2026 har inget exakt datum meddelats. Den kan komma när som helst eller skjutas upp till kvartal 2.
Hur många parametrar har Grok AI?
Antalet parametrar i Grok AI beror på versionen: Grok-1 har 314 miljarder, Grok-2 har ~300 miljarder, Grok-3 har ~3 biljoner, Grok-4.1 har ~3 biljoner och den kommande Grok-5 kommer att ha 6 biljoner. Alla modeller från Grok-1 och framåt använder Mixture-of-Experts-arkitektur.
Bygg med valfri AI-modell
Landskapet för AI-modeller 2026 är fragmenterat — Grok, GPT, Claude och Gemini har alla olika styrkor. Det smarta draget är att bygga produkter som kan växla mellan modeller när landskapet förändras.
Y Build ger dig en komplett tillväxtstack för AI-drivna produkter: driftsättning, Demo Cut-produktvideor, AI SEO och analys. Fungerar med alla modeller och alla ramverk. Börja gratis →Källor: