Mga Parameter ng Grok 4.1, Context Window at Listahan ng API Model (Marso 2026)
Ang Grok 4.1 ay may 1.7T parameters na may 256K context window. Buong xAI API model identifier strings: grok-4.1, grok-4.1-mini, grok-3. Eksaktong bilang ng parameter at laki ng context para sa bawat Grok model. Na-update noong Marso 2026.
Kasalukuyang xAI Grok Model Identifier Strings (Marso 2026)
Narito ang eksaktong, kasalukuyang model identifier string para sa bawat xAI Grok model na available sa pamamagitan ng API simula noong Marso 2026:
| Model | Mga Parameter | API Identifier | Context Window | Katayuan |
|---|---|---|---|---|
| Grok-5 | 6 trilyon | grok-5 (inaasahan) | 512K+ (inaasahan) | Darating sa Q1-Q2 2026 |
| Grok-4.1 | ~3 trilyon (MoE) | grok-4.1 | 256K | Kasalukuyang flagship |
| Grok-4.1 Mini | ~400B (MoE) | grok-4.1-mini | 128K | Kasalukuyang mabilis na model |
| Grok-3 | ~3 trilyon (MoE) | grok-3 | 128K | Legacy |
| Grok-3 Mini | ~400B (MoE) | grok-3-mini | 128K | Legacy |
| Grok-2 | ~300B (tinatantya) | grok-2 | 128K | Deprecated |
| Grok-1 | 314B (MoE, 86B active) | grok-1 | 8K | Open-source, deprecated |
grok-4.1. Ang kasalukuyang Grok model (grok-4.1) ay may humigit-kumulang 3 trilyong parameters sa isang Mixture-of-Experts architecture. Ang xAI API base URL ay https://api.x.ai/v1.
Listahan ng mga Available na Model sa xAI Grok API (Marso 2026)
Kung hinahanap mo ang eksaktong model identifier string na gagamitin sa iyong mga API call ngayon:
grok-4.1— Kasalukuyang flagship model. Pinakamahusay na kalidad. 256K context window. ~3T parameters (MoE).grok-4.1-mini— Kasalukuyang mabilis na model. Cost-effective. 128K context window. ~400B parameters (MoE).grok-3— Legacy. Available pa rin. 128K context window. ~3T parameters (MoE).grok-3-mini— Legacy na mabilis na model. 128K context window. ~400B parameters (MoE).
https://api.x.ai/v1
Para i-listahan ang lahat ng available na models programmatically:
curl https://api.x.ai/v1/models -H "Authorization: Bearer $XAI_API_KEY"
Mga Laki ng Grok Context Window (Marso 2026)
| Model | Laki ng Context Window | Mga Token |
|---|---|---|
| Grok-4.1 | 256K | 262,144 |
| Grok-4.1 Mini | 128K | 131,072 |
| Grok-3 | 128K | 131,072 |
| Grok-3 Mini | 128K | 131,072 |
| Grok-5 (inaasahan) | 512K+ | 524,288+ |
Ilang Parameter ang Mayroon ang Grok?
Ang sagot ay depende sa kung aling Grok model ang tinutukoy mo. Ang xAI ay naglabas ng maraming henerasyon, bawat isa ay may iba't ibang bilang ng parameter:
Grok-1 (Open Source, 2023)
Ang Grok-1 ang unang public model ng xAI at nananatiling tanging Grok model na ganap na open-source. Gumagamit ito ng isang Mixture-of-Experts (MoE) architecture na may kabuuang 314 bilyong parameters, kung saan 86 bilyon ay aktibo bawat inference pass. Nangangahulugan ito na ~27% lamang ng weights ng model ang gumagana para sa anumang partikular na token.
- Kabuuang parameters: 314 bilyon
- Mga aktibong parameter: 86 bilyon
- Architecture: MoE na may 8 experts, 2 aktibo
- Context window: 8,192 tokens
- Lisensya: Apache 2.0 (open-source)
- API string:
grok-1(deprecated)
Grok-2 (2024)
Ang Grok-2 ay isang makabuluhang pagtalon sa kakayahan. Hindi kailanman ibinunyag ng xAI ang eksaktong bilang ng parameter, ngunit ang mga panlabas na pagtatantya ay naglalagay nito sa humigit-kumulang 300 bilyong parameters sa isang dense o sparse na architecture. Ipinakilala nito ang pag-unawa sa imahe at pinahusay na pangangatwiran (reasoning).
- Kabuuang parameters: ~300B (tinatantya, hindi kumpirmado)
- Context window: 128K tokens
- API string:
grok-2(deprecated)
Grok-3 (Huling bahagi ng 2024 / Simula ng 2025)
Minarkahan ng Grok-3 ang paglukso ng xAI sa mga model na may sukat na trilyon. Sinanay sa Colossus supercomputer sa Memphis gamit ang 100,000+ NVIDIA H100 GPUs, ang Grok-3 ay gumagamit ng isang Mixture-of-Experts architecture na may humigit-kumulang 3 trilyong kabuuang parameters.
- Kabuuang parameters: ~3 trilyon (MoE)
- Mga aktibong parameter: Hindi ibinunyag (tinatantyang 300-600B aktibo)
- Context window: 128K tokens
- API string:
grok-3
Grok-4.1 (Kasalukuyang Flagship, 2025-2026)
Ang Grok-4.1 ay ang kasalukuyang production model na available sa pamamagitan ng xAI API at ng Grok chatbot sa X. Nakabuo ito sa architecture ng Grok-3 na may karagdagang pagsasanay at mga refinement. Ang bilang ng parameter ay nananatili sa ~3 trilyon na saklaw na may pinahusay na training data at mga teknik.
- Kabuuang parameters: ~3 trilyon (MoE)
- Context window: 256K tokens
- API string:
grok-4.1 - Mini variant:
grok-4.1-mini(~400B MoE, 128K context)
Grok-5 (Darating Pa Lamang)
Inaasahang dodoblehin ng Grok-5 ang bilang ng parameter sa 6 na trilyong parameters. Magtatampok ito ng mga katutubong multimodal na kakayahan (text, imahe, video, audio) at real-time na access sa data mula sa fleet ng Tesla at X.
- Kabuuang parameters: 6 na trilyon (inaasahan)
- Context window: 512K+ (inaasahan)
- API string:
grok-5(inaasahan) - Release: Q1-Q2 2026
Paano Hanapin ang Grok Model Identifier String
Kung kailangan mo ang eksaktong model identifier string para sa mga API call, narito ang dapat gamitin:
xAI API (Direkta)
Ang xAI API ay sumusunod sa OpenAI-compatible na formatting. Ang iyong API call ay magmumukhang ganito:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
Mga available na model strings simula noong Marso 2026:
| Model String | Paglalarawan |
|---|---|
grok-4.1 | Kasalukuyang flagship, pinakamahusay na kalidad |
grok-4.1-mini | Mabilis, cost-effective |
grok-3 | Nakaraang henerasyon |
grok-3-mini | Mabilis na bersyon ng nakaraang henerasyon |
Paglilista ng mga Available na Model
Maaari mong i-query ang API para makuha ang lahat ng kasalukuyang available na model identifiers:
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
Magbabalik ito ng isang JSON list ng lahat ng model objects, bawat isa ay may id field na naglalaman ng model identifier string.
Paggamit ng Grok sa mga Third-Party na Tool
Maraming tool at framework ang sumusuporta sa mga Grok model ng xAI. Ang model identifier string ay pareho lang — kailangan mo lang ang xAI API base URL:
- Base URL:
https://api.x.ai/v1 - Model ID:
grok-4.1(o anumang variant na kailangan mo) - Authentication: Bearer token kasama ang iyong xAI API key
Grok vs Ibang Frontier Models (Marso 2026)
Paano maihahambing ang Grok sa kumpetisyon?
| Feature | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Mga Parameter | ~3T (MoE) | ~2T (est.) | Hindi ibinunyag | Hindi ibinunyag |
| Context Window | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80.0% | 80.8% | 80.6% |
| GPQA Diamond | ~90% | 92.4% | 91.3% | 94.3% |
| ARC-AGI-2 | ~55% | 52.9% | 68.8% | 77.1% |
| API Pricing (in/out) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| Open Source | Grok-1 lang | Hindi | Hindi | Hindi |
| Real-time Data | Oo (X, Tesla) | Limitado (browsing) | Hindi | Oo (Google Search) |
Mga Pangunahing Punto
- Nangunguna ang Grok sa real-time na data — ang access sa data ng X at fleet ng Tesla ay isang tunay na differentiator na walang ibang lab ang makakatumbas.
- Nahuhuli ang Grok sa pangangatwiran — ang agwat sa ARC-AGI-2 (55% vs 77.1% para sa Gemini) ay makabuluhan. Kailangang isara ito ng Grok-5.
- Ang Grok ay may mapagkumpitensyang presyo — mas mura kaysa sa GPT-5.2 at Claude Opus, mas mahal kaysa sa Gemini 3.1 Pro.
- Ang bilang ng parameter ay hindi nagtatakda ng kalidad — ang Grok-4.1 ang may pinakamaraming ibinunyag na parameters ngunit hindi nangunguna sa mga benchmark. Mas mahalaga ang architecture, training data, at RLHF.
Pag-unawa sa Mixture-of-Experts (MoE) Parameters
Kapag sinabi ng xAI na ang Grok ay may "3 trilyong parameters," ang bilang na iyon ay nangangailangan ng konteksto. Sa isang Mixture-of-Experts architecture, bahagi lamang ng mga parameter ang aktibo sa bawat forward pass.
Paano gumagana ang MoE:- Ang model ay may maraming "expert" sub-networks.
- Isang router network ang nagpapasya kung aling mga expert ang ia-activate para sa bawat token.
- Karaniwan ay 2-4 experts sa 8-16+ ang aktibo bawat token.
- Malaki ang kabuuang parameters, ngunit ang compute cost ay mas malapit sa isang mas maliit na dense model.
Ang Grok-1 ang tanging model kung saan kinumpirma ng xAI ang eksaktong mga numero: 314B kabuuan, 86B aktibo (8 experts, 2 aktibo). Ang mga susunod na model ay hindi pa opisyal na nakumpirma ang kanilang expert configurations.
Mga Madalas Itanong
Ano ang kasalukuyang Grok xAI model identifier string sa 2026?
Ang kasalukuyang Grok xAI model identifier string ay grok-4.1 para sa flagship model at grok-4.1-mini para sa mabilis na variant. Ito ang mga eksaktong string na ginagamit mo sa mga API call sa https://api.x.ai/v1/chat/completions.
Ano ang listahan ng mga available na model sa xAI Grok API noong Marso 2026?
Ang mga available na xAI Grok API models simula noong Marso 2026 ay: grok-4.1, grok-4.1-mini, grok-3, at grok-3-mini. Maaari kang mag-query sa https://api.x.ai/v1/models para makuha ang buong listahan programmatically.
Ilang parameter ang mayroon ang kasalukuyang Grok model?
Ang Grok-4.1, ang kasalukuyang flagship model, ay may humigit-kumulang 3 trilyong parameters sa isang Mixture-of-Experts (MoE) architecture. Ang bilang ng aktibong parameter bawat inference ay mas mababa, malamang na 300-600 bilyon.
Ano ang laki ng context window ng Grok xAI noong Marso 2026?
Ang Grok-4.1 ay may laki ng context window na 256K tokens (262,144). Ang Grok-4.1-mini ay may 128K tokens. Ang darating na Grok-5 ay inaasahang lalawak sa 512K+ tokens.
Ano ang bilang ng parameter ng Grok 4.1?
Ang bilang ng parameter ng Grok 4.1 ay humigit-kumulang 3 trilyong kabuuang parameters sa isang Mixture-of-Experts architecture. Ang eksaktong bilang ng mga aktibong parameter bawat inference ay hindi ibinunyag ng xAI, ngunit tinatantya sa 300-600 bilyon.
Ang Grok ba ay open source?
Tanging ang Grok-1 (314B parameters) ang open-source sa ilalim ng Apache 2.0 license. Ang lahat ng kasunod na model (Grok-2, 3, 4.1, at ang darating na 5) ay proprietary.
Paano naihahambing ang laki ng Grok xAI model sa GPT-5?
Ang Grok-4.1 sa ~3 trilyong parameters ang may pinakamalaking ibinunyag na bilang ng parameter sa mga frontier models. Ang eksaktong bilang ng parameter ng GPT-5.2 ay hindi kumpirmado ngunit tinatantya sa humigit-kumulang 2 trilyon. Gayunpaman, ang bilang ng parameter lamang ay hindi nagtatakda ng kalidad ng model.
Kailan ilalabas ang Grok-5?
Nagpahiwatig ang xAI ng paglabas sa Q1 2026 para sa Grok-5 na may 6 na trilyong parameters. Hanggang noong Marso 2026, wala pang eksaktong petsa na inihayag. Maaari itong dumating anumang araw o maantala hanggang Q2.
Ilang parameter ang mayroon ang Grok AI?
Ang bilang ng mga parameter sa Grok AI ay depende sa bersyon: ang Grok-1 ay may 314B, ang Grok-2 ay may ~300B, ang Grok-3 ay may ~3T, ang Grok-4.1 ay may ~3T, at ang darating na Grok-5 ay magkakaroon ng 6T. Lahat ng mga model mula Grok-1 pataas ay gumagamit ng Mixture-of-Experts architecture.
Bumuo Gamit ang Kahit Anong AI Model
Ang landscape ng AI model sa 2026 ay watak-watak — ang Grok, GPT, Claude, at Gemini ay may kani-kaniyang lakas. Ang matalinong hakbang ay ang pagbuo ng mga produkto na maaaring magpalit-palit ng model habang nagbabago ang landscape.
Ang Y Build ay nagbibigay sa iyo ng buong growth stack para sa mga produktong pinapatakbo ng AI: deployment, Demo Cut product videos, AI SEO, at analytics. Gumagana sa anumang model, anumang framework.
Magsimula nang libre →Mga Sanggunian: