Parameter Grok 4.1, Tetingkap Konteks & Senarai Model API (Mac 2026)
Grok 4.1 mempunyai 1.7T parameter dengan tetingkap konteks 256K. Rentetan pengecam model API xAI yang lengkap: grok-4.1, grok-4.1-mini, grok-3. Kiraan parameter dan saiz konteks yang tepat untuk setiap model Grok. Dikemas kini Mac 2026.
Rentetan Pengecam Model Grok xAI Semasa (Mac 2026)
Berikut adalah rentetan pengecam model yang tepat dan terkini untuk setiap model Grok xAI yang tersedia melalui API setakat Mac 2026:
| Model | Parameter | Pengecam API | Tetingkap Konteks | Status |
|---|---|---|---|---|
| Grok-5 | 6 trilion | grok-5 (dijangka) | 512K+ (dijangka) | Akan Datang S1-S2 2026 |
| Grok-4.1 | ~3 trilion (MoE) | grok-4.1 | 256K | Flagship semasa |
| Grok-4.1 Mini | ~400B (MoE) | grok-4.1-mini | 128K | Model pantas semasa |
| Grok-3 | ~3 trilion (MoE) | grok-3 | 128K | Legasi |
| Grok-3 Mini | ~400B (MoE) | grok-3-mini | 128K | Legasi |
| Grok-2 | ~300B (anggaran) | grok-2 | 128K | Tidak lagi disokong |
| Grok-1 | 314B (MoE, 86B aktif) | grok-1 | 8K | Sumber terbuka, tidak lagi disokong |
grok-4.1. Model Grok semasa (Grok-4.1) mempunyai kira-kira 3 trilion parameter dalam senibina Mixture-of-Experts. URL asas API xAI ialah https://api.x.ai/v1.
Senarai Model API Grok xAI yang Tersedia (Mac 2026)
Jika anda sedang mencari rentetan pengecam model yang tepat untuk digunakan dalam panggilan API anda sekarang:
grok-4.1— Model flagship semasa. Kualiti terbaik. Tetingkap konteks 256K. ~3T parameter (MoE).grok-4.1-mini— Model pantas semasa. Kos efektif. Tetingkap konteks 128K. ~400B parameter (MoE).grok-3— Legasi. Masih tersedia. Tetingkap konteks 128K. ~3T parameter (MoE).grok-3-mini— Model pantas legasi. Tetingkap konteks 128K. ~400B parameter (MoE).
https://api.x.ai/v1
Untuk menyenaraikan semua model yang tersedia secara programatik:
curl https://api.x.ai/v1/models -H "Authorization: Bearer $XAI_API_KEY"
Saiz Tetingkap Konteks Grok (Mac 2026)
| Model | Saiz Tetingkap Konteks | Token |
|---|---|---|
| Grok-4.1 | 256K | 262,144 |
| Grok-4.1 Mini | 128K | 131,072 |
| Grok-3 | 128K | 131,072 |
| Grok-3 Mini | 128K | 131,072 |
| Grok-5 (dijangka) | 512K+ | 524,288+ |
Berapa Banyak Parameter yang Dimiliki oleh Grok?
Jawapannya bergantung pada model Grok yang anda maksudkan. xAI telah mengeluarkan beberapa generasi, masing-masing dengan kiraan parameter yang berbeza:
Grok-1 (Sumber Terbuka, 2023)
Grok-1 adalah model awam pertama xAI dan kekal sebagai satu-satunya model Grok yang sepenuhnya sumber terbuka. Ia menggunakan senibina Mixture-of-Experts (MoE) dengan 314 bilion jumlah parameter, di mana 86 bilion adalah aktif bagi setiap laluan inferens. Ini bermakna hanya ~27% daripada pemberat model diaktifkan untuk mana-mana token tertentu.
- Jumlah parameter: 314 bilion
- Parameter aktif: 86 bilion
- Senibina: MoE dengan 8 pakar, 2 aktif
- Tetingkap konteks: 8,192 token
- Lesen: Apache 2.0 (sumber terbuka)
- Rentetan API:
grok-1(tidak lagi disokong)
Grok-2 (2024)
Grok-2 merupakan lonjakan keupayaan yang ketara. xAI tidak pernah mendedahkan kiraan parameter yang tepat, tetapi anggaran luaran meletakkannya sekitar 300 bilion parameter dalam senibina padat (dense) atau jarang (sparse). Ia memperkenalkan pemahaman imej dan penaakulan yang lebih baik.
- Jumlah parameter: ~300B (anggaran, tidak disahkan)
- Tetingkap konteks: 128K token
- Rentetan API:
grok-2(tidak lagi disokong)
Grok-3 (Akhir 2024 / Awal 2025)
Grok-3 menandakan lonjakan xAI ke arah model berskala trilion. Dilatih pada superkomputer Colossus di Memphis dengan lebih 100,000 GPU NVIDIA H100, Grok-3 menggunakan senibina Mixture-of-Experts dengan kira-kira 3 trilion jumlah parameter.
- Jumlah parameter: ~3 trilion (MoE)
- Parameter aktif: Tidak didedahkan (anggaran 300-600B aktif)
- Tetingkap konteks: 128K token
- Rentetan API:
grok-3
Grok-4.1 (Flagship Semasa, 2025-2026)
Grok-4.1 adalah model pengeluaran semasa yang tersedia melalui API xAI dan chatbot Grok di X. Ia dibina berasaskan senibina Grok-3 dengan latihan tambahan dan penambahbaikan. Kiraan parameter kekal dalam lingkungan ~3 trilion dengan data dan teknik latihan yang dipertingkatkan.
- Jumlah parameter: ~3 trilion (MoE)
- Tetingkap konteks: 256K token
- Rentetan API:
grok-4.1 - Varian Mini:
grok-4.1-mini(~400B MoE, konteks 128K)
Grok-5 (Akan Datang)
Grok-5 dijangka akan menggandakan kiraan parameter kepada 6 trilion parameter. Ia akan menampilkan keupayaan multimodal asli (teks, imej, video, audio) dan akses data masa nyata daripada rangkaian Tesla dan X.
- Jumlah parameter: 6 trilion (dijangka)
- Tetingkap konteks: 512K+ (dijangka)
- Rentetan API:
grok-5(dijangka) - Pelancaran: S1-S2 2026
Cara Mencari Rentetan Pengecam Model Grok
Jika anda memerlukan rentetan pengecam model yang tepat untuk panggilan API, berikut adalah apa yang perlu digunakan:
API xAI (Langsung)
API xAI mengikuti pemformatan yang serasi dengan OpenAI. Panggilan API anda kelihatan seperti ini:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
Rentetan model yang tersedia setakat Mac 2026:
| Rentetan Model | Penerangan |
|---|---|
grok-4.1 | Flagship semasa, kualiti terbaik |
grok-4.1-mini | Pantas, kos efektif |
grok-3 | Generasi sebelumnya |
grok-3-mini | Generasi sebelumnya yang pantas |
Menyenaraikan Model yang Tersedia
Anda boleh membuat pertanyaan kepada API untuk mendapatkan semua pengecam model yang tersedia pada masa ini:
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
Ini akan mengembalikan senarai JSON bagi semua objek model, masing-masing dengan medan id yang mengandungi rentetan pengecam model.
Menggunakan Grok dalam Alat Pihak Ketiga
Banyak alat dan rangka kerja menyokong model Grok xAI. Rentetan pengecam modelnya adalah sama — anda hanya memerlukan URL asas API xAI:
- URL Asas:
https://api.x.ai/v1 - ID Model:
grok-4.1(atau mana-mana varian yang anda perlukan) - Autentikasi: Bearer token dengan kunci API xAI anda
Grok berbanding Model Frontier Lain (Mac 2026)
Bagaimanakah kedudukan Grok berbanding pesaingnya?
| Ciri | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Parameter | ~3T (MoE) | ~2T (anggaran) | Tidak didedahkan | Tidak didedahkan |
| Tetingkap Konteks | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80.0% | 80.8% | 80.6% |
| GPQA Diamond | ~90% | 92.4% | 91.3% | 94.3% |
| ARC-AGI-2 | ~55% | 52.9% | 68.8% | 77.1% |
| Harga API (masuk/keluar) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| Sumber Terbuka | Grok-1 sahaja | Tidak | Tidak | Tidak |
| Data Masa Nyata | Ya (X, Tesla) | Terhad (pelayaran) | Tidak | Ya (Carian Google) |
Rumusan Utama
- Grok mendahului dalam data masa nyata — akses kepada data X dan rangkaian Tesla merupakan pembeza unik yang tidak dapat ditandingi oleh makmal lain.
- Grok ketinggalan dalam penaakulan — jurang ARC-AGI-2 (55% berbanding 77.1% untuk Gemini) adalah ketara. Grok-5 perlu merapatkan jurang ini.
- Grok berharga kompetitif — lebih murah daripada GPT-5.2 dan Claude Opus, tetapi lebih mahal daripada Gemini 3.1 Pro.
- Kiraan parameter tidak menentukan kualiti — Grok-4.1 mempunyai kiraan parameter yang didedahkan paling tinggi tetapi tidak mendahului dalam semua tanda aras (benchmarks). Senibina, data latihan, dan RLHF adalah lebih penting.
Memahami Parameter Mixture-of-Experts (MoE)
Apabila xAI menyatakan Grok mempunyai "3 trilion parameter," angka itu memerlukan konteks. Dalam senibina Mixture-of-Experts, hanya sebahagian kecil daripada parameter yang aktif semasa setiap laluan ke hadapan (forward pass).
Cara MoE berfungsi:- Model mempunyai banyak sub-rangkaian "pakar".
- Rangkaian penghala memutuskan pakar mana yang akan diaktifkan untuk setiap token.
- Biasanya 2-4 pakar daripada 8-16+ adalah aktif bagi setiap token.
- Jumlah parameter adalah besar, tetapi kos pengiraan lebih dekat dengan model padat (dense) yang lebih kecil.
Grok-1 adalah satu-satunya model di mana xAI mengesahkan angka tepat: 314B jumlah, 86B aktif (8 pakar, 2 aktif). Konfigurasi pakar bagi model-model terkemudian belum disahkan secara terbuka.
Soalan Lazim
Apakah rentetan pengecam model Grok xAI semasa pada tahun 2026?
Rentetan pengecam model Grok xAI semasa ialah grok-4.1 untuk model flagship dan grok-4.1-mini untuk varian pantas. Ini adalah rentetan tepat yang anda gunakan dalam panggilan API ke https://api.x.ai/v1/chat/completions.
Apakah senarai model API Grok xAI yang tersedia pada Mac 2026?
Model API Grok xAI yang tersedia setakat Mac 2026 ialah: grok-4.1, grok-4.1-mini, grok-3, dan grok-3-mini. Anda boleh membuat pertanyaan ke https://api.x.ai/v1/models untuk mendapatkan senarai penuh secara programatik.
Berapa banyak parameter yang dimiliki oleh model Grok semasa?
Grok-4.1, model flagship semasa, mempunyai kira-kira 3 trilion parameter dalam senibina Mixture-of-Experts (MoE). Kiraan parameter aktif bagi setiap inferens adalah lebih rendah, kemungkinan 300-600 bilion.
Berapakah saiz tetingkap konteks Grok xAI pada Mac 2026?
Grok-4.1 mempunyai saiz tetingkap konteks sebanyak 256K token (262,144). Grok-4.1-mini mempunyai 128K token. Grok-5 yang akan datang dijangka akan berkembang kepada 512K+ token.
Berapakah kiraan parameter Grok 4.1?
Kiraan parameter Grok 4.1 adalah kira-kira 3 trilion jumlah parameter dalam senibina Mixture-of-Experts. Jumlah tepat parameter aktif bagi setiap inferens belum didedahkan oleh xAI, tetapi dianggarkan sebanyak 300-600 bilion.
Adakah Grok sumber terbuka?
Hanya Grok-1 (314B parameter) adalah sumber terbuka di bawah lesen Apache 2.0. Semua model selepas itu (Grok-2, 3, 4.1, dan Grok-5 yang akan datang) adalah proprietari.
Bagaimanakah saiz model Grok xAI berbanding GPT-5?
Grok-4.1 pada ~3 trilion parameter mempunyai kiraan parameter didedahkan yang terbesar di antara model-model frontier. Kiraan parameter tepat GPT-5.2 tidak disahkan tetapi dianggarkan sekitar 2 trilion. Walau bagaimanapun, kiraan parameter sahaja tidak menentukan kualiti model.
Bilakah Grok-5 akan dilancarkan?
xAI telah membayangkan pelancaran S1 2026 untuk Grok-5 dengan 6 trilion parameter. Setakat Mac 2026, tiada tarikh tepat telah diumumkan. Ia boleh tiba pada bila-bila masa atau mungkin tertunda ke S2.
Berapa banyak parameter yang dimiliki oleh Grok AI?
Bilangan parameter dalam Grok AI bergantung pada versinya: Grok-1 mempunyai 314B, Grok-2 mempunyai ~300B, Grok-3 mempunyai ~3T, Grok-4.1 mempunyai ~3T, dan Grok-5 yang akan datang akan mempunyai 6T. Semua model bermula dari Grok-1 menggunakan senibina Mixture-of-Experts.
Bina Dengan Mana-mana Model AI
Landskap model AI pada tahun 2026 adalah terfragmentasi — Grok, GPT, Claude, Gemini masing-masing mempunyai kekuatan yang berbeza. Langkah bijak adalah membina produk yang boleh bertukar antara model apabila landskap berubah.
Y Build memberikan anda stack pertumbuhan penuh untuk produk berkuasa AI: penggunaan (deployment), video produk Demo Cut, SEO AI, dan analitik. Berfungsi dengan mana-mana model, mana-mana rangka kerja. Mula secara percuma →Sumber: