Parameter, Jendela Konteks & Daftar Model API Grok 4.1 (Maret 2026)
Grok 4.1 memiliki 1,7T parameter dengan jendela konteks 256K. String pengidentifikasi model API xAI lengkap: grok-4.1, grok-4.1-mini, grok-3. Jumlah parameter dan ukuran konteks yang tepat untuk setiap model Grok. Diperbarui Maret 2026.
String Pengidentifikasi Model xAI Grok Saat Ini (Maret 2026)
Berikut adalah string pengidentifikasi model yang tepat dan terbaru untuk setiap model xAI Grok yang tersedia melalui API per Maret 2026:
| Model | Parameter | Pengidentifikasi API | Jendela Konteks | Status |
|---|---|---|---|---|
| Grok-5 | 6 triliun | grok-5 (diharapkan) | 512K+ (diharapkan) | Hadir Q1-Q2 2026 |
| Grok-4.1 | ~3 triliun (MoE) | grok-4.1 | 256K | Flagship saat ini |
| Grok-4.1 Mini | ~400B (MoE) | grok-4.1-mini | 128K | Model cepat saat ini |
| Grok-3 | ~3 triliun (MoE) | grok-3 | 128K | Warisan (Legacy) |
| Grok-3 Mini | ~400B (MoE) | grok-3-mini | 128K | Warisan (Legacy) |
| Grok-2 | ~300B (estimasi) | grok-2 | 128K | Usang (Deprecated) |
| Grok-1 | 314B (MoE, 86B aktif) | grok-1 | 8K | Open-source, usang |
grok-4.1. Model Grok saat ini (Grok-4.1) memiliki sekitar 3 triliun parameter dalam arsitektur Mixture-of-Experts. URL dasar API xAI adalah https://api.x.ai/v1.
Daftar Model API xAI Grok yang Tersedia (Maret 2026)
Jika Anda mencari string pengidentifikasi model yang tepat untuk digunakan dalam panggilan API Anda sekarang:
grok-4.1— Model flagship saat ini. Kualitas terbaik. Jendela konteks 256K. ~3T parameter (MoE).grok-4.1-mini— Model cepat saat ini. Hemat biaya. Jendela konteks 128K. ~400B parameter (MoE).grok-3— Warisan (Legacy). Masih tersedia. Jendela konteks 128K. ~3T parameter (MoE).grok-3-mini— Model cepat warisan (legacy). Jendela konteks 128K. ~400B parameter (MoE).
https://api.x.ai/v1
Untuk mencantumkan semua model yang tersedia secara terprogram:
curl https://api.x.ai/v1/models -H "Authorization: Bearer $XAI_API_KEY"
Ukuran Jendela Konteks Grok (Maret 2026)
| Model | Ukuran Jendela Konteks | Token |
|---|---|---|
| Grok-4.1 | 256K | 262,144 |
| Grok-4.1 Mini | 128K | 131,072 |
| Grok-3 | 128K | 131,072 |
| Grok-3 Mini | 128K | 131,072 |
| Grok-5 (diharapkan) | 512K+ | 524,288+ |
Berapa Banyak Parameter yang Dimiliki Grok?
Jawabannya tergantung pada model Grok mana yang Anda maksud. xAI telah merilis beberapa generasi, masing-masing dengan jumlah parameter yang berbeda:
Grok-1 (Open Source, 2023)
Grok-1 adalah model publik pertama xAI dan tetap menjadi satu-satunya model Grok yang sepenuhnya open-source. Ia menggunakan arsitektur Mixture-of-Experts (MoE) dengan total 314 miliar parameter, di mana 86 miliar di antaranya aktif per lintasan inferensi. Ini berarti hanya ~27% dari bobot model yang bekerja untuk setiap token tertentu.
- Total parameter: 314 miliar
- Parameter aktif: 86 miliar
- Arsitektur: MoE dengan 8 pakar, 2 aktif
- Jendela konteks: 8,192 token
- Lisensi: Apache 2.0 (open-source)
- API string:
grok-1(usang)
Grok-2 (2024)
Grok-2 merupakan lompatan kemampuan yang signifikan. xAI tidak pernah mengungkapkan jumlah parameter pastinya, namun perkiraan eksternal menempatkannya di sekitar 300 miliar parameter dalam arsitektur dense atau sparse. Model ini memperkenalkan pemahaman gambar dan peningkatan penalaran.
- Total parameter: ~300B (estimasi, tidak dikonfirmasi)
- Jendela konteks: 128K token
- API string:
grok-2(usang)
Grok-3 (Akhir 2024 / Awal 2025)
Grok-3 menandai lonjakan xAI ke model skala triliun. Dilatih di superkomputer Colossus di Memphis dengan 100.000+ GPU NVIDIA H100, Grok-3 menggunakan arsitektur Mixture-of-Experts dengan total sekitar 3 triliun parameter.
- Total parameter: ~3 triliun (MoE)
- Parameter aktif: Tidak diungkapkan (estimasi 300-600B aktif)
- Jendela konteks: 128K token
- API string:
grok-3
Grok-4.1 (Flagship Saat Ini, 2025-2026)
Grok-4.1 adalah model produksi saat ini yang tersedia melalui API xAI dan chatbot Grok di X. Model ini dibangun berdasarkan arsitektur Grok-3 dengan pelatihan tambahan dan penyempurnaan. Jumlah parameter tetap berada di kisaran ~3 triliun dengan data dan teknik pelatihan yang lebih baik.
- Total parameter: ~3 triliun (MoE)
- Jendela konteks: 256K token
- API string:
grok-4.1 - Varian mini:
grok-4.1-mini(~400B MoE, konteks 128K)
Grok-5 (Mendatang)
Grok-5 diharapkan dapat menggandakan jumlah parameter menjadi 6 triliun parameter. Model ini akan memiliki kemampuan multimodal bawaan (teks, gambar, video, audio) dan akses data real-time dari armada Tesla dan X.
- Total parameter: 6 triliun (diharapkan)
- Jendela konteks: 512K+ (diharapkan)
- API string:
grok-5(diharapkan) - Rilis: Q1-Q2 2026
Cara Menemukan String Pengidentifikasi Model Grok
Jika Anda memerlukan string pengidentifikasi model yang tepat untuk panggilan API, berikut adalah yang harus digunakan:
API xAI (Langsung)
API xAI mengikuti format yang kompatibel dengan OpenAI. Panggilan API Anda akan terlihat seperti ini:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
String model yang tersedia per Maret 2026:
| String Model | Deskripsi |
|---|---|
grok-4.1 | Flagship saat ini, kualitas terbaik |
grok-4.1-mini | Cepat, hemat biaya |
grok-3 | Generasi sebelumnya |
grok-3-mini | Generasi sebelumnya versi cepat |
Mencantumkan Model yang Tersedia
Anda dapat menanyakan API untuk mendapatkan semua pengidentifikasi model yang tersedia saat ini:
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
Ini mengembalikan daftar JSON dari semua objek model, masing-masing dengan bidang id yang berisi string pengidentifikasi model.
Menggunakan Grok di Alat Pihak Ketiga
Banyak alat dan kerangka kerja mendukung model Grok dari xAI. String pengidentifikasi modelnya sama — Anda hanya memerlukan URL dasar API xAI:
- Base URL:
https://api.x.ai/v1 - Model ID:
grok-4.1(atau varian apa pun yang Anda butuhkan) - Authentication: Bearer token dengan kunci API xAI Anda
Grok vs Model Frontier Lainnya (Maret 2026)
Bagaimana posisi Grok dibandingkan dengan para pesaingnya?
| Fitur | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Parameter | ~3T (MoE) | ~2T (est.) | Tidak diungkapkan | Tidak diungkapkan |
| Jendela Konteks | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80.0% | 80.8% | 80.6% |
| GPQA Diamond | ~90% | 92.4% | 91.3% | 94.3% |
| ARC-AGI-2 | ~55% | 52.9% | 68.8% | 77.1% |
| Harga API (masuk/keluar) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| Open Source | Hanya Grok-1 | Tidak | Tidak | Tidak |
| Data Real-time | Ya (X, Tesla) | Terbatas (browsing) | Tidak | Ya (Google Search) |
Poin Penting
- Grok unggul dalam data real-time — akses ke data armada X dan Tesla adalah pembeda nyata yang tidak dapat ditandingi oleh lab lain.
- Grok tertinggal dalam penalaran — celah ARC-AGI-2 (55% vs 77,1% untuk Gemini) cukup signifikan. Grok-5 perlu menutup celah ini.
- Grok memiliki harga yang kompetitif — lebih murah daripada GPT-5.2 dan Claude Opus, namun lebih mahal daripada Gemini 3.1 Pro.
- Jumlah parameter tidak menentukan kualitas — Grok-4.1 memiliki jumlah parameter terbanyak yang diungkapkan tetapi tidak memimpin dalam benchmark. Arsitektur, data pelatihan, dan RLHF lebih berpengaruh.
Memahami Parameter Mixture-of-Experts (MoE)
Ketika xAI mengatakan Grok memiliki "3 triliun parameter," angka tersebut memerlukan konteks. Dalam arsitektur Mixture-of-Experts, hanya sebagian kecil parameter yang aktif selama setiap forward pass.
Cara kerja MoE:- Model memiliki banyak sub-jaringan "pakar" (expert).
- Jaringan router memutuskan pakar mana yang akan diaktifkan untuk setiap token.
- Biasanya 2-4 pakar dari 8-16+ aktif per token.
- Total parameter sangat besar, namun biaya komputasi lebih dekat dengan model dense yang lebih kecil.
Grok-1 adalah satu-satunya model di mana xAI mengonfirmasi angka pastinya: total 314B, 86B aktif (8 pakar, 2 aktif). Model-model setelahnya belum mendapatkan konfirmasi publik terkait konfigurasi pakarnya.
Pertanyaan yang Sering Diajukan (FAQ)
Apa string pengidentifikasi model Grok xAI saat ini di tahun 2026?
String pengidentifikasi model Grok xAI saat ini adalah grok-4.1 untuk model flagship dan grok-4.1-mini untuk varian cepat. Ini adalah string tepat yang Anda gunakan dalam panggilan API ke https://api.x.ai/v1/chat/completions.
Apa saja daftar model API xAI Grok yang tersedia di Maret 2026?
Model API xAI Grok yang tersedia per Maret 2026 adalah: grok-4.1, grok-4.1-mini, grok-3, dan grok-3-mini. Anda dapat menanyakan https://api.x.ai/v1/models untuk mendapatkan daftar lengkapnya secara terprogram.
Berapa banyak parameter yang dimiliki model Grok saat ini?
Grok-4.1, model flagship saat ini, memiliki sekitar 3 triliun parameter dalam arsitektur Mixture-of-Experts (MoE). Jumlah parameter aktif per inferensi lebih rendah, kemungkinan 300-600 miliar.
Berapa ukuran jendela konteks Grok xAI pada Maret 2026?
Grok-4.1 memiliki ukuran jendela konteks 256K token (262,144). Grok-4.1-mini memiliki 128K token. Grok-5 mendatang diharapkan akan diperluas hingga 512K+ token.
Berapa jumlah parameter Grok 4.1?
Jumlah parameter Grok 4.1 adalah sekitar 3 triliun total parameter dalam arsitektur Mixture-of-Experts. Jumlah pasti parameter aktif per inferensi belum diungkapkan oleh xAI, tetapi diperkirakan sebesar 300-600 miliar.
Apakah Grok bersifat open source?
Hanya Grok-1 (314B parameter) yang open-source di bawah lisensi Apache 2.0. Semua model berikutnya (Grok-2, 3, 4.1, dan 5 yang akan datang) bersifat proprietary (hak milik).
Bagaimana ukuran model Grok xAI dibandingkan dengan GPT-5?
Grok-4.1 dengan ~3 triliun parameter memiliki jumlah parameter terungkap terbesar di antara model frontier. Jumlah parameter pasti GPT-5.2 tidak dikonfirmasi tetapi diperkirakan sekitar 2 triliun. Namun, jumlah parameter saja tidak menentukan kualitas model.
Kapan Grok-5 akan dirilis?
xAI telah mengindikasikan rilis Q1 2026 untuk Grok-5 dengan 6 triliun parameter. Hingga Maret 2026, belum ada tanggal pasti yang diumumkan. Model ini bisa tiba kapan saja atau bergeser ke Q2.
Berapa banyak parameter yang dimiliki Grok AI?
Jumlah parameter dalam Grok AI tergantung pada versinya: Grok-1 memiliki 314B, Grok-2 memiliki ~300B, Grok-3 memiliki ~3T, Grok-4.1 memiliki ~3T, dan Grok-5 mendatang akan memiliki 6T. Semua model mulai dari Grok-1 dan seterusnya menggunakan arsitektur Mixture-of-Experts.
Bangun Dengan Model AI Apa Pun
Lanskap model AI pada tahun 2026 sangat terfragmentasi — Grok, GPT, Claude, Gemini semuanya memiliki keunggulan yang berbeda. Langkah cerdas adalah membangun produk yang dapat berganti-ganti model saat lanskap berubah.
Y Build memberi Anda stack pertumbuhan penuh untuk produk bertenaga AI: deployment, video produk Demo Cut, AI SEO, dan analitik. Berfungsi dengan model apa pun, framework apa pun. Mulai gratis →Sumber: