พารามิเตอร์โมเดล Grok, ขนาด และตัวระบุ: คู่มือ xAI ฉบับสมบูรณ์ (2026)
Grok มีพารามิเตอร์กี่ตัว? คู่มือฉบับสมบูรณ์เกี่ยวกับขนาดโมเดล Grok ของ xAI, จำนวนพารามิเตอร์, ตัวระบุโมเดล และสตริง API ครอบคลุม Grok-3, Grok-4 และ Grok-5 ที่กำลังจะมาพร้อม 6 ล้านล้านพารามิเตอร์
สรุปย่อ
โมเดล Grok ทุกรุ่นในมุมมองเดียว — จำนวนพารามิเตอร์, สตริงตัวระบุ API และหน้าต่างบริบท:
| โมเดล | พารามิเตอร์ | ตัวระบุ API | หน้าต่างบริบท | สถานะ |
|---|---|---|---|---|
| Grok-5 | 6 ล้านล้าน | grok-5 (คาดว่า) | 512K+ (คาดว่า) | คาดว่า Q1-Q2 2026 |
| Grok-4.1 | ~3 ล้านล้าน (MoE) | grok-4.1 | 256K | เรือธงปัจจุบัน |
| Grok-4.1 Mini | ~400 พันล้าน (MoE) | grok-4.1-mini | 128K | โมเดลเร็วปัจจุบัน |
| Grok-3 | ~3 ล้านล้าน (MoE) | grok-3 | 128K | รุ่นเก่า |
| Grok-3 Mini | ~400 พันล้าน (MoE) | grok-3-mini | 128K | รุ่นเก่า |
| Grok-2 | ~300 พันล้าน (ประมาณการ) | grok-2 | 128K | ยกเลิก |
| Grok-1 | 314 พันล้าน (MoE, 86 พันล้านแอคทีฟ) | grok-1 | 8K | โอเพ่นซอร์ส, ยกเลิก |
Grok มีพารามิเตอร์กี่ตัว?
คำตอบขึ้นอยู่กับว่าคุณหมายถึงโมเดล Grok รุ่นไหน xAI ได้เปิดตัวหลายรุ่น แต่ละรุ่นมีจำนวนพารามิเตอร์ต่างกัน:
Grok-1 (โอเพ่นซอร์ส, 2023)
Grok-1 เป็นโมเดลสาธารณะรุ่นแรกของ xAI และยังคงเป็นโมเดล Grok เดียวที่เป็นโอเพ่นซอร์สเต็มรูปแบบ ใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่มี 314 พันล้านพารามิเตอร์ทั้งหมด โดย 86 พันล้านแอคทีฟ ต่อรอบการอนุมาน
- พารามิเตอร์ทั้งหมด: 314 พันล้าน
- พารามิเตอร์แอคทีฟ: 86 พันล้าน
- สถาปัตยกรรม: MoE ที่มี 8 ผู้เชี่ยวชาญ, 2 แอคทีฟ
- หน้าต่างบริบท: 8,192 โทเค็น
- สัญญาอนุญาต: Apache 2.0 (โอเพ่นซอร์ส)
- สตริง API:
grok-1(ยกเลิก)
Grok-2 (2024)
Grok-2 เป็นการก้าวกระโดดที่สำคัญในความสามารถ xAI ไม่เคยเปิดเผยจำนวนพารามิเตอร์ที่แน่นอน แต่การประมาณการจากภายนอกอยู่ที่ประมาณ 300 พันล้านพารามิเตอร์
- พารามิเตอร์ทั้งหมด: ~300 พันล้าน (ประมาณการ)
- หน้าต่างบริบท: 128K โทเค็น
- สตริง API:
grok-2(ยกเลิก)
Grok-3 (ปลาย 2024 / ต้น 2025)
Grok-3 ถูกฝึกบนซูเปอร์คอมพิวเตอร์ Colossus ในเมมฟิสด้วย GPU NVIDIA H100 มากกว่า 100,000 ตัว ใช้สถาปัตยกรรม Mixture-of-Experts ที่มีพารามิเตอร์ทั้งหมดประมาณ 3 ล้านล้าน
- พารามิเตอร์ทั้งหมด: ~3 ล้านล้าน (MoE)
- หน้าต่างบริบท: 128K โทเค็น
- สตริง API:
grok-3
Grok-4.1 (เรือธงปัจจุบัน, 2025-2026)
Grok-4.1 เป็นโมเดลการผลิตปัจจุบันที่พร้อมใช้งานผ่าน API xAI และแชทบอท Grok บน X
- พารามิเตอร์ทั้งหมด: ~3 ล้านล้าน (MoE)
- หน้าต่างบริบท: 256K โทเค็น
- สตริง API:
grok-4.1 - รุ่น Mini:
grok-4.1-mini(~400 พันล้าน MoE, บริบท 128K)
Grok-5 (กำลังจะมา)
Grok-5 คาดว่าจะเพิ่มจำนวนพารามิเตอร์เป็นสองเท่าที่ 6 ล้านล้านพารามิเตอร์ พร้อมความสามารถมัลติโมดัลแบบเนทีฟ
- พารามิเตอร์ทั้งหมด: 6 ล้านล้าน (คาดว่า)
- หน้าต่างบริบท: 512K+ (คาดว่า)
- สตริง API:
grok-5(คาดว่า) - วางจำหน่าย: Q1-Q2 2026
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.
วิธีค้นหาสตริงตัวระบุโมเดล Grok
API xAI (โดยตรง)
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
สตริงโมเดลที่ใช้ได้ ณ มีนาคม 2026:
| สตริงโมเดล | คำอธิบาย |
|---|---|
grok-4.1 | เรือธงปัจจุบัน คุณภาพดีที่สุด |
grok-4.1-mini | เร็ว คุ้มค่า |
grok-3 | รุ่นก่อนหน้า |
grok-3-mini | รุ่นก่อนหน้าเร็ว |
แสดงรายการโมเดลที่ใช้ได้
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
การใช้ Grok ในเครื่องมือบุคคลที่สาม
- URL ฐาน:
https://api.x.ai/v1 - ID โมเดล:
grok-4.1 - การยืนยันตัวตน: Bearer token ด้วยคีย์ API xAI ของคุณ
Grok vs โมเดลชั้นนำอื่น (มีนาคม 2026)
| คุณสมบัติ | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| พารามิเตอร์ | ~3T (MoE) | ~2T (ประมาณ) | ไม่เปิดเผย | ไม่เปิดเผย |
| หน้าต่างบริบท | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80.0% | 80.8% | 80.6% |
| GPQA Diamond | ~90% | 92.4% | 91.3% | 94.3% |
| ARC-AGI-2 | ~55% | 52.9% | 68.8% | 77.1% |
| ราคา API (เข้า/ออก) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
ประเด็นสำคัญ
- Grok นำในข้อมูลเรียลไทม์ — การเข้าถึงข้อมูล X และกองยาน Tesla เป็นตัวสร้างความแตกต่างที่แท้จริง
- Grok ตามหลังในการให้เหตุผล — ช่องว่าง ARC-AGI-2 (55% vs 77.1% สำหรับ Gemini) มีนัยสำคัญ
- Grok มีราคาแข่งขันได้ — ถูกกว่า GPT-5.2 และ Claude Opus
- จำนวนพารามิเตอร์ไม่ได้กำหนดคุณภาพ — สถาปัตยกรรม ข้อมูลฝึก และ RLHF สำคัญกว่า
ทำความเข้าใจพารามิเตอร์ Mixture-of-Experts (MoE)
ในสถาปัตยกรรม MoE มีเพียงส่วนเล็กน้อยของพารามิเตอร์ที่แอคทีฟในแต่ละ forward pass
วิธีการทำงานของ MoE:- โมเดลมีซับเน็ตเวิร์ก "ผู้เชี่ยวชาญ" จำนวนมาก
- เน็ตเวิร์กเราเตอร์ตัดสินใจว่าจะเปิดใช้ผู้เชี่ยวชาญตัวไหนสำหรับแต่ละโทเค็น
- โดยทั่วไป 2-4 ผู้เชี่ยวชาญจาก 8-16+ จะแอคทีฟต่อโทเค็น
คำถามที่พบบ่อย
โมเดล Grok ปัจจุบันมีพารามิเตอร์กี่ตัว?
Grok-4.1 มีประมาณ 3 ล้านล้านพารามิเตอร์ในสถาปัตยกรรม MoE พารามิเตอร์แอคทีฟต่อการอนุมานอยู่ที่ประมาณ 300-600 พันล้าน
Grok เป็นโอเพ่นซอร์สหรือไม่?
เฉพาะ Grok-1 (314 พันล้านพารามิเตอร์) เป็นโอเพ่นซอร์สภายใต้สัญญาอนุญาต Apache 2.0
Grok-5 จะเปิดตัวเมื่อไหร่?
xAI ระบุว่าจะเปิดตัวใน Q1 2026 ณ มีนาคม 2026 ยังไม่มีวันที่แน่นอน
สร้างด้วยโมเดล AI ใดก็ได้
Y Build มอบสแต็กการเติบโตเต็มรูปแบบสำหรับผลิตภัณฑ์ที่ขับเคลื่อนด้วย AI: การปรับใช้, วิดีโอผลิตภัณฑ์ Demo Cut, AI SEO และการวิเคราะห์ เริ่มต้นฟรี →แหล่งที่มา:
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.