พารามิเตอร์ของ Grok 4.1, Context Window และรายชื่อโมเดล API (มีนาคม 2026)
Grok 4.1 มีพารามิเตอร์ 1.7 ล้านล้าน (1.7T) พร้อม context window ขนาด 256K รายชื่อ model identifier string ของ xAI API ทั้งหมด: grok-4.1, grok-4.1-mini, grok-3 ข้อมูลจำนวนพารามิเตอร์และขนาด context window สำหรับทุกโมเดลของ Grok อัปเดตเมื่อมีนาคม 2026
Model Identifier Strings ของ xAI Grok ในปัจจุบัน (มีนาคม 2026)
นี่คือ model identifier string ที่ถูกต้องและเป็นปัจจุบันสำหรับทุกโมเดล xAI Grok ที่พร้อมใช้งานผ่าน API ณ เดือนมีนาคม 2026:
| โมเดล | พารามิเตอร์ | API Identifier | Context Window | สถานะ |
|---|---|---|---|---|
| Grok-5 | 6 ล้านล้าน | grok-5 (คาดการณ์) | 512K+ (คาดการณ์) | กำลังจะมาใน Q1-Q2 2026 |
| Grok-4.1 | ~3 ล้านล้าน (MoE) | grok-4.1 | 256K | รุ่นเรือธงปัจจุบัน |
| Grok-4.1 Mini | ~400B (MoE) | grok-4.1-mini | 128K | รุ่นเน้นความเร็วปัจจุบัน |
| Grok-3 | ~3 ล้านล้าน (MoE) | grok-3 | 128K | รุ่นเก่า (Legacy) |
| Grok-3 Mini | ~400B (MoE) | grok-3-mini | 128K | รุ่นเก่า (Legacy) |
| Grok-2 | ~300B (โดยประมาณ) | grok-2 | 128K | เลิกใช้งานแล้ว (Deprecated) |
| Grok-1 | 314B (MoE, ทำงาน 86B) | grok-1 | 8K | โอเพนซอร์ส, เลิกใช้งานแล้ว |
grok-4.1 โดยโมเดล Grok รุ่นล่าสุด (Grok-4.1) มีพารามิเตอร์ประมาณ 3 ล้านล้านพารามิเตอร์ในสถาปัตยกรรมแบบ Mixture-of-Experts (MoE) และ xAI API base URL คือ https://api.x.ai/v1
รายชื่อโมเดล xAI Grok API ที่พร้อมใช้งาน (มีนาคม 2026)
หากคุณกำลังมองหา model identifier string ที่ถูกต้องเพื่อใช้ในการเรียก API ในขณะนี้:
grok-4.1— โมเดลเรือธงรุ่นปัจจุบัน คุณภาพดีที่สุด Context window ขนาด 256K พารามิเตอร์ประมาณ 3T (MoE)grok-4.1-mini— โมเดลเน้นความเร็วรุ่นปัจจุบัน คุ้มค่าใช้จ่าย Context window ขนาด 128K พารามิเตอร์ประมาณ 400B (MoE)grok-3— รุ่นเก่า (Legacy) ยังคงใช้งานได้ Context window ขนาด 128K พารามิเตอร์ประมาณ 3T (MoE)grok-3-mini— รุ่นเก่าเน้นความเร็ว Context window ขนาด 128K พารามิเตอร์ประมาณ 400B (MoE)
https://api.x.ai/v1
สำหรับการเรียกดูรายชื่อโมเดลทั้งหมดผ่านระบบโปรแกรม:
curl https://api.x.ai/v1/models -H "Authorization: Bearer $XAI_API_KEY"
ขนาด Context Window ของ Grok (มีนาคม 2026)
| โมเดล | ขนาด Context Window | โทเค็น (Tokens) |
|---|---|---|
| Grok-4.1 | 256K | 262,144 |
| Grok-4.1 Mini | 128K | 131,072 |
| Grok-3 | 128K | 131,072 |
| Grok-3 Mini | 128K | 131,072 |
| Grok-5 (คาดการณ์) | 512K+ | 524,288+ |
Grok มีพารามิเตอร์เท่าไหร่?
คำตอบขึ้นอยู่กับว่าคุณหมายถึงโมเดล Grok รุ่นใด xAI ได้เปิดตัวออกมาหลายรุ่น ซึ่งแต่ละรุ่นมีจำนวนพารามิเตอร์ที่แตกต่างกันดังนี้:
Grok-1 (โอเพนซอร์ส, 2023)
Grok-1 เป็นโมเดลสาธารณะรุ่นแรกของ xAI และยังคงเป็นโมเดล Grok รุ่นเดียวที่เป็นโอเพนซอร์สเต็มรูปแบบ โดยใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่มี พารามิเตอร์ทั้งหมด 314 พันล้านพารามิเตอร์ ซึ่งในจำนวนนี้มี 86 พันล้านพารามิเตอร์ที่ทำงาน (active) ต่อการประมวลผล (inference) หนึ่งครั้ง หมายความว่ามีเพียงประมาณ 27% ของน้ำหนักโมเดลเท่านั้นที่ถูกใช้งานสำหรับแต่ละโทเค็น
- พารามิเตอร์ทั้งหมด: 314 พันล้าน
- พารามิเตอร์ที่ทำงาน (Active): 86 พันล้าน
- สถาปัตยกรรม: MoE พร้อมผู้เชี่ยวชาญ (experts) 8 ราย, ทำงานพร้อมกัน 2 ราย
- Context window: 8,192 โทเค็น
- ใบอนุญาต: Apache 2.0 (โอเพนซอร์ส)
- API string:
grok-1(เลิกใช้งานแล้ว)
Grok-2 (2024)
Grok-2 เป็นการก้าวกระโดดครั้งสำคัญในด้านความสามารถ xAI ไม่เคยเปิดเผยจำนวนพารามิเตอร์ที่แน่นอน แต่การประเมินจากภายนอกระบุว่าอยู่ที่ประมาณ 300 พันล้านพารามิเตอร์ ในสถาปัตยกรรมแบบ dense หรือ sparse โดยรุ่นนี้ได้เพิ่มความสามารถในการทำความเข้าใจรูปภาพและการใช้เหตุผลที่ดีขึ้น
- พารามิเตอร์ทั้งหมด: ~300B (โดยประมาณ, ยังไม่ได้รับการยืนยัน)
- Context window: 128K โทเค็น
- API string:
grok-2(เลิกใช้งานแล้ว)
Grok-3 (ปลายปี 2024 / ต้นปี 2025)
Grok-3 เป็นก้าวสำคัญของ xAI เข้าสู่โมเดลระดับล้านล้านพารามิเตอร์ (trillion-scale) ซึ่งถูกฝึกบนซูเปอร์คอมพิวเตอร์ Colossus ในเมืองเมมฟิส ด้วย GPU NVIDIA H100 กว่า 100,000 ตัว โดย Grok-3 ใช้สถาปัตยกรรม Mixture-of-Experts ที่มีพารามิเตอร์รวมประมาณ 3 ล้านล้านพารามิเตอร์
- พารามิเตอร์ทั้งหมด: ~3 ล้านล้าน (MoE)
- พารามิเตอร์ที่ทำงาน (Active): ไม่เปิดเผย (คาดการณ์ว่าอยู่ที่ 300-600B)
- Context window: 128K โทเค็น
- API string:
grok-3
Grok-4.1 (รุ่นเรือธงปัจจุบัน, 2025-2026)
Grok-4.1 เป็นโมเดลที่ใช้งานจริงในปัจจุบันผ่าน xAI API และแชทบอท Grok บนแพลตฟอร์ม X โดยพัฒนาต่อยอดจากสถาปัตยกรรมของ Grok-3 ด้วยการฝึกฝนเพิ่มเติมและปรับแต่งให้ดียิ่งขึ้น จำนวนพารามิเตอร์ยังคงอยู่ในระดับ ~3 ล้านล้านพารามิเตอร์ พร้อมข้อมูลและเทคนิคการฝึกที่ดียิ่งขึ้น
- พารามิเตอร์ทั้งหมด: ~3 ล้านล้าน (MoE)
- Context window: 256K โทเค็น
- API string:
grok-4.1 - รุ่นย่อย Mini:
grok-4.1-mini(~400B MoE, 128K context)
Grok-5 (รุ่นที่กำลังจะมาถึง)
Grok-5 คาดว่าจะเพิ่มจำนวนพารามิเตอร์เป็นสองเท่าเป็น 6 ล้านล้านพารามิเตอร์ โดยจะมีฟีเจอร์มัลติโมดอลแบบดั้งเดิม (ข้อความ, รูปภาพ, วิดีโอ, เสียง) และการเข้าถึงข้อมูลแบบเรียลไทม์จากฝูงรถ Tesla และแพลตฟอร์ม X
- พารามิเตอร์ทั้งหมด: 6 ล้านล้าน (คาดการณ์)
- Context window: 512K+ (คาดการณ์)
- API string:
grok-5(คาดการณ์) - กำหนดปล่อย: ไตรมาสที่ 1-2 ปี 2026
วิธีการค้นหา Grok Model Identifier String
หากคุณต้องการ model identifier string ที่แน่นอนสำหรับการเรียกใช้ API นี่คือสิ่งที่คุณต้องใช้:
xAI API (โดยตรง)
xAI API ใช้รูปแบบที่เข้ากันได้กับ OpenAI การเรียก API ของคุณจะมีลักษณะดังนี้:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
Model strings ที่พร้อมใช้งาน ณ เดือนมีนาคม 2026:
| Model String | คำอธิบาย |
|---|---|
grok-4.1 | เรือธงปัจจุบัน, คุณภาพดีที่สุด |
grok-4.1-mini | รวดเร็ว, คุ้มค่าใช้จ่าย |
grok-3 | รุ่นก่อนหน้า |
grok-3-mini | รุ่นก่อนหน้าที่เน้นความเร็ว |
การแสดงรายชื่อโมเดลที่พร้อมใช้งาน
คุณสามารถสอบถาม API เพื่อขอรายชื่อ model identifiers ทั้งหมดที่พร้อมใช้งานในปัจจุบัน:
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
คำสั่งนี้จะส่งคืนรายการ JSON ของออบเจกต์โมเดลทั้งหมด ซึ่งแต่ละรายการจะมีฟิลด์ id ที่ระบุ model identifier string
การใช้ Grok ในเครื่องมือภายนอก (Third-Party)
เครื่องมือและเฟรมเวิร์กจำนวนมากรองรับโมเดล Grok ของ xAI โดยใช้ model identifier string เดียวกัน เพียงแค่คุณต้องระบุ xAI API base URL:
- Base URL:
https://api.x.ai/v1 - Model ID:
grok-4.1(หรือรุ่นอื่นๆ ที่คุณต้องการ) - Authentication: Bearer token พร้อมกับ xAI API key ของคุณ
Grok เทียบกับโมเดลแถวหน้าอื่นๆ (มีนาคม 2026)
Grok มีประสิทธิภาพเป็นอย่างไรเมื่อเทียบกับคู่แข่ง?
| ฟีเจอร์ | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| พารามิเตอร์ | ~3T (MoE) | ~2T (คาดการณ์) | ไม่เปิดเผย | ไม่เปิดเผย |
| Context Window | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80.0% | 80.8% | 80.6% |
| GPQA Diamond | ~90% | 92.4% | 91.3% | 94.3% |
| ARC-AGI-2 | ~55% | 52.9% | 68.8% | 77.1% |
| ราคา API (เข้า/ออก) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| โอเพนซอร์ส | เฉพาะ Grok-1 | ไม่ | ไม่ | ไม่ |
| ข้อมูลเรียลไทม์ | ใช่ (X, Tesla) | จำกัด (การท่องเว็บ) | ไม่ | ใช่ (Google Search) |
ประเด็นสำคัญที่น่าสนใจ
- Grok นำหน้าด้านข้อมูลเรียลไทม์ — การเข้าถึงข้อมูลจาก X และฝูงรถ Tesla เป็นข้อได้เปรียบที่แท้จริงที่แล็บอื่นไม่สามารถทำได้
- Grok ตามหลังด้านการใช้เหตุผล — ช่องว่างใน ARC-AGI-2 (55% เทียบกับ 77.1% ของ Gemini) นั้นมีนัยสำคัญ Grok-5 จำเป็นต้องปิดช่องว่างนี้ให้ได้
- Grok มีราคาที่แข่งขันได้ — ราคาถูกกว่า GPT-5.2 และ Claude Opus แต่แพงกว่า Gemini 3.1 Pro
- จำนวนพารามิเตอร์ไม่ได้กำหนดคุณภาพเสมอไป — แม้ Grok-4.1 จะมีจำนวนพารามิเตอร์ที่เปิดเผยมากที่สุด แต่ก็ไม่ได้เป็นผู้นำในทุกเกณฑ์วัด เนื่องจากสถาปัตยกรรม, ข้อมูลการฝึก และ RLHF มีความสำคัญมากกว่า
ทำความเข้าใจพารามิเตอร์แบบ Mixture-of-Experts (MoE)
เมื่อ xAI กล่าวว่า Grok มี \"3 ล้านล้านพารามิเตอร์\" ตัวเลขนั้นต้องการคำอธิบายเพิ่มเติม ในสถาปัตยกรรมแบบ Mixture-of-Experts จะมีเพียงเศษเสี้ยวของพารามิเตอร์เท่านั้นที่ทำงานในระหว่างการประมวลผลแต่ละครั้ง
การทำงานของ MoE:- โมเดลมีเครือข่ายย่อยที่เรียกว่า \"ผู้เชี่ยวชาญ\" (experts) จำนวนมาก
- เครือข่ายตัวนำทาง (router network) จะตัดสินใจว่าจะเปิดใช้งานผู้เชี่ยวชาญคนใดสำหรับแต่ละโทเค็น
- โดยปกติจะมีผู้เชี่ยวชาญ 2-4 รายจาก 8-16 รายขึ้นไปที่ทำงานต่อหนึ่งโทเค็น
- พารามิเตอร์รวมนั้นมีขนาดใหญ่มาก แต่ต้นทุนการคำนวณจะใกล้เคียงกับโมเดลแบบ dense ที่มีขนาดเล็กกว่า
Grok-1 เป็นรุ่นเดียวที่ xAI ยืนยันตัวเลขที่แน่นอน: รวม 314B, ทำงาน 86B (8 ผู้เชี่ยวชาญ, ทำงานครั้งละ 2) ส่วนรุ่นหลังจากนั้นยังไม่มีการยืนยันการกำหนดค่าผู้เชี่ยวชาญอย่างเป็นทางการ
คำถามที่พบบ่อย
model identifier string ของ Grok xAI ในปี 2026 คืออะไร?
model identifier string ของ Grok xAI รุ่นปัจจุบันคือ grok-4.1 สำหรับรุ่นเรือธง และ grok-4.1-mini สำหรับรุ่นเน้นความเร็ว นี่คือสตริงที่แน่นอนที่คุณต้องใช้ในการเรียก API ไปที่ https://api.x.ai/v1/chat/completions
รายชื่อโมเดล xAI Grok API ที่พร้อมใช้งานในเดือนมีนาคม 2026 มีอะไรบ้าง?
โมเดล xAI Grok API ที่พร้อมใช้งาน ณ เดือนมีนาคม 2026 ได้แก่: grok-4.1, grok-4.1-mini, grok-3 และ grok-3-mini คุณสามารถเรียกดูรายการทั้งหมดได้ที่ https://api.x.ai/v1/models
โมเดล Grok รุ่นปัจจุบันมีพารามิเตอร์เท่าไหร่?
Grok-4.1 ซึ่งเป็นรุ่นเรือธงในปัจจุบัน มีพารามิเตอร์ประมาณ 3 ล้านล้านพารามิเตอร์ในสถาปัตยกรรมแบบ Mixture-of-Experts (MoE) โดยจำนวนพารามิเตอร์ที่ทำงานจริงต่อการประมวลผลจะต่ำกว่า โดยคาดว่าอยู่ที่ 300-600 พันล้านพารามิเตอร์
ขนาด context window ของ Grok xAI ในเดือนมีนาคม 2026 คือเท่าไหร่?
Grok-4.1 มีขนาด context window อยู่ที่ 256K โทเค็น (262,144) ส่วน Grok-4.1-mini อยู่ที่ 128K โทเค็น และคาดว่า Grok-5 ที่กำลังจะมาถึงจะขยายเป็น 512K+ โทเค็น
จำนวนพารามิเตอร์ของ Grok 4.1 คือเท่าไหร่?
จำนวนพารามิเตอร์ของ Grok 4.1 อยู่ที่ประมาณ 3 ล้านล้านพารามิเตอร์ในสถาปัตยกรรมแบบ Mixture-of-Experts จำนวนพารามิเตอร์ที่ทำงานจริงต่อการประมวลผลยังไม่มีการเปิดเผยจาก xAI แต่คาดการณ์ว่าอยู่ที่ 300-600 พันล้านพารามิเตอร์
Grok เป็นโอเพนซอร์สหรือไม่?
เฉพาะ Grok-1 (314B พารามิเตอร์) เท่านั้นที่เป็นโอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 ส่วนโมเดลรุ่นต่อๆ มาทั้งหมด (Grok-2, 3, 4.1 และ 5 ที่กำลังจะมาถึง) เป็นกรรมสิทธิ์ส่วนบุคคล (proprietary)
ขนาดโมเดล Grok xAI เมื่อเทียบกับ GPT-5 เป็นอย่างไร?
Grok-4.1 ที่มีพารามิเตอร์ประมาณ 3 ล้านล้านตัว มีจำนวนพารามิเตอร์ที่เปิดเผยมากที่สุดในบรรดาโมเดลแถวหน้า ส่วนจำนวนพารามิเตอร์ที่แน่นอนของ GPT-5.2 ยังไม่ได้รับการยืนยัน แต่คาดว่าอยู่ที่ประมาณ 2 ล้านล้านตัว อย่างไรก็ตาม จำนวนพารามิเตอร์เพียงอย่างเดียวไม่ได้เป็นตัวกำหนดคุณภาพของโมเดล
Grok-5 จะเปิดตัวเมื่อไหร่?
xAI ได้ระบุว่าจะมีการเปิดตัว Grok-5 พร้อมพารามิเตอร์ 6 ล้านล้านตัวในไตรมาสที่ 1 ของปี 2026 ณ เดือนมีนาคม 2026 ยังไม่มีการประกาศวันที่แน่นอน ซึ่งอาจจะมาถึงในเร็วๆ นี้ หรือเลื่อนไปเป็นไตรมาสที่ 2
Grok AI มีพารามิเตอร์เท่าไหร่?
จำนวนพารามิเตอร์ใน Grok AI ขึ้นอยู่กับเวอร์ชัน: Grok-1 มี 314B, Grok-2 มี ~300B, Grok-3 มี ~3T, Grok-4.1 มี ~3T และ Grok-5 ที่กำลังจะมาถึงจะมี 6T โมเดลทั้งหมดตั้งแต่ Grok-1 เป็นต้นไปใช้สถาปัตยกรรมแบบ Mixture-of-Experts
สร้างผลิตภัณฑ์ด้วยโมเดล AI ใดก็ได้
ภูมิทัศน์ของโมเดล AI ในปี 2026 นั้นมีความหลากหลาย — Grok, GPT, Claude, Gemini ต่างก็มีจุดแข็งที่แตกต่างกัน สิ่งที่ชาญฉลาดคือการสร้างผลิตภัณฑ์ที่สามารถสลับเปลี่ยนระหว่างโมเดลได้ตามการเปลี่ยนแปลงของตลาด
Y Build มอบโซลูชันสำหรับการเติบโตที่ครบครันสำหรับผลิตภัณฑ์ที่ขับเคลื่อนด้วย AI: ทั้งการปรับใช้ (deployment), วิดีโอผลิตภัณฑ์แบบ Demo Cut, AI SEO และการวิเคราะห์ (analytics) รองรับทุกโมเดลและทุกเฟรมเวิร์ก เริ่มใช้งานฟรี →แหล่งข้อมูล: