معلمات نموذج Grok وحجمه ومعرّفه: دليل xAI الشامل (2026)
كم عدد المعلمات في Grok؟ دليل شامل لأحجام نماذج Grok من xAI وعدد المعلمات ومعرّفات النماذج وسلاسل API. يغطي Grok-3 وGrok-4 وGrok-5 القادم بـ 6 تريليون معلمة.
ملخص سريع
نظرة شاملة على كل نموذج Grok — عدد المعلمات وسلاسل معرّف API ونوافذ السياق:
| النموذج | المعلمات | معرّف API | نافذة السياق | الحالة |
|---|---|---|---|---|
| Grok-5 | 6 تريليون | grok-5 (متوقع) | 512K+ (متوقع) | قادم في الربع الأول-الثاني 2026 |
| Grok-4.1 | ~3 تريليون (MoE) | grok-4.1 | 256K | النموذج الرئيسي الحالي |
| Grok-4.1 Mini | ~400 مليار (MoE) | grok-4.1-mini | 128K | النموذج السريع الحالي |
| Grok-3 | ~3 تريليون (MoE) | grok-3 | 128K | إرث |
| Grok-3 Mini | ~400 مليار (MoE) | grok-3-mini | 128K | إرث |
| Grok-2 | ~300 مليار (تقديري) | grok-2 | 128K | متوقف |
| Grok-1 | 314 مليار (MoE، 86 مليار نشطة) | grok-1 | 8K | مفتوح المصدر، متوقف |
كم عدد المعلمات في Grok؟
تعتمد الإجابة على نموذج Grok الذي تقصده. أصدرت xAI عدة أجيال، لكل منها عدد مختلف من المعلمات:
Grok-1 (مفتوح المصدر، 2023)
كان Grok-1 أول نموذج عام من xAI ولا يزال نموذج Grok الوحيد المفتوح المصدر بالكامل. يستخدم بنية مزيج الخبراء (MoE) مع 314 مليار معلمة إجمالية، منها 86 مليار معلمة نشطة في كل تمريرة استدلال. هذا يعني أن حوالي 27% فقط من أوزان النموذج تعمل لأي رمز معين.
- المعلمات الإجمالية: 314 مليار
- المعلمات النشطة: 86 مليار
- البنية: MoE مع 8 خبراء، 2 نشطان
- نافذة السياق: 8,192 رمز
- الرخصة: Apache 2.0 (مفتوح المصدر)
- سلسلة API:
grok-1(متوقف)
Grok-2 (2024)
مثّل Grok-2 قفزة كبيرة في القدرات. لم تكشف xAI عن عدد المعلمات الدقيق، لكن التقديرات الخارجية تضعه عند حوالي 300 مليار معلمة في بنية كثيفة أو متناثرة. قدّم فهم الصور وتحسين الاستدلال.
- المعلمات الإجمالية: ~300 مليار (تقديري، غير مؤكد)
- نافذة السياق: 128K رمز
- سلسلة API:
grok-2(متوقف)
Grok-3 (أواخر 2024 / أوائل 2025)
مثّل Grok-3 قفزة xAI إلى نماذج بحجم التريليون. تم تدريبه على حاسوب Colossus الفائق في ممفيس باستخدام أكثر من 100,000 وحدة معالجة NVIDIA H100، يستخدم Grok-3 بنية مزيج الخبراء بحوالي 3 تريليون معلمة إجمالية.
- المعلمات الإجمالية: ~3 تريليون (MoE)
- المعلمات النشطة: غير معلن (تقدر بـ 300-600 مليار نشطة)
- نافذة السياق: 128K رمز
- سلسلة API:
grok-3
Grok-4.1 (النموذج الرئيسي الحالي، 2025-2026)
Grok-4.1 هو نموذج الإنتاج الحالي المتاح عبر API الخاص بـ xAI وروبوت دردشة Grok على X. يعتمد على بنية Grok-3 مع تدريب وتحسينات إضافية. يبقى عدد المعلمات في نطاق ~3 تريليون مع بيانات وتقنيات تدريب محسنة.
- المعلمات الإجمالية: ~3 تريليون (MoE)
- نافذة السياق: 256K رمز
- سلسلة API:
grok-4.1 - النسخة المصغرة:
grok-4.1-mini(~400 مليار MoE، سياق 128K)
Grok-5 (قادم)
من المتوقع أن يضاعف Grok-5 عدد المعلمات إلى 6 تريليون معلمة. سيتميز بقدرات متعددة الوسائط أصلية (نص، صورة، فيديو، صوت) ووصول للبيانات في الوقت الفعلي من أسطول Tesla وX.
- المعلمات الإجمالية: 6 تريليون (متوقع)
- نافذة السياق: 512K+ (متوقع)
- سلسلة API:
grok-5(متوقع) - الإصدار: الربع الأول-الثاني 2026
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.
كيفية إيجاد سلسلة معرّف نموذج Grok
إذا كنت بحاجة إلى سلسلة معرّف النموذج الدقيقة لاستدعاءات API، إليك ما يجب استخدامه:
API الخاص بـ xAI (مباشر)
يتبع API الخاص بـ xAI تنسيقاً متوافقاً مع OpenAI. يبدو استدعاء API كالتالي:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
سلاسل النماذج المتاحة اعتباراً من مارس 2026:
| سلسلة النموذج | الوصف |
|---|---|
grok-4.1 | النموذج الرئيسي الحالي، أفضل جودة |
grok-4.1-mini | سريع، فعال من حيث التكلفة |
grok-3 | الجيل السابق |
grok-3-mini | الجيل السابق السريع |
عرض النماذج المتاحة
يمكنك الاستعلام من API للحصول على جميع معرّفات النماذج المتاحة حالياً:
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
يُرجع هذا قائمة JSON لجميع كائنات النماذج، يحتوي كل منها على حقل id يتضمن سلسلة معرّف النموذج.
استخدام Grok في أدوات الطرف الثالث
تدعم العديد من الأدوات والأطر نماذج Grok من xAI. سلسلة معرّف النموذج هي نفسها — تحتاج فقط إلى عنوان URL الأساسي لـ xAI API:
- عنوان URL الأساسي:
https://api.x.ai/v1 - معرّف النموذج:
grok-4.1(أو أي نسخة تحتاجها) - المصادقة: رمز Bearer مع مفتاح API الخاص بـ xAI
Grok مقابل نماذج الحدود الأخرى (مارس 2026)
كيف يقارن Grok بالمنافسة؟
| الميزة | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| المعلمات | ~3T (MoE) | ~2T (تقديري) | غير معلن | غير معلن |
| نافذة السياق | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80.0% | 80.8% | 80.6% |
| GPQA Diamond | ~90% | 92.4% | 91.3% | 94.3% |
| ARC-AGI-2 | ~55% | 52.9% | 68.8% | 77.1% |
| تسعير API (إدخال/إخراج) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| مفتوح المصدر | Grok-1 فقط | لا | لا | لا |
| بيانات فورية | نعم (X، Tesla) | محدود (تصفح) | لا | نعم (بحث Google) |
النقاط الرئيسية
- Grok يتصدر في البيانات الفورية — الوصول إلى بيانات X وأسطول Tesla هو ميزة حقيقية لا يمكن لأي مختبر آخر مطابقتها.
- Grok يتأخر في الاستدلال — فجوة ARC-AGI-2 (55% مقابل 77.1% لـ Gemini) كبيرة. يحتاج Grok-5 لسد هذه الفجوة.
- Grok بسعر تنافسي — أرخص من GPT-5.2 وClaude Opus، وأغلى من Gemini 3.1 Pro.
- عدد المعلمات لا يحدد الجودة — لدى Grok-4.1 أكبر عدد معلن من المعلمات لكنه لا يتصدر المعايير. البنية وبيانات التدريب وRLHF أهم.
فهم معلمات مزيج الخبراء (MoE)
عندما تقول xAI أن Grok لديه "3 تريليون معلمة"، يستحق هذا الرقم سياقاً. في بنية مزيج الخبراء، يكون جزء فقط من المعلمات نشطاً أثناء كل تمريرة أمامية.
كيف يعمل MoE:- يحتوي النموذج على العديد من الشبكات الفرعية "الخبيرة"
- تقرر شبكة التوجيه أي خبراء يتم تفعيلهم لكل رمز
- عادة يتم تفعيل 2-4 خبراء من أصل 8-16+ لكل رمز
- المعلمات الإجمالية كبيرة، لكن تكلفة الحساب أقرب لنموذج كثيف أصغر
Grok-1 هو النموذج الوحيد الذي أكدت فيه xAI الأرقام الدقيقة: 314 مليار إجمالي، 86 مليار نشطة (8 خبراء، 2 نشطان). النماذج اللاحقة لم يتم تأكيد تكوينات خبرائها علنياً.
الأسئلة الشائعة
كم عدد المعلمات في نموذج Grok الحالي؟
يحتوي Grok-4.1، النموذج الرئيسي الحالي، على حوالي 3 تريليون معلمة في بنية مزيج الخبراء. عدد المعلمات النشطة لكل استدلال أقل، ويُقدر بـ 300-600 مليار.
ما هي سلسلة معرّف النموذج لـ Grok؟
معرّف النموذج الحالي لـ xAI API هو grok-4.1 للنموذج الرئيسي وgrok-4.1-mini للنسخة السريعة. استخدم هذه السلاسل في استدعاءات API.
هل Grok مفتوح المصدر؟
فقط Grok-1 (314 مليار معلمة) مفتوح المصدر بموجب رخصة Apache 2.0. جميع النماذج اللاحقة (Grok-2، 3، 4.1، و5 القادم) مملوكة.
كيف يقارن عدد معلمات Grok بـ GPT-5؟
يحتوي Grok-4.1 بـ ~3 تريليون معلمة على أكبر عدد معلن من المعلمات بين نماذج الحدود. لم يتم تأكيد عدد معلمات GPT-5.2 لكنه يُقدر بحوالي 2 تريليون. ومع ذلك، عدد المعلمات وحده لا يحدد جودة النموذج.
متى سيتم إصدار Grok-5؟
أشارت xAI إلى إصدار في الربع الأول 2026 لـ Grok-5 بـ 6 تريليون معلمة. اعتباراً من مارس 2026، لم يتم الإعلان عن تاريخ محدد. قد يصل في أي يوم أو ينزلق إلى الربع الثاني.
ما نافذة السياق التي يدعمها Grok؟
يدعم Grok-4.1 حتى 256K رمز. يدعم Grok-4.1-mini حتى 128K رمز. من المتوقع أن يوسع Grok-5 هذا إلى 512K أو أكثر.
ابنِ مع أي نموذج ذكاء اصطناعي
مشهد نماذج الذكاء الاصطناعي في 2026 مجزّأ — Grok وGPT وClaude وGemini لكل منها نقاط قوة مختلفة. الخطوة الذكية هي بناء منتجات يمكنها التبديل بين النماذج مع تغير المشهد.
Y Build يمنحك مجموعة النمو الكاملة للمنتجات المدعومة بالذكاء الاصطناعي: النشر وفيديوهات Demo Cut للمنتج وتحسين محركات البحث بالذكاء الاصطناعي والتحليلات. يعمل مع أي نموذج وأي إطار عمل. ابدأ مجاناً →المصادر:
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.