Paramètres, fenêtre de contexte et liste des modèles d'API Grok 4.1 (mars 2026)
Grok 4.1 dispose de 1,7 T de paramètres avec une fenêtre de contexte de 256K. Liste complète des chaînes d'identification des modèles de l'API xAI : grok-4.1, grok-4.1-mini, grok-3. Nombre exact de paramètres et tailles de contexte pour chaque modèle Grok. Mis à jour en mars 2026.
Chaînes d'identification des modèles xAI Grok (mars 2026)
Voici la chaîne d'identification exacte et actuelle pour chaque modèle xAI Grok disponible via l'API en date de mars 2026 :
| Modèle | Paramètres | Identifiant API | Fenêtre de contexte | Statut |
|---|---|---|---|---|
| Grok-5 | 6 billions | grok-5 (attendu) | 512K+ (attendu) | Prévu pour le T1-T2 2026 |
| Grok-4.1 | ~3 billions (MoE) | grok-4.1 | 256K | Modèle phare actuel |
| Grok-4.1 Mini | ~400 Md (MoE) | grok-4.1-mini | 128K | Modèle rapide actuel |
| Grok-3 | ~3 billions (MoE) | grok-3 | 128K | Hérité |
| Grok-3 Mini | ~400 Md (MoE) | grok-3-mini | 128K | Hérité |
| Grok-2 | ~300 Md (estimé) | grok-2 | 128K | Obsolète |
| Grok-1 | 314 Md (MoE, 86 Md actifs) | grok-1 | 8K | Open-source, obsolète |
grok-4.1. Le modèle Grok actuel (Grok-4.1) possède environ 3 billions de paramètres dans une architecture Mixture-of-Experts. L'URL de base de l'API xAI est https://api.x.ai/v1.
Liste des modèles disponibles de l'API xAI Grok (mars 2026)
Si vous recherchez la chaîne d'identification exacte du modèle à utiliser dans vos appels API dès maintenant :
grok-4.1— Modèle phare actuel. Meilleure qualité. Fenêtre de contexte de 256K. ~3 T de paramètres (MoE).grok-4.1-mini— Modèle rapide actuel. Rentable. Fenêtre de contexte de 128K. ~400 Md de paramètres (MoE).grok-3— Hérité. Toujours disponible. Fenêtre de contexte de 128K. ~3 T de paramètres (MoE).grok-3-mini— Modèle rapide hérité. Fenêtre de contexte de 128K. ~400 Md de paramètres (MoE).
https://api.x.ai/v1
Pour lister tous les modèles disponibles par programmation :
curl https://api.x.ai/v1/models -H "Authorization: Bearer $XAI_API_KEY"
Tailles des fenêtres de contexte Grok (mars 2026)
| Modèle | Taille de la fenêtre de contexte | Tokens |
|---|---|---|
| Grok-4.1 | 256K | 262 144 |
| Grok-4.1 Mini | 128K | 131 072 |
| Grok-3 | 128K | 131 072 |
| Grok-3 Mini | 128K | 131 072 |
| Grok-5 (attendu) | 512K+ | 524 288+ |
Combien de paramètres possède Grok ?
La réponse dépend du modèle Grok auquel vous faites référence. xAI a publié plusieurs générations, chacune ayant un nombre de paramètres différent :
Grok-1 (Open Source, 2023)
Grok-1 était le premier modèle public de xAI et reste le seul modèle Grok entièrement open-source. Il utilise une architecture Mixture-of-Experts (MoE) avec 314 milliards de paramètres au total, dont 86 milliards sont actifs par passe d'inférence. Cela signifie que seulement ~27 % des poids du modèle sont sollicités pour un token donné.
- Paramètres totaux : 314 milliards
- Paramètres actifs : 86 milliards
- Architecture : MoE avec 8 experts, 2 actifs
- Fenêtre de contexte : 8 192 tokens
- Licence : Apache 2.0 (open-source)
- Chaîne API :
grok-1(obsolète)
Grok-2 (2024)
Grok-2 a marqué un saut significatif en termes de capacités. xAI n'a jamais divulgué le nombre exact de paramètres, mais des estimations externes le situent autour de 300 milliards de paramètres dans une architecture dense ou sparse. Il a introduit la compréhension d'images et un raisonnement amélioré.
- Paramètres totaux : ~300 Md (estimé, non confirmé)
- Fenêtre de contexte : 128K tokens
- Chaîne API :
grok-2(obsolète)
Grok-3 (Fin 2024 / Début 2025)
Grok-3 a marqué le passage de xAI aux modèles à l'échelle du billion. Entraîné sur le supercalculateur Colossus à Memphis avec plus de 100 000 GPU NVIDIA H100, Grok-3 utilise une architecture Mixture-of-Experts avec environ 3 billions de paramètres au total.
- Paramètres totaux : ~3 billions (MoE)
- Paramètres actifs : Non divulgués (estimés entre 300 et 600 Md actifs)
- Fenêtre de contexte : 128K tokens
- Chaîne API :
grok-3
Grok-4.1 (Modèle phare actuel, 2025-2026)
Grok-4.1 est le modèle de production actuel disponible via l'API xAI et le chatbot Grok sur X. Il s'appuie sur l'architecture de Grok-3 avec un entraînement et des raffinements supplémentaires. Le nombre de paramètres reste dans la plage des ~3 billions avec des données et des techniques d'entraînement améliorées.
- Paramètres totaux : ~3 billions (MoE)
- Fenêtre de contexte : 256K tokens
- Chaîne API :
grok-4.1 - Variante Mini :
grok-4.1-mini(~400 Md MoE, 128K de contexte)
Grok-5 (À venir)
Grok-5 devrait doubler le nombre de paramètres pour atteindre 6 billions de paramètres. Il présentera des capacités multimodales natives (texte, image, vidéo, audio) et un accès aux données en temps réel provenant de la flotte de Tesla et de X.
- Paramètres totaux : 6 billions (attendu)
- Fenêtre de contexte : 512K+ (attendu)
- Chaîne API :
grok-5(attendu) - Sortie : T1-T2 2026
Comment trouver la chaîne d'identification du modèle Grok
Si vous avez besoin de la chaîne d'identification exacte du modèle pour vos appels API, voici ce qu'il faut utiliser :
API xAI (Direct)
L'API xAI suit un formatage compatible avec OpenAI. Votre appel API ressemble à ceci :
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Bonjour"}]
}'
Chaînes de modèles disponibles en mars 2026 :
| Chaîne de modèle | Description |
|---|---|
grok-4.1 | Modèle phare actuel, meilleure qualité |
grok-4.1-mini | Rapide, rentable |
grok-3 | Génération précédente |
grok-3-mini | Modèle rapide de la génération précédente |
Lister les modèles disponibles
Vous pouvez interroger l'API pour obtenir tous les identifiants de modèles actuellement disponibles :
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
Ceci renvoie une liste JSON de tous les objets modèles, chacun ayant un champ id contenant la chaîne d'identification du modèle.
Utiliser Grok dans des outils tiers
De nombreux outils et frameworks supportent les modèles Grok de xAI. La chaîne d'identification du modèle est la même — vous avez juste besoin de l'URL de base de l'API xAI :
- URL de base :
https://api.x.ai/v1 - ID du modèle :
grok-4.1(ou toute autre variante dont vous avez besoin) - Authentification : Jeton Bearer avec votre clé API xAI
Grok vs autres modèles de pointe (mars 2026)
Comment Grok se situe-t-il par rapport à la concurrence ?
| Caractéristique | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Paramètres | ~3 T (MoE) | ~2 T (est.) | Non divulgué | Non divulgué |
| Fenêtre de contexte | 256K | 400K | 1M | 1M |
| SWE-bench | ~78 % | 80,0 % | 80,8 % | 80,6 % |
| GPQA Diamond | ~90 % | 92,4 % | 91,3 % | 94,3 % |
| ARC-AGI-2 | ~55 % | 52,9 % | 68,8 % | 77,1 % |
| Prix API (in/out) | 5 $/15 $ | 15 $/60 $ | 15 $/75 $ | 2 $/12 $ |
| Open Source | Grok-1 uniquement | Non | Non | Non |
| Données temps réel | Oui (X, Tesla) | Limité (navigation) | Non | Oui (Google Search) |
Points clés à retenir
- Grok domine sur les données en temps réel — l'accès aux données de X et de la flotte Tesla est un véritable différenciateur qu'aucun autre laboratoire ne peut égaler.
- Grok est en retrait sur le raisonnement — l'écart sur ARC-AGI-2 (55 % contre 77,1 % pour Gemini) est significatif. Grok-5 devra combler ce retard.
- Grok est proposé à un prix compétitif — moins cher que GPT-5.2 et Claude Opus, mais plus coûteux que Gemini 3.1 Pro.
- Le nombre de paramètres ne détermine pas la qualité — Grok-4.1 possède le plus grand nombre de paramètres divulgués mais ne domine pas tous les benchmarks. L'architecture, les données d'entraînement et le RLHF comptent davantage.
Comprendre les paramètres Mixture-of-Experts (MoE)
Lorsque xAI affirme que Grok possède « 3 billions de paramètres », ce chiffre mérite d'être contextualisé. Dans une architecture Mixture-of-Experts, seule une fraction des paramètres est active lors de chaque passe avant.
Comment fonctionne le MoE :- Le modèle possède de nombreux sous-réseaux appelés « experts ».
- Un réseau routeur décide quels experts activer pour chaque token.
- En général, 2 à 4 experts sur 8 à 16+ sont actifs par token.
- Le nombre total de paramètres est élevé, mais le coût de calcul se rapproche de celui d'un modèle dense plus petit.
Grok-1 est le seul modèle pour lequel xAI a confirmé les chiffres exacts : 314 Md au total, 86 Md actifs (8 experts, 2 actifs). Les configurations d'experts des modèles ultérieurs n'ont pas été confirmées publiquement.
Foire aux questions
Quelle est la chaîne d'identification actuelle du modèle Grok xAI en 2026 ?
La chaîne d'identification actuelle du modèle Grok xAI est grok-4.1 pour le modèle phare et grok-4.1-mini pour la variante rapide. Ce sont les chaînes exactes à utiliser dans les appels API vers https://api.x.ai/v1/chat/completions.
Quels sont les modèles disponibles dans l'API xAI Grok en mars 2026 ?
Les modèles disponibles dans l'API xAI Grok en mars 2026 sont : grok-4.1, grok-4.1-mini, grok-3 et grok-3-mini. Vous pouvez interroger https://api.x.ai/v1/models pour obtenir la liste complète par programmation.
Combien de paramètres possède le modèle Grok actuel ?
Grok-4.1, le modèle phare actuel, possède environ 3 billions de paramètres dans une architecture Mixture-of-Experts (MoE). Le nombre de paramètres actifs par inférence est plus bas, probablement entre 300 et 600 milliards.
Quelle est la taille de la fenêtre de contexte de Grok xAI en mars 2026 ?
Grok-4.1 a une fenêtre de contexte de 256K tokens (262 144). Grok-4.1-mini dispose de 128K tokens. Le futur Grok-5 devrait passer à plus de 512K tokens.
Quel est le nombre de paramètres de Grok 4.1 ?
Le nombre de paramètres de Grok 4.1 est d'environ 3 billions de paramètres au total dans une architecture Mixture-of-Experts. Le nombre exact de paramètres actifs par inférence n'a pas été divulgué par xAI, mais est estimé entre 300 et 600 milliards.
Grok est-il open source ?
Seul Grok-1 (314 Md de paramètres) est open-source sous licence Apache 2.0. Tous les modèles suivants (Grok-2, 3, 4.1 et le futur 5) sont propriétaires.
Comment la taille du modèle Grok xAI se compare-t-elle à GPT-5 ?
Avec environ 3 billions de paramètres, Grok-4.1 possède le plus grand nombre de paramètres divulgués parmi les modèles de pointe. Le nombre exact de paramètres de GPT-5.2 n'est pas confirmé mais est estimé à environ 2 billions. Cependant, le nombre de paramètres seul ne détermine pas la qualité du modèle.
Quand sortira Grok-5 ?
xAI a indiqué une sortie au T1 2026 pour Grok-5 avec 6 billions de paramètres. En date de mars 2026, aucune date exacte n'a été annoncée. Il pourrait arriver d'un jour à l'autre ou glisser vers le T2.
Combien de paramètres possède Grok AI ?
Le nombre de paramètres de Grok AI dépend de la version : Grok-1 en a 314 Md, Grok-2 environ 300 Md, Grok-3 environ 3 T, Grok-4.1 environ 3 T, et le futur Grok-5 en aura 6 T. Tous les modèles à partir de Grok-1 utilisent l'architecture Mixture-of-Experts.
Développez avec n'importe quel modèle d'IA
Le paysage des modèles d'IA en 2026 est fragmenté — Grok, GPT, Claude, Gemini ont tous des forces différentes. La stratégie intelligente consiste à créer des produits capables de passer d'un modèle à l'autre selon l'évolution du marché.
Y Build vous offre la pile de croissance complète pour les produits propulsés par l'IA : déploiement, vidéos de produit Demo Cut, SEO pour l'IA et analyses. Fonctionne avec n'importe quel modèle, n'importe quel framework. Démarrer gratuitement →Sources :