Parámetros del modelo Grok, tamaño e identificador: Guía completa de xAI (2026)
¿Cuántos parámetros tiene Grok? Guía completa sobre los tamaños de modelo de Grok de xAI, recuento de parámetros, identificadores de modelo y cadenas de API. Cubre Grok-3, Grok-4 y el próximo Grok-5 con 6 billones de parámetros.
Resumen
Cada modelo Grok de un vistazo — recuentos de parámetros, cadenas de identificador de API y ventanas de contexto:
| Modelo | Parámetros | Identificador API | Ventana de contexto | Estado |
|---|---|---|---|---|
| Grok-5 | 6 billones | grok-5 (esperado) | 512K+ (esperado) | Próximo Q1-Q2 2026 |
| Grok-4.1 | ~3 billones (MoE) | grok-4.1 | 256K | Modelo insignia actual |
| Grok-4.1 Mini | ~400B (MoE) | grok-4.1-mini | 128K | Modelo rápido actual |
| Grok-3 | ~3 billones (MoE) | grok-3 | 128K | Anterior |
| Grok-3 Mini | ~400B (MoE) | grok-3-mini | 128K | Anterior |
| Grok-2 | ~300B (estimado) | grok-2 | 128K | Descontinuado |
| Grok-1 | 314B (MoE, 86B activos) | grok-1 | 8K | Open-source, descontinuado |
¿Cuántos parámetros tiene Grok?
La respuesta depende de qué modelo Grok te refieres. xAI ha lanzado múltiples generaciones, cada una con diferentes recuentos de parámetros:
Grok-1 (Open Source, 2023)
Grok-1 fue el primer modelo público de xAI y sigue siendo el único modelo Grok completamente open-source. Usa una arquitectura Mixture-of-Experts (MoE) con 314 mil millones de parámetros totales, de los cuales 86 mil millones están activos por pasada de inferencia.
- Parámetros totales: 314 mil millones
- Parámetros activos: 86 mil millones
- Arquitectura: MoE con 8 expertos, 2 activos
- Ventana de contexto: 8,192 tokens
- Licencia: Apache 2.0 (open-source)
- Cadena API:
grok-1(descontinuado)
Grok-2 (2024)
Un salto significativo en capacidad. Estimaciones externas lo sitúan en ~300 mil millones de parámetros.
- Parámetros totales: ~300B (estimado)
- Ventana de contexto: 128K tokens
- Cadena API:
grok-2(descontinuado)
Grok-3 (Finales 2024 / Principios 2025)
Entrenado en el supercomputador Colossus en Memphis con más de 100,000 GPUs NVIDIA H100.
- Parámetros totales: ~3 billones (MoE)
- Parámetros activos: No divulgado (estimado 300-600B)
- Ventana de contexto: 128K tokens
- Cadena API:
grok-3
Grok-4.1 (Modelo insignia actual, 2025-2026)
- Parámetros totales: ~3 billones (MoE)
- Ventana de contexto: 256K tokens
- Cadena API:
grok-4.1 - Variante Mini:
grok-4.1-mini(~400B MoE, 128K contexto)
Grok-5 (Próximo)
- Parámetros totales: 6 billones (esperado)
- Ventana de contexto: 512K+ (esperado)
- Cadena API:
grok-5(esperado) - Lanzamiento: Q1-Q2 2026
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.
Cómo encontrar la cadena de identificador del modelo Grok
API de xAI (Directo)
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
Cadenas de modelo disponibles a marzo 2026:
| Cadena de modelo | Descripción |
|---|---|
grok-4.1 | Modelo insignia actual |
grok-4.1-mini | Rápido, rentable |
grok-3 | Generación anterior |
grok-3-mini | Generación anterior rápida |
Listar modelos disponibles
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
Usar Grok en herramientas de terceros
- URL base:
https://api.x.ai/v1 - ID del modelo:
grok-4.1 - Autenticación: Token Bearer con tu clave API de xAI
Grok vs otros modelos frontera (marzo 2026)
| Característica | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Parámetros | ~3T (MoE) | ~2T (est.) | No divulgado | No divulgado |
| Ventana de contexto | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80.0% | 80.8% | 80.6% |
| GPQA Diamond | ~90% | 92.4% | 91.3% | 94.3% |
| ARC-AGI-2 | ~55% | 52.9% | 68.8% | 77.1% |
| Precio API (ent/sal) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| Open Source | Solo Grok-1 | No | No | No |
| Datos en tiempo real | Sí (X, Tesla) | Limitado | No | Sí (Google Search) |
Conclusiones clave
- Grok lidera en datos en tiempo real — el acceso a datos de X y la flota de Tesla es un diferenciador genuino.
- Grok queda atrás en razonamiento — la brecha ARC-AGI-2 (55% vs 77.1% para Gemini) es significativa.
- Grok tiene precios competitivos — más barato que GPT-5.2 y Claude Opus.
- La cantidad de parámetros no determina la calidad — la arquitectura, datos de entrenamiento y RLHF importan más.
Entendiendo los parámetros de Mixture-of-Experts (MoE)
En una arquitectura MoE, solo una fracción de los parámetros está activa durante cada pasada forward.
Cómo funciona MoE:- El modelo tiene muchas sub-redes "expertas"
- Una red enrutadora decide qué expertos activar para cada token
- Típicamente 2-4 expertos de 8-16+ están activos por token
- Los parámetros totales son grandes, pero el costo computacional se acerca a un modelo denso más pequeño
Preguntas frecuentes
¿Cuántos parámetros tiene el modelo Grok actual?
Grok-4.1 tiene aproximadamente 3 billones de parámetros en una arquitectura MoE. Los parámetros activos por inferencia son menores, probablemente 300-600 mil millones.
¿Cuál es la cadena de identificador del modelo para Grok?
grok-4.1 para el modelo insignia y grok-4.1-mini para la variante rápida.
¿Es Grok open source?
Solo Grok-1 (314B parámetros) bajo licencia Apache 2.0. Todos los modelos posteriores son propietarios.
¿Cuándo se lanzará Grok-5?
xAI ha indicado Q1 2026. A marzo 2026, no se ha anunciado fecha exacta.
¿Qué ventana de contexto soporta Grok?
Grok-4.1: 256K tokens. Grok-4.1-mini: 128K tokens. Grok-5: 512K+ esperado.
Construye con cualquier modelo de IA
El panorama de modelos de IA en 2026 está fragmentado. La jugada inteligente es construir productos que puedan cambiar entre modelos.
Y Build te da el stack de crecimiento completo para productos impulsados por IA: deployment, videos Demo Cut, AI SEO y analytics. Empieza gratis →Fuentes:
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.