Grok 4.1: Parametry, okno kontekstowe i lista modeli API (Marzec 2026)
Grok 4.1 posiada 1,7 biliona parametrów i okno kontekstowe 256K. Pełna lista identyfikatorów modeli API xAI: grok-4.1, grok-4.1-mini, grok-3. Dokładna liczba parametrów i rozmiary kontekstu dla każdego modelu Grok. Aktualizacja marzec 2026.
Aktualne identyfikatory modeli xAI Grok (Marzec 2026)
Oto dokładny, aktualny ciąg identyfikatora dla każdego modelu xAI Grok dostępnego przez API według stanu na marzec 2026 roku:
| Model | Parametry | Identyfikator API | Okno kontekstowe | Status |
|---|---|---|---|---|
| Grok-5 | 6 bilionów | grok-5 (oczekiwany) | 512K+ (oczekiwany) | Nadchodzi w Q1-Q2 2026 |
| Grok-4.1 | ~3 biliony (MoE) | grok-4.1 | 256K | Obecny model flagowy |
| Grok-4.1 Mini | ~400 mld (MoE) | grok-4.1-mini | 128K | Obecny szybki model |
| Grok-3 | ~3 biliony (MoE) | grok-3 | 128K | Starsza wersja |
| Grok-3 Mini | ~400 mld (MoE) | grok-3-mini | 128K | Starsza wersja |
| Grok-2 | ~300 mld (szacunkowo) | grok-2 | 128K | Wycofany |
| Grok-1 | 314 mld (MoE, 86 mld aktywne) | grok-1 | 8K | Open-source, wycofany |
grok-4.1. Aktualny model Grok (Grok-4.1) posiada około 3 biliony parametrów w architekturze Mixture-of-Experts. Bazowy URL xAI API to https://api.x.ai/v1.
Lista modeli dostępnych w xAI Grok API (Marzec 2026)
Jeśli szukasz dokładnego identyfikatora modelu do użycia w wywołaniach API:
grok-4.1— Obecny model flagowy. Najlepsza jakość. Okno kontekstowe 256K. ~3T parametrów (MoE).grok-4.1-mini— Obecny szybki model. Efektywny kosztowo. Okno kontekstowe 128K. ~400B parametrów (MoE).grok-3— Starsza wersja. Wciąż dostępny. Okno kontekstowe 128K. ~3T parametrów (MoE).grok-3-mini— Starsza wersja szybkiego modelu. Okno kontekstowe 128K. ~400B parametrów (MoE).
https://api.x.ai/v1
Aby pobrać listę wszystkich dostępnych modeli programowo:
curl https://api.x.ai/v1/models -H "Authorization: Bearer $XAI_API_KEY"
Rozmiary okien kontekstowych Grok (Marzec 2026)
| Model | Rozmiar okna kontekstowego | Tokeny |
|---|---|---|
| Grok-4.1 | 256K | 262,144 |
| Grok-4.1 Mini | 128K | 131,072 |
| Grok-3 | 128K | 131,072 |
| Grok-3 Mini | 128K | 131,072 |
| Grok-5 (oczekiwany) | 512K+ | 524,288+ |
Ile parametrów ma Grok?
Odpowiedź zależy od tego, o który model Grok pytasz. xAI wypuściło kilka generacji, z których każda ma inną liczbę parametrów:
Grok-1 (Open Source, 2023)
Grok-1 był pierwszym publicznym modelem xAI i pozostaje jedynym modelem Grok, który jest w pełni otwartoźródłowy. Wykorzystuje architekturę Mixture-of-Experts (MoE) z 314 miliardami parametrów ogółem, z czego 86 miliardów jest aktywnych na każde przejście wnioskowania. Oznacza to, że tylko ~27% wag modelu jest aktywowanych dla danego tokena.
- Całkowita liczba parametrów: 314 miliardów
- Aktywne parametry: 86 miliardów
- Architektura: MoE z 8 ekspertami, 2 aktywnych
- Okno kontekstowe: 8 192 tokeny
- Licencja: Apache 2.0 (open-source)
- Identyfikator API:
grok-1(wycofany)
Grok-2 (2024)
Grok-2 był znaczącym skokiem pod względem możliwości. xAI nigdy nie ujawniło dokładnej liczby parametrów, ale zewnętrzne szacunki plasują go w okolicach 300 miliardów parametrów w architekturze gęstej lub rzadkiej. Wprowadził on rozumienie obrazów i poprawione wnioskowanie.
- Całkowita liczba parametrów: ~300 mld (szacunkowo, niepotwierdzone)
- Okno kontekstowe: 128K tokenów
- Identyfikator API:
grok-2(wycofany)
Grok-3 (Koniec 2024 / Początek 2025)
Grok-3 oznaczał przejście xAI do modeli w skali bilionowej. Trenowany na superkomputerze Colossus w Memphis przy użyciu ponad 100 000 procesorów graficznych NVIDIA H100, Grok-3 wykorzystuje architekturę Mixture-of-Experts z około 3 bilionami parametrów ogółem.
- Całkowita liczba parametrów: ~3 biliony (MoE)
- Aktywne parametry: Nieujawnione (szacunkowo 300-600 mld aktywnych)
- Okno kontekstowe: 128K tokenów
- Identyfikator API:
grok-3
Grok-4.1 (Obecny flagowiec, 2025-2026)
Grok-4.1 to obecny model produkcyjny dostępny przez xAI API oraz chatbota Grok na platformie X. Bazuje na architekturze Grok-3 z dodatkowym treningiem i udoskonaleniami. Liczba parametrów pozostaje w zakresie ~3 bilionów przy ulepszonych danych treningowych i technikach.
- Całkowita liczba parametrów: ~3 biliony (MoE)
- Okno kontekstowe: 256K tokenów
- Identyfikator API:
grok-4.1 - Wariant Mini:
grok-4.1-mini(~400 mld MoE, 128K kontekstu)
Grok-5 (Nadchodzący)
Oczekuje się, że Grok-5 podwoi liczbę parametrów do 6 bilionów. Będzie oferował natywne możliwości multimodalne (tekst, obraz, wideo, audio) oraz dostęp do danych w czasie rzeczywistym z floty Tesli i platformy X.
- Całkowita liczba parametrów: 6 bilionów (oczekiwane)
- Okno kontekstowe: 512K+ (oczekiwane)
- Identyfikator API:
grok-5(oczekiwany) - Premiera: Q1-Q2 2026
Jak znaleźć identyfikator modelu Grok
Jeśli potrzebujesz dokładnego ciągu identyfikatora modelu dla wywołań API, oto co należy zastosować:
xAI API (Bezpośrednio)
API xAI stosuje formatowanie kompatybilne z OpenAI. Twoje wywołanie API wygląda następująco:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.1",
"messages": [{"role": "user", "content": "Hello"}]
}'
Dostępne ciągi modeli wg stanu na marzec 2026:
| Identyfikator modelu | Opis |
|---|---|
grok-4.1 | Obecny flagowiec, najlepsza jakość |
grok-4.1-mini | Szybki, efektywny kosztowo |
grok-3 | Poprzednia generacja |
grok-3-mini | Szybki model poprzedniej generacji |
Listowanie dostępnych modeli
Możesz odpytać API, aby uzyskać wszystkie aktualnie dostępne identyfikatory modeli:
curl https://api.x.ai/v1/models \
-H "Authorization: Bearer $XAI_API_KEY"
Zwróci to listę obiektów modeli w formacie JSON, z których każdy posiada pole id zawierające ciąg identyfikatora modelu.
Używanie Grok w narzędziach zewnętrznych
Wiele narzędzi i frameworków wspiera modele Grok od xAI. Identyfikator modelu jest taki sam — potrzebujesz jedynie bazowego adresu URL xAI API:
- Base URL:
https://api.x.ai/v1 - Model ID:
grok-4.1(lub dowolny inny wariant) - Autoryzacja: Token Bearer z Twoim kluczem API xAI
Grok vs inne modele typu Frontier (Marzec 2026)
Jak Grok wypada na tle konkurencji?
| Cecha | Grok 4.1 | GPT-5.2 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Parametry | ~3T (MoE) | ~2T (szac.) | Nieujawniono | Nieujawniono |
| Okno kontekstowe | 256K | 400K | 1M | 1M |
| SWE-bench | ~78% | 80.0% | 80.8% | 80.6% |
| GPQA Diamond | ~90% | 92.4% | 91.3% | 94.3% |
| ARC-AGI-2 | ~55% | 52.9% | 68.8% | 77.1% |
| Ceny API (wej/wyj) | $5/$15 | $15/$60 | $15/$75 | $2/$12 |
| Open Source | Tylko Grok-1 | Nie | Nie | Nie |
| Dane w czasie rzecz. | Tak (X, Tesla) | Ograniczone (przeglądanie) | Nie | Tak (Google Search) |
Kluczowe wnioski
- Grok prowadzi w danych w czasie rzeczywistym — dostęp do danych z platformy X i floty Tesli to prawdziwy wyróżnik, któremu nie dorównuje żadne inne laboratorium.
- Grok odstaje w rozumowaniu — luka w ARC-AGI-2 (55% vs 77,1% dla Gemini) jest znacząca. Grok-5 musi to nadrobić.
- Grok jest wyceniony konkurencyjnie — tańszy niż GPT-5.2 i Claude Opus, droższy niż Gemini 3.1 Pro.
- Liczba parametrów nie decyduje o jakości — Grok-4.1 ma najwięcej ujawnionych parametrów, ale nie prowadzi w benchmarkach. Architektura, dane treningowe i RLHF mają większe znaczenie.
Zrozumienie parametrów Mixture-of-Experts (MoE)
Kiedy xAI mówi, że Grok ma „3 biliony parametrów”, liczba ta wymaga kontekstu. W architekturze Mixture-of-Experts tylko ułamek parametrów jest aktywny podczas każdego przejścia w przód.
Jak działa MoE:- Model posiada wiele podsieci „eksperckich”.
- Sieć routera decyduje, których ekspertów aktywować dla każdego tokena.
- Zazwyczaj 2-4 ekspertów z 8-16+ jest aktywnych na token.
- Całkowita liczba parametrów jest duża, ale koszt obliczeniowy jest zbliżony do mniejszego modelu gęstego.
Grok-1 jest jedynym modelem, dla którego xAI potwierdziło dokładne liczby: 314 mld ogółem, 86 mld aktywnych (8 ekspertów, 2 aktywnych). Konfiguracje ekspertów w późniejszych modelach nie zostały publicznie potwierdzone.
Często zadawane pytania
Jaki jest aktualny identyfikator modelu Grok xAI w 2026 roku?
Aktualny identyfikator modelu Grok xAI to grok-4.1 dla modelu flagowego oraz grok-4.1-mini dla wariantu szybkiego. Są to dokładne ciągi znaków, których używa się w wywołaniach API do https://api.x.ai/v1/chat/completions.
Jakie modele są dostępne w xAI Grok API w marcu 2026?
Modele dostępne w xAI Grok API w marcu 2026 to: grok-4.1, grok-4.1-mini, grok-3 oraz grok-3-mini. Możesz odpytać https://api.x.ai/v1/models, aby uzyskać pełną listę programowo.
Ile parametrów posiada obecny model Grok?
Grok-4.1, obecny model flagowy, posiada około 3 biliony parametrów w architekturze Mixture-of-Experts (MoE). Liczba aktywnych parametrów na wnioskowanie jest niższa, prawdopodobnie wynosi 300-600 miliardów.
Jaki jest rozmiar okna kontekstowego Grok xAI w marcu 2026?
Grok-4.1 posiada okno kontekstowe o rozmiarze 256K tokenów (262,144). Grok-4.1-mini posiada 128K tokenów. Oczekuje się, że nadchodzący Grok-5 rozszerzy to do ponad 512K tokenów.
Jaka jest liczba parametrów Grok 4.1?
Liczba parametrów Grok 4.1 to około 3 biliony parametrów ogółem w architekturze Mixture-of-Experts. Dokładna liczba aktywnych parametrów na wnioskowanie nie została ujawniona przez xAI, ale jest szacowana na 300-600 miliardów.
Czy Grok jest open source?
Tylko Grok-1 (314 mld parametrów) jest otwartoźródłowy na licencji Apache 2.0. Wszystkie kolejne modele (Grok-2, 3, 4.1 oraz nadchodzący 5) są własnościowe.
Jak rozmiar modelu Grok xAI wypada w porównaniu do GPT-5?
Grok-4.1 z ~3 bilionami parametrów ma największą ujawnioną liczbę parametrów wśród modeli typu frontier. Dokładna liczba parametrów GPT-5.2 nie jest potwierdzona, ale szacuje się ją na około 2 biliony. Jednak sama liczba parametrów nie decyduje o jakości modelu.
Kiedy zostanie wydany Grok-5?
xAI zapowiedziało wydanie Grok-5 z 6 bilionami parametrów na Q1 2026. Według stanu na marzec 2026 nie ogłoszono jeszcze dokładnej daty. Może on pojawić się w każdej chwili lub zostać przesunięty na Q2.
Ile parametrów posiada Grok AI?
Liczba parametrów w Grok AI zależy od wersji: Grok-1 ma 314 mld, Grok-2 ma ~300 mld, Grok-3 ma ~3T, Grok-4.1 ma ~3T, a nadchodzący Grok-5 będzie miał 6T. Wszystkie modele od Grok-1 wzwyż korzystają z architektury Mixture-of-Experts.
Buduj z dowolnym modelem AI
Krajobraz modeli AI w 2026 roku jest rozproszony — Grok, GPT, Claude i Gemini mają różne mocne strony. Rozsądnym posunięciem jest budowanie produktów, które mogą przełączać się między modelami w miarę zmian na rynku.
Y Build oferuje pełny stack rozwojowy dla produktów opartych na AI: wdrożenia, filmy produktowe Demo Cut, AI SEO oraz analitykę. Działa z każdym modelem i każdym frameworkiem. Zacznij za darmo →Źródła: