Gemini 3.1 Pro API: Przewodnik Programisty z Przykładami Kodu (2026)
Kompletny przewodnik programisty po API Gemini 3.1 Pro. Obejmuje identyfikatory modelu (gemini-3.1-pro-preview-customtools), ceny, przykłady kodu w Python i JavaScript, niestandardowe narzędzia, wywoływanie funkcji i integrację z aplikacją.
Podsumowanie
| Gemini 3.1 Pro | |
|---|---|
| ID Modelu | gemini-3.1-pro, gemini-3.1-pro-preview-customtools |
| Okno kontekstu | 1M tokenów |
| Cena wejścia | $2/1M tokenów |
| Cena wyjścia | $12/1M tokenów |
| Kluczowe funkcje | Niestandardowe narzędzia, wywoływanie funkcji, grounding, multimodal (tekst + obraz + audio + wideo) |
| API | Google AI Studio / Vertex AI |
Gemini 3.1 Pro to najnowszy model frontier Google, wydany w marcu 2026. Jest najtańszym API frontier na token, ma natywny kontekst 1M i wprowadza niestandardowe narzędzia — nowy sposób na danie modelowi dostępu do zewnętrznych funkcji ze strukturalnymi schematami.
ID Modelu
Google oferuje dwa warianty Gemini 3.1 Pro:
| ID Modelu | Opis | Status |
|---|---|---|
gemini-3.1-pro | Stabilne wydanie, ogólna dostępność | GA |
gemini-3.1-pro-preview-customtools | Podgląd z ulepszonym wsparciem niestandardowych narzędzi | Preview |
Wariant podglądowy customtools ma ulepszoną niezawodność dla złożonych łańcuchów wywoływania funkcji — użyj go, jeśli Twoja aplikacja intensywnie korzysta z wywoływania narzędzi. Do ogólnego użytku zalecany jest stabilny gemini-3.1-pro.
# Google AI Studio
model = "gemini-3.1-pro"
# Vertex AI
model = "gemini-3.1-pro@001"
Szybki Start: Python
Instalacja
pip install google-genai
Podstawowe Generowanie Tekstu
from google import genai
client = genai.Client(api_key="YOUR_API_KEY")
response = client.models.generate_content(
model="gemini-3.1-pro",
contents="Explain quantum computing in 3 sentences."
)
print(response.text)
Strumieniowanie
for chunk in client.models.generate_content_stream(
model="gemini-3.1-pro",
contents="Write a Python function to merge two sorted arrays."
):
print(chunk.text, end="")
Szybki Start: JavaScript
Instalacja
npm install @google/genai
Podstawowe Generowanie Tekstu
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "YOUR_API_KEY" });
const response = await ai.models.generateContent({
model: "gemini-3.1-pro",
contents: "Explain quantum computing in 3 sentences.",
});
console.log(response.text);
Strumieniowanie
const stream = await ai.models.generateContentStream({
model: "gemini-3.1-pro",
contents: "Write a JavaScript function to merge two sorted arrays.",
});
for await (const chunk of stream) {
process.stdout.write(chunk.text);
}
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.
Cennik
Gemini 3.1 Pro jest najtańszym API modelu frontier na marzec 2026.
| Gemini 3.1 Pro | GPT-5.2 | Claude Sonnet 4.6 | |
|---|---|---|---|
| Wejście | $2/1M | $5/1M | $3/1M |
| Wyjście | $12/1M | $15/1M | $15/1M |
| Kontekst | 1M | 400K | 1M (beta) |
| Koszt na 100K wej. + 20K wyj. | $0,44 | $0,80 | $0,60 |
W skali Gemini 3.1 Pro kosztuje około 45% mniej niż GPT-5.2 i 27% mniej niż Sonnet 4.6 na sesję.
Darmowy Plan
Google AI Studio oferuje darmowy plan:
- 60 żądań na minutę
- 1M tokenów na minutę
- Bez karty kredytowej
To najbardziej hojny darmowy plan API wśród trzech głównych dostawców.
Kluczowe Funkcje
Okno Kontekstu 1M Tokenów
Gemini 3.1 Pro natywnie wspiera 1 milion tokenów kontekstu — wystarczająco na:
- ~700 000 słów tekstu
- ~30 000 linii kodu
- ~1 godzinę wideo
- ~11 godzin audio
W przeciwieństwie do konkurencyjnych modeli oferujących rozszerzony kontekst jako funkcję beta, kontekst 1M Gemini jest w pełni GA i wyceniony tak samo jak standardowy kontekst.
Niestandardowe Narzędzia (Wywoływanie Funkcji)
Niestandardowe narzędzia pozwalają definiować zewnętrzne funkcje, które Gemini może wywoływać podczas generowania. Model decyduje, kiedy wywołać narzędzie, strukturyzuje argumenty i włącza wynik do swojej odpowiedzi.
To jest to, do czego wariant gemini-3.1-pro-preview-customtools jest zoptymalizowany.
Grounding z Google Search
Gemini może opierać swoje odpowiedzi na wynikach wyszukiwania Google w czasie rzeczywistym. Włącz grounding, aby zmniejszyć halucynacje i upewnić się, że model korzysta z aktualnych informacji.
Natywny Multimodal
Przetwarzaj tekst, obrazy, audio i wideo w jednym żądaniu. Nie ma oddzielnych modeli wizji czy audio — Gemini obsługuje wszystkie modalności natywnie.
Przykład Kodu: Niestandardowe Narzędzia / Wywoływanie Funkcji
Ten przykład tworzy narzędzie pogodowe, które Gemini może wywołać, aby uzyskać aktualne warunki.
Python
from google import genai
from google.genai import types
client = genai.Client(api_key="YOUR_API_KEY")
# Define the tool
weather_tool = types.Tool(
function_declarations=[
types.FunctionDeclaration(
name="get_weather",
description="Get the current weather for a city",
parameters=types.Schema(
type=types.Type.OBJECT,
properties={
"city": types.Schema(
type=types.Type.STRING,
description="City name, e.g. 'San Francisco'"
),
"unit": types.Schema(
type=types.Type.STRING,
enum=["celsius", "fahrenheit"],
description="Temperature unit"
),
},
required=["city"],
),
)
]
)
# Send request with tool
response = client.models.generate_content(
model="gemini-3.1-pro-preview-customtools",
contents="What's the weather like in Tokyo?",
config=types.GenerateContentConfig(
tools=[weather_tool],
),
)
# Check if the model wants to call a function
for part in response.candidates[0].content.parts:
if part.function_call:
print(f"Function: {part.function_call.name}")
print(f"Arguments: {part.function_call.args}")
# Output:
# Function: get_weather
# Arguments: {'city': 'Tokyo', 'unit': 'celsius'}
# In production, you'd call your actual weather API here,
# then send the result back to Gemini for a natural language response.
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "YOUR_API_KEY" });
const weatherTool = {
functionDeclarations: [
{
name: "get_weather",
description: "Get the current weather for a city",
parameters: {
type: "OBJECT",
properties: {
city: {
type: "STRING",
description: "City name, e.g. 'San Francisco'",
},
unit: {
type: "STRING",
enum: ["celsius", "fahrenheit"],
description: "Temperature unit",
},
},
required: ["city"],
},
},
],
};
const response = await ai.models.generateContent({
model: "gemini-3.1-pro-preview-customtools",
contents: "What's the weather like in Tokyo?",
config: {
tools: [weatherTool],
},
});
// Check for function calls in the response
for (const part of response.candidates[0].content.parts) {
if (part.functionCall) {
console.log(`Function: ${part.functionCall.name}`);
console.log(`Arguments:`, part.functionCall.args);
}
}
Przykład Kodu: Multimodal (Obraz + Tekst)
Python
from google import genai
from google.genai import types
import base64
client = genai.Client(api_key="YOUR_API_KEY")
# Read a local image
with open("screenshot.png", "rb") as f:
image_data = f.read()
response = client.models.generate_content(
model="gemini-3.1-pro",
contents=[
types.Content(
parts=[
types.Part(text="What's in this screenshot? Describe the UI elements."),
types.Part(
inline_data=types.Blob(
mime_type="image/png",
data=image_data,
)
),
]
)
],
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
import fs from "fs";
const ai = new GoogleGenAI({ apiKey: "YOUR_API_KEY" });
const imageData = fs.readFileSync("screenshot.png");
const base64Image = imageData.toString("base64");
const response = await ai.models.generateContent({
model: "gemini-3.1-pro",
contents: [
{
parts: [
{ text: "What's in this screenshot? Describe the UI elements." },
{
inlineData: {
mimeType: "image/png",
data: base64Image,
},
},
],
},
],
});
console.log(response.text);
Porównanie API: Gemini 3.1 Pro vs GPT-5.2 vs Claude Sonnet 4.6
| Funkcja | Gemini 3.1 Pro | GPT-5.2 | Claude Sonnet 4.6 |
|---|---|---|---|
| Cena wejścia | $2/1M | $5/1M | $3/1M |
| Cena wyjścia | $12/1M | $15/1M | $15/1M |
| Okno kontekstu | 1M (GA) | 400K | 1M (beta) |
| Wywoływanie funkcji | Tak (niestandardowe narzędzia) | Tak | Tak (tool use) |
| Multimodal | Tekst + obraz + audio + wideo | Tekst + obraz + audio | Tekst + obraz |
| Grounding | Google Search | Przeglądanie webu | Brak natywnego groundingu |
| Strumieniowanie | Tak | Tak | Tak |
| Batch API | Tak | Tak | Tak |
| Darmowy plan | 60 RPM, 1M TPM | Ograniczony | Ograniczony |
| Języki SDK | Python, JS, Go, Dart, Swift | Python, JS | Python, JS |
| Kodowanie (SWE-bench) | 76,8% | 80,0% | 79,6% |
| Użycie komputera | N/A | 38,2% | 72,5% |
| Matematyka (AIME) | ~88% | 100% | ~90% |
Kiedy Wybrać Każde API
Wybierz Gemini 3.1 Pro gdy:- Koszt jest główną kwestią (najtańsze API frontier)
- Potrzebujesz natywnego przetwarzania wideo lub audio
- Potrzebujesz kontekstu 1M w produkcji (GA, nie beta)
- Chcesz grounding Google Search
- Budujesz na Google Cloud
- Rozumowanie matematyczne jest kluczowe
- Jesteś w ekosystemie OpenAI
- Potrzebujesz strukturalnych wyjść z gwarantowanymi schematami JSON
- Szybkość na prostych zapytaniach jest najważniejsza
- Kodowanie i zadania agentowe to główny przypadek użycia
- Potrzebujesz użycia komputera / automatyzacji przeglądarki
- Zadania produktywności biurowej (dokumenty, arkusze kalkulacyjne)
- Odporność na prompt injection jest ważna (bezpieczeństwo agenta)
Integracja Gemini 3.1 Pro z Twoją Aplikacją
Używanie z Y Build
Jeśli budujesz produkt z Y Build, możesz zintegrować API Gemini bezpośrednio w swoim backendzie. Projekty Y Build są wdrażane na Cloudflare Workers, które mogą wywoływać API Gemini z niskim opóźnieniem.
// In a Y Build project (Cloudflare Worker)
export async function onRequest(context) {
const response = await fetch(
"https://generativelanguage.googleapis.com/v1beta/models/gemini-3.1-pro:generateContent",
{
method: "POST",
headers: {
"Content-Type": "application/json",
"x-goog-api-key": context.env.GEMINI_API_KEY,
},
body: JSON.stringify({
contents: [{ parts: [{ text: "Your prompt here" }] }],
}),
}
);
const data = await response.json();
return new Response(JSON.stringify(data));
}
Limity Szybkości
| Tier | Żądania/min | Tokeny/min |
|---|---|---|
| Free | 60 | 1 000 000 |
| Pay-as-you-go | 1 000 | 4 000 000 |
| Enterprise | Indywidualnie | Indywidualnie |
Najczęściej Zadawane Pytania
Czym jest gemini-3.1-pro-preview-customtools?
To wariant podglądowy Gemini 3.1 Pro zoptymalizowany dla niestandardowych narzędzi i wywoływania funkcji. Ma ulepszoną niezawodność, gdy model musi łączyć wiele wywołań narzędzi. Użyj go, jeśli Twoja aplikacja intensywnie korzysta z wywoływania funkcji. Do ogólnego generowania tekstu użyj stabilnego ID modelu gemini-3.1-pro.
Czy Gemini 3.1 Pro jest lepszy niż GPT-5.2?
To zależy od zadania. Gemini 3.1 Pro jest tańszy, ma większe okno kontekstu i wspiera więcej modalności (wideo, audio). GPT-5.2 uzyskuje wyższe wyniki w benchmarkach kodowania i rozumowania matematycznego. Dla multimodalnych aplikacji z budżetem wygrywa Gemini. Dla czystych zadań rozumowania prowadzi GPT-5.2.
Jak Gemini 3.1 Pro wypada w porównaniu z Claude Sonnet 4.6?
Gemini jest tańszy ($2/$12 vs $3/$15 za milion tokenów) i ma natywne wsparcie wideo/audio. Claude Sonnet 4.6 jest lepszy w kodowaniu (79,6% vs 76,8% na SWE-bench), użyciu komputera (72,5% vs N/A) i zadaniach biurowych. Wybierz Gemini dla multimodal i kosztów. Wybierz Claude dla kodowania i agentów.
Czy mogę używać Gemini 3.1 Pro za darmo?
Tak. Google AI Studio oferuje darmowy plan z 60 żądaniami na minutę i 1 milionem tokenów na minutę. Bez karty kredytowej. To wystarczające do rozwoju, testowania i aplikacji produkcyjnych o niskim ruchu.
Jaka jest różnica między Google AI Studio a Vertex AI?
Google AI Studio to prostsze API skierowane do programistów — zarejestruj się z kluczem API i zacznij wywoływać. Vertex AI to platforma enterprise — działa na Google Cloud, oferuje fine-tuning, wdrażanie modeli, monitoring i SLA. Ten sam model, różne opakowania. Zacznij od AI Studio, przejdź na Vertex AI, gdy potrzebujesz funkcji enterprise.
Podsumowanie
Gemini 3.1 Pro to API frontier o najlepszej wartości w marcu 2026. Za $2/$12 za milion tokenów kosztuje około połowę GPT-5.2 i jedną trzecią mniej niż Claude Sonnet 4.6 — z natywnym kontekstem 1M i najszerszym wsparciem multimodalnym.
Dla programistów budujących produkty napędzane AI, praktyczna rada to: używaj Gemini do zadań multimodalnych i wrażliwych na koszty, Claude do kodowania i agentów, a GPT-5.2 do rozumowania matematycznego. Routing modeli między wszystkimi trzema daje Ci najlepsze z każdego.
Budujesz produkt napędzany AI? Y Build obsługuje cały stack — kodowanie AI, deploy jednym kliknięciem na Cloudflare, Demo Cut do wideo produktowych, AI SEO i analityka. Zintegruj API Gemini, Claude lub GPT w swojej aplikacji i wydaj w godziny. Zacznij za darmo.
Źródła:
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.