Gemini 3.1 Pro API: Entwicklerhandbuch mit Codebeispielen (2026)
Vollständiges Entwicklerhandbuch für die Gemini 3.1 Pro API. Umfasst Modell-IDs (gemini-3.1-pro-preview-customtools), Preise, Codebeispiele in Python und JavaScript, benutzerdefinierte Tools, Function Calling und Integration mit Ihrer App.
Zusammenfassung
| Gemini 3.1 Pro | |
|---|---|
| Modell-IDs | gemini-3.1-pro, gemini-3.1-pro-preview-customtools |
| Kontextfenster | 1M Token |
| Eingabepreis | $2/1M Token |
| Ausgabepreis | $12/1M Token |
| Schlüsselfunktionen | Benutzerdefinierte Tools, Function Calling, Grounding, multimodal (Text + Bild + Audio + Video) |
| API | Google AI Studio / Vertex AI |
Gemini 3.1 Pro ist Googles neuestes Frontier-Modell, veröffentlicht im März 2026. Es ist die günstigste Frontier-API pro Token, hat nativen 1M-Kontext und führt benutzerdefinierte Tools ein — eine neue Möglichkeit, dem Modell Zugriff auf externe Funktionen mit strukturierten Schemata zu geben.
Modell-IDs
Google bietet zwei Varianten von Gemini 3.1 Pro:
| Modell-ID | Beschreibung | Status |
|---|---|---|
gemini-3.1-pro | Stabile Veröffentlichung, allgemeine Verfügbarkeit | GA |
gemini-3.1-pro-preview-customtools | Preview mit verbesserter Unterstützung für benutzerdefinierte Tools | Preview |
Die customtools-Preview-Variante hat verbesserte Zuverlässigkeit für komplexe Function-Calling-Ketten — verwenden Sie sie, wenn Ihre App stark auf Tool-Calling angewiesen ist. Für allgemeine Nutzung wird das stabile gemini-3.1-pro empfohlen.
# Google AI Studio
model = "gemini-3.1-pro"
# Vertex AI
model = "gemini-3.1-pro@001"
Schnellstart: Python
Installation
pip install google-genai
Grundlegende Textgenerierung
from google import genai
client = genai.Client(api_key="YOUR_API_KEY")
response = client.models.generate_content(
model="gemini-3.1-pro",
contents="Explain quantum computing in 3 sentences."
)
print(response.text)
Streaming
for chunk in client.models.generate_content_stream(
model="gemini-3.1-pro",
contents="Write a Python function to merge two sorted arrays."
):
print(chunk.text, end="")
Schnellstart: JavaScript
Installation
npm install @google/genai
Grundlegende Textgenerierung
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "YOUR_API_KEY" });
const response = await ai.models.generateContent({
model: "gemini-3.1-pro",
contents: "Explain quantum computing in 3 sentences.",
});
console.log(response.text);
Streaming
const stream = await ai.models.generateContentStream({
model: "gemini-3.1-pro",
contents: "Write a JavaScript function to merge two sorted arrays.",
});
for await (const chunk of stream) {
process.stdout.write(chunk.text);
}
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.
Preise
Gemini 3.1 Pro ist die günstigste Frontier-Modell-API Stand März 2026.
| Gemini 3.1 Pro | GPT-5.2 | Claude Sonnet 4.6 | |
|---|---|---|---|
| Eingabe | $2/1M | $5/1M | $3/1M |
| Ausgabe | $12/1M | $15/1M | $15/1M |
| Kontext | 1M | 400K | 1M (Beta) |
| Kosten pro 100K Eingabe + 20K Ausgabe | $0,44 | $0,80 | $0,60 |
Im großen Maßstab kostet Gemini 3.1 Pro etwa 45 % weniger als GPT-5.2 und 27 % weniger als Sonnet 4.6 pro Sitzung.
Kostenlose Stufe
Google AI Studio bietet eine kostenlose Stufe:
- 60 Anfragen pro Minute
- 1M Token pro Minute
- Keine Kreditkarte erforderlich
Dies ist die großzügigste kostenlose API-Stufe unter den drei großen Anbietern.
Schlüsselfunktionen
1M-Token-Kontextfenster
Gemini 3.1 Pro unterstützt nativ 1 Million Token Kontext — ausreichend für:
- ~700.000 Wörter Text
- ~30.000 Zeilen Code
- ~1 Stunde Video
- ~11 Stunden Audio
Anders als konkurrierende Modelle, die erweiterten Kontext als Beta-Feature anbieten, ist Geminis 1M-Kontext vollständig GA und zum gleichen Preis wie Standardkontext.
Benutzerdefinierte Tools (Function Calling)
Benutzerdefinierte Tools ermöglichen es Ihnen, externe Funktionen zu definieren, die Gemini während der Generierung aufrufen kann. Das Modell entscheidet, wann es ein Tool aufruft, strukturiert die Argumente und integriert das Ergebnis in seine Antwort.
Dafür ist die gemini-3.1-pro-preview-customtools-Variante optimiert.
Grounding mit Google Search
Gemini kann seine Antworten in Echtzeit-Google-Search-Ergebnissen verankern. Aktivieren Sie Grounding, um Halluzinationen zu reduzieren und sicherzustellen, dass das Modell aktuelle Informationen verwendet.
Natives Multimodal
Verarbeiten Sie Text, Bilder, Audio und Video in einer einzigen Anfrage. Keine separaten Vision- oder Audiomodelle — Gemini verarbeitet alle Modalitäten nativ.
Codebeispiel: Benutzerdefinierte Tools / Function Calling
Dieses Beispiel erstellt ein Wetter-Tool, das Gemini aufrufen kann, um aktuelle Bedingungen zu erhalten.
Python
from google import genai
from google.genai import types
client = genai.Client(api_key="YOUR_API_KEY")
# Define the tool
weather_tool = types.Tool(
function_declarations=[
types.FunctionDeclaration(
name="get_weather",
description="Get the current weather for a city",
parameters=types.Schema(
type=types.Type.OBJECT,
properties={
"city": types.Schema(
type=types.Type.STRING,
description="City name, e.g. 'San Francisco'"
),
"unit": types.Schema(
type=types.Type.STRING,
enum=["celsius", "fahrenheit"],
description="Temperature unit"
),
},
required=["city"],
),
)
]
)
# Send request with tool
response = client.models.generate_content(
model="gemini-3.1-pro-preview-customtools",
contents="What's the weather like in Tokyo?",
config=types.GenerateContentConfig(
tools=[weather_tool],
),
)
# Check if the model wants to call a function
for part in response.candidates[0].content.parts:
if part.function_call:
print(f"Function: {part.function_call.name}")
print(f"Arguments: {part.function_call.args}")
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "YOUR_API_KEY" });
const weatherTool = {
functionDeclarations: [
{
name: "get_weather",
description: "Get the current weather for a city",
parameters: {
type: "OBJECT",
properties: {
city: { type: "STRING", description: "City name, e.g. 'San Francisco'" },
unit: { type: "STRING", enum: ["celsius", "fahrenheit"], description: "Temperature unit" },
},
required: ["city"],
},
},
],
};
const response = await ai.models.generateContent({
model: "gemini-3.1-pro-preview-customtools",
contents: "What's the weather like in Tokyo?",
config: { tools: [weatherTool] },
});
for (const part of response.candidates[0].content.parts) {
if (part.functionCall) {
console.log(`Function: ${part.functionCall.name}`);
console.log(`Arguments:`, part.functionCall.args);
}
}
Codebeispiel: Multimodal (Bild + Text)
Python
from google import genai
from google.genai import types
import base64
client = genai.Client(api_key="YOUR_API_KEY")
with open("screenshot.png", "rb") as f:
image_data = f.read()
response = client.models.generate_content(
model="gemini-3.1-pro",
contents=[
types.Content(
parts=[
types.Part(text="What's in this screenshot? Describe the UI elements."),
types.Part(inline_data=types.Blob(mime_type="image/png", data=image_data)),
]
)
],
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
import fs from "fs";
const ai = new GoogleGenAI({ apiKey: "YOUR_API_KEY" });
const imageData = fs.readFileSync("screenshot.png");
const base64Image = imageData.toString("base64");
const response = await ai.models.generateContent({
model: "gemini-3.1-pro",
contents: [
{
parts: [
{ text: "What's in this screenshot? Describe the UI elements." },
{ inlineData: { mimeType: "image/png", data: base64Image } },
],
},
],
});
console.log(response.text);
API-Vergleich: Gemini 3.1 Pro vs GPT-5.2 vs Claude Sonnet 4.6
| Funktion | Gemini 3.1 Pro | GPT-5.2 | Claude Sonnet 4.6 |
|---|---|---|---|
| Eingabepreis | $2/1M | $5/1M | $3/1M |
| Ausgabepreis | $12/1M | $15/1M | $15/1M |
| Kontextfenster | 1M (GA) | 400K | 1M (Beta) |
| Function Calling | Ja (Custom Tools) | Ja | Ja (Tool Use) |
| Multimodal | Text + Bild + Audio + Video | Text + Bild + Audio | Text + Bild |
| Grounding | Google Search | Web-Browsing | Kein natives Grounding |
| Streaming | Ja | Ja | Ja |
| Batch-API | Ja | Ja | Ja |
| Kostenlose Stufe | 60 RPM, 1M TPM | Begrenzt | Begrenzt |
| SDK-Sprachen | Python, JS, Go, Dart, Swift | Python, JS | Python, JS |
| Coding (SWE-bench) | 76,8 % | 80,0 % | 79,6 % |
| Computernutzung | N/A | 38,2 % | 72,5 % |
| Mathematik (AIME) | ~88 % | 100 % | ~90 % |
Wann welche API wählen
Wählen Sie Gemini 3.1 Pro wenn:- Kosten ein primäres Anliegen sind (günstigste Frontier-API)
- Native Video- oder Audioverarbeitung benötigt wird
- 1M-Kontext in Produktion benötigt wird (GA, nicht Beta)
- Google-Search-Grounding gewünscht ist
- Sie auf Google Cloud aufbauen
- Mathematisch schwere Schlussfolgerung kritisch ist
- Sie im OpenAI-Ökosystem sind
- Strukturierte Ausgaben mit garantierten JSON-Schemata benötigt werden
- Geschwindigkeit bei einfachen Anfragen am wichtigsten ist
- Coding und agentische Aufgaben der primäre Anwendungsfall sind
- Computernutzung / Browser-Automatisierung benötigt wird
- Büroproduktivitätsaufgaben (Dokumente, Tabellen)
- Prompt-Injection-Resistenz wichtig ist (Agent-Sicherheit)
Gemini 3.1 Pro in Ihre App integrieren
Nutzung mit Y Build
Wenn Sie ein Produkt mit Y Build bauen, können Sie die Gemini-API direkt in Ihr Backend integrieren. Y-Build-Projekte werden auf Cloudflare Workers deployed, die die Gemini-API mit niedriger Latenz aufrufen können.
// In a Y Build project (Cloudflare Worker)
export async function onRequest(context) {
const response = await fetch(
"https://generativelanguage.googleapis.com/v1beta/models/gemini-3.1-pro:generateContent",
{
method: "POST",
headers: {
"Content-Type": "application/json",
"x-goog-api-key": context.env.GEMINI_API_KEY,
},
body: JSON.stringify({
contents: [{ parts: [{ text: "Your prompt here" }] }],
}),
}
);
const data = await response.json();
return new Response(JSON.stringify(data));
}
Rate Limits
| Stufe | Anfragen/Min | Token/Min |
|---|---|---|
| Kostenlos | 60 | 1.000.000 |
| Pay-as-you-go | 1.000 | 4.000.000 |
| Enterprise | Individuell | Individuell |
Häufig gestellte Fragen
Was ist gemini-3.1-pro-preview-customtools?
Es ist eine Preview-Variante von Gemini 3.1 Pro, optimiert für benutzerdefinierte Tools und Function Calling. Sie hat verbesserte Zuverlässigkeit, wenn das Modell mehrere Tool-Aufrufe verketten muss. Verwenden Sie sie, wenn Ihre App stark auf Function Calling angewiesen ist. Für allgemeine Textgenerierung verwenden Sie die stabile Modell-ID gemini-3.1-pro.
Ist Gemini 3.1 Pro besser als GPT-5.2?
Es kommt auf die Aufgabe an. Gemini 3.1 Pro ist günstiger, hat ein größeres Kontextfenster und unterstützt mehr Modalitäten (Video, Audio). GPT-5.2 erzielt höhere Werte bei Coding-Benchmarks und mathematischem Schlussfolgern. Für multimodale Apps mit Budget gewinnt Gemini. Für reine Schlussfolgerungsaufgaben führt GPT-5.2.
Wie vergleicht sich Gemini 3.1 Pro mit Claude Sonnet 4.6?
Gemini ist günstiger ($2/$12 vs $3/$15 pro Million Token) und hat nativen Video-/Audio-Support. Claude Sonnet 4.6 ist besser beim Coding (79,6 % vs 76,8 % auf SWE-bench), Computernutzung (72,5 % vs N/A) und Büroaufgaben. Wählen Sie Gemini für Multimodal und Kosten. Wählen Sie Claude für Coding und Agenten.
Kann ich Gemini 3.1 Pro kostenlos nutzen?
Ja. Google AI Studio bietet eine kostenlose Stufe mit 60 Anfragen pro Minute und 1 Million Token pro Minute. Keine Kreditkarte erforderlich. Ausreichend für Entwicklung, Tests und Produktions-Apps mit niedrigem Traffic.
Was ist der Unterschied zwischen Google AI Studio und Vertex AI?
Google AI Studio ist die einfachere, entwicklerorientierte API — mit einem API-Key anmelden und Aufrufe starten. Vertex AI ist die Enterprise-Plattform — läuft auf Google Cloud, bietet Fine-Tuning, Modell-Deployment, Monitoring und SLAs. Gleiches Modell, verschiedene Wrapper. Starten Sie mit AI Studio, wechseln Sie zu Vertex AI, wenn Sie Enterprise-Features brauchen.
Fazit
Gemini 3.1 Pro ist die beste Frontier-API für den Preis im März 2026. Bei $2/$12 pro Million Token kostet es ungefähr die Hälfte von GPT-5.2 und ein Drittel weniger als Claude Sonnet 4.6 — mit nativem 1M-Kontext und der breitesten multimodalen Unterstützung.
Für Entwickler, die KI-gestützte Produkte bauen, lautet der praktische Rat: Verwenden Sie Gemini für multimodale und kostensensitive Aufgaben, Claude für Coding und Agenten, und GPT-5.2 für mathematisch schwere Schlussfolgerung. Modell-Routing über alle drei gibt Ihnen das Beste aus jedem.
Bauen Sie ein KI-gestütztes Produkt? Y Build deckt den gesamten Stack ab — KI-Coding, One-Click-Deploy auf Cloudflare, Demo Cut für Produktvideos, KI-SEO und Analytics. Integrieren Sie Gemini-, Claude- oder GPT-APIs in Ihre App und liefern Sie in Stunden. Kostenlos starten.
Quellen:
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.