Gemini 3.1 Pro API: Guia do Desenvolvedor com Exemplos de Código (2026)
Guia completo do desenvolvedor para a API Gemini 3.1 Pro. Cobre IDs de modelo (gemini-3.1-pro-preview-customtools), preços, exemplos de código em Python e JavaScript, ferramentas personalizadas, chamadas de função e integração com seu app.
Resumo
| Gemini 3.1 Pro | |
|---|---|
| IDs de Modelo | gemini-3.1-pro, gemini-3.1-pro-preview-customtools |
| Janela de contexto | 1M tokens |
| Preço de entrada | $2/1M tokens |
| Preço de saída | $12/1M tokens |
| Recursos principais | Ferramentas personalizadas, chamadas de função, grounding, multimodal (texto + imagem + áudio + vídeo) |
| API | Google AI Studio / Vertex AI |
Gemini 3.1 Pro é o modelo frontier mais recente do Google, lançado em março de 2026. É a API frontier mais barata por token, tem contexto nativo de 1M e introduz ferramentas personalizadas — uma nova forma de dar ao modelo acesso a funções externas com schemas estruturados.
IDs de Modelo
O Google oferece duas variantes do Gemini 3.1 Pro:
| ID do Modelo | Descrição | Status |
|---|---|---|
gemini-3.1-pro | Lançamento estável, disponibilidade geral | GA |
gemini-3.1-pro-preview-customtools | Preview com suporte aprimorado a ferramentas personalizadas | Preview |
A variante preview customtools tem confiabilidade melhorada para cadeias complexas de chamadas de função — use-a se seu app faz uso intensivo de chamadas de ferramentas. Para uso geral, o estável gemini-3.1-pro é recomendado.
# Google AI Studio
model = "gemini-3.1-pro"
# Vertex AI
model = "gemini-3.1-pro@001"
Início Rápido: Python
Instalação
pip install google-genai
Geração Básica de Texto
from google import genai
client = genai.Client(api_key="YOUR_API_KEY")
response = client.models.generate_content(
model="gemini-3.1-pro",
contents="Explain quantum computing in 3 sentences."
)
print(response.text)
Streaming
for chunk in client.models.generate_content_stream(
model="gemini-3.1-pro",
contents="Write a Python function to merge two sorted arrays."
):
print(chunk.text, end="")
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.
Início Rápido: JavaScript
Instalação
npm install @google/genai
Geração Básica de Texto
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "YOUR_API_KEY" });
const response = await ai.models.generateContent({
model: "gemini-3.1-pro",
contents: "Explain quantum computing in 3 sentences.",
});
console.log(response.text);
Streaming
const stream = await ai.models.generateContentStream({
model: "gemini-3.1-pro",
contents: "Write a JavaScript function to merge two sorted arrays.",
});
for await (const chunk of stream) {
process.stdout.write(chunk.text);
}
Preços
Gemini 3.1 Pro é a API de modelo frontier mais barata em março de 2026.
| Gemini 3.1 Pro | GPT-5.2 | Claude Sonnet 4.6 | |
|---|---|---|---|
| Entrada | $2/1M | $5/1M | $3/1M |
| Saída | $12/1M | $15/1M | $15/1M |
| Contexto | 1M | 400K | 1M (beta) |
| Custo por 100K ent. + 20K saí. | $0,44 | $0,80 | $0,60 |
Em escala, Gemini 3.1 Pro custa aproximadamente 45% menos que GPT-5.2 e 27% menos que Sonnet 4.6 por sessão.
Plano Gratuito
Google AI Studio oferece um plano gratuito:
- 60 requisições por minuto
- 1M tokens por minuto
- Sem necessidade de cartão de crédito
Este é o plano gratuito de API mais generoso entre os três principais provedores.
Recursos Principais
Janela de Contexto de 1M Tokens
Gemini 3.1 Pro suporta nativamente 1 milhão de tokens de contexto — suficiente para:
- ~700.000 palavras de texto
- ~30.000 linhas de código
- ~1 hora de vídeo
- ~11 horas de áudio
Ao contrário de modelos concorrentes que oferecem contexto estendido como recurso beta, o contexto de 1M do Gemini é totalmente GA e tem o mesmo preço do contexto padrão.
Ferramentas Personalizadas (Chamadas de Função)
Ferramentas personalizadas permitem definir funções externas que o Gemini pode chamar durante a geração. O modelo decide quando chamar uma ferramenta, estrutura os argumentos e incorpora o resultado em sua resposta.
É para isso que a variante gemini-3.1-pro-preview-customtools é otimizada.
Grounding com Google Search
O Gemini pode basear suas respostas em resultados de busca do Google em tempo real. Ative o grounding para reduzir alucinações e garantir que o modelo use informações atuais.
Multimodal Nativo
Processe texto, imagens, áudio e vídeo em uma única requisição. Sem modelos separados de visão ou áudio — o Gemini lida com todas as modalidades nativamente.
Exemplo de Código: Ferramentas Personalizadas / Chamadas de Função
Este exemplo cria uma ferramenta de clima que o Gemini pode chamar para obter condições atuais.
Python
from google import genai
from google.genai import types
client = genai.Client(api_key="YOUR_API_KEY")
# Define the tool
weather_tool = types.Tool(
function_declarations=[
types.FunctionDeclaration(
name="get_weather",
description="Get the current weather for a city",
parameters=types.Schema(
type=types.Type.OBJECT,
properties={
"city": types.Schema(
type=types.Type.STRING,
description="City name, e.g. 'San Francisco'"
),
"unit": types.Schema(
type=types.Type.STRING,
enum=["celsius", "fahrenheit"],
description="Temperature unit"
),
},
required=["city"],
),
)
]
)
# Send request with tool
response = client.models.generate_content(
model="gemini-3.1-pro-preview-customtools",
contents="What's the weather like in Tokyo?",
config=types.GenerateContentConfig(
tools=[weather_tool],
),
)
# Check if the model wants to call a function
for part in response.candidates[0].content.parts:
if part.function_call:
print(f"Function: {part.function_call.name}")
print(f"Arguments: {part.function_call.args}")
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "YOUR_API_KEY" });
const weatherTool = {
functionDeclarations: [
{
name: "get_weather",
description: "Get the current weather for a city",
parameters: {
type: "OBJECT",
properties: {
city: { type: "STRING", description: "City name, e.g. 'San Francisco'" },
unit: { type: "STRING", enum: ["celsius", "fahrenheit"], description: "Temperature unit" },
},
required: ["city"],
},
},
],
};
const response = await ai.models.generateContent({
model: "gemini-3.1-pro-preview-customtools",
contents: "What's the weather like in Tokyo?",
config: { tools: [weatherTool] },
});
for (const part of response.candidates[0].content.parts) {
if (part.functionCall) {
console.log(`Function: ${part.functionCall.name}`);
console.log(`Arguments:`, part.functionCall.args);
}
}
Comparação de API: Gemini 3.1 Pro vs GPT-5.2 vs Claude Sonnet 4.6
| Recurso | Gemini 3.1 Pro | GPT-5.2 | Claude Sonnet 4.6 |
|---|---|---|---|
| Preço de entrada | $2/1M | $5/1M | $3/1M |
| Preço de saída | $12/1M | $15/1M | $15/1M |
| Janela de contexto | 1M (GA) | 400K | 1M (beta) |
| Chamadas de função | Sim (ferramentas personalizadas) | Sim | Sim (tool use) |
| Multimodal | Texto + imagem + áudio + vídeo | Texto + imagem + áudio | Texto + imagem |
| Grounding | Google Search | Navegação web | Sem grounding nativo |
| Plano gratuito | 60 RPM, 1M TPM | Limitado | Limitado |
Quando Escolher Cada API
Escolha Gemini 3.1 Pro quando: custo é prioridade, você precisa de processamento nativo de vídeo/áudio, precisa de contexto de 1M em produção (GA), ou está construindo no Google Cloud. Escolha GPT-5.2 quando: raciocínio matemático é crítico, você está no ecossistema OpenAI, ou precisa de saídas estruturadas com schemas JSON garantidos. Escolha Claude Sonnet 4.6 quando: codificação e tarefas agênticas são o caso de uso principal, você precisa de uso de computador/automação de navegador, ou resistência a injeção de prompt importa.Conclusão
Gemini 3.1 Pro é a API frontier de melhor custo-benefício em março de 2026. A $2/$12 por milhão de tokens, custa aproximadamente metade do GPT-5.2 e um terço menos que Claude Sonnet 4.6 — com contexto nativo de 1M e o suporte multimodal mais amplo.
Para desenvolvedores construindo produtos alimentados por IA, o conselho prático é: use Gemini para tarefas multimodais e sensíveis a custo, Claude para codificação e agentes, e GPT-5.2 para raciocínio matemático pesado. Roteamento de modelo entre os três dá o melhor de cada um.
Construindo um produto alimentado por IA? Y Build cuida de todo o stack — codificação IA, deploy com um clique na Cloudflare, Demo Cut para vídeos de produto, IA SEO e analytics. Integre APIs Gemini, Claude ou GPT no seu app e lance em horas. Comece grátis.
Fontes:
Be first to build with AI
Y Build is the AI-era operating system for startups. Join the waitlist and get early access.