Guia de Prompt do OpenAI GPT-5.5: Tutorial Passo a Passo

Pré-requisitos
Antes de começar, certifique-se de ter:
- Chave de API OpenAI com acesso ao modelo
gpt-5.5(registre-se em platform.openai.com se necessário). - Python 3.10+ instalado.
- O SDK OpenAI Python mais recente: execute
pip install openai. - Conhecimento básico de API (completamentos de chat ou API de Respostas).
O GPT-5.5 está disponível na API e oferece suporte a até 1M+ tokens de contexto, saídas estruturadas e novos controles como reasoning_effort e text.verbosity.
Etapa 1: Atualizar seu Modelo e Ambiente
Migre para gpt-5.5 e configure um cliente básico. Prompts legados do GPT-5 ou anteriores geralmente têm desempenho inferior—comece de forma nova.
pip install --upgrade openai
from openai import OpenAI
client = OpenAI(api_key="your-api-key-here")
response = client.chat.completions.create(
model="gpt-5.5",
messages=[{"role": "user", "content": "Test prompt"}]
)
print(response.choices[0].message.content)
Saída esperada: Uma resposta concisa e direta. Sem enrolação.
Etapa 2: Aprenda o Princípio Central – Prompting com Prioridade no Resultado
O GPT-5.5 se destaca quando você descreve o resultado desejado, critérios de sucesso, restrições e evidências disponíveis—e então permite que o modelo escolha o caminho. Dispense cadeias longas e passo a passo.
Mau exemplo (estilo legado):
Primeiro leia a política, então verifique os dados da conta, então compare os campos, então decida...
Bom exemplo (estilo GPT-5.5):
Resolva o problema do cliente de forma completa.
Sucesso significa:
- A decisão de elegibilidade usa apenas a política e os dados da conta disponíveis
- Qualquer ação permitida é concluída antes de responder
- A resposta final inclui: ações_completadas, mensagem_para_cliente, bloqueadores
- Se faltar evidência, solicite o menor campo necessário
Teste esse padrão imediatamente—ele reduz ruído e melhora a precisão.
Etapa 3: Defina Personalidade e Estilo de Colaboração
O GPT-5.5 é, por padrão, eficiente e orientado à tarefa. Para aplicações conversacionais, adicione blocos de personalidade curtos.
# Personalidade
Você é um colaborador capaz: acessível, constante e direto. Presuma que o usuário é competente. Mantenha-se conciso sem ser abrupto. Adapte-se ao tom do usuário dentro dos limites profissionais.
Insira isso no início do seu prompt de sistema. Mantenha-o com menos de 150 palavras. Para assistentes expressivos, adicione calor ou curiosidade explicitamente.
Etapa 4: Adicione Preambos para uma Melhor Experiência do Usuário
Para tarefas multi-etapa ou que usam ferramentas, instrua o modelo a enviar primeiro uma breve atualização visível ao usuário:
Antes de qualquer chamada de ferramenta para uma tarefa multi-etapa, envie uma breve atualização visível ao usuário que reconhece a solicitação e declara o primeiro passo. Mantenha-a em uma ou duas sentenças.
Isso melhora a percepção de velocidade em aplicações de streaming. Combine com a API de Respostas para fluxos de trabalho com estado.
Etapa 5: Utilize Novos Parâmetros para Controle
Use-os nas suas chamadas da API:
reasoning_effort:none(mais rápido),low,medium(padrão),high,xhigh.text.verbosity:lowpara saída concisa,medium(padrão) para equilíbrio.
Exemplo de código:
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="gpt-5.5",
messages=[
{
"role": "system",
"content": "Você é um assistente de programação útil."
}, {
"role": "user",
"content": "Implemente uma função rápida de Fibonacci em Python."
}
],
reasoning_effort="low", # Mais rápido para tarefas simples
temperature=0.7,
max_tokens=500
)
print(response.choices[0].message.content)
Comportamento esperado: Código mais curto e direto com explicação mínima, exceto se você definir verbosidade maior.
Etapa 6: Adicione Condições de Parada e Regras de Evidência
Evite excesso de reflexão com regras de parada explícitas:
Resolva com os menores passos úteis necessários.
Após cada resultado de ferramenta, pergunte: "Posso responder à solicitação principal agora com evidência?" Se sim, forneça a resposta final imediatamente.
Use o mínimo de evidência suficiente; cite precisamente.
Isso é crucial para agentes ou tarefas de longa duração.
Etapa 7: Teste, Itere e Use Saídas Estruturadas
Faça benchmarking sempre:
- Execute 10 prompts representativos com estilo antigo vs. novo.
- Meça a qualidade da saída, uso de tokens e latência.
- Prefira
response_format={ "type": "json_schema", ... }sobre JSON descrito em prompt para estrutura garantida.
Exemplo de chamada para saída estruturada:
response = client.responses.create(
model="gpt-5.5",
input="Extraia nome e e-mail deste texto: ...",
text_format={"type": "json_schema", "schema": {...}}
)
Problemas Comuns & Solução
- Resultados inferiores ao GPT-5? Sua prompt antiga está muito detalhada. Remova passos do processo e mantenha apenas os resultados.
- Excesso de reflexão / alta latência? Reduza
reasoning_effortparalowe fortifique condições de parada. - Respostas muito curtas? Configure
text.verbosity: "medium"ou adicione "explique seu raciocínio brevemente". - Chamadas de ferramentas falhando? Mova orientações para as descrições das ferramentas, não no prompt principal.
- Problemas de consciência de data? Remova quaisquer linhas de "data atual"—GPT-5.5 conhece UTC por padrão.
Execute avaliações em um pequeno conjunto de teste antes do lançamento em produção.
Próximos Passos
- Explore o guia oficial completo no seu painel da OpenAI.
- Experimente a habilidade de migração do Codex:
$openai-docs migrate this project to gpt-5.5. - Construa um pequeno agente usando a API de Responses e teste preâmbulos + personalidade.
- Monitore custos de tokens—GPT-5.5 recompensa prompts mínimos.
Aplique esses padrões hoje e observe seus fluxos de trabalho tornar-se mais rápidos, mais baratos e mais confiáveis.
Continue Reading
More articles connected to the same themes, protocols, and tools.
Referenced Tools
Browse entries that are adjacent to the topics covered in this article.






