Guía de Prompt para OpenAI GPT-5.5: Tutorial Paso a Paso

Requisitos Previos
Antes de comenzar, asegúrate de tener:
- Clave de API de OpenAI con acceso a
gpt-5.5(registrate en platform.openai.com si es necesario). - Python 3.10+ instalado.
- La última versión del SDK de OpenAI para Python: ejecuta
pip install openai. - Conocimientos básicos de la API (chat completions o API de Responses).
GPT-5.5 está disponible en la API y soporta hasta más de 1M tokens de contexto, resultados estructurados y nuevos controles como reasoning_effort y text.verbosity.
Paso 1: Actualiza Tu Modelo y Entorno
Cambia a gpt-5.5 y configura un cliente básico. Los prompts heredados de GPT-5 o anteriores generalmente tienen bajo rendimiento—empieza desde cero.
pip install --upgrade openai
from openai import OpenAI
client = OpenAI(api_key="your-api-key-here")
response = client.chat.completions.create(
model="gpt-5.5",
messages=[{"role": "user", "content": "Test prompt"}]
)
print(response.choices[0].message.content)
Resultado esperado: Una respuesta concisa y directa. Sin adornos.
Paso 2: Aprende el Principio Fundamental – Prompting Primero por Resultado
GPT-5.5 destaca cuando describes el resultado deseado, los criterios de éxito, las restricciones y la evidencia disponible— luego permite que el modelo elija el camino. Abandona las largas secuencias paso a paso.
Mal (estilo heredado):
Primero leer la política, luego revisar los datos de la cuenta, luego comparar los campos, luego decidir...
Bien (estilo GPT-5.5):
Resuelve el problema del cliente de principio a fin.
El éxito significa:
- La decisión de elegibilidad usa solo la política y los datos de cuenta disponibles
- Cualquier acción permitida se completa antes de responder
- La respuesta final incluye: acciones_completadas, mensaje_al_cliente, obstáculos
- Si falta evidencia, solicita el campo más pequeño necesario
Prueba este patrón inmediatamente—reduce el ruido y mejora la precisión.
Paso 3: Define la Personalidad y el Estilo de Colaboración
GPT-5.5 tiene por defecto un comportamiento eficiente y orientado a tareas. Para apps conversacionales, añade bloques cortos de personalidad.
# Personalidad
Eres un colaborador capaz: accesible, constante y directo. Supón que el usuario es competente. Mantén la concisión sin ser abrupto. Ajusta tu tono al del usuario dentro de límites profesionales.
Inserta esto al inicio de tu prompt del sistema. Mantenlo bajo 150 palabras. Para asistentes expresivos, añade explícitamente cordialidad o curiosidad.
Paso 4: Añade Preámbulos para una Mejor Experiencia del Usuario
Para tareas de múltiples pasos o que usan herramientas, indica al modelo que primero envíe una breve actualización visible:
Antes de cualquier llamada a herramienta para una tarea de varios pasos, envía una breve actualización visible para el usuario que reconozca la solicitud y declare el primer paso. Mantenlo en una o dos frases.
Esto mejora la percepción de velocidad en apps de streaming. Combínalo con la API de Responses para workflows con estado.
Paso 5: Utilizar nuevos parámetros para control
Utilice estos en sus llamadas API:
reasoning_effort:none(más rápido),low,medium(por defecto),high,xhigh.text.verbosity:lowpara salida concisa,medium(por defecto) para equilibrio.
Código de ejemplo:
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="gpt-5.5",
messages=[{
"role": "system",
"content": "You are a helpful coding assistant."
}, {
"role": "user",
"content": "Implement a fast Fibonacci function in Python."
}],
reasoning_effort="low", # Más rápido para tareas simples
temperature=0.7,
max_tokens=500
)
print(response.choices[0].message.content)
Comportamiento esperado: Código más corto y directo con explicaciones mínimas, excepto si establece una verbosidad mayor.
Paso 6: Agregar condiciones de parada y reglas de evidencia
Evite el sobre-análisis con reglas de parada explícitas:
Resuelva en los pasos útiles más cortos.
Después de cada resultado de herramienta, pregunte: "¿Puedo responder la solicitud principal ahora con evidencia?" Si sí, genere la respuesta final inmediatamente.
Utilice la evidencia mínima suficiente; cite con precisión.
Este es crítico para agentes o tareas de ejecución prolongada.
Paso 7: Testear, iterar y usar salidas estructuradas
Siempre compare:
- Ejecute 10 prompts representativos con estilo antiguo vs. nuevo.
- Mida calidad de salida, uso de tokens y latencia.
- Prefiera
response_format={ "type": "json_schema", ... }sobre JSON descrito en el prompt para estructura garantizada.
Ejemplo de llamada con salida estructurada:
response = client.responses.create(
model="gpt-5.5",
input="Extract name and email from this text: ...",
text_format={"type": "json_schema", "schema": {...}}
)
Problemas comunes y solución
- Resultados peores que GPT-5? Su prompt antiguo es demasiado detallado. Elimine pasos de proceso y mantenga solo los resultados.
- Sobre-análisis / alta latencia? Reduzca
reasoning_effortalowy fortalezca las condiciones de parada. - Respuestas demasiado cortas? Establezca
text.verbosity: "medium"o agregue "explique su razonamiento brevemente". - Llamadas a herramientas fallando? Mueva la guía a las descripciones de las herramientas, no al prompt principal.
- Problemas de conocimiento de fecha? Elimine cualquier línea de "fecha actual"—GPT-5.5 sabe UTC por defecto.
Realice evaluaciones en un pequeño conjunto de prueba antes del despliegue en producción.
Pasos siguientes
- Explore la guía oficial completa en su panel de OpenAI.
- Pruebe la habilidad de migración de Codex:
$openai-docs migrate this project to gpt-5.5. - Construya un agente pequeño usando la API de Responses y pruebe preámbulos + personalidad.
- Monitoree costos de tokens—GPT-5.5 premia prompts mínimos.
Aplique estos patrones hoy y observe cómo sus workflows se vuelven más rápidos, económicos y confiables.
Continue Reading
More articles connected to the same themes, protocols, and tools.
Referenced Tools
Browse entries that are adjacent to the topics covered in this article.






