Back to Blog
BlogApril 30, 20263

OpenAI GPT-5.5 Prompt-Guide: Schritt-für-Schritt Tutorial

OpenAI GPT-5.5 Prompt-Guide: Schritt-für-Schritt Tutorial

Voraussetzungen

Bevor Sie beginnen, sollten Sie Folgendes sicherstellen:

  • OpenAI API-Key mit Zugriff auf gpt-5.5 (registrieren Sie sich bei platform.openai.com, falls erforderlich).
  • Python 3.10+ installiert.
  • Die neueste OpenAI Python SDK: führen Sie pip install openai aus.
  • Grundlegende API-Kenntnisse (Chat Completion oder Responses API).

GPT-5.5 ist in der API verfügbar und unterstützt bis zu 1M+ Kontext-Token, strukturierte Outputs und neue Kontrollen wie reasoning_effort und text.verbosity.

Schritt 1: Aktualisieren Sie Ihr Modell und Ihre Umgebung

Wechseln Sie zu gpt-5.5 und setzen Sie einen grundlegenden Client auf. Legacy-Prompts von GPT-5 oder früheren Versionen sind oft schlechter – beginnen Sie neu.

pip install --upgrade openai
from openai import OpenAI
client = OpenAI(api_key="your-api-key-here")

response = client.chat.completions.create(
    model="gpt-5.5",
    messages=[{"role": "user", "content": "Test prompt"}]
)
print(response.choices[0].message.content)

Erwartete Ausgabe: Eine prägnante, direkte Antwort. Kein unnötiger Schnickschnack.

Schritt 2: Erlernen Sie das Kernprinzip – Outcome-First Prompting

GPT-5.5 funktioniert besonders gut, wenn Sie das gewünschte Ergebnis, Erfolgskriterien, Einschränkungen und verfügbare Beweise beschreiben – und dann lassen Sie das Modell den Weg wählen. Verwerfen Sie lange Schritt-für-Schritt-Ketten.

Bad (Legacy-Stil):

Lesen Sie zunächst die Policy, dann prüfen Sie die Account-Daten, dann vergleichen Sie Felder, dann entscheiden Sie...

Good (GPT-5.5-Stil):

Lösen Sie das Problem des Kunden end-to-end.

Erfolg bedeutet:
- Die Eligibility Entscheidung nutzt nur verfügbare Policy und Account-Daten
- Jede erlaubte Action wird vor der Antwort fertiggestellt
- Die finale Antwort enthält: completed_actions, customer_message, blockers
- Falls Beweise fehlen, fragen Sie für das kleinste benötigte Feld

Testen Sie diesen Pattern direkt – er reduziert unnötige Details und verbessert die Genauigkeit.

Schritt 3: Definieren Sie Persönlichkeit und Collaboration-Style

GPT-5.5 ist standardmäßig effizient und task-oriented. Für Conversational Apps fügen Sie kurze Persönlichkeit-Blocks hinzu.

# Persönlichkeit
Sie sind ein kompetenter Collaborator: zugänglich, stabil und direkt. Gehen Sie davon aus, dass der Nutzer kompetent ist. Bleiben Sie prägnant ohne kurz angebunden zu sein. Passen Sie Ihren Ton innerhalb professioneller Grenzen an den Nutzer an.

Setzen Sie dies an den Anfang Ihres System-Prompts. Halten Sie es unter 150 Wörter. Für expressive Assistants fügen Sie explizit Wärme oder Neugier hinzu.

Schritt 4: Fügen Sie Preambles hinzu für eine bessere User Experience

Für Multi-Step oder Tool-Using Tasks, sagen Sie dem Modell, dass es zunächst eine kurze, sichtbare Update senden soll:

Vor jeglichen Tool Calls für eine Multi-Step Task, senden Sie ein kurzes, user-visible Update, das die Anfrage anerkennt und den ersten Schritt beschreibt. Halten Sie es auf ein oder zwei Sätze.

Dies verbessert die wahrgenommene Geschwindigkeit in Streaming Apps. Kombinieren Sie dies mit der Responses API für stateful workflows.

Schritt 5: Nutzen Sie neue Parameter zur Steuerung

Nutzen Sie diese in Ihren API-Aufrufen:

  • reasoning_effort: none (schnellster), low, medium (Standard), high, xhigh.
  • text.verbosity: low für knappe Ausgabe, medium (Standard) für ausgewogene.

Beispielcode:

from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="gpt-5.5",
    messages=[{
        "role": "system",
        "content": "You are a helpful coding assistant."
    }, {
        "role": "user",
        "content": "Implement a fast Fibonacci function in Python."
    }],
    reasoning_effort="low",      # Schneller für einfache Aufgaben
    temperature=0.7,
    max_tokens=500
)
print(response.choices[0].message.content)

Erwartetes Verhalten: Kurzer, direkter Code mit minimaler Erklärung, sofern Sie keine höhere Ausführlichkeit setzen.

Schritt 6: Hinzufügen von Abbruchkriterien und Beweisregeln

Verhindern Sie Überdenken mit expliziten Abbruchregeln:

Lösen Sie das Problem in den geringsten notwendigen Schritten.
Nach jedem Tool-Ergebnis fragen: „Kann ich die Kernanfrage jetzt mit Beweisen beantworten?“ Wenn ja, geben Sie die finale Antwort unmittelbar aus.
Nutzen Sie minimal ausreichende Beweise; zitieren Sie genau.

Dies ist entscheidend für Agenten oder langlaufende Aufgaben.

Schritt 7: Testen, Iterieren und Strukturierte Ausgaben verwenden

Benchmarking ist immer erforderlich:

  1. Führen Sie 10 repräsentative Prompts im alten und neuen Stil aus.
  2. Messen Sie die Ausgabequalität, Token-Verwendung und Latenz.
  3. Nutzen Sie bevorzugt response_format={ "type": "json_schema", ... } statt Prompt-beschriebenes JSON für garantierte Struktur.

Beispielaufruf für strukturierte Ausgabe:

response = client.responses.create(
    model="gpt-5.5",
    input="Extract name and email from this text: ...",
    text_format={"type": "json_schema", "schema": {...}}
)

Häufige Probleme & Fehlerbehebung

  • Weniger gute Ergebnisse als GPT-5? Ihr alter Prompt ist zu detailliert. Entfernen Sie Prozessschritte und behalten Sie nur Ergebnisse.
  • Überdenken / hohe Latenz? Senken Sie reasoning_effort auf low und stärken Sie Abbruchkriterien.
  • Antworten zu kurz? Setzen Sie text.verbosity: "medium" oder fügen Sie „Erklären Sie Ihre Argumentation kurz hinzu“ hinzu.
  • Tool-Aufrufe fehlschlagen? Fügen Sie die Anleitung in die Tool- Beschreibungen ein, nicht in den Haupt-Prompt.
  • Probleme mit Datumsbewusstsein? Entfernen Sie alle „aktuelle Datum“ Zeilen – GPT-5.5 kennt UTC standardmäßig.

Führen Sie Evaluierungen auf einem kleinen Testset aus, bevor Sie in den Produktionsbetrieb gehen.

Nächste Schritte

  • Entdecken Sie die vollständige offizielle Anleitung in Ihrem OpenAI Dashboard.
  • Probieren Sie die Codex-Migration-Fähigkeit: $openai-docs migrate this project to gpt-5.5.
  • Erstellen Sie einen kleinen Agenten mit der Responses API und testen Sie Präambeln + Persönlichkeit.
  • Behalten Sie Token-Kosten im Blick – GPT-5.5 belohnt minimale Prompts.

Wenden Sie diese Muster heute an und sehen Sie, wie Ihre Workflows schneller, kosteneffizienter und zuverlässiger werden.

Share this article

Referenced Tools

Browse entries that are adjacent to the topics covered in this article.

Explore directory