OpenAI GPT-5.5プロンプトガイド: ステップバイステップチュートリアル

前提条件
始める前に、以下のものを用意してください:
- OpenAI APIキー(
gpt-5.5へのアクセス権を持つもの。必要な場合はplatform.openai.comでサインアップしてください)。 - Python 3.10+のインストール。
- 最新のOpenAI Python SDK:
pip install openaiを実行してください。 - APIの基礎知識(チャット補完またはResponses API)。
GPT-5.5はAPIで利用可能であり、1M+のコンテキストトークン、構造化された出力、および新しいコントロール(reasoning_effort、text.verbosityなど)をサポートしています。
ステップ1: モデルと環境を更新する
gpt-5.5に切り替え、基本的なクライアントをセットアップしてください。GPT-5以前のレガシープロンプトは効果が低いことが多いので、新しく始めましょう。
pip install --upgrade openai
from openai import OpenAI
client = OpenAI(api_key="your-api-key-here")
response = client.chat.completions.create(
model="gpt-5.5",
messages=[{"role": "user", "content": "Test prompt"}]
)
print(response.choices[0].message.content)
期待する出力: 簡潔で直接的な回答。余分なものはありません。
ステップ2: 核となる原則を学ぶ – 成果優先のプロンプト作成
GPT-5.5は、望む結果、成功基準、制約、そして利用可能な証拠を説明し、モデルに道筋を選ばせることで優れた性能を発揮します。長いステップごとの連鎖は捨てましょう。
悪い例(レガシースタイル):
最初にポリシーを読み、次にアカウントデータをチェックし、それからフィールドを比較し、最後に決定を...
良い例(GPT-5.5スタイル):
顧客の問題を一貫して解決してください。
成功とは以下のことを意味します:
- 資格決定は利用可能なポリシーとアカウントデータのみを使用する
- 許可された行動は全て回答前に完了する
- 最終回答には: 完了した行動、顧客へのメッセージ、障害が含まれる
- 証拠が不足している場合、最小限の必要なフィールドを尋ねる
このパターンをすぐに試してください – ノイズを減らし、精度を向上させます。
ステップ3: 性格と協力スタイルを定義する
GPT-5.5は、効率的かつタスク指向で動作します。会話型アプリケーションのために、短い性格ブロックを追加してください。
# 性格
あなたは能力のある協力者です: 親しみやすく、安定して、直接的なものです。ユーザーは有能であると仮定してください。簡潔でありながら冷淡ではないようにします。プロフェッショナルな範囲内でユーザーのトーンに合わせます。
これをシステムプロンプトの初めに挿入してください。150語以下に保ちます。表現豊かなアシスタントの場合には、暖かさや好奇心を明示的に追加してください。
ステップ4: より良いユーザー体験のために前文を追加する
複数ステップまたはツール使用タスクの場合、最初に短い表示可能な更新を送るようにモデルに指示してください:
複数ステップタスクのためのツール呼び出しの前に、要求を承認し最初のステップを述べる短いユーザー可視の更新を送ります。1または2文で保ちます。
これはストリーミングアプリでの感知される速度を向上させます。ステートフルなワークフローにはResponses APIと組み合わせてください。
ステップ5: 新しいパラメータを活用して制御する
APIコールで以下のパラメータを使用します:
reasoning_effort:none(最速),low,medium(デフォルト),high,xhigh.text.verbosity: 簡潔な出力ならlow, バランスの取れた出力ならmedium(デフォルト).
コード例:
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="gpt-5.5",
messages=[{
"role": "system",
"content": "You are a helpful coding assistant."
}, {
"role": "user",
"content": "Implement a fast Fibonacci function in Python."
}],
reasoning_effort="low", # 単純なタスクには高速化
temperature=0.7,
max_tokens=500
)
print(response.choices[0].message.content)
期待される動作: 高詳細度を設定しない限り、最小限の説明で短く直接的なコードが出力されます。
ステップ6: 停止条件と証拠ルールを追加する
明確な停止ルールで過度な思考を防止します:
最も有用な最小ステップで解決する。
各ツール結果の後、質問する:「証拠をもとに現在の核心リクエストに答えられるか?」答えられるなら、最終回答を即座に出力する。
最小限の十分な証拠を使用し、正確に引用する。
これはエージェントや長時間実行タスクにとって重要です。
ステップ7: テスト、反復、構造化出力の使用
常にベンチマークを行います:
- 新旧スタイルで10個の代表的なプロンプトを実行する。
- 出力品質、トークン使用量、遅延を測定する。
- 保証された構造のために、プロンプトで記述されたJSONよりも
response_format={ "type": "json_schema", ... }を優先する。
構造化出力コールの例:
response = client.responses.create(
model="gpt-5.5",
input="Extract name and email from this text: ...",
text_format={"type": "json_schema", "schema": {...}}
)
一般的な問題とトラブルシューティング
- GPT-5より結果が悪い? 旧プロンプトが詳細すぎます。過程のステップを削除し、結果のみを保持します。
- 過度な思考/高遅延?
reasoning_effortをlowに下げ、停止条件を強化します。 - レスポンスが短すぎる?
text.verbosity: "medium"を設定するか、「あなたの推論を簡潔に説明してください」を追加します。 - ツールコールが失敗する? ガイドラインをツールの説明に移し、メインプロンプトには入れません。
- 日付認識の問題? 「現在の日付」の行を削除します—GPT-5.5はデフォルトでUTCを知っています。
本番展開前に、小規模テストセットで評価を実行します。
次のステップ
- OpenAIダッシュボードの公式ガイド全体を探索します。
- Codex移行スキルを試します:
$openai-docs migrate this project to gpt-5.5. - Responses APIとテストの前置き+性格を使用して小規模エージェントを構築します。
- トークンコストを監視します—GPT-5.5は最小限のプロンプトを評価します。
これらのパターンを今日適用し、あなたのワークフローがより速く、より安く、より信頼性高くなることを確認しましょう。
Continue Reading
More articles connected to the same themes, protocols, and tools.
Referenced Tools
Browse entries that are adjacent to the topics covered in this article.






