GPT-5.5は2026年4月23日にリリースされ、開発者向けの要点はシンプルです。OpenAIは同日、ChatGPTとCodex内でモデルを公開し、ResponsesおよびChat Completions APIについては「近日中に」対応すると発表しました。本記事では、APIでGPT-5.5を即座にコールする手順、およびCodex経由での初期テスター利用法を解説します。
このガイドでは、エンドポイントの構成、認証、Python・Nodeでの実装例、全パラメーターの仕様、思考モードのコスト計算、エラー処理、さらにイテレーション時にクレジット消費を抑えるApidogでのテストワークフローを具体的に解説します。
モデルの概要はGPT-5.5とはを、無料API利用方法はGPT-5.5 APIを無料で使う方法をご覧ください。
TL;DR
- GPT-5.5はResponsesおよびChat Completionsエンドポイント経由。モデルIDは
gpt-5.5、Proはgpt-5.5-pro。 - API料金:入力100万トークン=$5、出力100万トークン=$30。Proは6倍。
- コンテキストウィンドウ:APIは100万トークン、Codex CLIは40万トークン。
- API一般公開前は、ChatGPTサインイン→Codex経由でGPT-5.5を利用可。
- 事前コレクション構築はApidog推奨。リクエスト形式はGPT-5.4と同様、新モデルID+
reasoningブロック追加。
前提条件
APIコール前に以下を準備してください。
- OpenAI開発者アカウント(課金有効)。ChatGPT Plus/ProのサブスクリプションはAPI課金とは別扱い。
- GPT-5ファミリー対応APIキー。本番ではプロジェクトスコープキー推奨。
- Pythonは
openai>=2.1.0、Nodeはopenai@5.1.0以降のSDK。 - リクエストを手軽に再実行できるAPIクライアント。curlは単発向き、反復はApidog等推奨。
APIキーを環境変数にエクスポート:
export OPENAI_API_KEY="sk-proj-..."
エンドポイントと認証
GPT-5.5は下記2つのエンドポイントで利用可能です。
POST https://api.openai.com/v1/responses
POST https://api.openai.com/v1/chat/completions
Responses APIはツール連携・思考モード等を統合。Chat Completionsは従来通り。
認証はBearerトークン。各リクエストはモデルID、プロンプト/メッセージ配列、任意パラメータをJSONで受け付けます。
curl https://api.openai.com/v1/responses \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-5.5",
"input": "Summarize the last 10 releases of the openai/codex repo in three bullets.",
"reasoning": { "effort": "medium" }
}'
成功時はoutput配列&usageブロック(入力/出力/推論トークン)を含むJSON返却。失敗時はcode+message付きOpenAI標準エラー。
リクエストパラメーター
各フィールドはコストまたは挙動に直結します。gpt-5.5用の主要パラメータ:
| パラメーター | 型 | 値 | 備考 |
|---|---|---|---|
model |
string |
gpt-5.5、gpt-5.5-pro
|
必須。Proはコスト6倍。 |
input / messages
|
string/配列 | プロンプト/チャット配列 | 必須。Responsesはinput、Chat Completionsはmessages。 |
reasoning.effort |
string |
none、low、medium、high、xhigh
|
デフォルトlow。xhighは深い推論でコスト増。 |
max_output_tokens |
integer | 1 – 128000 | 出力の上限。 |
tools |
配列 | Function、web_search、file_search、computer_use、code_interpreter | 利用可能ツールを指定。 |
tool_choice |
string/オブジェクト |
auto、none、指定名 |
ツール選択を強制可能。 |
response_format |
オブジェクト | { "type": "json_schema", "schema": {...} } |
構造化出力。厳格モードがデフォルト。 |
stream |
boolean | true/false | ストリーミング。推論トークンも逐次。 |
user |
string | 自由形式 | 不正検出用。ハッシュ化ID推奨。 |
metadata |
オブジェクト | 最大16ペア | OpenAIダッシュボードに表示。 |
seed |
integer | int32 | ソフト決定論。 |
temperature |
number | 0 – 2 |
reasoning.effort >= medium時は無視。 |
コストへ最も影響大なのは
reasoning.effort、
max_output_tokens、
tools。reasoning.effort: "high"や"xhigh"は出力トークン数3〜8倍増も。
Pythonの例
SDK利用はGPT-5.4とほぼ同じ。モデルIDとreasoning.effort範囲のみ追加。
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="gpt-5.5",
input=[
{
"role": "system",
"content": "あなたはシニアGoエンジニアです。簡潔で実行可能なコードで回答してください。",
},
{
"role": "user",
"content": (
"並行処理が制限され、コンテキストキャンセルパスを持つワーカープールを記述してください。サードパーティの依存関係は不要です。"
),
},
],
reasoning={"effort": "medium"},
max_output_tokens=4000,
)
print(response.output_text)
print(response.usage.model_dump())
-
response.output_textはoutput配列を平坦化。イベント分割はresponse.output参照。 -
usageはinput_tokens/output_tokens/reasoning_tokensを個別カウント。全て課金対象。
Nodeの例
import OpenAI from "openai";
const client = new OpenAI();
const response = await client.responses.create({
model: "gpt-5.5",
input: [
{ role: "system", content: "あなたは慎重なレビュアーです。" },
{
role: "user",
content:
"このマイグレーションをレビューし、書き込み負荷の高いテーブルを200ms以上ロックする可能性のある操作をすべて指摘してください。",
},
],
reasoning: { effort: "high" },
tools: [{ type: "file_search" }],
max_output_tokens: 6000,
});
console.log(response.output_text);
console.log(response.usage);
レビューなど見落としコストが高いタスクはreasoning.effortをhigh以上に。
思考モード
思考モードはモデルIDでなく、reasoning.effortをhigh/xhighにし、max_output_tokensを拡張するだけです(UIはトグル、APIはリクエスト単位で設定)。
-
デフォルトは
medium。ほとんどのエージェント処理や生成はこれで十分。 -
high/xhighは研究・精度重視レビュー・長いツールチェーン向け。応答時間計測も推奨。
特にcomputer_useや長いweb_search利用時はコスト上昇に注意。OpenAI公式の発表記事にも幻覚低減例あり。
構造化出力
GPT-5.5はデフォルトで厳密なJSON出力。スキーマ指定で不正JSON排除。
response = client.responses.create(
model="gpt-5.5",
input="このトランスクリプトのチャンクから、タイトル、話者、開始時刻を抽出してください。",
response_format={
"type": "json_schema",
"json_schema": {
"name": "session_extract",
"strict": True,
"schema": {
"type": "object",
"required": ["title", "speaker", "start_time"],
"properties": {
"title": {"type": "string"},
"speaker": {"type": "string"},
"start_time": {"type": "string", "format": "date-time"},
},
},
},
},
)
下流パイプラインや自動処理では必ずスキーマを指定。追加トークンコストなしでリトライループ不要。
ツール利用とエージェント
Responses APIで使える5つのファーストパーティツール:
-
web_search— リアルタイム検索。引用付き。 -
file_search— ファイルのベクター検索。 -
code_interpreter— サンドボックスPython。 -
computer_use— Operator経由でマウス/キーボード/ブラウザ操作。 -
function— 任意のコールバック。
GPT-5.5の特徴はツール数ではなく、複数ツールの自律連携能力。The Decoderのテストで、同一プロンプトに対しGPT-5.5は5.4より11%多く多段階ツールチェーンを自動完了。
エラー処理とリトライ
頻出のエラーは下記4種。ハンドリングを実装しましょう。
| コード | 意味 | リトライ? |
|---|---|---|
429 rate_limit_exceeded |
レート制限到達。 | はい。指数バックオフ+ジッター。 |
400 context_length_exceeded |
入力+出力+推論>100万トークン。 | 不可。入力短縮必須。 |
500 server_error |
OpenAI側一時障害。 | はい。最大3回。 |
403 policy_violation |
安全ポリシー違反。 | 不可。プロンプト再設計。 |
推論トークンもコンテキストカウント対象。reasoning.effort: "xhigh"+大規模入力は容易に400エラー要因。
Apidogでのテストワークフロー
GPT-5.5のAPIコールは高コスト。プロンプトやスキーマ検証は下記フローを推奨:
- Apidogでリクエストを作成・コレクション保存。環境タグ(開発/ステージング/本番)を設定。
- 組み込みモックサーバーで下流コードをリプレイしながら反復可能。
- スキーマ安定後のみライブキーに切替。
ApidogはClaude CodeやCursor統合もあり、エディターエージェントから同一コレクションにアクセス可能。詳細はVS CodeでのApidogウォークスルーやApidog vs. Postman比較を参照。
API一般公開前のGPT-5.5コール方法
Responses APIのGA前にGPT-5.5を試したい場合、現時点で現実的なのはCodexのサインインフローです。CLI導入やChatGPT認証、モデル選択の流れはCodex無料ガイドを参照。
FAQ
-
gpt-5.5-miniはある?現時点なし。gpt-5.4-miniが低コストSKUとして継続。 - コンテキストウィンドウは?APIは100万トークン、Codex CLIは40万トークン(推論トークン含む)。
-
GPT-5.4コードの書き換え必要?不要。モデルID変更、必要に応じ
max_output_tokens・reasoning.effort再調整のみ。 - コスト削減方法は?バッチ(50%オフ)、フレックス(50%オフ・遅延)、厳密スキーマでリトライ削減。詳細は料金内訳参照。
- API GA発表はどこで?OpenAI開発者コミュニティとAPI料金ページが最速。
Top comments (0)