DEV Community

Cover image for GPT-5.5 API の使い方
Akira
Akira

Posted on • Originally published at apidog.com

GPT-5.5 API の使い方

GPT-5.5は2026年4月23日にリリースされ、開発者向けの要点はシンプルです。OpenAIは同日、ChatGPTとCodex内でモデルを公開し、ResponsesおよびChat Completions APIについては「近日中に」対応すると発表しました。本記事では、APIでGPT-5.5を即座にコールする手順、およびCodex経由での初期テスター利用法を解説します。

今すぐApidogを試す

このガイドでは、エンドポイントの構成、認証、Python・Nodeでの実装例、全パラメーターの仕様、思考モードのコスト計算、エラー処理、さらにイテレーション時にクレジット消費を抑えるApidogでのテストワークフローを具体的に解説します。

モデルの概要はGPT-5.5とはを、無料API利用方法はGPT-5.5 APIを無料で使う方法をご覧ください。

TL;DR

  • GPT-5.5はResponsesおよびChat Completionsエンドポイント経由。モデルIDはgpt-5.5、Proはgpt-5.5-pro
  • API料金:入力100万トークン=$5出力100万トークン=$30。Proは6倍。
  • コンテキストウィンドウ:APIは100万トークン、Codex CLIは40万トークン
  • API一般公開前は、ChatGPTサインイン→Codex経由でGPT-5.5を利用可。
  • 事前コレクション構築はApidog推奨。リクエスト形式はGPT-5.4と同様、新モデルID+reasoningブロック追加。

前提条件

APIコール前に以下を準備してください。

  • OpenAI開発者アカウント(課金有効)。ChatGPT Plus/ProのサブスクリプションはAPI課金とは別扱い。
  • GPT-5ファミリー対応APIキー。本番ではプロジェクトスコープキー推奨。
  • Pythonはopenai>=2.1.0、Nodeはopenai@5.1.0以降のSDK
  • リクエストを手軽に再実行できるAPIクライアント。curlは単発向き、反復はApidog等推奨。

APIキーを環境変数にエクスポート:

export OPENAI_API_KEY="sk-proj-..."

エンドポイントと認証

GPT-5.5は下記2つのエンドポイントで利用可能です。

POST https://api.openai.com/v1/responses
POST https://api.openai.com/v1/chat/completions

Responses APIはツール連携・思考モード等を統合。Chat Completionsは従来通り。

認証はBearerトークン。各リクエストはモデルID、プロンプト/メッセージ配列、任意パラメータをJSONで受け付けます。

curl https://api.openai.com/v1/responses \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5.5",
    "input": "Summarize the last 10 releases of the openai/codex repo in three bullets.",
    "reasoning": { "effort": "medium" }
  }'

成功時はoutput配列&usageブロック(入力/出力/推論トークン)を含むJSON返却。失敗時はcodemessage付きOpenAI標準エラー。

リクエストパラメーター

各フィールドはコストまたは挙動に直結します。gpt-5.5用の主要パラメータ:

パラメーター 備考
model string gpt-5.5gpt-5.5-pro 必須。Proはコスト6倍。
input / messages string/配列 プロンプト/チャット配列 必須。Responsesはinput、Chat Completionsはmessages
reasoning.effort string nonelowmediumhighxhigh デフォルトlowxhighは深い推論でコスト増。
max_output_tokens integer 1 – 128000 出力の上限。
tools 配列 Function、web_search、file_search、computer_use、code_interpreter 利用可能ツールを指定。
tool_choice string/オブジェクト autonone、指定名 ツール選択を強制可能。
response_format オブジェクト { "type": "json_schema", "schema": {...} } 構造化出力。厳格モードがデフォルト。
stream boolean true/false ストリーミング。推論トークンも逐次。
user string 自由形式 不正検出用。ハッシュ化ID推奨。
metadata オブジェクト 最大16ペア OpenAIダッシュボードに表示。
seed integer int32 ソフト決定論。
temperature number 0 – 2 reasoning.effort >= medium時は無視。

コストへ最も影響大なのは reasoning.effortmax_output_tokenstoolsreasoning.effort: "high""xhigh"は出力トークン数3〜8倍増も。

Pythonの例

SDK利用はGPT-5.4とほぼ同じ。モデルIDとreasoning.effort範囲のみ追加。

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="gpt-5.5",
    input=[
        {
            "role": "system",
            "content": "あなたはシニアGoエンジニアです。簡潔で実行可能なコードで回答してください。",
        },
        {
            "role": "user",
            "content": (
                "並行処理が制限され、コンテキストキャンセルパスを持つワーカープールを記述してください。サードパーティの依存関係は不要です。"
            ),
        },
    ],
    reasoning={"effort": "medium"},
    max_output_tokens=4000,
)

print(response.output_text)
print(response.usage.model_dump())
  • response.output_textoutput配列を平坦化。イベント分割はresponse.output参照。
  • usageinput_tokens/output_tokens/reasoning_tokensを個別カウント。全て課金対象。

Nodeの例

import OpenAI from "openai";

const client = new OpenAI();

const response = await client.responses.create({
  model: "gpt-5.5",
  input: [
    { role: "system", content: "あなたは慎重なレビュアーです。" },
    {
      role: "user",
      content:
        "このマイグレーションをレビューし、書き込み負荷の高いテーブルを200ms以上ロックする可能性のある操作をすべて指摘してください。",
    },
  ],
  reasoning: { effort: "high" },
  tools: [{ type: "file_search" }],
  max_output_tokens: 6000,
});

console.log(response.output_text);
console.log(response.usage);

レビューなど見落としコストが高いタスクはreasoning.efforthigh以上に。

思考モード

思考モードはモデルIDでなく、reasoning.efforthigh/xhighにし、max_output_tokensを拡張するだけです(UIはトグル、APIはリクエスト単位で設定)。

  • デフォルトはmedium。ほとんどのエージェント処理や生成はこれで十分。
  • high/xhighは研究・精度重視レビュー・長いツールチェーン向け。応答時間計測も推奨。

特にcomputer_useや長いweb_search利用時はコスト上昇に注意。OpenAI公式の発表記事にも幻覚低減例あり。

構造化出力

GPT-5.5はデフォルトで厳密なJSON出力。スキーマ指定で不正JSON排除。

response = client.responses.create(
    model="gpt-5.5",
    input="このトランスクリプトのチャンクから、タイトル、話者、開始時刻を抽出してください。",
    response_format={
        "type": "json_schema",
        "json_schema": {
            "name": "session_extract",
            "strict": True,
            "schema": {
                "type": "object",
                "required": ["title", "speaker", "start_time"],
                "properties": {
                    "title": {"type": "string"},
                    "speaker": {"type": "string"},
                    "start_time": {"type": "string", "format": "date-time"},
                },
            },
        },
    },
)

下流パイプラインや自動処理では必ずスキーマを指定。追加トークンコストなしでリトライループ不要。

ツール利用とエージェント

Responses APIで使える5つのファーストパーティツール:

  • web_search — リアルタイム検索。引用付き。
  • file_search — ファイルのベクター検索。
  • code_interpreter — サンドボックスPython。
  • computer_use — Operator経由でマウス/キーボード/ブラウザ操作。
  • function — 任意のコールバック。

GPT-5.5の特徴はツール数ではなく、複数ツールの自律連携能力。The Decoderのテストで、同一プロンプトに対しGPT-5.5は5.4より11%多く多段階ツールチェーンを自動完了。

エラー処理とリトライ

頻出のエラーは下記4種。ハンドリングを実装しましょう。

コード 意味 リトライ?
429 rate_limit_exceeded レート制限到達。 はい。指数バックオフ+ジッター。
400 context_length_exceeded 入力+出力+推論>100万トークン。 不可。入力短縮必須。
500 server_error OpenAI側一時障害。 はい。最大3回。
403 policy_violation 安全ポリシー違反。 不可。プロンプト再設計。

推論トークンもコンテキストカウント対象。reasoning.effort: "xhigh"+大規模入力は容易に400エラー要因。

Apidogでのテストワークフロー

GPT-5.5のAPIコールは高コスト。プロンプトやスキーマ検証は下記フローを推奨:

  1. Apidogでリクエストを作成・コレクション保存。環境タグ(開発/ステージング/本番)を設定。
  2. 組み込みモックサーバーで下流コードをリプレイしながら反復可能。
  3. スキーマ安定後のみライブキーに切替。

ApidogはClaude CodeやCursor統合もあり、エディターエージェントから同一コレクションにアクセス可能。詳細はVS CodeでのApidogウォークスルーApidog vs. Postman比較を参照。

API一般公開前のGPT-5.5コール方法

Responses APIのGA前にGPT-5.5を試したい場合、現時点で現実的なのはCodexのサインインフローです。CLI導入やChatGPT認証、モデル選択の流れはCodex無料ガイドを参照。

FAQ

  • gpt-5.5-miniはある?現時点なし。gpt-5.4-miniが低コストSKUとして継続。
  • コンテキストウィンドウは?APIは100万トークン、Codex CLIは40万トークン(推論トークン含む)。
  • GPT-5.4コードの書き換え必要?不要。モデルID変更、必要に応じmax_output_tokensreasoning.effort再調整のみ。
  • コスト削減方法は?バッチ(50%オフ)、フレックス(50%オフ・遅延)、厳密スキーマでリトライ削減。詳細は料金内訳参照。
  • API GA発表はどこで?OpenAI開発者コミュニティAPI料金ページが最速。

Top comments (0)