GPT-5.5는 2026년 4월 23일 출시되었으며, OpenAI는 ChatGPT와 Codex에 모델을 공개하고 같은 날 응답(Responses) 및 채팅 완성(Chat Completions) API의 빠른 제공을 약속했습니다. 이 글에서는 GPT-5.5 API를 즉시 호출하는 방법과 Codex 경로를 통한 실사용 방법을 구체적으로 안내합니다.
반복 작업 비용 절감, 엔드포인트 정의, 인증, Python/Node 예시, 전체 매개변수 표, 사고 모드 가격 계산, 오류 처리, 테스트 워크플로우는 Apidog에서 바로 활용할 수 있습니다.
모델 개요는 GPT-5.5란 무엇인가에서, 무료 계층 경로는 GPT-5.5 API를 무료로 사용하는 방법에서 확인하세요.
요약 (TL;DR)
- GPT-5.5는 응답(Responses) 및 채팅 완성(Chat Completions) 엔드포인트에서 제공되며, 모델 ID는
gpt-5.5입니다. Pro 버전은gpt-5.5-pro입니다. - API 가격: 입력 $5 / M, 출력 $30 / M (Pro: 입력 $30 / M, 출력 $180 / M)
- 컨텍스트 창: API 1M 토큰, Codex CLI 400K 토큰
- API GA 전까지는 Codex+ChatGPT 로그인으로 사용 가능
- 새 모델 ID 및 확장된
reasoning블록 기반 컬렉션 구축은 Apidog 추천
사전 준비 사항
API를 바로 사용하려면 아래 네 가지를 준비하세요.
- 청구 가능한 OpenAI 개발자 계정 (ChatGPT Plus/Pro는 API와 별도)
- GPT-5 모델군 API 키 (프로덕션은 프로젝트 범위 키 권장)
-
gpt-5.5지원 SDK 버전 (Python:openai>=2.1.0, Node:openai@5.1.0이상) - API 클라이언트 (curl은 1회성, 반복은 Apidog 등 사용)
export OPENAI_API_KEY="sk-proj-..."
엔드포인트 및 인증
두 엔드포인트 모두 지원합니다.
POST https://api.openai.com/v1/responses
POST https://api.openai.com/v1/chat/completions
인증은 Bearer 토큰. 요청은 모델 ID, 프롬프트 또는 메시지 배열, 옵션 매개변수 포함 JSON 본문을 사용합니다.
curl https://api.openai.com/v1/responses \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-5.5",
"input": "openai/codex 저장소의 지난 10개 릴리스를 세 가지 요점으로 요약해 주세요.",
"reasoning": { "effort": "medium" }
}'
성공시 output 배열, usage 블록(JSON) 반환. 실패시 code, message 포함 에러.
요청 매개변수
주요 비용/동작 결정 파라미터 전체 표:
| 매개변수 | 유형 | 값 | 참고 |
|---|---|---|---|
model |
문자열 |
gpt-5.5, gpt-5.5-pro
|
필수. Pro는 입력 6배, 출력 6배 비용. |
input / messages
|
문자열 또는 배열 | 프롬프트 또는 채팅 배열 | 필수. 응답(Responses)은 input, 채팅 완성은 messages
|
reasoning.effort |
문자열 |
none, low, medium, high, xhigh
|
기본값 low. xhigh는 깊은 사고, 토큰 많이 소모 |
max_output_tokens |
정수 | 1 – 128000 | 출력 최대치(추론 제외) |
tools |
배열 | Function, web_search, file_search, computer_use, code_interpreter | 도구 정의 |
tool_choice |
문자열/객체 |
auto, none, 도구 명시 |
특정 도구 강제 호출 |
response_format |
객체 | { "type": "json_schema", "schema": {...} } |
엄격한 JSON 등 구조화 출력 |
stream |
부울 | true / false | SSE. 추론 토큰 별도 도착 |
user |
문자열 | 자유 형식 | 남용 감지용, 해시된 사용자 ID |
metadata |
객체 | 최대 16 key-value | OpenAI 로그에 표시 |
seed |
정수 | 모든 int32 | 소프트 결정론, 동일 프롬프트+시드 → 유사 응답 |
temperature |
숫자 | 0 – 2 |
reasoning.effort >= medium이면 무시 |
비용 영향이 큰 필드: reasoning.effort, max_output_tokens, tools. reasoning.effort: "high" 이상은 출력 토큰 급증(최대 8배) 가능.
Python 예시
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="gpt-5.5",
input=[
{
"role": "system",
"content": "당신은 시니어 Go 엔지니어입니다. 간결하고 실행 가능한 코드로 답변하세요.",
},
{
"role": "user",
"content": (
"제한된 동시성과 컨텍스트 취소 경로를 가진 워커 풀을 작성하세요. "
"서드 파티 종속성은 없습니다."
),
},
],
reasoning={"effort": "medium"},
max_output_tokens=4000,
)
print(response.output_text)
print(response.usage.model_dump())
-
response.output_text는output배열을 평면화. 구조화 이벤트 필요시response.output직접 사용 -
usage:input_tokens,output_tokens,reasoning_tokens분리 반환(모두 과금)
Node 예시
import OpenAI from "openai";
const client = new OpenAI();
const response = await client.responses.create({
model: "gpt-5.5",
input: [
{ role: "system", content: "당신은 신중한 검토자입니다." },
{
role: "user",
content:
"이 마이그레이션을 검토하고 쓰기 집약적인 테이블을 200ms 이상 잠글 수 있는 모든 작업을 표시하십시오.",
},
],
reasoning: { effort: "high" },
tools: [{ type: "file_search" }],
max_output_tokens: 6000,
});
console.log(response.output_text);
console.log(response.usage);
정확성이 중요한 검토/분석 작업엔 reasoning.effort: "high" 이상 권장.
사고 모드 (Thinking mode)
reasoning.effort를 high 또는 xhigh로 설정하면 사고 모드가 활성화됩니다. 별도 모델 ID 없음. API에서 요청별 세밀 제어 가능.
-
medium기본값 사용: 에이전트, 다중 파일 디버깅, 문서 생성 등은 충분. 5.4와 비용 유사 -
연구/정밀 검토/긴 도구 체인엔
high,xhigh: 출력 토큰 3~8배 증가, 응답 시간 측정 권장
특히 computer_use나 웹 검색 체인 작업에서 reasoning.effort 투자 효과 큼. OpenAI의 공식 발표에서 환각 감소 효과 확인 가능.
구조화된 출력
기본 출력은 엄격한 JSON. 스키마 명시시 잘못된 JSON 방지, 다운스트림 재시도 로직 불필요.
response = client.responses.create(
model="gpt-5.5",
input="이 스크립트 청크에서 제목, 발표자 및 시작 시간을 추출하십시오.",
response_format={
"type": "json_schema",
"json_schema": {
"name": "session_extract",
"strict": True,
"schema": {
"type": "object",
"required": ["title", "speaker", "start_time"],
"properties": {
"title": {"type": "string"},
"speaker": {"type": "string"},
"start_time": {"type": "string", "format": "date-time"},
},
},
},
},
)
API 자동화, 파이프라인 연동시엔 항상 스키마 사용. 비용 추가 없음.
도구 사용 및 에이전트
응답 API 지원 도구:
-
web_search: 실시간 검색, 인용 지원 -
file_search: 업로드 파일 벡터 검색 -
code_interpreter: Python 샌드박스 -
computer_use: 마우스/키보드/브라우저 자동화 -
function: 사용자 정의 콜백
5.5는 도구 연결력 및 자동화가 5.4 대비 향상. The Decoder 실험 기준, 다단계 툴체인 자동 완성률 11%p ↑.
오류 처리 및 재시도
자주 발생하는 네 가지 에러 및 대응:
| 코드 | 의미 | 재시도? |
|---|---|---|
429 rate_limit_exceeded |
쿼터 초과 | 예, 지수 백오프+지터 |
400 context_length_exceeded |
컨텍스트(입력+출력+추론) 1M 토큰 초과 | 아니요, 입력 축소 필요 |
500 server_error |
OpenAI 서버 오류 | 예, 최대 3회 재시도 |
403 policy_violation |
안전 정책 위반 | 아니요, 프롬프트 수정 |
추론 토큰도 컨텍스트에 포함. reasoning.effort: "xhigh"는 오버플로우 주의.
Apidog를 사용한 테스트 워크플로우
스키마 오류 등으로 토큰 낭비하지 않으려면 다음 워크플로우 권장:
- Apidog에서 요청 생성, 컬렉션 저장, 환경(개발/스테이징/프로덕션 키) 태깅
- 내장 모의 서버로 실제 응답 재생하며 다운스트림 코드 반복 개발
- 스키마 안정화 후에만 실키로 전환
Apidog는 Claude Code, Cursor 등 편집기 에이전트와도 연동. 전체 사용법은 VS Code에서 Apidog 사용 안내, Apidog 대 Postman 비교 참고.
API가 일반 출시되기 전에 GPT-5.5 호출하기
정식 API GA 전까지는 Codex 로그인 흐름이 실질적 사용 경로. Codex 무료 가이드 참고: CLI 설치, ChatGPT 계정 인증, 모델 선택 등 실습 안내.
FAQ
gpt-5.5-mini가 있나요? 출시 시점엔 없음. gpt-5.4-mini만 비용 최적화 SKU로 유지.
컨텍스트 창은? API: 1M 토큰, Codex CLI: 400K 토큰(추론 포함)
GPT-5.4 코드 변경 필수? 아니요. 모델 ID 교체, max_output_tokens, reasoning.effort만 조정
비용 절감법? 배치(50% 할인), 플렉스(50% 할인/느린 대기열), 엄격 스키마(재시도 루프 제거). 상세 분석: GPT-5.5 가격 분석
API GA 발표는 어디서? OpenAI 개발자 커뮤니티, OpenAI API 가격 책정 페이지
Top comments (0)