DEV Community

Cover image for GPT-5.5 API 사용법
Rihpig
Rihpig

Posted on • Originally published at apidog.com

GPT-5.5 API 사용법

GPT-5.5는 2026년 4월 23일 출시되었으며, OpenAI는 ChatGPT와 Codex에 모델을 공개하고 같은 날 응답(Responses) 및 채팅 완성(Chat Completions) API의 빠른 제공을 약속했습니다. 이 글에서는 GPT-5.5 API를 즉시 호출하는 방법과 Codex 경로를 통한 실사용 방법을 구체적으로 안내합니다.

Apidog를 지금 사용해보세요

반복 작업 비용 절감, 엔드포인트 정의, 인증, Python/Node 예시, 전체 매개변수 표, 사고 모드 가격 계산, 오류 처리, 테스트 워크플로우는 Apidog에서 바로 활용할 수 있습니다.

모델 개요는 GPT-5.5란 무엇인가에서, 무료 계층 경로는 GPT-5.5 API를 무료로 사용하는 방법에서 확인하세요.

요약 (TL;DR)

  • GPT-5.5는 응답(Responses)채팅 완성(Chat Completions) 엔드포인트에서 제공되며, 모델 ID는 gpt-5.5입니다. Pro 버전은 gpt-5.5-pro입니다.
  • API 가격: 입력 $5 / M, 출력 $30 / M (Pro: 입력 $30 / M, 출력 $180 / M)
  • 컨텍스트 창: API 1M 토큰, Codex CLI 400K 토큰
  • API GA 전까지는 Codex+ChatGPT 로그인으로 사용 가능
  • 새 모델 ID 및 확장된 reasoning 블록 기반 컬렉션 구축은 Apidog 추천

사전 준비 사항

API를 바로 사용하려면 아래 네 가지를 준비하세요.

  • 청구 가능한 OpenAI 개발자 계정 (ChatGPT Plus/Pro는 API와 별도)
  • GPT-5 모델군 API 키 (프로덕션은 프로젝트 범위 키 권장)
  • gpt-5.5 지원 SDK 버전 (Python: openai>=2.1.0, Node: openai@5.1.0 이상)
  • API 클라이언트 (curl은 1회성, 반복은 Apidog 등 사용)
export OPENAI_API_KEY="sk-proj-..."

엔드포인트 및 인증

두 엔드포인트 모두 지원합니다.

POST https://api.openai.com/v1/responses
POST https://api.openai.com/v1/chat/completions

인증은 Bearer 토큰. 요청은 모델 ID, 프롬프트 또는 메시지 배열, 옵션 매개변수 포함 JSON 본문을 사용합니다.

curl https://api.openai.com/v1/responses \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5.5",
    "input": "openai/codex 저장소의 지난 10개 릴리스를 세 가지 요점으로 요약해 주세요.",
    "reasoning": { "effort": "medium" }
  }'

성공시 output 배열, usage 블록(JSON) 반환. 실패시 code, message 포함 에러.

요청 매개변수

주요 비용/동작 결정 파라미터 전체 표:

매개변수 유형 참고
model 문자열 gpt-5.5, gpt-5.5-pro 필수. Pro는 입력 6배, 출력 6배 비용.
input / messages 문자열 또는 배열 프롬프트 또는 채팅 배열 필수. 응답(Responses)은 input, 채팅 완성은 messages
reasoning.effort 문자열 none, low, medium, high, xhigh 기본값 low. xhigh는 깊은 사고, 토큰 많이 소모
max_output_tokens 정수 1 – 128000 출력 최대치(추론 제외)
tools 배열 Function, web_search, file_search, computer_use, code_interpreter 도구 정의
tool_choice 문자열/객체 auto, none, 도구 명시 특정 도구 강제 호출
response_format 객체 { "type": "json_schema", "schema": {...} } 엄격한 JSON 등 구조화 출력
stream 부울 true / false SSE. 추론 토큰 별도 도착
user 문자열 자유 형식 남용 감지용, 해시된 사용자 ID
metadata 객체 최대 16 key-value OpenAI 로그에 표시
seed 정수 모든 int32 소프트 결정론, 동일 프롬프트+시드 → 유사 응답
temperature 숫자 0 – 2 reasoning.effort >= medium이면 무시

비용 영향이 큰 필드: reasoning.effort, max_output_tokens, tools. reasoning.effort: "high" 이상은 출력 토큰 급증(최대 8배) 가능.

Python 예시

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="gpt-5.5",
    input=[
        {
            "role": "system",
            "content": "당신은 시니어 Go 엔지니어입니다. 간결하고 실행 가능한 코드로 답변하세요.",
        },
        {
            "role": "user",
            "content": (
                "제한된 동시성과 컨텍스트 취소 경로를 가진 워커 풀을 작성하세요. "
                "서드 파티 종속성은 없습니다."
            ),
        },
    ],
    reasoning={"effort": "medium"},
    max_output_tokens=4000,
)

print(response.output_text)
print(response.usage.model_dump())
  • response.output_textoutput 배열을 평면화. 구조화 이벤트 필요시 response.output 직접 사용
  • usage: input_tokens, output_tokens, reasoning_tokens 분리 반환(모두 과금)

Node 예시

import OpenAI from "openai";

const client = new OpenAI();

const response = await client.responses.create({
  model: "gpt-5.5",
  input: [
    { role: "system", content: "당신은 신중한 검토자입니다." },
    {
      role: "user",
      content:
        "이 마이그레이션을 검토하고 쓰기 집약적인 테이블을 200ms 이상 잠글 수 있는 모든 작업을 표시하십시오.",
    },
  ],
  reasoning: { effort: "high" },
  tools: [{ type: "file_search" }],
  max_output_tokens: 6000,
});

console.log(response.output_text);
console.log(response.usage);

정확성이 중요한 검토/분석 작업엔 reasoning.effort: "high" 이상 권장.

사고 모드 (Thinking mode)

reasoning.efforthigh 또는 xhigh로 설정하면 사고 모드가 활성화됩니다. 별도 모델 ID 없음. API에서 요청별 세밀 제어 가능.

  • medium 기본값 사용: 에이전트, 다중 파일 디버깅, 문서 생성 등은 충분. 5.4와 비용 유사
  • 연구/정밀 검토/긴 도구 체인엔 high, xhigh: 출력 토큰 3~8배 증가, 응답 시간 측정 권장

특히 computer_use나 웹 검색 체인 작업에서 reasoning.effort 투자 효과 큼. OpenAI의 공식 발표에서 환각 감소 효과 확인 가능.

구조화된 출력

기본 출력은 엄격한 JSON. 스키마 명시시 잘못된 JSON 방지, 다운스트림 재시도 로직 불필요.

response = client.responses.create(
    model="gpt-5.5",
    input="이 스크립트 청크에서 제목, 발표자 및 시작 시간을 추출하십시오.",
    response_format={
        "type": "json_schema",
        "json_schema": {
            "name": "session_extract",
            "strict": True,
            "schema": {
                "type": "object",
                "required": ["title", "speaker", "start_time"],
                "properties": {
                    "title": {"type": "string"},
                    "speaker": {"type": "string"},
                    "start_time": {"type": "string", "format": "date-time"},
                },
            },
        },
    },
)

API 자동화, 파이프라인 연동시엔 항상 스키마 사용. 비용 추가 없음.

도구 사용 및 에이전트

응답 API 지원 도구:

  • web_search: 실시간 검색, 인용 지원
  • file_search: 업로드 파일 벡터 검색
  • code_interpreter: Python 샌드박스
  • computer_use: 마우스/키보드/브라우저 자동화
  • function: 사용자 정의 콜백

5.5는 도구 연결력 및 자동화가 5.4 대비 향상. The Decoder 실험 기준, 다단계 툴체인 자동 완성률 11%p ↑.

오류 처리 및 재시도

자주 발생하는 네 가지 에러 및 대응:

코드 의미 재시도?
429 rate_limit_exceeded 쿼터 초과 예, 지수 백오프+지터
400 context_length_exceeded 컨텍스트(입력+출력+추론) 1M 토큰 초과 아니요, 입력 축소 필요
500 server_error OpenAI 서버 오류 예, 최대 3회 재시도
403 policy_violation 안전 정책 위반 아니요, 프롬프트 수정

추론 토큰도 컨텍스트에 포함. reasoning.effort: "xhigh"는 오버플로우 주의.

Apidog를 사용한 테스트 워크플로우

스키마 오류 등으로 토큰 낭비하지 않으려면 다음 워크플로우 권장:

  1. Apidog에서 요청 생성, 컬렉션 저장, 환경(개발/스테이징/프로덕션 키) 태깅
  2. 내장 모의 서버로 실제 응답 재생하며 다운스트림 코드 반복 개발
  3. 스키마 안정화 후에만 실키로 전환

Apidog는 Claude Code, Cursor 등 편집기 에이전트와도 연동. 전체 사용법은 VS Code에서 Apidog 사용 안내, Apidog 대 Postman 비교 참고.

API가 일반 출시되기 전에 GPT-5.5 호출하기

정식 API GA 전까지는 Codex 로그인 흐름이 실질적 사용 경로. Codex 무료 가이드 참고: CLI 설치, ChatGPT 계정 인증, 모델 선택 등 실습 안내.

FAQ

gpt-5.5-mini가 있나요? 출시 시점엔 없음. gpt-5.4-mini만 비용 최적화 SKU로 유지.

컨텍스트 창은? API: 1M 토큰, Codex CLI: 400K 토큰(추론 포함)

GPT-5.4 코드 변경 필수? 아니요. 모델 ID 교체, max_output_tokens, reasoning.effort만 조정

비용 절감법? 배치(50% 할인), 플렉스(50% 할인/느린 대기열), 엄격 스키마(재시도 루프 제거). 상세 분석: GPT-5.5 가격 분석

API GA 발표는 어디서? OpenAI 개발자 커뮤니티, OpenAI API 가격 책정 페이지

Top comments (0)