GPT-5.5 diluncurkan pada 23 April 2026. OpenAI langsung membuka akses model ini di ChatGPT dan Codex, serta akan menghadirkan API Responses dan Chat Completions dalam waktu dekat. Panduan ini fokus pada implementasi langsung: cara memanggil GPT-5.5 melalui API setelah kunci aktif, dan cara menjalankan model ini hari ini via Codex.
Anda akan menemukan detail endpoint, autentikasi, contoh kode Python dan Node, tabel parameter, perhitungan harga mode berpikir, penanganan error, serta cara menguji workflow di Apidog agar hemat kredit saat eksperimen berulang.
Untuk overview produk, cek Apa itu GPT-5.5. Ingin gratisan? Lihat Cara menggunakan API GPT-5.5 secara gratis.
Ringkasan
- GPT-5.5 tersedia di endpoint Responses dan Chat Completions dengan model ID
gpt-5.5, versi Pro:gpt-5.5-pro. - Harga: $5 / Juta input dan $30 / Juta output. Pro: $30 / Juta input, $180 / Juta output.
- Jendela konteks: 1 Juta token di API, 400 Ribu di Codex CLI.
- Sebelum GA API, akses GPT-5.5 bisa via Codex dengan login ChatGPT.
- Gunakan Apidog untuk membangun koleksi permintaan, cukup ganti ID model dan blok
reasoning.
Prasyarat
Siapkan sebelum mengirim permintaan pertama:
- Akun OpenAI dengan penagihan aktif. ChatGPT Plus/Pro tidak otomatis unlock API.
- Kunci API dengan akses model GPT-5. Gunakan kunci proyek untuk produksi.
-
SDK yang support
gpt-5.5: Pythonopenai>=2.1.0, Nodeopenai@5.1.0+ - API client yang bisa replay request (curl oke untuk sekali, untuk iterasi pakai Apidog).
export OPENAI_API_KEY="sk-proj-..."
Endpoint dan Autentikasi
Gunakan endpoint:
POST https://api.openai.com/v1/responses
POST https://api.openai.com/v1/chat/completions
Otentikasi: Bearer token, body JSON minimal berisi model, prompt/input/messages, dan parameter lain.
curl https://api.openai.com/v1/responses \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-5.5",
"input": "Summarize the last 10 releases of the openai/codex repo in three bullets.",
"reasoning": { "effort": "medium" }
}'
Response sukses: objek JSON dengan array output dan blok usage (input/output/reasoning tokens). Error: standar OpenAI (code dan message).
Parameter Permintaan
Mapping body → biaya dan perilaku. Berikut tabel parameter utama untuk gpt-5.5:
| Parameter | Tipe | Nilai | Catatan |
|---|---|---|---|
model |
string |
gpt-5.5, gpt-5.5-pro
|
Wajib. Pro 6× lebih mahal. |
input / messages
|
string/array | Prompt/array chat | Wajib. input untuk Responses, messages untuk Chat Completions. |
reasoning.effort |
string |
none, low, medium, high, xhigh
|
Default: low. xhigh = reasoning lebih dalam, biaya token naik. |
max_output_tokens |
integer | 1 – 128000 | Batas output, token reasoning terpisah. |
tools |
array | Function, web_search, file_search, computer_use, code_interpreter | Definisi tools; model memilih otomatis. |
tool_choice |
string/objek |
auto, none, nama alat |
Paksakan tool tertentu jika spesifik. |
response_format |
objek | { "type": "json_schema", "schema": {...} } |
Structured output; default sekarang strict. |
stream |
boolean | true / false | Server-sent events, reasoning token sebagai event terpisah. |
user |
string | Bebas | Untuk abuse detection; gunakan user ID hash. |
metadata |
objek | Maks 16 pasang key-value | Muncul di dashboard/log OpenAI. |
seed |
integer | Int32 | Soft deterministic; seed sama → hasil mirip. |
temperature |
number | 0 – 2 | Diabaikan saat reasoning.effort >= medium. |
Parameter yang paling pengaruh biaya: reasoning.effort, max_output_tokens, tools. Setting ke high atau xhigh bisa 3–8× token output dari low.
Contoh Python
Contoh implementasi menggunakan SDK OpenAI Python:
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="gpt-5.5",
input=[
{
"role": "system",
"content": "You are a senior Go engineer. Answer in terse, runnable code.",
},
{
"role": "user",
"content": (
"Write a worker pool with bounded concurrency and a context "
"cancellation path. No third-party deps."
),
},
],
reasoning={"effort": "medium"},
max_output_tokens=4000,
)
print(response.output_text)
print(response.usage.model_dump())
-
response.output_text: menggabungkan arrayoutput. Untuk event terstruktur, bacaresponse.outputlangsung. -
usage: kembalikaninput_tokens,output_tokens,reasoning_tokens. Semua dihitung ke biaya.
Contoh Node
import OpenAI from "openai";
const client = new OpenAI();
const response = await client.responses.create({
model: "gpt-5.5",
input: [
{ role: "system", content: "You are a careful reviewer." },
{
role: "user",
content:
"Review this migration and flag any operation that would lock a write-heavy table for more than 200 ms.",
},
],
reasoning: { effort: "high" },
tools: [{ type: "file_search" }],
max_output_tokens: 6000,
});
console.log(response.output_text);
console.log(response.usage);
Gunakan reasoning.effort: "high" untuk task review kritis, terutama jika biaya error lebih besar dari sekadar token reasoning.
Mode Berpikir
Mode Berpikir bukan ID model khusus. Aktifkan dengan reasoning.effort: high atau xhigh, plus max_output_tokens tinggi. Di API, kontrol penuh di tangan Anda.
-
Pakai
mediumuntuk default: cukup untuk agent, debug multi-file, dokumen, biaya hampir sama dengan 5.4. -
Cadangkan
high/xhighuntuk riset, review faktual, atau chain panjang. Siapkan 3–8× token output dan waktu response lebih lama.
Jika permintaan menggunakan computer_use atau web search chain panjang, mode Berpikir penting. OpenAI menyebut penurunan halusinasi signifikan di workflow ini (lihat rilis resmi).
Output Terstruktur
Output JSON strict jadi default. Berikan schema, SDK akan menolak JSON yang salah format.
response = client.responses.create(
model="gpt-5.5",
input="Extract the title, speaker, and start time from this transcript chunk.",
response_format={
"type": "json_schema",
"json_schema": {
"name": "session_extract",
"strict": True,
"schema": {
"type": "object",
"required": ["title", "speaker", "start_time"],
"properties": {
"title": {"type": "string"},
"speaker": {"type": "string"},
"start_time": {"type": "string", "format": "date-time"},
},
},
},
},
)
Setiap pipeline downstream code: selalu tetapkan schema. Tidak menambah biaya token, dan menghindari retry loop karena format error.
Penggunaan Alat dan Agen
API Responses expose 5 alat built-in:
-
web_search— pencarian real-time, dengan kutipan. -
file_search— vektor search file upload. -
code_interpreter— Python sandbox. -
computer_use— mouse/keyboard/browser via Operator stack. -
function— callback custom.
Peningkatan utama 5.5: model lebih agresif auto-mengaitkan tools tanpa intervensi. Di uji The Decoder, GPT-5.5 menyelesaikan 11% lebih banyak tool-chain tanpa user input dibanding 5.4.
Penanganan Error & Retry
Empat kode error yang perlu di-handle:
| Kode | Arti | Coba Lagi? |
|---|---|---|
429 rate_limit_exceeded |
Rate limit per menit/hari tercapai. | Ya (backoff eksponensial + jitter). |
400 context_length_exceeded |
Input+output+reasoning > 1 Juta token. | Tidak, ringkas input. |
500 server_error |
OpenAI error sementara. | Ya, maksimal 3x retry. |
403 policy_violation |
Ditolak sistem keamanan. | Tidak, rewrite prompt. |
Token reasoning masuk hitungan konteks. reasoning.effort: "xhigh" + input besar cepat overload, meskipun prompt user pendek.
Alur Kerja Pengujian dengan Apidog
Untuk menghindari pemborosan token karena bug schema:
- Buat request sekali di Apidog, simpan di koleksi, tandai env (dev/staging/prod).
- Pakai mock server untuk replay response nyata saat iterasi downstream code.
- Switch ke live key hanya saat schema sudah stabil.
Apidog support integrasi Claude Code dan Cursor, koleksi dapat diakses dari editor/agent mana pun. Cek guide Apidog di VS Code dan perbandingan Apidog vs Postman untuk setup lengkap.
Memanggil GPT-5.5 Sebelum API Umum
Sebelum API Responses GA, cara langsung mencoba GPT-5.5: login via Codex. Lihat panduan Codex gratis untuk instalasi CLI, autentikasi ChatGPT, dan pemilihan model.
FAQ
-
Apakah ada
gpt-5.5-mini? Tidak, masih gunakangpt-5.4-miniuntuk hemat biaya. - Apa itu jendela konteks? 1 Juta token di API, 400 Ribu di Codex CLI (semua termasuk reasoning token).
-
Perlu rewrite kode GPT-5.4? Tidak. Ganti ID model, naikkan
max_output_tokensjika mau output lebih panjang, adjustreasoning.effortsesuai workload. - Tips menghemat biaya? Batch (diskon 50%), Flex (diskon 50%, antrean lebih lambat), schema strict biar tidak retry terus. Detail biaya ada di rincian harga GPT-5.5.
- Info pengumuman API GA? Cek Komunitas OpenAI dan halaman harga API OpenAI untuk update resmi.
Top comments (0)