GPT-5.5, 23 Nisan 2026'da piyasaya sürüldü ve geliştiriciler için hemen ChatGPT ve Codex içinde kullanılabilir oldu. OpenAI, Yanıtlar (Responses) ve Sohbet Tamamlamaları (Chat Completions) API'lerine "çok yakında" erişim sözü verdi. Bu rehberde, GPT-5.5'i API üzerinden veya Codex oturumuyla nasıl hızlıca entegre edeceğinizi, erken erişim yöntemlerini ve pratik kullanım adımlarını bulacaksınız.
Uç nokta detayları, kimlik doğrulama, Python ve Node.js örnekleri, parametre tablosu, düşünme modu fiyatlandırması, hata yönetimi ve kredi tasarrufu sağlayan test iş akışları için Apidog'u kullanabilirsiniz.
Modelin genel özellikleri için GPT-5.5 Nedir ve tamamen ücretsiz kullanım için GPT-5.5 API'sini Ücretsiz Kullanma bölümlerine göz atın.
TL;DR
- GPT-5.5, Yanıtlar ve Sohbet Tamamlamaları uç noktalarında sunulur; model kimliği:
gpt-5.5. Pro sürüm içingpt-5.5-pro. - API fiyatlandırması: 5 $ / M giriş, 30 $ / M çıkış; Pro: 30 $ / M giriş, 180 $ / M çıkış.
- Bağlam penceresi API'de 1 M token, Codex CLI'da 400 K token.
- Genel API erişimi açılana kadar, ChatGPT oturum açma ile Codex üzerinden GPT-5.5 kullanılabilir.
- Koleksiyonları önceden oluşturmak için Apidog ile çalışın; istek yapısı GPT-5.4 ile uyumlu.
Önkoşullar
İlk API çağrısı için aşağıdakileri hazırlayın:
- OpenAI geliştirici hesabı (ücretli katman). UI ve API erişimi istiyorsanız hem ChatGPT Plus/Pro hem de API faturalandırması gerekir.
- GPT-5 model ailesine erişimli bir API anahtarı. Üretimde proje anahtarları önerilir.
-
SDK sürümü: Python için
openai>=2.1.0, Node içinopenai@5.1.0ve üzeri. -
API istemcisi: Tek çağrı için
curlyeterlidir; yineleme ve koleksiyonlar için Apidog veya benzeri araçları kullanın.
API anahtarınızı dışa aktarın:
export OPENAI_API_KEY="sk-proj-..."
Uç Nokta ve Kimlik Doğrulama
GPT-5.5, GPT-5 ailesiyle aynı API uç noktalarından erişilir:
POST https://api.openai.com/v1/responses
POST https://api.openai.com/v1/chat/completions
Kimlik doğrulama Bearer Token ile yapılır. Gövdeye model kimliği, istem veya mesaj dizisi ve parametreleri ekleyin.
curl https://api.openai.com/v1/responses \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-5.5",
"input": "Summarize the last 10 releases of the openai/codex repo in three bullets.",
"reasoning": { "effort": "medium" }
}'
Başarılı çağrı, output ve usage bloklarını içeren bir JSON döndürür. Hatalar standart OpenAI formatında gelir; hata kodları ve çözüm yolları aşağıda.
İstek Parametreleri
Her alan maliyet ve davranış üzerinde etkilidir. İşte gpt-5.5 için parametreler:
| Parametre | Tip | Değerler | Notlar |
|---|---|---|---|
model |
dize |
gpt-5.5, gpt-5.5-pro
|
Gerekli. Pro, 6x maliyetlidir. |
input / messages
|
dize/dizi | İstem veya sohbet dizisi | Yanıtlar için input, Sohbet için messages. |
reasoning.effort |
dize |
none, low, medium, high, xhigh
|
Varsayılan: low. Yüksek seviyeler daha derin ve maliyetli muhakeme. |
max_output_tokens |
tam sayı | 1 – 128000 | Çıkış için üst sınır. |
tools |
dizi | function, web_search, file_search, computer_use, code_interpreter | Model, araçları zincirleyebilir. |
tool_choice |
dize/nesne |
auto, none, belirli araç adı |
Belirli bir aracı zorlamak için. |
response_format |
nesne | { "type": "json_schema", "schema": {...} } |
Yapılandırılmış JSON çıktısı. Varsayılan katı mod. |
stream |
boolean | true / false | SSE desteği. Reasoning token’ları ayrı olaylar olarak gelir. |
user |
dize | Serbest biçimli | Kötüye kullanım tespiti için. |
metadata |
nesne | En fazla 16 anahtar-değer | OpenAI panelinde görünür. |
seed |
tam sayı | int32 | Yumuşak determinizm için. |
temperature |
sayı | 0 – 2 |
reasoning.effort >= medium ise yok sayılır. |
En fazla maliyet etkisi olan parametreler: reasoning.effort, max_output_tokens, ve tools. reasoning.effort: "high" veya "xhigh" ile maliyet çarpanını göz önünde bulundurun.
Python Örneği
Aşağıdaki gibi hızlıca GPT-5.5 ile Yanıtlar API'sini kullanabilirsiniz:
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="gpt-5.5",
input=[
{
"role": "system",
"content": "You are a senior Go engineer. Answer in terse, runnable code.",
},
{
"role": "user",
"content": (
"Write a worker pool with bounded concurrency and a context "
"cancellation path. No third-party deps."
),
},
],
reasoning={"effort": "medium"},
max_output_tokens=4000,
)
print(response.output_text)
print(response.usage.model_dump())
-
response.output_textdüz metin döndürür, ara detaylar içinresponse.outputkullanın. -
usagebloğu artıkinput_tokens,output_tokens,reasoning_tokensiçerir; hepsi faturalandırılır.
Node Örneği
Node.js ile entegrasyon:
import OpenAI from "openai";
const client = new OpenAI();
const response = await client.responses.create({
model: "gpt-5.5",
input: [
{ role: "system", content: "You are a careful reviewer." },
{
role: "user",
content:
"Review this migration and flag any operation that would lock a write-heavy table for more than 200 ms.",
},
],
reasoning: { effort: "high" },
tools: [{ type: "file_search" }],
max_output_tokens: 6000,
});
console.log(response.output_text);
console.log(response.usage);
reasoning.effort'i high seçerek denetleme ve hassas görevlerde doğruluğu artırabilirsiniz.
Düşünme Modu
Düşünme modu, reasoning.effort parametresini high veya xhigh olarak ayarlamanızla etkinleşir. Daha yüksek doğruluk ve zincirleme gerektiren işlemlerde kullanın.
- Varsayılan olarak
mediumkullanın; çoğu iş yükü için yeterli ve maliyet-etkin. -
highveyaxhigh'ı araştırma, kritik inceleme ve uzun araç zincirlerinde tercih edin.
Yapılandırılmış Çıktı
JSON şeması ile kesin çıktı almak için örnek:
response = client.responses.create(
model="gpt-5.5",
input="Extract the title, speaker, and start time from this transcript chunk.",
response_format={
"type": "json_schema",
"json_schema": {
"name": "session_extract",
"strict": True,
"schema": {
"type": "object",
"required": ["title", "speaker", "start_time"],
"properties": {
"title": {"type": "string"},
"speaker": {"type": "string"},
"start_time": {"type": "string", "format": "date-time"},
},
},
},
},
)
Her zaman şema ile çalışın; bozuk çıktılar için yeniden deneme ihtiyacını kaldırır, ek token maliyeti yoktur.
Araç Kullanımı ve Aracılar
Yanıtlar API'si beş yerleşik aracı destekler:
-
web_search: Gerçek zamanlı arama, alıntılı sonuçlarla. -
file_search: Yüklenen dosya üzerinde vektör arama. -
code_interpreter: Sanal ortamda Python. -
computer_use: Operator yığını ile otomasyon. -
function: Kendi fonksiyonlarınız (callback).
GPT-5.5, 5.4'e göre daha fazla çok adımlı zincirleme yapar. Araçları zincirlemek için parametreleri kullanabilirsiniz.
Hata İşleme ve Yeniden Denemeler
En sık karşılaşacağınız hata kodları ve çözüm stratejileri:
| Kod | Anlamı | Yeniden dene? |
|---|---|---|
429 rate_limit_exceeded |
Kota aşıldı | Evet (üstel backoff + jitter) |
400 context_length_exceeded |
Token sınırı aşıldı | Hayır, girişi azaltın |
500 server_error |
Geçici sunucu hatası | Evet, en fazla 3 deneme |
403 policy_violation |
Güvenlik politikası ihlali | Hayır, istemi yeniden yazın |
Unutmayın: Reasoning token'ları da toplam token sınırına dahildir.
Apidog ile Test İş Akışı
GPT-5.5 testlerini optimize etmek ve token maliyetini düşürmek için:
- Apidog'da isteği oluşturun, koleksiyon olarak kaydedin ve ortamları (dev/staging/prod) etiketleyin.
- Kodunuzda yineleme yaparken yerleşik sahte sunucu ile son yanıtı tekrar oynatın.
- Şemanız kararlıysa, canlı anahtara geçin.
Apidog ayrıca Claude Kod ve VS Code entegrasyonları sunar. Tam kurulum için VS Code'da Apidog ve Postman karşılaştırması rehberlerine göz atın.
API Genelleşmeden Önce GPT-5.5'i Çağırma
OpenAI Yanıtlar API'si tamamen açılmadan, GPT-5.5 ile uygulamalı deneyim için Codex oturum akışı kullanılabilir. Adım adım kurulum ve kullanım için Codex ücretsiz kılavuzunu takip edin.
SSS
Bir gpt-5.5-mini var mı?
Yok. OpenAI, düşük maliyetli SKU olarak gpt-5.4-miniyi kullanmaya devam ediyor.
Bağlam penceresi nedir?
API'de 1 M token, Codex CLI'da 400 K token. Muhakeme token'ları dahil.
GPT-5.4 kodumu yeniden yazmam gerekir mi?
Hayır. Model kimliğini değiştirin, gerekiyorsa max_output_tokens ve reasoning.effort parametrelerini ayarlayın.
Maliyeti nasıl düşürebilirim?
Toplu İşlem (%50 indirim), Esnek mod (%50 indirim, daha yavaş), ve katı şemalar kullanarak yeniden denemeleri azaltın. Detaylı hesaplama için GPT-5.5 fiyatlandırma dökümüne bakın.
API GA duyurusunu nereden takip edebilirim?
OpenAI geliştirici topluluğu ve OpenAI API fiyatlandırma sayfası güncellemeleri izleyin.
Top comments (0)