DEV Community

Cover image for Preços do GPT-5.5: Análise Completa dos Custos de API, Codex e ChatGPT (Abril 2026)
Lucas
Lucas

Posted on • Originally published at apidog.com

Preços do GPT-5.5: Análise Completa dos Custos de API, Codex e ChatGPT (Abril 2026)

A OpenAI dobrou o preço por token na linha GPT-5 com o lançamento do GPT-5.5 em 23 de abril de 2026. A entrada passa de $2.50 para $5.00 por milhão de tokens. A saída passa de $15.00 para $30.00 por milhão. O preço Pro permanece estável em $30 / $180. Essa é a manchete; os detalhes é onde o custo real reside.

Experimente o Apidog hoje

Este guia cobre todas as superfícies de precificação: API padrão, Batch, Flex e Priority; precificação Pro; limites do Codex por plano; e como fazer o cálculo para sua carga de trabalho real antes de se comprometer com uma mudança de modelo padrão.

Para a visão geral do modelo, consulte O que é GPT-5.5. Para o passo a passo do desenvolvedor, consulte Como usar a API GPT-5.5.

TL;DR

Serviço Entrada / M Saída / M
API padrão GPT-5.5 $5.00 $30.00
API Pro GPT-5.5 $30.00 $180.00
GPT-5.5 Batch (50 % de desconto) $2.50 $15.00
GPT-5.5 Flex (50 % de desconto) $2.50 $15.00
GPT-5.5 Priority (2.5×) $12.50 $75.00
API padrão GPT-5.4 $2.50 $15.00
API GPT-5.4-mini $0.25 $2.00

Efeito líquido: GPT-5.5 é 2× o GPT-5.4 no nível do token, mas a OpenAI afirma um aumento líquido de ~20 % no Índice de Inteligência, uma vez que a eficiência do token é considerada.

Os números principais

A OpenAI publicou os preços na página de preços da API no mesmo dia do lançamento.

  • GPT-5.5: $5.00 por milhão de tokens de entrada, $30.00 por milhão de tokens de saída.
  • GPT-5.5 Pro: $30.00 por milhão de tokens de entrada, $180.00 por milhão de tokens de saída.
  • Janela de contexto: 1 milhão de tokens em ambas as variantes. Tokens de raciocínio contam para a janela e para a cobrança de saída.

Batch, Flex e Priority

A OpenAI oferece três níveis alternativos que redefinem o preço padrão.

API Batch

Enfileire as requisições via endpoint Batch para rodar com 50% do preço padrão. O tempo de resposta é inferior a 24 horas. Use para:

  • Avaliações noturnas em conjunto de dados completo.
  • Preenchimentos retroativos e reprocessamento histórico.
  • Fluxos de trabalho onde a latência pode ser medida em horas.

Com Batch, o GPT-5.5 custa $2.50 / $15.00 por milhão de tokens — igual ao GPT-5.4 padrão. Para tarefas offline, não há aumento de preço.

Processamento Flex

O Flex oferece o mesmo desconto de 50% sobre a taxa padrão, porém com tempo de espera variável (segundos a minutos). Ideal para quem aceita latência imprevisível e deseja desconto do Batch com respostas quase em tempo real.

Processamento Priority

O Priority custa 2.5× a taxa padrão ($12.50 / $75.00 por milhão de tokens) e garante throughput mais rápido, limites de taxa mais altos e filas praticamente nulas. Use para aplicações ao vivo onde a latência impacta retenção de usuários.

Cálculo de custo do modo de raciocínio

O modo de raciocínio usa o mesmo ID de modelo com `reasoning.effort` mais alto. Não altera o preço por token, mas aumenta o número de tokens por requisição. O multiplicador de tokens varia:

Esforço Multiplicador de tokens de saída Quando usar
`low` (padrão) Chamadas rotineiras
`medium` 1.3–2× Codificação multi-etapas, geração estruturada
`high` 2–4× Pesquisa aprofundada, revisão crítica
`xhigh` 3–8× Loops de agente, planejamento denso

Exemplo: uma chamada `xhigh` em prompt longo pode usar 20.000 tokens de raciocínio; a $30 por milhão, são $0.60 só de raciocínio, além dos tokens de saída.

Faça orçamento por carga de trabalho, não por requisição.

Preços do Codex

O acesso ao Codex depende do plano ChatGPT, não da cobrança por token individual. Em 23/04/2026, a estrutura é:

Plano Acesso Codex GPT-5.5 Observações
Gratuito Sim (tempo limitado) Sim Limites semanais apertados
Go Sim (tempo limitado) Sim 2× limites do Gratuito
Plus ($20 / mês) Sim Sim Limites padrão
Pro ($200 / mês) Sim Sim + Raciocínio + Pro (no ChatGPT) Maiores limites por usuário
Business Sim Sim Baseado em assento
Enterprise / Edu Sim Sim Baseado em contrato

Se seu fluxo de trabalho é majoritariamente codificação via terminal, Plus ou Pro é mais econômico para usar o GPT-5.5; a taxa mensal fixa compensa mesmo comparado ao Batch, acima de algumas centenas de milhares de tokens/dia. Veja o guia do caminho gratuito para entrada sem custo.

Comparação: GPT-5.5 vs o restante da linha

Quando escolher GPT-5.5, 5.4, ou 5.4-mini? O custo depende da intensidade de saída:

Modelo Entrada / M Saída / M Custo por 1 mil tokens de saída
GPT-5.4-mini $0.25 $2.00 $0.0020
GPT-5.4 $2.50 $15.00 $0.0150
GPT-5.5 $5.00 $30.00 $0.0300
GPT-5.5 Pro $30.00 $180.00 $0.1800

Decisão prática:

  • Alto volume, baixo risco (classificação, sumarização, chat simples): GPT-5.4-mini.
  • Tráfego de produção onde 5.4 já atende qualidade: GPT-5.4.
  • Codificação complexa, agentes multi-etapas, pesquisa: GPT-5.5.
  • Saída crítica onde erro é caro: GPT-5.5 Pro.

Exemplo prático: custo por tarefa do agente de codificação

Uma sessão típica de agente de codificação no GPT-5.5 com `reasoning.effort: "medium"`:

  • Tokens de entrada por tarefa (contexto + prompt): ~15.000
  • Tokens de saída por tarefa (código + explicação): ~3.000
  • Tokens de raciocínio por tarefa (médio): ~6.000

Custo por tarefa (preço padrão):

  • Entrada: 15 K × $5.00 / M = $0.075
  • Saída: (3 K + 6 K) × $30.00 / M = $0.27
  • Total: $0.345 por tarefa concluída.

Rodando a mesma tarefa no GPT-5.4:

  • Entrada: 15 K × $2.50 / M = $0.0375
  • Saída: 9 K × $15.00 / M = $0.135
  • Total: $0.1725 por tarefa concluída.

GPT-5.5 custa 2× mais por tarefa com mesmo esforço de raciocínio. A troca compensa se a taxa de sucesso eliminar retrabalho. Se 1 em 8 tarefas no GPT-5.4 exige reescrita manual, GPT-5.5 sai mais barato no final.

Controles de custo que valem implementar no Dia 1

Cinco ações práticas para controlar custos do GPT-5.5:

  • Limite rígido de `max_output_tokens`. Sempre defina esse valor em cada requisição. O padrão é 2.000; só aumente se realmente precisar de saídas longas.
  • JSON estrito. Esquemas de saída malformados geram novas tentativas — cada retry é cobrado integralmente.
  • Roteamento por dificuldade. Direcione tarefas simples para GPT-5.4-mini; escale as difíceis para GPT-5.5. Um roteador simples reduz custo mais que otimização de prompt.
  • Use Batch para fluxos offline. Avaliações, relatórios, reprocessamento: sempre via Batch para 50% de desconto.
  • Monitore `usage.reasoning_tokens`. O "vilão" na fatura normalmente são tokens de raciocínio em alto esforço. Implemente alerta para esse caso.

Estimativa de custo mensal por plano

Se você está escolhendo um nível do ChatGPT para acesso ao GPT-5.5, veja o que cada plano oferece:

Plano Preço mensal Melhor ajuste
Gratuito $0 Experimentar GPT-5.5 via Codex antes de se comprometer
Go $4 / mês Estudantes e usuários leves que querem limites duplicados
Plus $20 / mês Dev individual usando Codex + ChatGPT diariamente
Pro $200 / mês Avançados que precisam de Raciocínio e Pro no ChatGPT
Business $25 / assento / mês Equipes com espaços compartilhados
Enterprise / Edu Personalizado Contrato e SLA

Com mais de ~4 milhões de tokens de saída por mês na API, o Pro no ChatGPT mais o Codex CLI se torna mais barato do que o modelo pay-as-you-go, desde que a tarefa caiba nos 400 mil tokens de contexto do CLI.

Sinais de mudança de preço para observar

Dois pontos para monitorar no orçamento de longo prazo:

  • GA da API GPT-5.5. Os preços podem cair com a competição (Anthropic, Gemini, open-weight). Veja quadro de líderes da Vellum para comparação.
  • Democratização do Pro. Historicamente, a OpenAI reduz o valor do Pro em 3–6 meses após lançamento. Não assuma que os atuais $30 / $180 vão durar — nem que cairão.

FAQ

Cache reduz custo de entrada? Sim. Tokens de entrada em cache no GPT-5.5 têm cobrança reduzida. Veja o multiplicador na página de preços da OpenAI. Sempre faça cache de prompts reutilizados (sistema, esquemas, contexto).

Existe desconto por volume? Não publicado. Contratos enterprise podem ter taxas personalizadas e a OpenAI ajusta preços conforme uso. Fale com vendas se o gasto anual passar de sete dígitos.

Modo de raciocínio custa mais além do preço por token? Não. Custa mais porque consome mais tokens, mas a taxa por token é a mesma.

O uso do Codex CLI é cobrado separadamente da API? Só se você usar chave de API. Logins via ChatGPT descontam do plano, chave de API desconta do saldo pay-as-you-go.

Qual a maneira mais barata de experimentar o GPT-5.5? Plano Gratuito ou Go + Codex CLI. Veja o guia do caminho gratuito para opções sem custo.

Top comments (0)