DEV Community

Cover image for Como Usar a API Hy3 Preview Grátis?
Lucas
Lucas

Posted on • Originally published at apidog.com

Como Usar a API Hy3 Preview Grátis?

A Tencent lançou o Hy3 Preview em código aberto em 22 de abril de 2026, e em um dia o OpenRouter o listou como um endpoint totalmente gratuito. Sem cartão de crédito, sem medição de tokens, sem período de teste. Você pode chamar o mesmo modelo Mixture-of-Experts de 295 bilhões de parâmetros que alimenta o aplicativo Yuanbao da Tencent e o assistente CodeBuddy a partir do seu próprio código, hoje, por zero dólares.

Experimente o Apidog hoje mesmo

Este guia mostra como usar a API do Hy3 Preview gratuitamente através do OpenRouter, do Hugging Face Space e do repositório original do Hy3. Ele também aborda os modos de raciocínio que tornam o Hy3 diferente da maioria dos modelos abertos de 2026, e como testar a API dentro do Apidog sem escrever scripts descartáveis.

Se você deseja a rota mais rápida para sua primeira resposta, pule para “Passo a passo: chame o Hy3 Preview gratuitamente no OpenRouter.”

Resumo

  • O Hy3 Preview é gratuito no OpenRouter sob o ID de modelo tencent/hy3-preview:free com preços de entrada e saída de $0.
  • É um modelo Mixture-of-Experts: 295 bilhões de parâmetros totais, 21 bilhões ativos, 192 experts com roteamento top-8 e uma janela de contexto de 256K tokens.
  • Três modos de raciocínio vêm integrados: no_think para respostas rápidas, low e high para raciocínio em cadeia de pensamento profunda em tarefas de agente e codificação.
  • Benchmarks: SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42.
  • Você pode executá-lo de três maneiras gratuitas: camada gratuita do OpenRouter, Hy3-preview Space do Hugging Face ou inferência local com vLLM e os pesos abertos.
  • O Apidog combina bem com o endpoint do OpenRouter porque o Hy3 usa o esquema OpenAI Chat Completions; direcione uma requisição para o OpenRouter e pronto.

O que é o Hy3 Preview?

O Hy3 Preview é o primeiro lançamento de destaque da equipe de modelos de fundação Hunyuan reestruturada da Tencent, agora liderada por Yao Shunyu, ex-pesquisador da OpenAI. Ele representa o modelo mais avançado da Tencent até agora, competindo diretamente com lançamentos chineses de pesos abertos como DeepSeek, Alibaba e Zhipu.

Hy3 Preview

O perfil técnico do cartão de modelo oficial é voltado para agente:

  • Arquitetura: Mixture-of-Experts, 80 camadas + 1 camada MTP, 64 heads de atenção agrupada por consulta.
  • Parâmetros: 295B totais, 21B ativos por forward.
  • Experts: 192 especialistas, roteamento top-8 por token.
  • Contexto: 256K tokens (262.144 no OpenRouter).
  • Tokenizador: Vocabulário de 120.832 entradas, precisão BF16.
  • Licença: Tencent Hy Community License, uso comercial permitido sob termos.

O diferencial do Hy3 é o treinamento agêntico. A Tencent reconstruiu sua infraestrutura de RL para uso de ferramentas multi-turn, e as métricas do SWE-bench Verified, Terminal-Bench 2.0 e WildClawBench mostram desempenho próximo dos principais modelos fechados em tarefas de código e shell.

Benchmarks Hy3

Três maneiras gratuitas de usar o Hy3 Preview

Escolha o caminho conforme sua necessidade:

Caminho O que é Grátis? Bom para
OpenRouter tencent/hy3-preview:free API hospedada OpenAI-compatible Sim, $0 entrada/saída Agentes, scripts, backend
Hugging Face Space Demonstração de chat no navegador Sim Testes rápidos, prompts, experimentação
Pesos auto-hospedados (vLLM/SGLang) Executar em suas próprias GPUs Software gratuito, hardware pago Privacidade, alto volume

A rota do OpenRouter é a mais prática para desenvolvedores: simples cadastro, chave de API, pronto para usar com limites generosos na camada gratuita.

Passo a passo: chame o Hy3 Preview gratuitamente no OpenRouter

Siga estes passos para fazer sua primeira chamada funcional ao tencent/hy3-preview:free:

OpenRouter painel

  1. Crie uma conta OpenRouter. Cadastre-se em openrouter.ai. Não é pedido método de pagamento para modelos gratuitos.
  2. Gere uma chave de API. No painel, vá em “Keys” e crie uma nova chave. Exemplo de exportação:
   export OPENROUTER_API_KEY=sk-or-...
Enter fullscreen mode Exit fullscreen mode
  1. Abra a página do modelo. Acesse a listagem gratuita do Hy3 Preview e confirme que está como “Free”.

Estatísticas de uso

  1. Envie sua primeira requisição. O OpenRouter usa o esquema OpenAI Chat Completions; qualquer SDK da OpenAI é compatível. Exemplo com curl:
   curl https://openrouter.ai/api/v1/chat/completions \
     -H "Authorization: Bearer $OPENROUTER_API_KEY" \
     -H "Content-Type: application/json" \
     -d '{
       "model": "tencent/hy3-preview:free",
       "messages": [
         {"role": "user", "content": "Explain the MoE routing decision inside a top-8 of 192 setup in 3 sentences."}
       ],
       "temperature": 0.9,
       "top_p": 1.0
     }'
Enter fullscreen mode Exit fullscreen mode
  1. Ative o raciocínio quando necessário. O Hy3 aceita o parâmetro reasoning com effort low ou high. O OpenRouter retorna o trace de pensamento em reasoning_details:
   {
     "model": "tencent/hy3-preview:free",
     "messages": [
       {"role": "user", "content": "Plan, then write a Bash script that rotates daily log files older than 30 days into a dated archive folder."}
     ],
     "reasoning": {"effort": "high"}
   }
Enter fullscreen mode Exit fullscreen mode
  1. Itere conforme seu uso. Continue no mesmo thread para aproveitar o contexto de 256K tokens.

O endpoint do OpenRouter oferece a mesma qualidade dos pesos abertos no Hugging Face. O fluxo é direto: gere a chave, envie requisição, valide a resposta.

Gratuito, Plus e auto-hospedado: onde eles diferem

Compare as opções antes de escalar:

Capacidade OpenRouter Gratuito OpenRouter Pago Auto-hospedado (vLLM/SGLang)
Custo por token $0 Por provedor Eletricidade + GPU
Modos de raciocínio no_think, low, high O mesmo O mesmo
Comprimento do contexto 256K 256K 256K (se memória permitir)
Vazão sob carga Pool compartilhado Dedicado Depende do cluster
Limites de taxa Limite da camada gratuita Específico do provedor Nenhum
Retenção de dados Política do OpenRouter Específico do provedor Fica no seu hardware
Visibilidade tokens raciocínio Sim, via reasoning_details Sim Sim

Use gratuito para prototipagem, projetos pessoais e benchmarks. Opte pelo pago ou auto-hospedado quando precisar de mais vazão ou latência garantida.

Dicas de prompt e parâmetros para aproveitar ao máximo o Hy3

Algumas práticas otimizam os resultados:

  • Ajuste temperatura conforme modo. Use temperature=0.9 e top_p=1.0 por padrão. Abaixe para 0.3 em saídas estruturadas, mantenha 0.9 para criatividade.
  • no_think para chat normal. Só use low ou high para planejamento, código multi-step ou matemática.
  • Nomeie ferramentas no prompt do sistema. O Hy3 responde melhor quando o prompt do sistema detalha as funções das ferramentas.
  • Cite código completo. Aproveite a janela de 256K: cole o arquivo inteiro antes da pergunta.
  • Edições multi-arquivo? Agrupe. Envie o conjunto completo em uma mensagem.
  • Peça um plano antes de executar. Fluxos de duas etapas (“faça um plano, aguarde confirmação, depois execute”) produzem melhores resultados.

Limites que vale a pena conhecer antes de você lançar

Fique atento:

  • Limites de taxa variam com a carga. Horários de pico podem retornar erro 429. Implemente retentativas com backoff exponencial.
  • Tokens de raciocínio contam como saída. Gratuitos na camada free, mas cobrados em rotas pagas. Meça antes de usar em produção paga.
  • Licença não é Apache 2.0. Leia a licença completa no GitHub antes de uso comercial.
  • Parser correto para ferramentas. No auto-hospedado, use --tool-call-parser hy_v3 (ou hunyuan no SGLang) para parsing de ferramentas.
  • Chinês/Inglês = primeira classe. Outras línguas têm suporte menor.
  • Ainda atrás dos EUA nos benchmarks mais difíceis. Forte em código/agente, mas abaixo de OpenAI e DeepMind no HLE.

O caminho rápido do desenvolvedor: Hy3 Preview + Apidog

Para experimentar, o curl resolve. Para iteração rápida, use um cliente visual como o Apidog:

  1. Abra o Apidog e crie um novo projeto. Importe a especificação OpenAPI do OpenAI Chat Completions.
  2. Defina a URL base para https://openrouter.ai/api/v1 e configure a variável de ambiente OPENROUTER_API_KEY.
  3. Monte uma requisição para /chat/completions com o modelo tencent/hy3-preview:free.
  4. Duplique requisições para comparar modos de raciocínio. Execute o mesmo prompt com no_think, low, high e compare latência e resposta.
  5. Salve modelos de prompt. Use variáveis do Apidog para manter prompts, esquemas e turns separados e reutilizáveis.

Se você vem do Postman, veja nosso guia de teste de API sem Postman em 2026. Para uso em editor, rode o mesmo fluxo no VS Code com o Apidog dentro do VS Code.

Alternativas gratuitas quando você atinge o limite

Se o OpenRouter gratuito travar, experimente:

  • Hugging Face Space. Use o Hy3-preview Space para chat no navegador.
  • Outros modelos chineses gratuitos. O Qwen 3.5 Omni da Alibaba oferece camada gratuita e saída multimodal (anúncio, guia de uso). O Zhipu GLM 5V Turbo também tem camada gratuita (guia).

Esses modelos não batem o Hy3 em SWE-bench e Terminal-Bench para código/agente, mas cobrem chat, multilíngue e multimodal. Para produção, use o Apidog e compare modelos nos seus próprios prompts.

Auto-hospedagem do Hy3 Preview com vLLM

Se você tem hardware, rode localmente. Recomendação oficial para vLLM:

vllm serve tencent/Hy3-preview \
  --tensor-parallel-size 8 \
  --speculative-config.method mtp \
  --speculative-config.num_speculative_tokens 1 \
  --tool-call-parser hy_v3 \
  --reasoning-parser hy_v3 \
  --enable-auto-tool-choice \
  --served-model-name hy3-preview
Enter fullscreen mode Exit fullscreen mode

No SGLang, use --tool-call-parser hunyuan e --reasoning-parser hunyuan. Com o servidor rodando em http://localhost:8000/v1, qualquer SDK OpenAI aponta igual ao OpenRouter — só troque a URL e a chave.

Espere precisar de 8 GPUs H100 BF16 para rodar o modelo completo. Versões quantizadas devem aparecer, mas o caminho oficial no lançamento é precisão total.

FAQ

O Hy3 Preview é gratuito?

Sim. O OpenRouter lista tencent/hy3-preview:free com $0 por milhão de tokens de entrada e saída. Os tokens de raciocínio também são gratuitos na camada free, mas contam para o limite de taxa. Confirme o status na página do modelo OpenRouter.

Como o Hy3 Preview se compara ao DeepSeek V3 e Qwen 3?

No SWE-bench Verified (74.4) e Terminal-Bench 2.0 (54.4), o Hy3 fica no topo dos modelos chineses abertos, com foco em agentes e uso de ferramentas. Qwen 3 e DeepSeek V3 são competitivos para chat; Hy3 se destaca em workflow de agente/código via RL.

Quais os modos de raciocínio do Hy3?

Três: no_think (padrão), low e high. Altere via parâmetro reasoning no OpenRouter ou chat_template_kwargs={"reasoning_effort": "high"} ao chamar diretamente. Use high para planejamento, código multi-step e matemática; desabilitado para chat.

Posso usar o Hy3 Preview comercialmente?

Sim, sob a Tencent Hy Community License. Permite uso comercial com atribuição e conformidade. Leia os termos no repositório GitHub do Hy3.

Qual o comprimento de contexto da camada gratuita?

256K tokens. A listagem do OpenRouter mostra 262.144, como no cartão de modelo. Suporta bases de código médias inteiras com espaço para ferramentas e histórico.

Como testar o Hy3 Preview sem escrever código?

Use o Hugging Face Space para chat visual, ou aponte o Apidog para o endpoint do OpenRouter. Basta configurar URL base, chave de API e modelo.

Top comments (0)