A Tencent lançou o Hy3 Preview em código aberto em 22 de abril de 2026, e em um dia o OpenRouter o listou como um endpoint totalmente gratuito. Sem cartão de crédito, sem medição de tokens, sem período de teste. Você pode chamar o mesmo modelo Mixture-of-Experts de 295 bilhões de parâmetros que alimenta o aplicativo Yuanbao da Tencent e o assistente CodeBuddy a partir do seu próprio código, hoje, por zero dólares.
Experimente o Apidog hoje mesmo
Este guia mostra como usar a API do Hy3 Preview gratuitamente através do OpenRouter, do Hugging Face Space e do repositório original do Hy3. Ele também aborda os modos de raciocínio que tornam o Hy3 diferente da maioria dos modelos abertos de 2026, e como testar a API dentro do Apidog sem escrever scripts descartáveis.
Se você deseja a rota mais rápida para sua primeira resposta, pule para “Passo a passo: chame o Hy3 Preview gratuitamente no OpenRouter.”
Resumo
-
O Hy3 Preview é gratuito no OpenRouter sob o ID de modelo
tencent/hy3-preview:freecom preços de entrada e saída de $0. - É um modelo Mixture-of-Experts: 295 bilhões de parâmetros totais, 21 bilhões ativos, 192 experts com roteamento top-8 e uma janela de contexto de 256K tokens.
- Três modos de raciocínio vêm integrados:
no_thinkpara respostas rápidas,lowehighpara raciocínio em cadeia de pensamento profunda em tarefas de agente e codificação. - Benchmarks: SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42.
- Você pode executá-lo de três maneiras gratuitas: camada gratuita do OpenRouter, Hy3-preview Space do Hugging Face ou inferência local com vLLM e os pesos abertos.
- O Apidog combina bem com o endpoint do OpenRouter porque o Hy3 usa o esquema OpenAI Chat Completions; direcione uma requisição para o OpenRouter e pronto.
O que é o Hy3 Preview?
O Hy3 Preview é o primeiro lançamento de destaque da equipe de modelos de fundação Hunyuan reestruturada da Tencent, agora liderada por Yao Shunyu, ex-pesquisador da OpenAI. Ele representa o modelo mais avançado da Tencent até agora, competindo diretamente com lançamentos chineses de pesos abertos como DeepSeek, Alibaba e Zhipu.
O perfil técnico do cartão de modelo oficial é voltado para agente:
- Arquitetura: Mixture-of-Experts, 80 camadas + 1 camada MTP, 64 heads de atenção agrupada por consulta.
- Parâmetros: 295B totais, 21B ativos por forward.
- Experts: 192 especialistas, roteamento top-8 por token.
- Contexto: 256K tokens (262.144 no OpenRouter).
- Tokenizador: Vocabulário de 120.832 entradas, precisão BF16.
- Licença: Tencent Hy Community License, uso comercial permitido sob termos.
O diferencial do Hy3 é o treinamento agêntico. A Tencent reconstruiu sua infraestrutura de RL para uso de ferramentas multi-turn, e as métricas do SWE-bench Verified, Terminal-Bench 2.0 e WildClawBench mostram desempenho próximo dos principais modelos fechados em tarefas de código e shell.
Três maneiras gratuitas de usar o Hy3 Preview
Escolha o caminho conforme sua necessidade:
| Caminho | O que é | Grátis? | Bom para |
|---|---|---|---|
OpenRouter tencent/hy3-preview:free
|
API hospedada OpenAI-compatible | Sim, $0 entrada/saída | Agentes, scripts, backend |
| Hugging Face Space | Demonstração de chat no navegador | Sim | Testes rápidos, prompts, experimentação |
| Pesos auto-hospedados (vLLM/SGLang) | Executar em suas próprias GPUs | Software gratuito, hardware pago | Privacidade, alto volume |
A rota do OpenRouter é a mais prática para desenvolvedores: simples cadastro, chave de API, pronto para usar com limites generosos na camada gratuita.
Passo a passo: chame o Hy3 Preview gratuitamente no OpenRouter
Siga estes passos para fazer sua primeira chamada funcional ao tencent/hy3-preview:free:
- Crie uma conta OpenRouter. Cadastre-se em openrouter.ai. Não é pedido método de pagamento para modelos gratuitos.
- Gere uma chave de API. No painel, vá em “Keys” e crie uma nova chave. Exemplo de exportação:
export OPENROUTER_API_KEY=sk-or-...
- Abra a página do modelo. Acesse a listagem gratuita do Hy3 Preview e confirme que está como “Free”.
-
Envie sua primeira requisição. O OpenRouter usa o esquema OpenAI Chat Completions; qualquer SDK da OpenAI é compatível. Exemplo com
curl:
curl https://openrouter.ai/api/v1/chat/completions \
-H "Authorization: Bearer $OPENROUTER_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Explain the MoE routing decision inside a top-8 of 192 setup in 3 sentences."}
],
"temperature": 0.9,
"top_p": 1.0
}'
-
Ative o raciocínio quando necessário. O Hy3 aceita o parâmetro
reasoningcomeffortlowouhigh. O OpenRouter retorna o trace de pensamento emreasoning_details:
{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Plan, then write a Bash script that rotates daily log files older than 30 days into a dated archive folder."}
],
"reasoning": {"effort": "high"}
}
- Itere conforme seu uso. Continue no mesmo thread para aproveitar o contexto de 256K tokens.
O endpoint do OpenRouter oferece a mesma qualidade dos pesos abertos no Hugging Face. O fluxo é direto: gere a chave, envie requisição, valide a resposta.
Gratuito, Plus e auto-hospedado: onde eles diferem
Compare as opções antes de escalar:
| Capacidade | OpenRouter Gratuito | OpenRouter Pago | Auto-hospedado (vLLM/SGLang) |
|---|---|---|---|
| Custo por token | $0 | Por provedor | Eletricidade + GPU |
| Modos de raciocínio |
no_think, low, high
|
O mesmo | O mesmo |
| Comprimento do contexto | 256K | 256K | 256K (se memória permitir) |
| Vazão sob carga | Pool compartilhado | Dedicado | Depende do cluster |
| Limites de taxa | Limite da camada gratuita | Específico do provedor | Nenhum |
| Retenção de dados | Política do OpenRouter | Específico do provedor | Fica no seu hardware |
| Visibilidade tokens raciocínio | Sim, via reasoning_details
|
Sim | Sim |
Use gratuito para prototipagem, projetos pessoais e benchmarks. Opte pelo pago ou auto-hospedado quando precisar de mais vazão ou latência garantida.
Dicas de prompt e parâmetros para aproveitar ao máximo o Hy3
Algumas práticas otimizam os resultados:
-
Ajuste temperatura conforme modo. Use
temperature=0.9etop_p=1.0por padrão. Abaixe para0.3em saídas estruturadas, mantenha0.9para criatividade. -
no_thinkpara chat normal. Só uselowouhighpara planejamento, código multi-step ou matemática. - Nomeie ferramentas no prompt do sistema. O Hy3 responde melhor quando o prompt do sistema detalha as funções das ferramentas.
- Cite código completo. Aproveite a janela de 256K: cole o arquivo inteiro antes da pergunta.
- Edições multi-arquivo? Agrupe. Envie o conjunto completo em uma mensagem.
- Peça um plano antes de executar. Fluxos de duas etapas (“faça um plano, aguarde confirmação, depois execute”) produzem melhores resultados.
Limites que vale a pena conhecer antes de você lançar
Fique atento:
- Limites de taxa variam com a carga. Horários de pico podem retornar erro 429. Implemente retentativas com backoff exponencial.
- Tokens de raciocínio contam como saída. Gratuitos na camada free, mas cobrados em rotas pagas. Meça antes de usar em produção paga.
- Licença não é Apache 2.0. Leia a licença completa no GitHub antes de uso comercial.
-
Parser correto para ferramentas. No auto-hospedado, use
--tool-call-parser hy_v3(ouhunyuanno SGLang) para parsing de ferramentas. - Chinês/Inglês = primeira classe. Outras línguas têm suporte menor.
- Ainda atrás dos EUA nos benchmarks mais difíceis. Forte em código/agente, mas abaixo de OpenAI e DeepMind no HLE.
O caminho rápido do desenvolvedor: Hy3 Preview + Apidog
Para experimentar, o curl resolve. Para iteração rápida, use um cliente visual como o Apidog:
- Abra o Apidog e crie um novo projeto. Importe a especificação OpenAPI do OpenAI Chat Completions.
-
Defina a URL base para
https://openrouter.ai/api/v1e configure a variável de ambienteOPENROUTER_API_KEY. -
Monte uma requisição para
/chat/completionscom o modelotencent/hy3-preview:free. -
Duplique requisições para comparar modos de raciocínio. Execute o mesmo prompt com
no_think,low,highe compare latência e resposta. - Salve modelos de prompt. Use variáveis do Apidog para manter prompts, esquemas e turns separados e reutilizáveis.
Se você vem do Postman, veja nosso guia de teste de API sem Postman em 2026. Para uso em editor, rode o mesmo fluxo no VS Code com o Apidog dentro do VS Code.
Alternativas gratuitas quando você atinge o limite
Se o OpenRouter gratuito travar, experimente:
- Hugging Face Space. Use o Hy3-preview Space para chat no navegador.
- Outros modelos chineses gratuitos. O Qwen 3.5 Omni da Alibaba oferece camada gratuita e saída multimodal (anúncio, guia de uso). O Zhipu GLM 5V Turbo também tem camada gratuita (guia).
Esses modelos não batem o Hy3 em SWE-bench e Terminal-Bench para código/agente, mas cobrem chat, multilíngue e multimodal. Para produção, use o Apidog e compare modelos nos seus próprios prompts.
Auto-hospedagem do Hy3 Preview com vLLM
Se você tem hardware, rode localmente. Recomendação oficial para vLLM:
vllm serve tencent/Hy3-preview \
--tensor-parallel-size 8 \
--speculative-config.method mtp \
--speculative-config.num_speculative_tokens 1 \
--tool-call-parser hy_v3 \
--reasoning-parser hy_v3 \
--enable-auto-tool-choice \
--served-model-name hy3-preview
No SGLang, use --tool-call-parser hunyuan e --reasoning-parser hunyuan. Com o servidor rodando em http://localhost:8000/v1, qualquer SDK OpenAI aponta igual ao OpenRouter — só troque a URL e a chave.
Espere precisar de 8 GPUs H100 BF16 para rodar o modelo completo. Versões quantizadas devem aparecer, mas o caminho oficial no lançamento é precisão total.
FAQ
O Hy3 Preview é gratuito?
Sim. O OpenRouter lista tencent/hy3-preview:free com $0 por milhão de tokens de entrada e saída. Os tokens de raciocínio também são gratuitos na camada free, mas contam para o limite de taxa. Confirme o status na página do modelo OpenRouter.
Como o Hy3 Preview se compara ao DeepSeek V3 e Qwen 3?
No SWE-bench Verified (74.4) e Terminal-Bench 2.0 (54.4), o Hy3 fica no topo dos modelos chineses abertos, com foco em agentes e uso de ferramentas. Qwen 3 e DeepSeek V3 são competitivos para chat; Hy3 se destaca em workflow de agente/código via RL.
Quais os modos de raciocínio do Hy3?
Três: no_think (padrão), low e high. Altere via parâmetro reasoning no OpenRouter ou chat_template_kwargs={"reasoning_effort": "high"} ao chamar diretamente. Use high para planejamento, código multi-step e matemática; desabilitado para chat.
Posso usar o Hy3 Preview comercialmente?
Sim, sob a Tencent Hy Community License. Permite uso comercial com atribuição e conformidade. Leia os termos no repositório GitHub do Hy3.
Qual o comprimento de contexto da camada gratuita?
256K tokens. A listagem do OpenRouter mostra 262.144, como no cartão de modelo. Suporta bases de código médias inteiras com espaço para ferramentas e histórico.
Como testar o Hy3 Preview sem escrever código?
Use o Hugging Face Space para chat visual, ou aponte o Apidog para o endpoint do OpenRouter. Basta configurar URL base, chave de API e modelo.




Top comments (0)