Tencent liberó Hy3 Preview como código abierto el 22 de abril de 2026, y OpenRouter lo añadió en un día como un endpoint completamente gratuito. Sin tarjeta de crédito, sin medición de tokens, sin periodo de prueba. Puedes acceder al mismo modelo Mixture-of-Experts de 295B parámetros que usan Yuanbao y CodeBuddy, directamente desde tu código, hoy, por cero dólares.
Esta guía te muestra cómo usar la API de Hy3 Preview gratis vía OpenRouter, el Space de Hugging Face y el repo oficial de Hy3. También cubre los modos de razonamiento que diferencian a Hy3 de la mayoría de modelos abiertos de 2026, y cómo testear la API dentro de Apidog sin necesidad de scripts adicionales.
Si quieres la vía más rápida, salta a "Paso a paso: llama a Hy3 Preview gratis en OpenRouter".
En resumen
-
Hy3 Preview es gratis en OpenRouter bajo el ID de modelo
tencent/hy3-preview:free, con precio de entrada y salida en $0. - Es un modelo Mixture-of-Experts: 295B parámetros totales, 21B activos, 192 expertos con enrutamiento top-8 y ventana de contexto de 256K tokens.
- Incluye tres modos de razonamiento:
no_thinkpara respuestas rápidas,lowyhighpara chain-of-thought en agentes y código. - Benchmarks sólidos para pesos abiertos: SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42.
- Acceso gratuito por tres vías: capa gratis de OpenRouter, Space de Hy3-preview en Hugging Face, o inferencia local con vLLM y los pesos abiertos.
- Apidog funciona directo con el endpoint de OpenRouter porque Hy3 usa el mismo esquema de Chat Completions de OpenAI; solo apunta la solicitud a OpenRouter.
¿Qué es Hy3 Preview?
Hy3 Preview es el primer release insignia del equipo renovado Hunyuan de Tencent, liderado por Yao Shunyu (ex OpenAI), contratado para mejorar la pila de razonamiento. Es el modelo más capaz de Tencent hasta la fecha y una respuesta directa a los lanzamientos open source de DeepSeek, Alibaba y Zhipu.
El perfil técnico en la tarjeta oficial es muy orientado a agentes:
- Arquitectura: Mixture-of-Experts, 80 capas y una capa MTP, 64 cabezas de atención con query attention agrupada.
- Parámetros: 295B totales, 21B activos por forward.
- Expertos: 192 especialistas, top-8 routing por token.
- Contexto: 256K tokens (262.144 en OpenRouter).
- Tokenizador: Vocab de 120.832 entradas, precisión BF16.
- Licencia: Licencia Comunitaria Tencent Hy, uso comercial permitido bajo términos de licencia.
Lo que diferencia a Hy3 de otros MoE ~200B es su entrenamiento agéntico. Tencent reconstruyó su RL infra para herramientas multi-turn, y las puntuaciones en SWE-bench Verified, Terminal-Bench 2.0 y WildClawBench lo posicionan cerca de modelos cerrados líderes en tareas de código y shell.
Tres formas gratuitas de usar Hy3 Preview
Elige ruta según si quieres chat, API o pesos locales.
| Ruta | Qué es | ¿Gratis? | Ideal para |
|---|---|---|---|
OpenRouter tencent/hy3-preview:free
|
API compatible OpenAI alojada | Sí, $0 entrada/salida | Agentes, scripts y backend |
| Hugging Face Space | Demo de chat en navegador | Sí | Probar, mensajes rápidos |
| Pesos autoalojados (vLLM/SGLang) | Corre pesos abiertos en tus GPUs | Software gratis, hardware $ | Privacidad, cargas altas |
La mayoría de desarrolladores querrán OpenRouter: registro rápido, API funcional en minutos, y límites suficientes para prototipar.
Paso a paso: llama a Hy3 Preview gratis en OpenRouter
Sigue estos pasos para tu primer response funcional de tencent/hy3-preview:free:
- Regístrate en OpenRouter. openrouter.ai. Solo email, no necesitas método de pago para modelos free tier.
- Crea una API key. Desde el dashboard, ve a "Keys" y genera una nueva. Guárdala como var de entorno, ej:
export OPENROUTER_API_KEY=sk-or-...
- Abre la página del modelo. Ve a la lista gratuita de Hy3 Preview y verifica que el banner indique "Free". Allí verás uso en tokens; al lanzamiento, el endpoint manejaba 6.81B tokens diarios.
- Envía tu primer request. OpenRouter usa el esquema de OpenAI Chat Completions. Cualquier SDK OpenAI sirve:
curl https://openrouter.ai/api/v1/chat/completions \
-H "Authorization: Bearer $OPENROUTER_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Explica la decisión de enrutamiento de MoE dentro de una configuración top-8 de 192 en 3 oraciones."}
],
"temperature": 0.9,
"top_p": 1.0
}'
-
Activa razonamiento avanzado cuando lo necesites.
Hy3 soporta un parámetro
reasoningconeffortenlowohigh. OpenRouter devuelve el razonamiento en un arrayreasoning_detailsaparte:
{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Planifica, luego escribe un script Bash que rote los archivos de log diarios con más de 30 días en una carpeta de archivo fechada."}
],
"reasoning": {"effort": "high"}
}
- Itera. Mantén el mismo hilo si quieres que el modelo use contexto anterior; la ventana de 256K permite casos de uso de código base completo.
El modelo que llamas es el mismo que el publicado en Hugging Face. La calidad en OpenRouter free es igual a la de pagos en otros proveedores.
Gratuito, Plus y autoalojado: diferencias
Conoce las diferencias antes de decidir.
| Capacidad | OpenRouter Gratis | OpenRouter Pago | Autoalojado (vLLM/SGLang) |
|---|---|---|---|
| Costo por token | $0 | Según proveedor | Electricidad + GPU |
| Modos de razonamiento |
no_think, low, high
|
Igual | Igual |
| Longitud de contexto | 256K | 256K | 256K (si tu RAM lo permite) |
| Rendimiento bajo carga | Pool compartido | Dedicado | Depende de tu clúster |
| Límites de tarifa | Límite flexible | Específico proveedor | Ninguno |
| Retención de datos | Política OpenRouter | Según proveedor | Todo en tu hardware |
| Visibilidad reasoning tokens | Sí, via reasoning_details
|
Sí | Sí |
Gratis es ideal para prototipos, secundarios, benchmarks y agentes de bajo tráfico. Pago o autoalojado, si necesitas latencia baja o superas el límite free.
Consejos de prompts y parámetros para Hy3
Hy3 responde mejor a prompts explícitos. Prácticas recomendadas:
-
Ajusta temperatura según tarea.
Usa
temperature=0.9,top_p=1.0por defecto. Baja a0.3para salida estructurada, mantén0.9para creatividad. -
Usa
no_thinkpara chat normal. El razonamiento predeterminado está desactivado; solo usalowohighpara planificación, código multi-paso, matemáticas. No desperdicies tokens en razonamiento innecesario. -
Nombra herramientas en el system prompt.
Hy3 fue entrenado con parser
hy_v3. Define el trabajo de cada herramienta en el prompt del sistema. - Pega el código, no lo resumas. Tienes 256K tokens: pega archivos completos y pregunta sobre ellos directamente.
- Edita archivos en lote. Hy3 logra 74.4 en SWE-bench Verified editando múltiples archivos coherentemente. Dale el set completo en un solo mensaje.
- Pide primero un plan. Para tareas agénticas, usa el patrón "planea, espera confirmación, ejecuta" en dos pasos.
Límites a considerar antes de lanzar
Aspectos clave a vigilar:
- Límites de velocidad varían según carga. OpenRouter free comparte capacidad. En horas pico puede haber errores 429; implementa reintentos con backoff exponencial.
-
Tokens de razonamiento cuentan como salida.
reasoning_detailsson gratis en la capa free, pero en pago se cobran. Mide antes de usareffort: "high"por defecto. - Licencia no es Apache 2.0. La Licencia Comunitaria Tencent Hy requiere atribución y cumplimiento de política de uso. Lee la licencia completa antes de integrar en productos comerciales.
-
Llamada a herramientas requiere parser correcto.
Si autoalojas, ejecuta vLLM/SGLang con
--tool-call-parser hy_v3(ohunyuanen SGLang); si no, las tool calls llegan en texto plano. - Inglés y chino = primera clase; otros, segunda. C-Eval 89.80 y CMMLU 89.61 para chino. Otros idiomas soportados vía MMMLU, pero con menor calidad.
- En razonamiento, aún bajo algunos modelos USA. HLE ronda 30; Hy3 está a la par de los tops chinos, pero debajo de OpenAI/DeepMind en los benchmarks de reasoning más duros.
Vía rápida para devs: Hy3 Preview + Apidog
El curl de consola es útil para demos rápidas. Para iterar, un cliente visual ahorra mucho tiempo.
- Abre Apidog y crea un proyecto nuevo. Importa el OpenAPI spec de OpenAI Chat Completions (OpenRouter usa el mismo).
-
Configura la URL base a
https://openrouter.ai/api/v1y añade la variable de entornoOPENROUTER_API_KEY. -
Crea una request a
/chat/completionscon modelotencent/hy3-preview:free. -
Duplica la request para comparar razonamiento. Apidog permite duplicar y cambiar solo el modo (
no_think,low,high) y comparar latencia y salida. - Guarda plantillas de prompts. Los prompts largos pueden modularse usando entornos y variables en Apidog, separando system prompts, esquemas de herramientas y turnos de usuario.
Si vienes de Postman, el cambio es sencillo; revisa nuestra guía para pruebas de API sin Postman en 2026. Si prefieres trabajar en tu editor, usa Apidog dentro de VS Code para mantener la optimización de prompts junto al código que consume la respuesta.
Alternativas gratuitas si llegas al límite
Si OpenRouter free se satura en horas pico, prueba primero:
- Hugging Face Space. El Space de Hy3-preview es un chat en navegador, no programable, pero útil para pruebas rápidas.
-
Otros modelos chinos open source gratuitos.
- Qwen 3.5 Omni de Alibaba ofrece capa gratuita y salida multimodal; revisa nuestro anuncio de Qwen 3.5 Omni y guía de uso.
- Zhipu GLM 5V Turbo tiene free tier generoso; sigue la guía de API de GLM 5V Turbo.
Ninguno iguala los números de Hy3 en SWE-bench para código agéntico, pero cubren chat, multilingüe y multimodal. Para producción, baja Apidog y crea una colección por modelo; los benchmarks reales en tus prompts superan cualquier ranking.
Autoalojamiento de Hy3 Preview con vLLM
Si tienes hardware, la inferencia local es una opción. La tarjeta del modelo recomienda vLLM con tensor parallel 8 y predicción multi-token:
vllm serve tencent/Hy3-preview \
--tensor-parallel-size 8 \
--speculative-config.method mtp \
--speculative-config.num_speculative_tokens 1 \
--tool-call-parser hy_v3 \
--reasoning-parser hy_v3 \
--enable-auto-tool-choice \
--served-model-name hy3-preview
En SGLang usa --tool-call-parser hunyuan y --reasoning-parser hunyuan. Una vez corriendo en http://localhost:8000/v1 puedes apuntar cualquier SDK OpenAI igual que a OpenRouter, solo cambian URL base y clave.
Para el modelo completo, espera ocho GPUs clase H100 a BF16. Pronto habrá builds cuantizados, pero por ahora la ruta oficial es precisión completa.
Preguntas frecuentes
¿Hy3 Preview es gratuito?
Sí. OpenRouter lista tencent/hy3-preview:free con $0 por millón de tokens de entrada y salida. Los tokens de razonamiento también son gratis en la capa free, aunque cuentan para rate limit. Confirma el estado actual en la página del modelo de OpenRouter antes de usarlo en producción.
¿Cómo se compara Hy3 Preview con DeepSeek V3 y Qwen 3?
La puntuación de SWE-bench Verified 74.4 y Terminal-Bench 2.0 de 54.4 sitúan a Hy3 Preview a la par de los mejores modelos chinos open source, con ventaja en agentes y uso de herramientas. Para chat puro, Qwen 3 y DeepSeek V3 son equivalentes; para workflows de agente y código, Hy3 destaca por su entrenamiento RL con herramientas.
¿Qué modos de razonamiento tiene Hy3?
Tres: no_think (por defecto, respuesta directa), low y high. Cambia el modo con el parámetro reasoning en OpenRouter o usando chat_template_kwargs={"reasoning_effort": "high"} al llamar localmente. Usa high para planificación, código multi-paso y matemáticas; déjalo apagado para chat simple.
¿Puedo usar Hy3 Preview comercialmente?
Sí, bajo la Licencia Comunitaria Tencent Hy. Permite uso comercial con atribución y cumplimiento de la política de uso. Lee los términos completos antes de desplegarlo en productos comerciales.
¿Qué longitud de contexto soporta la capa gratuita?
256K tokens end-to-end. OpenRouter lista 262.144 tokens, igual que la tarjeta del modelo. Puedes pegar una base de código mediana completa y aún tener margen para herramientas e historial.
¿Cómo pruebo Hy3 Preview sin escribir código?
Usa el Space de Hugging Face para chat en web, o apunta Apidog al endpoint de OpenRouter. Apidog importa el OpenAPI spec de OpenAI, así que solo necesitas definir URL base, API key y modelo.




Top comments (0)