DEV Community

Cover image for Cómo Usar la API de Vista Previa Hy3 Gratis
Roobia
Roobia

Posted on • Originally published at apidog.com

Cómo Usar la API de Vista Previa Hy3 Gratis

Tencent liberó Hy3 Preview como código abierto el 22 de abril de 2026, y OpenRouter lo añadió en un día como un endpoint completamente gratuito. Sin tarjeta de crédito, sin medición de tokens, sin periodo de prueba. Puedes acceder al mismo modelo Mixture-of-Experts de 295B parámetros que usan Yuanbao y CodeBuddy, directamente desde tu código, hoy, por cero dólares.

Prueba Apidog hoy

Esta guía te muestra cómo usar la API de Hy3 Preview gratis vía OpenRouter, el Space de Hugging Face y el repo oficial de Hy3. También cubre los modos de razonamiento que diferencian a Hy3 de la mayoría de modelos abiertos de 2026, y cómo testear la API dentro de Apidog sin necesidad de scripts adicionales.

Si quieres la vía más rápida, salta a "Paso a paso: llama a Hy3 Preview gratis en OpenRouter".

En resumen

  • Hy3 Preview es gratis en OpenRouter bajo el ID de modelo tencent/hy3-preview:free, con precio de entrada y salida en $0.
  • Es un modelo Mixture-of-Experts: 295B parámetros totales, 21B activos, 192 expertos con enrutamiento top-8 y ventana de contexto de 256K tokens.
  • Incluye tres modos de razonamiento: no_think para respuestas rápidas, low y high para chain-of-thought en agentes y código.
  • Benchmarks sólidos para pesos abiertos: SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42.
  • Acceso gratuito por tres vías: capa gratis de OpenRouter, Space de Hy3-preview en Hugging Face, o inferencia local con vLLM y los pesos abiertos.
  • Apidog funciona directo con el endpoint de OpenRouter porque Hy3 usa el mismo esquema de Chat Completions de OpenAI; solo apunta la solicitud a OpenRouter.

¿Qué es Hy3 Preview?

Hy3 Preview es el primer release insignia del equipo renovado Hunyuan de Tencent, liderado por Yao Shunyu (ex OpenAI), contratado para mejorar la pila de razonamiento. Es el modelo más capaz de Tencent hasta la fecha y una respuesta directa a los lanzamientos open source de DeepSeek, Alibaba y Zhipu.

Captura de pantalla de la arquitectura de Hy3 Preview, mostrando su estructura MoE y flujo de datos.

El perfil técnico en la tarjeta oficial es muy orientado a agentes:

  • Arquitectura: Mixture-of-Experts, 80 capas y una capa MTP, 64 cabezas de atención con query attention agrupada.
  • Parámetros: 295B totales, 21B activos por forward.
  • Expertos: 192 especialistas, top-8 routing por token.
  • Contexto: 256K tokens (262.144 en OpenRouter).
  • Tokenizador: Vocab de 120.832 entradas, precisión BF16.
  • Licencia: Licencia Comunitaria Tencent Hy, uso comercial permitido bajo términos de licencia.

Lo que diferencia a Hy3 de otros MoE ~200B es su entrenamiento agéntico. Tencent reconstruyó su RL infra para herramientas multi-turn, y las puntuaciones en SWE-bench Verified, Terminal-Bench 2.0 y WildClawBench lo posicionan cerca de modelos cerrados líderes en tareas de código y shell.

Gráfico que muestra los resultados de Hy3 Preview en SWE-bench Verified y Terminal-Bench 2.0.

Tres formas gratuitas de usar Hy3 Preview

Elige ruta según si quieres chat, API o pesos locales.

Ruta Qué es ¿Gratis? Ideal para
OpenRouter tencent/hy3-preview:free API compatible OpenAI alojada Sí, $0 entrada/salida Agentes, scripts y backend
Hugging Face Space Demo de chat en navegador Probar, mensajes rápidos
Pesos autoalojados (vLLM/SGLang) Corre pesos abiertos en tus GPUs Software gratis, hardware $ Privacidad, cargas altas

La mayoría de desarrolladores querrán OpenRouter: registro rápido, API funcional en minutos, y límites suficientes para prototipar.

Paso a paso: llama a Hy3 Preview gratis en OpenRouter

Sigue estos pasos para tu primer response funcional de tencent/hy3-preview:free:

Captura de pantalla de la página de OpenRouter para Hy3 Preview, mostrando su estado gratuito y estadísticas de uso.

  1. Regístrate en OpenRouter. openrouter.ai. Solo email, no necesitas método de pago para modelos free tier.
  2. Crea una API key. Desde el dashboard, ve a "Keys" y genera una nueva. Guárdala como var de entorno, ej:
   export OPENROUTER_API_KEY=sk-or-...
Enter fullscreen mode Exit fullscreen mode
  1. Abre la página del modelo. Ve a la lista gratuita de Hy3 Preview y verifica que el banner indique "Free". Allí verás uso en tokens; al lanzamiento, el endpoint manejaba 6.81B tokens diarios.

Captura de pantalla del banner de OpenRouter que confirma que Hy3 Preview es un modelo gratuito.

  1. Envía tu primer request. OpenRouter usa el esquema de OpenAI Chat Completions. Cualquier SDK OpenAI sirve:
   curl https://openrouter.ai/api/v1/chat/completions \
     -H "Authorization: Bearer $OPENROUTER_API_KEY" \
     -H "Content-Type: application/json" \
     -d '{
       "model": "tencent/hy3-preview:free",
       "messages": [
         {"role": "user", "content": "Explica la decisión de enrutamiento de MoE dentro de una configuración top-8 de 192 en 3 oraciones."}
       ],
       "temperature": 0.9,
       "top_p": 1.0
     }'
Enter fullscreen mode Exit fullscreen mode
  1. Activa razonamiento avanzado cuando lo necesites. Hy3 soporta un parámetro reasoning con effort en low o high. OpenRouter devuelve el razonamiento en un array reasoning_details aparte:
   {
     "model": "tencent/hy3-preview:free",
     "messages": [
       {"role": "user", "content": "Planifica, luego escribe un script Bash que rote los archivos de log diarios con más de 30 días en una carpeta de archivo fechada."}
     ],
     "reasoning": {"effort": "high"}
   }
Enter fullscreen mode Exit fullscreen mode
  1. Itera. Mantén el mismo hilo si quieres que el modelo use contexto anterior; la ventana de 256K permite casos de uso de código base completo.

El modelo que llamas es el mismo que el publicado en Hugging Face. La calidad en OpenRouter free es igual a la de pagos en otros proveedores.

Gratuito, Plus y autoalojado: diferencias

Conoce las diferencias antes de decidir.

Capacidad OpenRouter Gratis OpenRouter Pago Autoalojado (vLLM/SGLang)
Costo por token $0 Según proveedor Electricidad + GPU
Modos de razonamiento no_think, low, high Igual Igual
Longitud de contexto 256K 256K 256K (si tu RAM lo permite)
Rendimiento bajo carga Pool compartido Dedicado Depende de tu clúster
Límites de tarifa Límite flexible Específico proveedor Ninguno
Retención de datos Política OpenRouter Según proveedor Todo en tu hardware
Visibilidad reasoning tokens Sí, via reasoning_details

Gratis es ideal para prototipos, secundarios, benchmarks y agentes de bajo tráfico. Pago o autoalojado, si necesitas latencia baja o superas el límite free.

Consejos de prompts y parámetros para Hy3

Hy3 responde mejor a prompts explícitos. Prácticas recomendadas:

  • Ajusta temperatura según tarea. Usa temperature=0.9, top_p=1.0 por defecto. Baja a 0.3 para salida estructurada, mantén 0.9 para creatividad.
  • Usa no_think para chat normal. El razonamiento predeterminado está desactivado; solo usa low o high para planificación, código multi-paso, matemáticas. No desperdicies tokens en razonamiento innecesario.
  • Nombra herramientas en el system prompt. Hy3 fue entrenado con parser hy_v3. Define el trabajo de cada herramienta en el prompt del sistema.
  • Pega el código, no lo resumas. Tienes 256K tokens: pega archivos completos y pregunta sobre ellos directamente.
  • Edita archivos en lote. Hy3 logra 74.4 en SWE-bench Verified editando múltiples archivos coherentemente. Dale el set completo en un solo mensaje.
  • Pide primero un plan. Para tareas agénticas, usa el patrón "planea, espera confirmación, ejecuta" en dos pasos.

Límites a considerar antes de lanzar

Aspectos clave a vigilar:

  • Límites de velocidad varían según carga. OpenRouter free comparte capacidad. En horas pico puede haber errores 429; implementa reintentos con backoff exponencial.
  • Tokens de razonamiento cuentan como salida. reasoning_details son gratis en la capa free, pero en pago se cobran. Mide antes de usar effort: "high" por defecto.
  • Licencia no es Apache 2.0. La Licencia Comunitaria Tencent Hy requiere atribución y cumplimiento de política de uso. Lee la licencia completa antes de integrar en productos comerciales.
  • Llamada a herramientas requiere parser correcto. Si autoalojas, ejecuta vLLM/SGLang con --tool-call-parser hy_v3 (o hunyuan en SGLang); si no, las tool calls llegan en texto plano.
  • Inglés y chino = primera clase; otros, segunda. C-Eval 89.80 y CMMLU 89.61 para chino. Otros idiomas soportados vía MMMLU, pero con menor calidad.
  • En razonamiento, aún bajo algunos modelos USA. HLE ronda 30; Hy3 está a la par de los tops chinos, pero debajo de OpenAI/DeepMind en los benchmarks de reasoning más duros.

Vía rápida para devs: Hy3 Preview + Apidog

El curl de consola es útil para demos rápidas. Para iterar, un cliente visual ahorra mucho tiempo.

  1. Abre Apidog y crea un proyecto nuevo. Importa el OpenAPI spec de OpenAI Chat Completions (OpenRouter usa el mismo).
  2. Configura la URL base a https://openrouter.ai/api/v1 y añade la variable de entorno OPENROUTER_API_KEY.
  3. Crea una request a /chat/completions con modelo tencent/hy3-preview:free.
  4. Duplica la request para comparar razonamiento. Apidog permite duplicar y cambiar solo el modo (no_think, low, high) y comparar latencia y salida.
  5. Guarda plantillas de prompts. Los prompts largos pueden modularse usando entornos y variables en Apidog, separando system prompts, esquemas de herramientas y turnos de usuario.

Si vienes de Postman, el cambio es sencillo; revisa nuestra guía para pruebas de API sin Postman en 2026. Si prefieres trabajar en tu editor, usa Apidog dentro de VS Code para mantener la optimización de prompts junto al código que consume la respuesta.

Alternativas gratuitas si llegas al límite

Si OpenRouter free se satura en horas pico, prueba primero:

Ninguno iguala los números de Hy3 en SWE-bench para código agéntico, pero cubren chat, multilingüe y multimodal. Para producción, baja Apidog y crea una colección por modelo; los benchmarks reales en tus prompts superan cualquier ranking.

Autoalojamiento de Hy3 Preview con vLLM

Si tienes hardware, la inferencia local es una opción. La tarjeta del modelo recomienda vLLM con tensor parallel 8 y predicción multi-token:

vllm serve tencent/Hy3-preview \
  --tensor-parallel-size 8 \
  --speculative-config.method mtp \
  --speculative-config.num_speculative_tokens 1 \
  --tool-call-parser hy_v3 \
  --reasoning-parser hy_v3 \
  --enable-auto-tool-choice \
  --served-model-name hy3-preview
Enter fullscreen mode Exit fullscreen mode

En SGLang usa --tool-call-parser hunyuan y --reasoning-parser hunyuan. Una vez corriendo en http://localhost:8000/v1 puedes apuntar cualquier SDK OpenAI igual que a OpenRouter, solo cambian URL base y clave.

Para el modelo completo, espera ocho GPUs clase H100 a BF16. Pronto habrá builds cuantizados, pero por ahora la ruta oficial es precisión completa.

Preguntas frecuentes

¿Hy3 Preview es gratuito?

Sí. OpenRouter lista tencent/hy3-preview:free con $0 por millón de tokens de entrada y salida. Los tokens de razonamiento también son gratis en la capa free, aunque cuentan para rate limit. Confirma el estado actual en la página del modelo de OpenRouter antes de usarlo en producción.

¿Cómo se compara Hy3 Preview con DeepSeek V3 y Qwen 3?

La puntuación de SWE-bench Verified 74.4 y Terminal-Bench 2.0 de 54.4 sitúan a Hy3 Preview a la par de los mejores modelos chinos open source, con ventaja en agentes y uso de herramientas. Para chat puro, Qwen 3 y DeepSeek V3 son equivalentes; para workflows de agente y código, Hy3 destaca por su entrenamiento RL con herramientas.

¿Qué modos de razonamiento tiene Hy3?

Tres: no_think (por defecto, respuesta directa), low y high. Cambia el modo con el parámetro reasoning en OpenRouter o usando chat_template_kwargs={"reasoning_effort": "high"} al llamar localmente. Usa high para planificación, código multi-paso y matemáticas; déjalo apagado para chat simple.

¿Puedo usar Hy3 Preview comercialmente?

Sí, bajo la Licencia Comunitaria Tencent Hy. Permite uso comercial con atribución y cumplimiento de la política de uso. Lee los términos completos antes de desplegarlo en productos comerciales.

¿Qué longitud de contexto soporta la capa gratuita?

256K tokens end-to-end. OpenRouter lista 262.144 tokens, igual que la tarjeta del modelo. Puedes pegar una base de código mediana completa y aún tener margen para herramientas e historial.

¿Cómo pruebo Hy3 Preview sin escribir código?

Usa el Space de Hugging Face para chat en web, o apunta Apidog al endpoint de OpenRouter. Apidog importa el OpenAPI spec de OpenAI, así que solo necesitas definir URL base, API key y modelo.

Top comments (0)