DEV Community

Cover image for Comment utiliser l'API d'aperçu Hy3 gratuitement ?
Antoine Laurent
Antoine Laurent

Posted on • Originally published at apidog.com

Comment utiliser l'API d'aperçu Hy3 gratuitement ?

Tencent a publié en open source Hy3 Preview le 22 avril 2026, et OpenRouter l'a intégré comme point d'accès gratuit en moins d'une journée. Aucun paiement, aucune facturation, pas de période d'essai : vous pouvez exploiter le modèle Mixture-of-Experts de 295 milliards de paramètres utilisé dans Yuanbao et CodeBuddy de Tencent, directement via votre code, sans frais.

Essayez Apidog dès aujourd'hui

Ce guide explique comment utiliser gratuitement l'API Hy3 Preview via OpenRouter, l'espace Hugging Face et le dépôt Hy3. Il détaille aussi les modes de raisonnement qui différencient Hy3 des autres modèles open source de 2026, ainsi que la méthode pour tester l'API dans Apidog sans scripts jetables.

Si vous souhaitez aller droit au but, passez à la section « Étape par étape : appeler Hy3 Preview gratuitement sur OpenRouter ».

TL;DR

  • Hy3 Preview est gratuit sur OpenRouter via le modèle tencent/hy3-preview:free, avec coût d'entrée et de sortie à 0 $.
  • Mixture-of-Experts : 295 milliards de paramètres, 21 milliards actifs, 192 experts (routage top-8), 256K tokens de contexte.
  • Trois modes de raisonnement : no_think (rapide), low et high (raisonnement approfondi pour agent/codage).
  • Benchmarks : SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42.
  • Trois méthodes gratuites : OpenRouter, espace Hy3-preview sur Hugging Face, ou inférence locale (vLLM + poids open).
  • Apidog fonctionne directement avec OpenRouter car Hy3 utilise le schéma OpenAI Chat Completions.

Qu'est-ce que Hy3 Preview ?

Hy3 Preview est la première version phare de l'équipe Hunyuan de Tencent, pilotée par Yao Shunyu, ex-OpenAI. C'est le modèle le plus avancé de Tencent, conçu pour rivaliser avec les principaux modèles open source chinois (DeepSeek, Alibaba, Zhipu).

Profil technique

Le profil technique officiel :

  • Architecture : Mixture-of-Experts, 80 couches + 1 MTP, 64 têtes d'attention (grouped query).
  • Paramètres : 295B total, 21B actifs par passage.
  • Experts : 192, routage top-8.
  • Contexte : 256K tokens.
  • Tokeniseur : 120 832 tokens, BF16.
  • Licence : Tencent Hy Community, usage commercial autorisé.

L'entraînement agentique distingue Hy3 d'un MoE classique : infrastructure RL reconstruite pour outils multi-tours, scores élevés sur SWE-bench, Terminal-Bench, WildClawBench.

Benchmarks

Trois façons gratuites d'utiliser Hy3 Preview

Voie Description Gratuit ? Idéal pour
OpenRouter tencent/hy3-preview:free API compatible OpenAI Oui, 0 $ Agents, scripts, backends
Espace Hugging Face Démo chat web Oui Prompts rapides, essais initiaux
Poids auto-hébergés (vLLM/SGLang) Inférence sur vos GPU Logiciel gratuit, matériel Charge privée, volume élevé

La plupart des devs choisiront OpenRouter : inscription rapide, API prête, limites généreuses pour protos.

Étape par étape : appeler Hy3 Preview gratuitement sur OpenRouter

Chemin minimal pour une requête tencent/hy3-preview:free fonctionnelle :

OpenRouter Hy3 Preview

  1. Créer un compte OpenRouter

    Inscrivez-vous sur openrouter.ai. Un email suffit.

  2. Générer une clé API

    Sur le dashboard, rubrique « Clés », créez une nouvelle clé. Exemple :

   export OPENROUTER_API_KEY=sk-or-...
Enter fullscreen mode Exit fullscreen mode
  1. Ouvrir la page du modèle Rendez-vous sur la fiche Hy3 Preview gratuite et vérifiez la mention « Gratuit ». Vous y verrez aussi les stats d'utilisation.

Statistiques d'utilisation

  1. Envoyer une première requête OpenRouter expose l'API OpenAI Chat Completions ; tout SDK OpenAI fonctionne :
   curl https://openrouter.ai/api/v1/chat/completions \
     -H "Authorization: Bearer $OPENROUTER_API_KEY" \
     -H "Content-Type: application/json" \
     -d '{
       "model": "tencent/hy3-preview:free",
       "messages": [
         {"role": "user", "content": "Explain the MoE routing decision inside a top-8 of 192 setup in 3 sentences."}
       ],
       "temperature": 0.9,
       "top_p": 1.0
     }'
Enter fullscreen mode Exit fullscreen mode
  1. Activer le raisonnement si besoin Hy3 accepte le paramètre reasoning.effort (low, high). OpenRouter retourne la trace dans reasoning_details :
   {
     "model": "tencent/hy3-preview:free",
     "messages": [
       {"role": "user", "content": "Plan, then write a Bash script that rotates daily log files older than 30 days into a dated archive folder."}
     ],
     "reasoning": {"effort": "high"}
   }
Enter fullscreen mode Exit fullscreen mode
  1. Itérer Pour garder le contexte, restez dans le même thread : la fenêtre 256K permet de traiter de gros volumes.

Ce process fonctionne sur le modèle officiel Hugging Face. La qualité sur OpenRouter gratuit est identique à celle des accès payants.

Gratuit, Plus et auto-hébergé : différences

Capacité OpenRouter Gratuit OpenRouter Payant Auto-hébergé (vLLM/SGLang)
Coût par token 0 $ Selon fournisseur Électricité + amortissement GPU
Modes de raisonnement no_think, low, high Identiques Identiques
Longueur contexte 256K 256K 256K (si mémoire suffisante)
Débit sous charge Pool partagé, dépriorisé Dédié Selon votre infra
Limites de débit Plafond OpenRouter Spécifique fournisseur Aucune
Rétention données Politique OpenRouter Selon fournisseur Local uniquement
Raisonnement visible Oui (reasoning_details) Oui Oui

Gratuit : idéal pour protos, projets secondaires, benchmarks. Payant/auto-hébergé : pour la latence ou le gros volume.

Conseils de prompt et paramètres pour Hy3

  • Adaptez la température : temperature=0.9, top_p=1.0 par défaut. Descendez à 0.3 pour du structuré, restez haut pour la créativité.
  • Utilisez no_think pour le chat : low/high uniquement pour planification ou code multi-étapes.
  • Nommez les outils dans le prompt système : Hy3 a été entraîné avec un parseur spécifique (hy_v3). Décrivez chaque outil dans le prompt système.
  • Collez le code, ne le résumez pas : 256K tokens = fichiers complets collables. Ne demandez pas d'inférer du code absent.
  • Modifications multi-fichiers : traitez par lots : donnez tout le contexte en une fois pour des changements cohérents.
  • Demandez un plan d'abord : pour l'agent, séparez planification et exécution.

Limites à connaître avant de déployer

  • Limites de débit variables : le pool gratuit est partagé. Pic de charge : erreurs 429 possibles ; implémentez des retries exponentiels.
  • Les tokens de raisonnement sont comptés : gratuits sur OpenRouter free, mais facturés ailleurs.
  • Licence non Apache 2.0 : la licence complète inclut attribution et politique d'utilisation : vérifiez avant intégration produit.
  • Outils : parseur obligatoire : en auto-hébergé, lancez vLLM/SGLang avec --tool-call-parser hy_v3 ou hunyuan.
  • Anglais et chinois privilégiés : autres langues supportées mais moins performantes.
  • Hy3 reste derrière les modèles américains sur certains benchmarks : fort sur les tâches agent/codage, moins sur le raisonnement extrême.

Le chemin rapide du développeur : Hy3 Preview + Apidog

La ligne de commande est pratique, mais pour itérer vraiment, passez à un client API visuel.

  1. Ouvrez Apidog et créez un projet. Importez la spec OpenAPI OpenAI Chat : OpenRouter est compatible.
  2. Définissez l'URL de base : https://openrouter.ai/api/v1 et ajoutez la variable d'env OPENROUTER_API_KEY.
  3. Créez une requête : ciblez /chat/completions avec model: tencent/hy3-preview:free.
  4. Dupliquez pour comparer les modes : modifiez uniquement le paramètre de raisonnement pour comparer sortie/latence.
  5. Enregistrez vos prompts : utilisez les variables et environnements d'Apidog pour réutiliser prompts, schémas d'outils, etc.

Pour passer de Postman, suivez notre guide de migration. Les workflows VS Code sont détaillés dans ce guide.

Alternatives gratuites en cas de limite

Si OpenRouter gratuit est saturé, testez :

Aucun ne surpasse Hy3 sur SWE-bench/Terminal-Bench pour le codage agentique, mais ils couvrent d'autres cas : chat, multilingue, multimodal. Pour benchmarker, créez une collection par modèle dans Apidog et comparez sur vos prompts réels.

Auto-hébergement de Hy3 Preview avec vLLM

Si vous avez le matériel adapté, inférence locale :

vllm serve tencent/Hy3-preview \
  --tensor-parallel-size 8 \
  --speculative-config.method mtp \
  --speculative-config.num_speculative_tokens 1 \
  --tool-call-parser hy_v3 \
  --reasoning-parser hy_v3 \
  --enable-auto-tool-choice \
  --served-model-name hy3-preview
Enter fullscreen mode Exit fullscreen mode

Pour SGLang : --tool-call-parser hunyuan --reasoning-parser hunyuan.

Une fois lancé sur http://localhost:8000/v1, ciblez-le comme OpenRouter avec votre SDK OpenAI (changez juste l'URL et la clé).

Prévoyez huit GPU type H100 en BF16 pour le modèle complet. Des versions quantifiées devraient arriver, mais actuellement la référence est en pleine précision.

FAQ

Hy3 Preview est-il gratuit ?

Oui. OpenRouter propose tencent/hy3-preview:free avec 0 $ par million de tokens in/out. Les tokens de raisonnement sont aussi gratuits sur le niveau free, mais comptent dans les quotas. Vérifiez le statut sur la page modèle OpenRouter.

Comment Hy3 Preview se positionne-t-il face à DeepSeek V3 et Qwen 3 ?

SWE-bench Verified à 74.4 et Terminal-Bench 2.0 à 54.4 : Hy3 est au niveau des meilleurs modèles open chinois, avec un focus agent et usage outil. Pour le chat, Qwen 3 et DeepSeek V3 sont compétitifs ; pour l'agent/codage, Hy3 se démarque par l'entraînement RL sur outils.

Quels sont les modes de raisonnement de Hy3 ?

Trois : no_think (par défaut), low, high. Modifiez via le paramètre reasoning sur OpenRouter ou chat_template_kwargs={"reasoning_effort": "high"} en appel direct. Utilisez high pour planification, code multi-étapes, maths ; désactivez pour le chat.

Usage commercial autorisé ?

Oui, via la licence communautaire Tencent Hy. Usage commercial OK avec attribution/conformité politique. Lisez les conditions complètes avant tout déploiement générateur de revenu.

Quelle longueur de contexte sur le niveau gratuit ?

256K tokens. OpenRouter liste 262 144 tokens, conforme à la fiche modèle. Suffisant pour coller une base de code moyenne + schémas d'outils + historique.

Comment tester Hy3 Preview sans code ?

Utilisez l'espace Hugging Face pour une démo chat ou dirigez Apidog vers OpenRouter. Apidog importe la spec OpenAPI OpenAI : renseignez base URL, clé API, nom du modèle, c'est prêt.

Top comments (0)