Tencent a publié en open source Hy3 Preview le 22 avril 2026, et OpenRouter l'a intégré comme point d'accès gratuit en moins d'une journée. Aucun paiement, aucune facturation, pas de période d'essai : vous pouvez exploiter le modèle Mixture-of-Experts de 295 milliards de paramètres utilisé dans Yuanbao et CodeBuddy de Tencent, directement via votre code, sans frais.
Essayez Apidog dès aujourd'hui
Ce guide explique comment utiliser gratuitement l'API Hy3 Preview via OpenRouter, l'espace Hugging Face et le dépôt Hy3. Il détaille aussi les modes de raisonnement qui différencient Hy3 des autres modèles open source de 2026, ainsi que la méthode pour tester l'API dans Apidog sans scripts jetables.
Si vous souhaitez aller droit au but, passez à la section « Étape par étape : appeler Hy3 Preview gratuitement sur OpenRouter ».
TL;DR
-
Hy3 Preview est gratuit sur OpenRouter via le modèle
tencent/hy3-preview:free, avec coût d'entrée et de sortie à 0 $. - Mixture-of-Experts : 295 milliards de paramètres, 21 milliards actifs, 192 experts (routage top-8), 256K tokens de contexte.
- Trois modes de raisonnement :
no_think(rapide),lowethigh(raisonnement approfondi pour agent/codage). - Benchmarks : SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42.
- Trois méthodes gratuites : OpenRouter, espace Hy3-preview sur Hugging Face, ou inférence locale (vLLM + poids open).
- Apidog fonctionne directement avec OpenRouter car Hy3 utilise le schéma OpenAI Chat Completions.
Qu'est-ce que Hy3 Preview ?
Hy3 Preview est la première version phare de l'équipe Hunyuan de Tencent, pilotée par Yao Shunyu, ex-OpenAI. C'est le modèle le plus avancé de Tencent, conçu pour rivaliser avec les principaux modèles open source chinois (DeepSeek, Alibaba, Zhipu).
Le profil technique officiel :
- Architecture : Mixture-of-Experts, 80 couches + 1 MTP, 64 têtes d'attention (grouped query).
- Paramètres : 295B total, 21B actifs par passage.
- Experts : 192, routage top-8.
- Contexte : 256K tokens.
- Tokeniseur : 120 832 tokens, BF16.
- Licence : Tencent Hy Community, usage commercial autorisé.
L'entraînement agentique distingue Hy3 d'un MoE classique : infrastructure RL reconstruite pour outils multi-tours, scores élevés sur SWE-bench, Terminal-Bench, WildClawBench.
Trois façons gratuites d'utiliser Hy3 Preview
| Voie | Description | Gratuit ? | Idéal pour |
|---|---|---|---|
OpenRouter tencent/hy3-preview:free
|
API compatible OpenAI | Oui, 0 $ | Agents, scripts, backends |
| Espace Hugging Face | Démo chat web | Oui | Prompts rapides, essais initiaux |
| Poids auto-hébergés (vLLM/SGLang) | Inférence sur vos GPU | Logiciel gratuit, matériel | Charge privée, volume élevé |
La plupart des devs choisiront OpenRouter : inscription rapide, API prête, limites généreuses pour protos.
Étape par étape : appeler Hy3 Preview gratuitement sur OpenRouter
Chemin minimal pour une requête tencent/hy3-preview:free fonctionnelle :
Créer un compte OpenRouter
Inscrivez-vous sur openrouter.ai. Un email suffit.Générer une clé API
Sur le dashboard, rubrique « Clés », créez une nouvelle clé. Exemple :
export OPENROUTER_API_KEY=sk-or-...
- Ouvrir la page du modèle Rendez-vous sur la fiche Hy3 Preview gratuite et vérifiez la mention « Gratuit ». Vous y verrez aussi les stats d'utilisation.
- Envoyer une première requête OpenRouter expose l'API OpenAI Chat Completions ; tout SDK OpenAI fonctionne :
curl https://openrouter.ai/api/v1/chat/completions \
-H "Authorization: Bearer $OPENROUTER_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Explain the MoE routing decision inside a top-8 of 192 setup in 3 sentences."}
],
"temperature": 0.9,
"top_p": 1.0
}'
-
Activer le raisonnement si besoin
Hy3 accepte le paramètre
reasoning.effort(low,high). OpenRouter retourne la trace dansreasoning_details:
{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Plan, then write a Bash script that rotates daily log files older than 30 days into a dated archive folder."}
],
"reasoning": {"effort": "high"}
}
- Itérer Pour garder le contexte, restez dans le même thread : la fenêtre 256K permet de traiter de gros volumes.
Ce process fonctionne sur le modèle officiel Hugging Face. La qualité sur OpenRouter gratuit est identique à celle des accès payants.
Gratuit, Plus et auto-hébergé : différences
| Capacité | OpenRouter Gratuit | OpenRouter Payant | Auto-hébergé (vLLM/SGLang) |
|---|---|---|---|
| Coût par token | 0 $ | Selon fournisseur | Électricité + amortissement GPU |
| Modes de raisonnement |
no_think, low, high
|
Identiques | Identiques |
| Longueur contexte | 256K | 256K | 256K (si mémoire suffisante) |
| Débit sous charge | Pool partagé, dépriorisé | Dédié | Selon votre infra |
| Limites de débit | Plafond OpenRouter | Spécifique fournisseur | Aucune |
| Rétention données | Politique OpenRouter | Selon fournisseur | Local uniquement |
| Raisonnement visible | Oui (reasoning_details) |
Oui | Oui |
Gratuit : idéal pour protos, projets secondaires, benchmarks. Payant/auto-hébergé : pour la latence ou le gros volume.
Conseils de prompt et paramètres pour Hy3
-
Adaptez la température :
temperature=0.9,top_p=1.0par défaut. Descendez à 0.3 pour du structuré, restez haut pour la créativité. -
Utilisez
no_thinkpour le chat :low/highuniquement pour planification ou code multi-étapes. -
Nommez les outils dans le prompt système : Hy3 a été entraîné avec un parseur spécifique (
hy_v3). Décrivez chaque outil dans le prompt système. - Collez le code, ne le résumez pas : 256K tokens = fichiers complets collables. Ne demandez pas d'inférer du code absent.
- Modifications multi-fichiers : traitez par lots : donnez tout le contexte en une fois pour des changements cohérents.
- Demandez un plan d'abord : pour l'agent, séparez planification et exécution.
Limites à connaître avant de déployer
- Limites de débit variables : le pool gratuit est partagé. Pic de charge : erreurs 429 possibles ; implémentez des retries exponentiels.
- Les tokens de raisonnement sont comptés : gratuits sur OpenRouter free, mais facturés ailleurs.
- Licence non Apache 2.0 : la licence complète inclut attribution et politique d'utilisation : vérifiez avant intégration produit.
-
Outils : parseur obligatoire : en auto-hébergé, lancez vLLM/SGLang avec
--tool-call-parser hy_v3ouhunyuan. - Anglais et chinois privilégiés : autres langues supportées mais moins performantes.
- Hy3 reste derrière les modèles américains sur certains benchmarks : fort sur les tâches agent/codage, moins sur le raisonnement extrême.
Le chemin rapide du développeur : Hy3 Preview + Apidog
La ligne de commande est pratique, mais pour itérer vraiment, passez à un client API visuel.
- Ouvrez Apidog et créez un projet. Importez la spec OpenAPI OpenAI Chat : OpenRouter est compatible.
-
Définissez l'URL de base :
https://openrouter.ai/api/v1et ajoutez la variable d'envOPENROUTER_API_KEY. -
Créez une requête : ciblez
/chat/completionsavecmodel: tencent/hy3-preview:free. - Dupliquez pour comparer les modes : modifiez uniquement le paramètre de raisonnement pour comparer sortie/latence.
- Enregistrez vos prompts : utilisez les variables et environnements d'Apidog pour réutiliser prompts, schémas d'outils, etc.
Pour passer de Postman, suivez notre guide de migration. Les workflows VS Code sont détaillés dans ce guide.
Alternatives gratuites en cas de limite
Si OpenRouter gratuit est saturé, testez :
- Espace Hugging Face : Hy3-preview sur Hugging Face offre une démo chat web, utile pour comparer rapidement.
- Autres modèles chinois open : Qwen 3.5 Omni (niveau gratuit, multimodal), voir annonce Qwen 3.5 Omni et guide Qwen 3.5 Omni. GLM 5V Turbo : voir guide API GLM 5V Turbo.
Aucun ne surpasse Hy3 sur SWE-bench/Terminal-Bench pour le codage agentique, mais ils couvrent d'autres cas : chat, multilingue, multimodal. Pour benchmarker, créez une collection par modèle dans Apidog et comparez sur vos prompts réels.
Auto-hébergement de Hy3 Preview avec vLLM
Si vous avez le matériel adapté, inférence locale :
vllm serve tencent/Hy3-preview \
--tensor-parallel-size 8 \
--speculative-config.method mtp \
--speculative-config.num_speculative_tokens 1 \
--tool-call-parser hy_v3 \
--reasoning-parser hy_v3 \
--enable-auto-tool-choice \
--served-model-name hy3-preview
Pour SGLang : --tool-call-parser hunyuan --reasoning-parser hunyuan.
Une fois lancé sur http://localhost:8000/v1, ciblez-le comme OpenRouter avec votre SDK OpenAI (changez juste l'URL et la clé).
Prévoyez huit GPU type H100 en BF16 pour le modèle complet. Des versions quantifiées devraient arriver, mais actuellement la référence est en pleine précision.
FAQ
Hy3 Preview est-il gratuit ?
Oui. OpenRouter propose tencent/hy3-preview:free avec 0 $ par million de tokens in/out. Les tokens de raisonnement sont aussi gratuits sur le niveau free, mais comptent dans les quotas. Vérifiez le statut sur la page modèle OpenRouter.
Comment Hy3 Preview se positionne-t-il face à DeepSeek V3 et Qwen 3 ?
SWE-bench Verified à 74.4 et Terminal-Bench 2.0 à 54.4 : Hy3 est au niveau des meilleurs modèles open chinois, avec un focus agent et usage outil. Pour le chat, Qwen 3 et DeepSeek V3 sont compétitifs ; pour l'agent/codage, Hy3 se démarque par l'entraînement RL sur outils.
Quels sont les modes de raisonnement de Hy3 ?
Trois : no_think (par défaut), low, high. Modifiez via le paramètre reasoning sur OpenRouter ou chat_template_kwargs={"reasoning_effort": "high"} en appel direct. Utilisez high pour planification, code multi-étapes, maths ; désactivez pour le chat.
Usage commercial autorisé ?
Oui, via la licence communautaire Tencent Hy. Usage commercial OK avec attribution/conformité politique. Lisez les conditions complètes avant tout déploiement générateur de revenu.
Quelle longueur de contexte sur le niveau gratuit ?
256K tokens. OpenRouter liste 262 144 tokens, conforme à la fiche modèle. Suffisant pour coller une base de code moyenne + schémas d'outils + historique.
Comment tester Hy3 Preview sans code ?
Utilisez l'espace Hugging Face pour une démo chat ou dirigez Apidog vers OpenRouter. Apidog importe la spec OpenAPI OpenAI : renseignez base URL, clé API, nom du modèle, c'est prêt.




Top comments (0)