Tencent merilis sumber terbuka Hy3 Preview pada 22 April 2026, dan OpenRouter langsung menyediakan endpoint gratis: tanpa kartu kredit, tanpa perhitungan token, tanpa masa uji coba. Anda bisa memanggil model Mixture-of-Experts 295B-parameter yang sama dengan aplikasi Yuanbao dan asisten CodeBuddy Tencent, langsung dari kode Anda sendiri secara gratis.
Panduan ini berfokus pada langkah konkret menggunakan API Hy3 Preview gratis melalui OpenRouter, Hugging Face Space, serta opsi self-hosting. Juga dibahas mode penalaran unik Hy3 dan cara cepat uji API di Apidog tanpa scripting manual.
Jika ingin langsung eksekusi, lompat ke bagian “Langkah demi langkah: memanggil Hy3 Preview gratis di OpenRouter.”
TL;DR
-
Hy3 Preview gratis di OpenRouter: model ID
tencent/hy3-preview:free, input dan output $0. - Mixture-of-Experts: 295B total parameter, 21B aktif, 192 expert, top-8 routing, konteks 256K-token.
- Termasuk tiga mode penalaran:
no_think(default),low,highuntuk reasoning berantai. - Benchmark kuat: SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42.
- Tiga jalur gratis: OpenRouter (API), Hy3-preview Space Hugging Face (UI), atau inferensi lokal via vLLM dan bobot terbuka.
- Apidog sangat kompatibel dengan endpoint OpenRouter (skema OpenAI Chat Completions).
Apa itu Hy3 Preview?
Hy3 Preview adalah rilis flagship pertama dari tim model dasar Hunyuan Tencent, kini dipimpin Yao Shunyu (eks OpenAI). Model ini menjadi jawaban Tencent terhadap DeepSeek, Alibaba, dan Zhipu.
Spesifikasi utama (Kartu model resmi):
- Arsitektur: Mixture-of-Experts, 80 layer + 1 MTP, 64 attention head (grouped query).
- Parameter: 295B total, 21B aktif per forward.
- Expert: 192, top-8 routing.
- Konteks: 256K token.
- Tokenizer: 120.832 vocab, presisi BF16.
- Lisensi: Tencent Hy Community License, komersial diizinkan sesuai syarat.
Model ini menonjol pada pelatihan agensi dan penggunaan alat multi-turn. Skor SWE-bench, Terminal-Bench, dan WildClawBench menempatkannya hampir setara model closed-source top untuk tugas kode dan shell.
Tiga Cara Gratis Menggunakan Hy3 Preview
| Jalur | Keterangan | Gratis? | Cocok Untuk |
|---|---|---|---|
OpenRouter tencent/hy3-preview:free
|
API hosted kompatibel OpenAI | Ya, $0 in/out | Agen, scripting, backend |
| Hugging Face Space | Demo chat via browser | Ya | Prompting, testing cepat |
| Self-hosted weights (vLLM/SGLang) | Jalankan bobot sendiri di GPU | Software gratis, bayar hardware | Privasi, volume tinggi |
Untuk developer, jalur OpenRouter adalah yang tercepat dari registrasi ke API call. Rate limit pada tier gratis cukup untuk prototyping.
Langkah demi langkah: Memanggil Hy3 Preview Gratis di OpenRouter
Minimal setup agar Anda bisa cek respons dari model tencent/hy3-preview:free:
Buat akun OpenRouter.
Daftar di openrouter.ai. Email cukup, tidak perlu kartu kredit.Buat API key.
Di dashboard OpenRouter, buka menu “Kunci” dan generate API key baru. Simpan, misal:
export OPENROUTER_API_KEY=sk-or-...
- Konfirmasi endpoint gratis. Kunjungi daftar gratis Hy3 Preview dan pastikan status “Gratis”. Anda bisa cek statistik penggunaan live di sana.
- Kirim permintaan pertama via curl. OpenRouter pakai skema OpenAI Chat Completions, sehingga bisa pakai SDK OpenAI atau curl:
curl https://openrouter.ai/api/v1/chat/completions \
-H "Authorization: Bearer $OPENROUTER_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Jelaskan keputusan perutean MoE dalam pengaturan top-8 dari 192 dalam 3 kalimat."}
],
"temperature": 0.9,
"top_p": 1.0
}'
-
Aktifkan reasoning jika perlu.
Hy3 menerima parameter
reasoningdenganeffort(low/high). OpenRouter akan mengembalikan trace reasoning direasoning_details.
{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Rencanakan, lalu tulis skrip Bash yang merotasi file log harian yang lebih tua dari 30 hari ke folder arsip tanggal."}
],
"reasoning": {"effort": "high"}
}
- Ulangi / jaga sesi. Untuk konteks berkelanjutan, tetap gunakan thread yang sama. Jendela 256K Hy3 bisa handle basis kode besar.
Respons dari endpoint ini identik dengan model yang dipublikasikan di Hugging Face dan setara kualitasnya dengan rute berbayar di provider lain.
Gratis, Berbayar, dan Self-hosted: Apa Bedanya?
| Kemampuan | OpenRouter Gratis | OpenRouter Berbayar | Self-hosted (vLLM/SGLang) |
|---|---|---|---|
| Biaya/token | $0 | Sesuai provider | Listrik + GPU |
| Mode reasoning |
no_think/low/high
|
Sama | Sama |
| Panjang konteks | 256K | 256K | 256K (jika RAM cukup) |
| Throughput | Pool shared, prioritas rendah saat load tinggi | Dedicated | Bebas, sesuai cluster |
| Rate limit | Tier gratis, fleksibel | Sesuai provider | Tidak ada |
| Data retention | Kebijakan OpenRouter | Sesuai provider | Hanya di hardware Anda |
| Token reasoning | Ya (reasoning_details) |
Ya | Ya |
Tier gratis ideal untuk prototipe, side project, evaluasi, dan agen trafik rendah. Upgrade ke berbayar/self-host jika perlu throughput tinggi atau latency rendah.
Tips Prompt dan Parameter untuk Maksimalkan Hy3
-
Atur suhu sesuai mode.
Default:
temperature=0.9,top_p=1.0. Untuk output terstruktur, set ke0.3. -
Gunakan
no_thinkuntuk chat biasa. Reasoning default non-aktif;low/highhanya untuk reasoning multi-step atau planning. - Jelaskan alat di prompt sistem. Model lebih akurat jika tools dijelaskan di prompt sistem, bukan hanya lewat schema.
- Tempel kode, jangan minta rangkuman. Jendela 256K memungkinkan paste file penuh.
- Edit multi-file sekaligus. Sertakan semua file terkait dalam satu pesan.
- Minta plan dulu. Step-by-step (“buat rencana, konfirmasi, lalu jalankan”) lebih stabil daripada prompt langsung.
Batasan Hy3 Preview yang Wajib Diantisipasi
- Rate limit fleksibel, tergantung load. Volume prompt harian tinggi, saat peak bisa 429. Siapkan retry & exponential backoff.
- Token reasoning dihitung output. Tier gratis: reasoning gratis, berbayar: dihitung output.
- Lisensi bukan Apache 2.0. Komersial diizinkan, tapi ada syarat & atribusi. Baca lisensi lengkap di GitHub.
-
Parser alat wajib benar.
Self-host: vLLM pakai
--tool-call-parser hy_v3. - Bahasa utama: Inggris & Mandarin. Bahasa lain didukung, tapi kualitas turun.
- Tertinggal dari flagship Barat di reasoning tersulit. HLE ~30, masih di bawah OpenAI/Google terbaru untuk benchmark reasoning tingkat lanjut.
Jalur Kilat Developer: Hy3 Preview + Apidog
CLI (curl) bagus untuk quick-test, tapi untuk iterasi cepat, pakai klien API visual seperti Apidog.
- Buka Apidog dan buat project baru. Import spesifikasi OpenAPI OpenAI Chat Completions.
-
Set URL dasar ke
https://openrouter.ai/api/v1dan masukkan variabel environment untukOPENROUTER_API_KEY. -
Buat permintaan ke
/chat/completionsdengan modeltencent/hy3-preview:free. -
Fork permintaan untuk bandingkan reasoning mode (
no_think,low,high), cek latency & output berdampingan. - Simpan template prompt. Gunakan fitur environment & variabel Apidog untuk prompt panjang, tools schemas, dsb.
Migrasi dari Postman sangat mudah. Panduan pengujian API tanpa Postman dan cara pakai Apidog di dalam VS Code tersedia untuk workflow lebih efisien.
Alternatif Gratis Saat Rate Limit Tercapai
Jika pool gratis OpenRouter overload, coba dua jalur ini:
- Hugging Face Space. Hy3-preview Space: demo chat browser, tidak bisa di-script, tapi gratis.
-
Model open-weights Tiongkok lain.
- Qwen 3.5 Omni (Alibaba): pengumuman, setup.
- Zhipu GLM 5V Turbo: panduan API.
Model-model ini tidak setara Hy3 untuk agent-coding, tapi kuat untuk chat, multibahasa, multimodal. Untuk produksi, buat satu koleksi per model di Apidog; benchmark berdampingan pada prompt real-world lebih akurat daripada leaderboard.
Menghosting Sendiri Hy3 Preview dengan vLLM
Punya GPU? Inferensi lokal = kontrol penuh, tanpa rate limit.
Model card merekomendasikan vLLM dengan tensor parallel 8 & speculative decoding aktif:
vllm serve tencent/Hy3-preview \
--tensor-parallel-size 8 \
--speculative-config.method mtp \
--speculative-config.num_speculative_tokens 1 \
--tool-call-parser hy_v3 \
--reasoning-parser hy_v3 \
--enable-auto-tool-choice \
--served-model-name hy3-preview
SGLang: gunakan --tool-call-parser hunyuan dan --reasoning-parser hunyuan. Endpoint default: http://localhost:8000/v1. OpenAI SDK tinggal ganti URL & key.
Minimal 8x H100 BF16 untuk full model. Build terkuantisasi akan muncul, namun saat launch hanya full precision.
FAQ
Apakah Hy3 Preview gratis?
Ya. OpenRouter listing tencent/hy3-preview:free dengan $0 per juta token input/output. Token reasoning juga gratis di tier gratis, tapi tetap kena rate limit. Konfirmasi status di halaman model OpenRouter sebelum dipakai produksi.
Bagaimana perbandingan Hy3 Preview dengan DeepSeek V3 dan Qwen 3?
Skor SWE-bench Verified (74.4) dan Terminal-Bench 2.0 (54.4) bersaing dengan model Tiongkok teratas. Untuk chat, Qwen 3 & DeepSeek V3 kompetitif; untuk agent-coding, Hy3 unggul di tool usage dan RL training.
Apa saja mode penalaran Hy3?
Tiga: no_think (default), low, high. Ubah via parameter reasoning di OpenRouter atau chat_template_kwargs={"reasoning_effort": "high"} jika self-hosting. Gunakan high untuk kode multi-step, planning, atau math.
Bisa dipakai komersial?
Ya, di bawah Tencent Hy Community License. Komersial diizinkan dengan atribusi & compliance. Baca syarat di repo GitHub Hy3.
Panjang konteks di tier gratis?
256K token (OpenRouter: 262.144). Bisa paste satu basis kode menengah + tools schema dan riwayat chat.
Cara uji Hy3 Preview tanpa kode?
Gunakan Hugging Face Space untuk demo chat, atau arahkan Apidog ke endpoint OpenRouter. Konfigurasi hanya butuh base URL, API key, dan nama model.




Top comments (0)