DEV Community

Cover image for Cara Menggunakan Hy3 Preview API Gratis?
Walse
Walse

Posted on • Originally published at apidog.com

Cara Menggunakan Hy3 Preview API Gratis?

Tencent merilis sumber terbuka Hy3 Preview pada 22 April 2026, dan OpenRouter langsung menyediakan endpoint gratis: tanpa kartu kredit, tanpa perhitungan token, tanpa masa uji coba. Anda bisa memanggil model Mixture-of-Experts 295B-parameter yang sama dengan aplikasi Yuanbao dan asisten CodeBuddy Tencent, langsung dari kode Anda sendiri secara gratis.

Coba Apidog hari ini

Panduan ini berfokus pada langkah konkret menggunakan API Hy3 Preview gratis melalui OpenRouter, Hugging Face Space, serta opsi self-hosting. Juga dibahas mode penalaran unik Hy3 dan cara cepat uji API di Apidog tanpa scripting manual.

Jika ingin langsung eksekusi, lompat ke bagian “Langkah demi langkah: memanggil Hy3 Preview gratis di OpenRouter.”

TL;DR

  • Hy3 Preview gratis di OpenRouter: model ID tencent/hy3-preview:free, input dan output $0.
  • Mixture-of-Experts: 295B total parameter, 21B aktif, 192 expert, top-8 routing, konteks 256K-token.
  • Termasuk tiga mode penalaran: no_think (default), low, high untuk reasoning berantai.
  • Benchmark kuat: SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42.
  • Tiga jalur gratis: OpenRouter (API), Hy3-preview Space Hugging Face (UI), atau inferensi lokal via vLLM dan bobot terbuka.
  • Apidog sangat kompatibel dengan endpoint OpenRouter (skema OpenAI Chat Completions).

Apa itu Hy3 Preview?

Hy3 Preview adalah rilis flagship pertama dari tim model dasar Hunyuan Tencent, kini dipimpin Yao Shunyu (eks OpenAI). Model ini menjadi jawaban Tencent terhadap DeepSeek, Alibaba, dan Zhipu.

Profil teknis Hy3 Preview

Spesifikasi utama (Kartu model resmi):

  • Arsitektur: Mixture-of-Experts, 80 layer + 1 MTP, 64 attention head (grouped query).
  • Parameter: 295B total, 21B aktif per forward.
  • Expert: 192, top-8 routing.
  • Konteks: 256K token.
  • Tokenizer: 120.832 vocab, presisi BF16.
  • Lisensi: Tencent Hy Community License, komersial diizinkan sesuai syarat.

Model ini menonjol pada pelatihan agensi dan penggunaan alat multi-turn. Skor SWE-bench, Terminal-Bench, dan WildClawBench menempatkannya hampir setara model closed-source top untuk tugas kode dan shell.

Benchmark Hy3 Preview

Tiga Cara Gratis Menggunakan Hy3 Preview

Jalur Keterangan Gratis? Cocok Untuk
OpenRouter tencent/hy3-preview:free API hosted kompatibel OpenAI Ya, $0 in/out Agen, scripting, backend
Hugging Face Space Demo chat via browser Ya Prompting, testing cepat
Self-hosted weights (vLLM/SGLang) Jalankan bobot sendiri di GPU Software gratis, bayar hardware Privasi, volume tinggi

Untuk developer, jalur OpenRouter adalah yang tercepat dari registrasi ke API call. Rate limit pada tier gratis cukup untuk prototyping.

Langkah demi langkah: Memanggil Hy3 Preview Gratis di OpenRouter

Minimal setup agar Anda bisa cek respons dari model tencent/hy3-preview:free:

Langkah OpenRouter

  1. Buat akun OpenRouter.

    Daftar di openrouter.ai. Email cukup, tidak perlu kartu kredit.

  2. Buat API key.

    Di dashboard OpenRouter, buka menu “Kunci” dan generate API key baru. Simpan, misal:

   export OPENROUTER_API_KEY=sk-or-...
Enter fullscreen mode Exit fullscreen mode
  1. Konfirmasi endpoint gratis. Kunjungi daftar gratis Hy3 Preview dan pastikan status “Gratis”. Anda bisa cek statistik penggunaan live di sana.

Status model OpenRouter

  1. Kirim permintaan pertama via curl. OpenRouter pakai skema OpenAI Chat Completions, sehingga bisa pakai SDK OpenAI atau curl:
   curl https://openrouter.ai/api/v1/chat/completions \
     -H "Authorization: Bearer $OPENROUTER_API_KEY" \
     -H "Content-Type: application/json" \
     -d '{
       "model": "tencent/hy3-preview:free",
       "messages": [
         {"role": "user", "content": "Jelaskan keputusan perutean MoE dalam pengaturan top-8 dari 192 dalam 3 kalimat."}
       ],
       "temperature": 0.9,
       "top_p": 1.0
     }'
Enter fullscreen mode Exit fullscreen mode
  1. Aktifkan reasoning jika perlu. Hy3 menerima parameter reasoning dengan effort (low/high). OpenRouter akan mengembalikan trace reasoning di reasoning_details.
   {
     "model": "tencent/hy3-preview:free",
     "messages": [
       {"role": "user", "content": "Rencanakan, lalu tulis skrip Bash yang merotasi file log harian yang lebih tua dari 30 hari ke folder arsip tanggal."}
     ],
     "reasoning": {"effort": "high"}
   }
Enter fullscreen mode Exit fullscreen mode
  1. Ulangi / jaga sesi. Untuk konteks berkelanjutan, tetap gunakan thread yang sama. Jendela 256K Hy3 bisa handle basis kode besar.

Respons dari endpoint ini identik dengan model yang dipublikasikan di Hugging Face dan setara kualitasnya dengan rute berbayar di provider lain.

Gratis, Berbayar, dan Self-hosted: Apa Bedanya?

Kemampuan OpenRouter Gratis OpenRouter Berbayar Self-hosted (vLLM/SGLang)
Biaya/token $0 Sesuai provider Listrik + GPU
Mode reasoning no_think/low/high Sama Sama
Panjang konteks 256K 256K 256K (jika RAM cukup)
Throughput Pool shared, prioritas rendah saat load tinggi Dedicated Bebas, sesuai cluster
Rate limit Tier gratis, fleksibel Sesuai provider Tidak ada
Data retention Kebijakan OpenRouter Sesuai provider Hanya di hardware Anda
Token reasoning Ya (reasoning_details) Ya Ya

Tier gratis ideal untuk prototipe, side project, evaluasi, dan agen trafik rendah. Upgrade ke berbayar/self-host jika perlu throughput tinggi atau latency rendah.

Tips Prompt dan Parameter untuk Maksimalkan Hy3

  • Atur suhu sesuai mode. Default: temperature=0.9, top_p=1.0. Untuk output terstruktur, set ke 0.3.
  • Gunakan no_think untuk chat biasa. Reasoning default non-aktif; low/high hanya untuk reasoning multi-step atau planning.
  • Jelaskan alat di prompt sistem. Model lebih akurat jika tools dijelaskan di prompt sistem, bukan hanya lewat schema.
  • Tempel kode, jangan minta rangkuman. Jendela 256K memungkinkan paste file penuh.
  • Edit multi-file sekaligus. Sertakan semua file terkait dalam satu pesan.
  • Minta plan dulu. Step-by-step (“buat rencana, konfirmasi, lalu jalankan”) lebih stabil daripada prompt langsung.

Batasan Hy3 Preview yang Wajib Diantisipasi

  • Rate limit fleksibel, tergantung load. Volume prompt harian tinggi, saat peak bisa 429. Siapkan retry & exponential backoff.
  • Token reasoning dihitung output. Tier gratis: reasoning gratis, berbayar: dihitung output.
  • Lisensi bukan Apache 2.0. Komersial diizinkan, tapi ada syarat & atribusi. Baca lisensi lengkap di GitHub.
  • Parser alat wajib benar. Self-host: vLLM pakai --tool-call-parser hy_v3.
  • Bahasa utama: Inggris & Mandarin. Bahasa lain didukung, tapi kualitas turun.
  • Tertinggal dari flagship Barat di reasoning tersulit. HLE ~30, masih di bawah OpenAI/Google terbaru untuk benchmark reasoning tingkat lanjut.

Jalur Kilat Developer: Hy3 Preview + Apidog

CLI (curl) bagus untuk quick-test, tapi untuk iterasi cepat, pakai klien API visual seperti Apidog.

  1. Buka Apidog dan buat project baru. Import spesifikasi OpenAPI OpenAI Chat Completions.
  2. Set URL dasar ke https://openrouter.ai/api/v1 dan masukkan variabel environment untuk OPENROUTER_API_KEY.
  3. Buat permintaan ke /chat/completions dengan model tencent/hy3-preview:free.
  4. Fork permintaan untuk bandingkan reasoning mode (no_think, low, high), cek latency & output berdampingan.
  5. Simpan template prompt. Gunakan fitur environment & variabel Apidog untuk prompt panjang, tools schemas, dsb.

Migrasi dari Postman sangat mudah. Panduan pengujian API tanpa Postman dan cara pakai Apidog di dalam VS Code tersedia untuk workflow lebih efisien.

Alternatif Gratis Saat Rate Limit Tercapai

Jika pool gratis OpenRouter overload, coba dua jalur ini:

Model-model ini tidak setara Hy3 untuk agent-coding, tapi kuat untuk chat, multibahasa, multimodal. Untuk produksi, buat satu koleksi per model di Apidog; benchmark berdampingan pada prompt real-world lebih akurat daripada leaderboard.

Menghosting Sendiri Hy3 Preview dengan vLLM

Punya GPU? Inferensi lokal = kontrol penuh, tanpa rate limit.

Model card merekomendasikan vLLM dengan tensor parallel 8 & speculative decoding aktif:

vllm serve tencent/Hy3-preview \
  --tensor-parallel-size 8 \
  --speculative-config.method mtp \
  --speculative-config.num_speculative_tokens 1 \
  --tool-call-parser hy_v3 \
  --reasoning-parser hy_v3 \
  --enable-auto-tool-choice \
  --served-model-name hy3-preview
Enter fullscreen mode Exit fullscreen mode

SGLang: gunakan --tool-call-parser hunyuan dan --reasoning-parser hunyuan. Endpoint default: http://localhost:8000/v1. OpenAI SDK tinggal ganti URL & key.

Minimal 8x H100 BF16 untuk full model. Build terkuantisasi akan muncul, namun saat launch hanya full precision.

FAQ

Apakah Hy3 Preview gratis?

Ya. OpenRouter listing tencent/hy3-preview:free dengan $0 per juta token input/output. Token reasoning juga gratis di tier gratis, tapi tetap kena rate limit. Konfirmasi status di halaman model OpenRouter sebelum dipakai produksi.

Bagaimana perbandingan Hy3 Preview dengan DeepSeek V3 dan Qwen 3?

Skor SWE-bench Verified (74.4) dan Terminal-Bench 2.0 (54.4) bersaing dengan model Tiongkok teratas. Untuk chat, Qwen 3 & DeepSeek V3 kompetitif; untuk agent-coding, Hy3 unggul di tool usage dan RL training.

Apa saja mode penalaran Hy3?

Tiga: no_think (default), low, high. Ubah via parameter reasoning di OpenRouter atau chat_template_kwargs={"reasoning_effort": "high"} jika self-hosting. Gunakan high untuk kode multi-step, planning, atau math.

Bisa dipakai komersial?

Ya, di bawah Tencent Hy Community License. Komersial diizinkan dengan atribusi & compliance. Baca syarat di repo GitHub Hy3.

Panjang konteks di tier gratis?

256K token (OpenRouter: 262.144). Bisa paste satu basis kode menengah + tools schema dan riwayat chat.

Cara uji Hy3 Preview tanpa kode?

Gunakan Hugging Face Space untuk demo chat, atau arahkan Apidog ke endpoint OpenRouter. Konfigurasi hanya butuh base URL, API key, dan nama model.

Top comments (0)