Tencent ได้เปิดตัว Hy3 Preview ในวันที่ 22 เมษายน 2026 และภายในหนึ่งวัน OpenRouter ก็ได้จัดให้เป็นปลายทางที่ใช้งานได้ฟรีโดยสมบูรณ์ ไม่ต้องใช้บัตรเครดิต ไม่มีการคิดค่าโทเค็น ไม่ต้องทดลองใช้ คุณสามารถเรียกใช้โมเดล Mixture-of-Experts ขนาด 295B พารามิเตอร์ตัวเดียวกันที่ขับเคลื่อนแอป Yuanbao และผู้ช่วย CodeBuddy ของ Tencent ได้จากโค้ดของคุณเองตั้งแต่วันนี้ โดยไม่มีค่าใช้จ่าย
คู่มือนี้แสดงวิธีการใช้ Hy3 Preview API ฟรีผ่าน OpenRouter, Hugging Face Space และ Hy3 repo ดั้งเดิม นอกจากนี้ยังครอบคลุมโหมดการให้เหตุผลที่ทำให้ Hy3 แตกต่างจากโมเดลเปิดส่วนใหญ่ในปี 2026 และวิธีทดสอบ API ภายใน Apidog โดยไม่ต้องเขียนสคริปต์ที่ใช้แล้วทิ้ง
หากคุณต้องการวิธีที่เร็วที่สุดในการรับคำตอบแรก ให้ข้ามไปที่หัวข้อ "ขั้นตอน: เรียกใช้ Hy3 Preview ฟรีบน OpenRouter"
สรุป (TL;DR)
-
Hy3 Preview ใช้งานได้ฟรีบน OpenRouter ภายใต้ Model ID
tencent/hy3-preview:freeโดยมีค่าใช้จ่ายอินพุต $0 และเอาต์พุต $0 - เป็น โมเดล Mixture-of-Experts: พารามิเตอร์ทั้งหมด 295B, ทำงาน 21B, 192 experts พร้อมการกำหนดเส้นทางแบบ top-8 และ หน้าต่างบริบทขนาด 256K โทเค็น
- มี สามโหมดการให้เหตุผล ในตัว:
no_thinkสำหรับคำตอบที่รวดเร็ว,lowและhighสำหรับ chain-of-thought agent และการเขียนโค้ด - ผลการทดสอบมาตรฐานแข็งแกร่งสำหรับ open-weights: SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42
- ใช้งานฟรีได้ 3 ทาง: OpenRouter free tier, Hugging Face Hy3-preview Space หรือ self-host vLLM ด้วย open weights
- Apidog รองรับ OpenRouter endpoint โดยตรง เพราะ Hy3 ใช้ OpenAI Chat Completions schema; ส่งคำขอไปยัง OpenRouter ได้ทันที
Hy3 Preview คืออะไร?
Hy3 Preview คือการเปิดตัวโมเดลเรือธงจากทีมโมเดลพื้นฐาน Hunyuan ของ Tencent ปัจจุบันนำโดย Yao Shunyu (อดีต OpenAI) มุ่งเน้นการใช้งานด้าน agent และ reasoning เป็นพิเศษ แข่งขันกับ DeepSeek, Alibaba, Zhipu ในตลาดโมเดล open-weights ของจีน
ข้อมูลทางเทคนิคจาก model card อย่างเป็นทางการ เน้นการทำงานแบบ agent-first:
- สถาปัตยกรรม: Mixture-of-Experts, 80 เลเยอร์บวกหนึ่งเลเยอร์ MTP, 64 attention heads + grouped-query attention
- พารามิเตอร์: รวม 295B, ทำงาน 21B ต่อ forward pass
- Experts: 192 ผู้เชี่ยวชาญ (top-8 routing ต่อโทเค็น)
- บริบท: 256K โทเค็น (262,144 บน OpenRouter)
- Tokenizer: คลังคำศัพท์ 120,832 รายการ BF16
- ลิขสิทธิ์: Tencent Hy Community License, ใช้เชิงพาณิชย์ได้ตามเงื่อนไข
Hy3 โดดเด่นกว่าด้วยการฝึก agentic และโครงสร้าง RL สำหรับการใช้งานเครื่องมือหลายรอบ คะแนน SWE-bench, Terminal-Bench, WildClawBench นำหน้าหลายโมเดล MoE ขนาดใหญ่
สามวิธีใช้ Hy3 Preview ฟรี
มี 3 เส้นทาง ขึ้นกับว่าคุณต้องการ UI แชท, API หรือรันโมเดลเอง
| เส้นทาง | คืออะไร | ฟรีหรือไม่? | เหมาะสำหรับ |
|---|---|---|---|
OpenRouter tencent/hy3-preview:free
|
Hosted OpenAI-compatible API | ใช่, $0 | การสร้าง agent, สคริปต์, ฟีเจอร์ backend |
| Hugging Face Space | การสาธิตแชทในเบราว์เซอร์ | ใช่ | ทดลอง/ทดสอบเร็ว |
| Self-hosted weights (vLLM / SGLang) | รัน open weights บน GPU | ฟรี (ค่า HW) | งาน sensitive, ปริมาณสูง |
โดยทั่วไป เส้นทาง OpenRouter สั้นสุด เหมาะกับ developer ที่ต้องการ API พร้อมใช้งาน และ free tier เพียงพอสำหรับ prototyping
ขั้นตอน: เรียกใช้ Hy3 Preview ฟรีบน OpenRouter
สร้างบัญชี OpenRouter
สมัครที่ openrouter.ai ใช้อีเมล ไม่ต้องใช้บัตรเครดิตสำหรับ free-tierสร้าง API key
ไปที่แดชบอร์ด OpenRouter เลือก "Keys" แล้วสร้างคีย์ใหม่ คัดลอกไปตั้งค่า environment:
export OPENROUTER_API_KEY=sk-or-...
- เปิดหน้าโมเดล ไปที่ Hy3 Preview ฟรีบน OpenRouter ตรวจสอบแบนเนอร์ว่า "Free" และดูสถิติการใช้งาน
-
ส่งคำขอแรกของคุณ
ใช้ OpenAI Chat Completions schema ได้ทันที ตัวอย่างด้วย
curl:
curl https://openrouter.ai/api/v1/chat/completions \
-H "Authorization: Bearer $OPENROUTER_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Explain the MoE routing decision inside a top-8 of 192 setup in 3 sentences."}
],
"temperature": 0.9,
"top_p": 1.0
}'
-
เปิดใช้ Reasoning Mode ตามต้องการ
ใส่พารามิเตอร์
reasoningเพื่อเปิด chain-of-thought:
{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Plan, then write a Bash script that rotates daily log files older than 30 days into a dated archive folder."}
],
"reasoning": {"effort": "high"}
}
- วนซ้ำ ส่งข้อความต่อใน thread เดียวกันเพื่อคง context (Hy3 รองรับ 256K tokens)
ฟรี, พลัส, และโฮสต์เอง: สิ่งที่แตกต่างกัน
| ความสามารถ | OpenRouter ฟรี | OpenRouter แบบชำระเงิน | โฮสต์เอง (vLLM/SGLang) |
|---|---|---|---|
| ค่าใช้จ่ายต่อโทเค็น | $0 | ตามผู้ให้บริการ | ค่าไฟ + GPU |
| Reasoning modes |
no_think, low, high
|
เหมือนกัน | เหมือนกัน |
| บริบท | 256K | 256K | 256K (ถ้า HW เอื้อ) |
| ปริมาณงาน | Shared pool | เฉพาะทาง | ตามคลัสเตอร์ |
| อัตราจำกัด | Free-tier limit | ตามผู้ให้ | ไม่มี |
| การเก็บข้อมูล | OpenRouter policy | ตามผู้ให้ | อยู่บนฮาร์ดแวร์คุณ |
| Reasoning token visibility | ใช่ | ใช่ | ใช่ |
Free เหมาะสำหรับต้นแบบ, ประเมินมาตรฐาน หรือ agent ปริมาณต่ำ หากปริมาณสูง/latency สำคัญ ให้เลือกแบบชำระเงินหรือโฮสต์เอง
เคล็ดลับ Prompt และ Parameter เพื่อดึงประสิทธิภาพสูงสุดจาก Hy3
ปรับอุณหภูมิ (temperature) ให้เหมาะกับงาน
เริ่มที่temperature=0.9,top_p=1.0ลดเหลือ0.3สำหรับเอาต์พุตที่เน้นโครงสร้างใช้
no_thinkเป็นค่าเริ่มต้น
เหมาะกับแชททั่วไป เปิดlow/highเฉพาะเมื่อต้องการ reasoning หรือเขียนโค้ดหลายขั้นตั้งชื่อเครื่องมือใน system prompt
เพิ่มรายละเอียด tool ใน prompt เพื่อผลลัพธ์ที่แม่นยำยิ่งขึ้น โดยเฉพาะเมื่อใช้ agentอ้างอิงโค้ดจริง
ใช้ context window 256K วางไฟล์โค้ดแทนการให้โมเดลจินตนาการรวมการแก้ไขหลายไฟล์
ส่งข้อมูลหลายไฟล์ในข้อความเดียว Hy3 ตอบสนองการแก้ไขแบบรวมได้ดีขอแผนก่อน
Prompt แบบ "วางแผนก่อนแล้วดำเนินการ" ได้ผลลัพธ์ที่แม่นกว่า one-shot
ข้อจำกัดที่ควรทราบก่อนนำไปใช้งานจริง
อัตราการจำกัด free-tier
Shared pool, หากโดน 429 ให้ retry ด้วย exponential backoffโทเค็น reasoning นับเป็นเอาต์พุต
บน free-tier reasoning ฟรี แต่บนแบบชำระเงินจะถูกคิดค่าใช้จ่ายลิขสิทธิ์ไม่ใช่ Apache 2.0
ใช้เชิงพาณิชย์ได้ แต่ต้องอ่าน ลิขสิทธิ์ฉบับเต็มบน GitHub repoหากโฮสต์เอง ต้องใช้ parser ที่ถูกต้อง
vLLM:--tool-call-parser hy_v3/ SGLang:--tool-call-parser hunyuanไม่งั้นจะไม่ได้ผลลัพธ์แบบ structuredเน้นภาษาอังกฤษ/จีน
คะแนนสูงสุดใน C-Eval/CMMLU ภาษาอื่นรองรับผ่าน MMMLU แต่คุณภาพรองลงมายังตามหลังโมเดลเรือธงสหรัฐฯ บางด้าน
HLE ยังต่ำกว่า OpenAI/Google DeepMind ใน reasoning ที่ยาก
เส้นทางด่วนสำหรับนักพัฒนา: Hy3 Preview บวก Apidog
เปิด Apidog
สร้างโปรเจกต์ใหม่ แล้วนำเข้า OpenAI Chat Completions OpenAPI specตั้งค่า base URL
เป็นhttps://openrouter.ai/api/v1และเพิ่มตัวแปรOPENROUTER_API_KEYสร้างคำขอ
เรียก/chat/completionsและระบุ"model": "tencent/hy3-preview:free"Fork คำขอ
ทดสอบ reasoning mode ต่างๆ (no_think,low,high) เปรียบเทียบ latency และ outputบันทึก prompt template
ใช้ environment/variable system ของ Apidog เพื่อ reuse prompt, schema, user turn
หากคุณย้ายมาจาก Postman ดู คู่มือการทดสอบ API โดยไม่ต้องใช้ Postman ในปี 2026
หรือใช้งาน Apidog บน VS Code ได้ตาม คำแนะนำนี้
ทางเลือกฟรีเมื่อคุณถึงขีดจำกัด
Hugging Face Space
Hy3-preview Space เหมาะกับการทดลองแชทในเบราว์เซอร์-
โมเดล open-weights จีนอื่นๆ
Qwen 3.5 Omni ของ Alibaba มี free tier และรองรับ multimodal- ประกาศ Qwen 3.5 Omni
- คู่มือการใช้งาน Qwen 3.5 Omni Zhipu GLM 5V Turbo เป็นอีกทางเลือก free tier ใจกว้าง
- คู่มือ API GLM 5V Turbo
หากต้องการเปรียบเทียบจริง ดาวน์โหลด Apidog และตั้งค่า collection แยกต่อโมเดล เปรียบเทียบด้วย prompt เดียวกันจะเห็นความแตกต่างได้ชัดเจนกว่าดูจากตารางคะแนน
โฮสต์ Hy3 Preview เองด้วย vLLM
ถ้ามีฮาร์ดแวร์ สามารถรัน inference เองบนเครื่องได้
แนะนำใช้ vLLM, tensor parallel 8, เปิด multi-token prediction:
vllm serve tencent/Hy3-preview \
--tensor-parallel-size 8 \
--speculative-config.method mtp \
--speculative-config.num_speculative_tokens 1 \
--tool-call-parser hy_v3 \
--reasoning-parser hy_v3 \
--enable-auto-tool-choice \
--served-model-name hy3-preview
หากใช้ SGLang: ใส่ --tool-call-parser hunyuan และ --reasoning-parser hunyuan
เมื่อตั้งเซิร์ฟเวอร์เสร็จ (เช่น http://localhost:8000/v1) SDK ใดๆ ของ OpenAI สามารถชี้มายังเซิร์ฟเวอร์นี้ เปลี่ยน base URL และ key เท่านั้น
ต้องใช้ GPU ระดับ H100 8 ตัว (BF16) สำหรับ full model รุ่นควอนไทซ์อาจมีในอนาคต
คำถามที่พบบ่อย (FAQ)
Hy3 Preview ฟรีจริงหรือ?
ใช่, OpenRouter ระบุ tencent/hy3-preview:free $0 ต่อล้านโทเค็นอินพุต และเอาต์พุต Reasoning token ฟรีบน free tier (แต่ยังนับในอัตราการจำกัด)
Hy3 Preview เปรียบเทียบกับ DeepSeek V3/Qwen 3 อย่างไร?
คะแนน SWE-bench Verified 74.4, Terminal-Bench 54.4 เทียบเท่าโมเดลจีนชั้นนำ Qwen 3/DeepSeek V3 เหมาะกับแชท, Hy3 เด่นที่ agent/tool use
Reasoning modes ของ Hy3 มีอะไรบ้าง?
-
no_think(ค่าเริ่มต้น) low-
highเปลี่ยนด้วยพารามิเตอร์reasoningบน OpenRouter หรือchat_template_kwargs={"reasoning_effort": "high"}(direct call)
ใช้ Hy3 Preview ในเชิงพาณิชย์ได้ไหม?
ได้ ภายใต้ Tencent Hy Community License (อ่าน ลิขสิทธิ์เต็ม ก่อนฝังใน production)
Free tier รองรับ context กี่ token?
256K tokens (OpenRouter 262,144) วางโค้ดเบสกลางๆ ได้ทั้ง repo
ทดสอบ Hy3 Preview โดยไม่เขียนโค้ดอย่างไร?
- Hugging Face Space
- หรือ config Apidog ชี้ไปที่ OpenRouter (base URL, API key, model name)




Top comments (0)