DEV Community

Cover image for วิธีใช้ Hy3 Preview API ฟรี
Thanawat Wongchai
Thanawat Wongchai

Posted on • Originally published at apidog.com

วิธีใช้ Hy3 Preview API ฟรี

Tencent ได้เปิดตัว Hy3 Preview ในวันที่ 22 เมษายน 2026 และภายในหนึ่งวัน OpenRouter ก็ได้จัดให้เป็นปลายทางที่ใช้งานได้ฟรีโดยสมบูรณ์ ไม่ต้องใช้บัตรเครดิต ไม่มีการคิดค่าโทเค็น ไม่ต้องทดลองใช้ คุณสามารถเรียกใช้โมเดล Mixture-of-Experts ขนาด 295B พารามิเตอร์ตัวเดียวกันที่ขับเคลื่อนแอป Yuanbao และผู้ช่วย CodeBuddy ของ Tencent ได้จากโค้ดของคุณเองตั้งแต่วันนี้ โดยไม่มีค่าใช้จ่าย

ทดลองใช้ Apidog วันนี้

คู่มือนี้แสดงวิธีการใช้ Hy3 Preview API ฟรีผ่าน OpenRouter, Hugging Face Space และ Hy3 repo ดั้งเดิม นอกจากนี้ยังครอบคลุมโหมดการให้เหตุผลที่ทำให้ Hy3 แตกต่างจากโมเดลเปิดส่วนใหญ่ในปี 2026 และวิธีทดสอบ API ภายใน Apidog โดยไม่ต้องเขียนสคริปต์ที่ใช้แล้วทิ้ง

หากคุณต้องการวิธีที่เร็วที่สุดในการรับคำตอบแรก ให้ข้ามไปที่หัวข้อ "ขั้นตอน: เรียกใช้ Hy3 Preview ฟรีบน OpenRouter"

สรุป (TL;DR)

  • Hy3 Preview ใช้งานได้ฟรีบน OpenRouter ภายใต้ Model ID tencent/hy3-preview:free โดยมีค่าใช้จ่ายอินพุต $0 และเอาต์พุต $0
  • เป็น โมเดล Mixture-of-Experts: พารามิเตอร์ทั้งหมด 295B, ทำงาน 21B, 192 experts พร้อมการกำหนดเส้นทางแบบ top-8 และ หน้าต่างบริบทขนาด 256K โทเค็น
  • มี สามโหมดการให้เหตุผล ในตัว: no_think สำหรับคำตอบที่รวดเร็ว, low และ high สำหรับ chain-of-thought agent และการเขียนโค้ด
  • ผลการทดสอบมาตรฐานแข็งแกร่งสำหรับ open-weights: SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42
  • ใช้งานฟรีได้ 3 ทาง: OpenRouter free tier, Hugging Face Hy3-preview Space หรือ self-host vLLM ด้วย open weights
  • Apidog รองรับ OpenRouter endpoint โดยตรง เพราะ Hy3 ใช้ OpenAI Chat Completions schema; ส่งคำขอไปยัง OpenRouter ได้ทันที

Hy3 Preview คืออะไร?

Hy3 Preview คือการเปิดตัวโมเดลเรือธงจากทีมโมเดลพื้นฐาน Hunyuan ของ Tencent ปัจจุบันนำโดย Yao Shunyu (อดีต OpenAI) มุ่งเน้นการใช้งานด้าน agent และ reasoning เป็นพิเศษ แข่งขันกับ DeepSeek, Alibaba, Zhipu ในตลาดโมเดล open-weights ของจีน

Hy3-preview Model Overview

ข้อมูลทางเทคนิคจาก model card อย่างเป็นทางการ เน้นการทำงานแบบ agent-first:

  • สถาปัตยกรรม: Mixture-of-Experts, 80 เลเยอร์บวกหนึ่งเลเยอร์ MTP, 64 attention heads + grouped-query attention
  • พารามิเตอร์: รวม 295B, ทำงาน 21B ต่อ forward pass
  • Experts: 192 ผู้เชี่ยวชาญ (top-8 routing ต่อโทเค็น)
  • บริบท: 256K โทเค็น (262,144 บน OpenRouter)
  • Tokenizer: คลังคำศัพท์ 120,832 รายการ BF16
  • ลิขสิทธิ์: Tencent Hy Community License, ใช้เชิงพาณิชย์ได้ตามเงื่อนไข

Hy3 โดดเด่นกว่าด้วยการฝึก agentic และโครงสร้าง RL สำหรับการใช้งานเครื่องมือหลายรอบ คะแนน SWE-bench, Terminal-Bench, WildClawBench นำหน้าหลายโมเดล MoE ขนาดใหญ่

Agentic RL Results

สามวิธีใช้ Hy3 Preview ฟรี

มี 3 เส้นทาง ขึ้นกับว่าคุณต้องการ UI แชท, API หรือรันโมเดลเอง

เส้นทาง คืออะไร ฟรีหรือไม่? เหมาะสำหรับ
OpenRouter tencent/hy3-preview:free Hosted OpenAI-compatible API ใช่, $0 การสร้าง agent, สคริปต์, ฟีเจอร์ backend
Hugging Face Space การสาธิตแชทในเบราว์เซอร์ ใช่ ทดลอง/ทดสอบเร็ว
Self-hosted weights (vLLM / SGLang) รัน open weights บน GPU ฟรี (ค่า HW) งาน sensitive, ปริมาณสูง

โดยทั่วไป เส้นทาง OpenRouter สั้นสุด เหมาะกับ developer ที่ต้องการ API พร้อมใช้งาน และ free tier เพียงพอสำหรับ prototyping

ขั้นตอน: เรียกใช้ Hy3 Preview ฟรีบน OpenRouter

  1. สร้างบัญชี OpenRouter

    สมัครที่ openrouter.ai ใช้อีเมล ไม่ต้องใช้บัตรเครดิตสำหรับ free-tier

  2. สร้าง API key

    ไปที่แดชบอร์ด OpenRouter เลือก "Keys" แล้วสร้างคีย์ใหม่ คัดลอกไปตั้งค่า environment:

   export OPENROUTER_API_KEY=sk-or-...
Enter fullscreen mode Exit fullscreen mode
  1. เปิดหน้าโมเดล ไปที่ Hy3 Preview ฟรีบน OpenRouter ตรวจสอบแบนเนอร์ว่า "Free" และดูสถิติการใช้งาน

Model Free Tier

  1. ส่งคำขอแรกของคุณ ใช้ OpenAI Chat Completions schema ได้ทันที ตัวอย่างด้วย curl:
   curl https://openrouter.ai/api/v1/chat/completions \
     -H "Authorization: Bearer $OPENROUTER_API_KEY" \
     -H "Content-Type: application/json" \
     -d '{
       "model": "tencent/hy3-preview:free",
       "messages": [
         {"role": "user", "content": "Explain the MoE routing decision inside a top-8 of 192 setup in 3 sentences."}
       ],
       "temperature": 0.9,
       "top_p": 1.0
     }'
Enter fullscreen mode Exit fullscreen mode
  1. เปิดใช้ Reasoning Mode ตามต้องการ ใส่พารามิเตอร์ reasoning เพื่อเปิด chain-of-thought:
   {
     "model": "tencent/hy3-preview:free",
     "messages": [
       {"role": "user", "content": "Plan, then write a Bash script that rotates daily log files older than 30 days into a dated archive folder."}
     ],
     "reasoning": {"effort": "high"}
   }
Enter fullscreen mode Exit fullscreen mode
  1. วนซ้ำ ส่งข้อความต่อใน thread เดียวกันเพื่อคง context (Hy3 รองรับ 256K tokens)

OpenRouter Hy3 Example

ฟรี, พลัส, และโฮสต์เอง: สิ่งที่แตกต่างกัน

ความสามารถ OpenRouter ฟรี OpenRouter แบบชำระเงิน โฮสต์เอง (vLLM/SGLang)
ค่าใช้จ่ายต่อโทเค็น $0 ตามผู้ให้บริการ ค่าไฟ + GPU
Reasoning modes no_think, low, high เหมือนกัน เหมือนกัน
บริบท 256K 256K 256K (ถ้า HW เอื้อ)
ปริมาณงาน Shared pool เฉพาะทาง ตามคลัสเตอร์
อัตราจำกัด Free-tier limit ตามผู้ให้ ไม่มี
การเก็บข้อมูล OpenRouter policy ตามผู้ให้ อยู่บนฮาร์ดแวร์คุณ
Reasoning token visibility ใช่ ใช่ ใช่

Free เหมาะสำหรับต้นแบบ, ประเมินมาตรฐาน หรือ agent ปริมาณต่ำ หากปริมาณสูง/latency สำคัญ ให้เลือกแบบชำระเงินหรือโฮสต์เอง

เคล็ดลับ Prompt และ Parameter เพื่อดึงประสิทธิภาพสูงสุดจาก Hy3

  • ปรับอุณหภูมิ (temperature) ให้เหมาะกับงาน

    เริ่มที่ temperature=0.9, top_p=1.0 ลดเหลือ 0.3 สำหรับเอาต์พุตที่เน้นโครงสร้าง

  • ใช้ no_think เป็นค่าเริ่มต้น

    เหมาะกับแชททั่วไป เปิด low/high เฉพาะเมื่อต้องการ reasoning หรือเขียนโค้ดหลายขั้น

  • ตั้งชื่อเครื่องมือใน system prompt

    เพิ่มรายละเอียด tool ใน prompt เพื่อผลลัพธ์ที่แม่นยำยิ่งขึ้น โดยเฉพาะเมื่อใช้ agent

  • อ้างอิงโค้ดจริง

    ใช้ context window 256K วางไฟล์โค้ดแทนการให้โมเดลจินตนาการ

  • รวมการแก้ไขหลายไฟล์

    ส่งข้อมูลหลายไฟล์ในข้อความเดียว Hy3 ตอบสนองการแก้ไขแบบรวมได้ดี

  • ขอแผนก่อน

    Prompt แบบ "วางแผนก่อนแล้วดำเนินการ" ได้ผลลัพธ์ที่แม่นกว่า one-shot

ข้อจำกัดที่ควรทราบก่อนนำไปใช้งานจริง

  • อัตราการจำกัด free-tier

    Shared pool, หากโดน 429 ให้ retry ด้วย exponential backoff

  • โทเค็น reasoning นับเป็นเอาต์พุต

    บน free-tier reasoning ฟรี แต่บนแบบชำระเงินจะถูกคิดค่าใช้จ่าย

  • ลิขสิทธิ์ไม่ใช่ Apache 2.0

    ใช้เชิงพาณิชย์ได้ แต่ต้องอ่าน ลิขสิทธิ์ฉบับเต็มบน GitHub repo

  • หากโฮสต์เอง ต้องใช้ parser ที่ถูกต้อง

    vLLM: --tool-call-parser hy_v3 / SGLang: --tool-call-parser hunyuan ไม่งั้นจะไม่ได้ผลลัพธ์แบบ structured

  • เน้นภาษาอังกฤษ/จีน

    คะแนนสูงสุดใน C-Eval/CMMLU ภาษาอื่นรองรับผ่าน MMMLU แต่คุณภาพรองลงมา

  • ยังตามหลังโมเดลเรือธงสหรัฐฯ บางด้าน

    HLE ยังต่ำกว่า OpenAI/Google DeepMind ใน reasoning ที่ยาก

เส้นทางด่วนสำหรับนักพัฒนา: Hy3 Preview บวก Apidog

  1. เปิด Apidog

    สร้างโปรเจกต์ใหม่ แล้วนำเข้า OpenAI Chat Completions OpenAPI spec

  2. ตั้งค่า base URL

    เป็น https://openrouter.ai/api/v1 และเพิ่มตัวแปร OPENROUTER_API_KEY

  3. สร้างคำขอ

    เรียก /chat/completions และระบุ "model": "tencent/hy3-preview:free"

  4. Fork คำขอ

    ทดสอบ reasoning mode ต่างๆ (no_think, low, high) เปรียบเทียบ latency และ output

  5. บันทึก prompt template

    ใช้ environment/variable system ของ Apidog เพื่อ reuse prompt, schema, user turn

หากคุณย้ายมาจาก Postman ดู คู่มือการทดสอบ API โดยไม่ต้องใช้ Postman ในปี 2026

หรือใช้งาน Apidog บน VS Code ได้ตาม คำแนะนำนี้

ทางเลือกฟรีเมื่อคุณถึงขีดจำกัด

หากต้องการเปรียบเทียบจริง ดาวน์โหลด Apidog และตั้งค่า collection แยกต่อโมเดล เปรียบเทียบด้วย prompt เดียวกันจะเห็นความแตกต่างได้ชัดเจนกว่าดูจากตารางคะแนน

โฮสต์ Hy3 Preview เองด้วย vLLM

ถ้ามีฮาร์ดแวร์ สามารถรัน inference เองบนเครื่องได้

แนะนำใช้ vLLM, tensor parallel 8, เปิด multi-token prediction:

vllm serve tencent/Hy3-preview \
  --tensor-parallel-size 8 \
  --speculative-config.method mtp \
  --speculative-config.num_speculative_tokens 1 \
  --tool-call-parser hy_v3 \
  --reasoning-parser hy_v3 \
  --enable-auto-tool-choice \
  --served-model-name hy3-preview
Enter fullscreen mode Exit fullscreen mode

หากใช้ SGLang: ใส่ --tool-call-parser hunyuan และ --reasoning-parser hunyuan

เมื่อตั้งเซิร์ฟเวอร์เสร็จ (เช่น http://localhost:8000/v1) SDK ใดๆ ของ OpenAI สามารถชี้มายังเซิร์ฟเวอร์นี้ เปลี่ยน base URL และ key เท่านั้น

ต้องใช้ GPU ระดับ H100 8 ตัว (BF16) สำหรับ full model รุ่นควอนไทซ์อาจมีในอนาคต

คำถามที่พบบ่อย (FAQ)

Hy3 Preview ฟรีจริงหรือ?

ใช่, OpenRouter ระบุ tencent/hy3-preview:free $0 ต่อล้านโทเค็นอินพุต และเอาต์พุต Reasoning token ฟรีบน free tier (แต่ยังนับในอัตราการจำกัด)

Hy3 Preview เปรียบเทียบกับ DeepSeek V3/Qwen 3 อย่างไร?

คะแนน SWE-bench Verified 74.4, Terminal-Bench 54.4 เทียบเท่าโมเดลจีนชั้นนำ Qwen 3/DeepSeek V3 เหมาะกับแชท, Hy3 เด่นที่ agent/tool use

Reasoning modes ของ Hy3 มีอะไรบ้าง?

  • no_think (ค่าเริ่มต้น)
  • low
  • high เปลี่ยนด้วยพารามิเตอร์ reasoning บน OpenRouter หรือ chat_template_kwargs={"reasoning_effort": "high"} (direct call)

ใช้ Hy3 Preview ในเชิงพาณิชย์ได้ไหม?

ได้ ภายใต้ Tencent Hy Community License (อ่าน ลิขสิทธิ์เต็ม ก่อนฝังใน production)

Free tier รองรับ context กี่ token?

256K tokens (OpenRouter 262,144) วางโค้ดเบสกลางๆ ได้ทั้ง repo

ทดสอบ Hy3 Preview โดยไม่เขียนโค้ดอย่างไร?

Top comments (0)