สรุปย่อ
Qwen 3.6 Plus Preview เปิดตัวเมื่อวันที่ 30 มีนาคม 2026 มาพร้อม context window 1 ล้านโทเค็น, chain-of-thought reasoning ที่เปิดใช้งานตลอด และรองรับการใช้เครื่องมือ ใช้งานได้ฟรีบน OpenRouter ทันที เพียงใช้ model ID qwen/qwen3.6-plus-preview:free กับไคลเอนต์ที่รองรับ OpenAI API
โมเดลที่ปรากฏตัวอย่างเงียบๆ
Alibaba Cloud ได้ปล่อย Qwen 3.6 Plus Preview เมื่อวันที่ 30 มีนาคม 2026 ไม่มีการเปิดตัวอย่างเป็นทางการหรือการรอคิว ใช้งานฟรีบน OpenRouter ที่ $0 ต่อล้านโทเค็น
ในสองวันแรก โมเดลนี้ประมวลผลโทเค็นกว่า 400 ล้านโทเค็นจาก 400,000 คำขอ นักพัฒนายืนยันว่าใช้งานได้เร็ว
บทความนี้จะอธิบายวิธีการตั้งค่าบัญชี, สร้างคีย์ API, ตัวอย่างโค้ด (cURL, Python, Node.js), และคำแนะนำการใช้งานที่เหมาะสมของโมเดลนี้
💡 หากคุณพัฒนาบน AI API ใดๆ ควรมีเครื่องมือทดสอบและดีบักคำขอ Apidog เป็นตัวเลือกฟรีที่ทำงานกับ REST API ทุกชนิด รวมถึง OpenRouter
อ่านจบแล้วคุณจะสามารถเรียกใช้ Qwen 3.6 ฟรี เข้าใจฟีเจอร์หลัก และข้อจำกัดที่ต้องระวัง
Qwen 3.6 เพิ่มอะไรจากซีรีส์ 3.5
การอัปเกรดจาก 3.5 ไป 3.6 มีความเปลี่ยนแปลงสำคัญ 3 ประเด็น:
1. Context window ขยายเป็น 1 ล้านโทเค็น
Qwen 3.5 จำกัดที่ 32K-128K โทเค็น ส่วน 3.6 รองรับ 1 ล้านโทเค็น (≈ 750,000 คำ) เพียงพอสำหรับโค้ดเบส, ข้อมูลแชท, หรือคลังเอกสารขนาดใหญ่ในคำขอเดียว
2. การให้เหตุผล (reasoning) ถูกบังคับใช้ในตัว
Qwen 3.6 จะ chain-of-thought reasoning ทุกคำขอ ไม่ต้อง prompt "คิดทีละขั้นตอน" เพิ่มเติม โมเดลจะสร้างสายความคิดก่อนตอบ
3. พฤติกรรมเอเจนต์แม่นยำขึ้น
การเรียกใช้เครื่องมือกับ 3.6 ทำงานแม่นยำ ฟังก์ชันถูกเรียกอัตโนมัติและถูกต้อง เหมาะกับการสร้างเอเจนต์, front-end generator และงานวิเคราะห์ซับซ้อน
งานที่ Qwen 3.6 เหมาะสม:
- การเขียนโค้ดแบบเอเจนต์ (multi-step & tool use)
- การสร้าง front-end (HTML, CSS, JS)
- การแก้ปัญหาซับซ้อน (วิเคราะห์, สรุป, ประมวลผล context ยาว)
วิธีเข้าถึง Qwen 3.6 ได้ฟรี
ต้องมีบัญชี OpenRouter และ API Key ไม่ต้องใช้บัตรเครดิตสำหรับโมเดลฟรี
ขั้นตอนที่ 1: สร้างบัญชี OpenRouter
ไปที่ openrouter.ai สมัครด้วยอีเมลหรือ Google ใช้เวลาไม่ถึง 2 นาที
ขั้นตอนที่ 2: สร้าง API Key
- คลิกโปรไฟล์ขวาบน
- เลือก API Keys
- คลิก Create Key
- ตั้งชื่อ (เช่น
qwen-test) แล้วคลิก Create - คัดลอกคีย์ที่ขึ้นต้นด้วย
sk-or-v1-...
เก็บคีย์นี้ให้ปลอดภัย จะเห็นเพียงครั้งเดียว
ขั้นตอนที่ 3: ส่งคำขอแรกของคุณ
ใช้ Model ID: qwen/qwen3.6-plus-preview:free
cURL
curl https://openrouter.ai/api/v1/chat/completions \
-H "Authorization: Bearer sk-or-v1-YOUR_KEY_HERE" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen/qwen3.6-plus-preview:free",
"messages": [
{
"role": "user",
"content": "เขียนฟังก์ชัน Python ที่แยกวิเคราะห์โทเค็น JWT และส่งคืน payload เป็น dictionary."
}
]
}'
Python (requests)
import requests
def call_qwen(prompt: str, api_key: str) -> str:
response = requests.post(
"https://openrouter.ai/api/v1/chat/completions",
headers={
"Authorization": f"Bearer {api_key}",
"Content-Type": "application/json",
},
json={
"model": "qwen/qwen3.6-plus-preview:free",
"messages": [{"role": "user", "content": prompt}],
},
timeout=60,
)
response.raise_for_status()
return response.json()["choices"][0]["message"]["content"]
result = call_qwen(
"เขียนฟังก์ชัน Python ที่แยกวิเคราะห์โทเค็น JWT และส่งคืน payload.",
api_key="sk-or-v1-YOUR_KEY_HERE"
)
print(result)
Node.js (fetch)
async function callQwen(prompt, apiKey) {
const response = await fetch("https://openrouter.ai/api/v1/chat/completions", {
method: "POST",
headers: {
"Authorization": `Bearer ${apiKey}`,
"Content-Type": "application/json",
},
body: JSON.stringify({
model: "qwen/qwen3.6-plus-preview:free",
messages: [{ role: "user", content: prompt }],
}),
});
if (!response.ok) {
throw new Error(`OpenRouter error: ${response.status} ${await response.text()}`);
}
const data = await response.json();
return data.choices[0].message.content;
}
callQwen(
"เขียนฟังก์ชัน JavaScript ที่ตรวจสอบความถูกต้องของที่อยู่อีเมล.",
"sk-or-v1-YOUR_KEY_HERE"
).then(console.log);
Python ด้วย OpenAI SDK
from openai import OpenAI
client = OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key="sk-or-v1-YOUR_KEY_HERE",
)
response = client.chat.completions.create(
model="qwen/qwen3.6-plus-preview:free",
messages=[
{
"role": "system",
"content": "คุณคือนักพัฒนาแบ็กเอนด์อาวุโส เขียนโค้ดที่สะอาดพร้อมใช้งานจริง"
},
{
"role": "user",
"content": "เขียนฟังก์ชัน Python ที่ลองส่งคำขอ HTTP ที่ล้มเหลวใหม่ได้สูงสุด 3 ครั้งพร้อมกับการหน่วงเวลาแบบ exponential backoff."
}
],
)
print(response.choices[0].message.content)
การใช้เครื่องมือและเวิร์กโฟลว์แบบเอเจนต์
Qwen 3.6 รองรับการเรียกใช้เครื่องมือ (function calling) ได้ดีในระดับฟรี ตัวอย่างนี้ใช้ OpenAI SDK:
from openai import OpenAI
import json
client = OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key="sk-or-v1-YOUR_KEY_HERE",
)
tools = [
{
"type": "function",
"function": {
"name": "search_api_docs",
"description": "ค้นหาเอกสาร API สำหรับ endpoint หรือพารามิเตอร์ที่ต้องการ",
"parameters": {
"type": "object",
"properties": {
"query": {
"type": "string",
"description": "The search query"
},
"version": {
"type": "string",
"enum": ["v1", "v2", "v3"],
"description": "เวอร์ชัน API ที่จะค้นหา"
}
},
"required": ["query"]
}
}
},
{
"type": "function",
"function": {
"name": "run_api_test",
"description": "เรียกใช้คำขอทดสอบกับ API endpoint",
"parameters": {
"type": "object",
"properties": {
"endpoint": {"type": "string"},
"method": {"type": "string", "enum": ["GET", "POST", "PUT", "DELETE"]},
"body": {"type": "object"}
},
"required": ["endpoint", "method"]
}
}
}
]
messages = [
{
"role": "user",
"content": "ค้นหาเอกสารสำหรับ endpoint /users และเรียกใช้คำขอ GET สำหรับการทดสอบ"
}
]
response = client.chat.completions.create(
model="qwen/qwen3.6-plus-preview:free",
messages=messages,
tools=tools,
tool_choice="auto",
)
message = response.choices[0].message
if message.tool_calls:
for tool_call in message.tool_calls:
print(f"เครื่องมือ: {tool_call.function.name}")
args = json.loads(tool_call.function.arguments)
print(f"อาร์กิวเมนต์: {json.dumps(args, indent=2)}")
else:
print(message.content)
โมเดลจะสร้าง function call ตาม schema ที่กำหนด คุณสามารถวนลูปกับผลลัพธ์เพื่อสร้าง workflow แบบเอเจนต์หลายขั้นตอน
การใช้ context window ขนาด 1 ล้านโทเค็น
Context window 1M โทเค็นเหมาะกับงานต่อไปนี้:
การตรวจสอบโค้ดเบสทั้งชุด
โหลดโค้ดทุกไฟล์จาก directory แล้วส่งเข้าโมเดล:
import os
from pathlib import Path
from openai import OpenAI
client = OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key="sk-or-v1-YOUR_KEY_HERE",
)
def load_codebase(directory: str, extensions: list[str]) -> str:
content_parts = []
for path in Path(directory).rglob("*"):
if path.suffix in extensions and path.is_file():
try:
text = path.read_text(encoding="utf-8", errors="ignore")
content_parts.append(f"--- FILE: {path} ---\n{text}\n")
except Exception:
continue
return "\n".join(content_parts)
codebase = load_codebase("./src", [".py", ".js", ".ts"])
response = client.chat.completions.create(
model="qwen/qwen3.6-plus-preview:free",
messages=[
{
"role": "user",
"content": f"ตรวจสอบโค้ดเบสนี้และระบุ:\n1. ช่องโหว่ด้านความปลอดภัย\n2. ฟังก์ชันที่ไม่มีการจัดการข้อผิดพลาด\n3. รูปแบบการตั้งชื่อที่ไม่สอดคล้องกัน\n\nโค้ดเบส:\n{codebase}"
}
],
)
print(response.choices[0].message.content)
การวิเคราะห์เอกสารขนาดใหญ่
with open("annual_report_2025.txt", "r") as f:
document = f.read()
response = client.chat.completions.create(
model="qwen/qwen3.6-plus-preview:free",
messages=[
{
"role": "user",
"content": f"ดึงข้อมูลการกล่าวถึงข้อจำกัดอัตรา (rate limits) ของ API และการเปลี่ยนแปลงราคาทั้งหมดจากเอกสารนี้:\n\n{document}"
}
],
)
การสนทนาหลายรอบพร้อมประวัติทั้งหมด
conversation = []
def chat(user_message: str) -> str:
conversation.append({"role": "user", "content": user_message})
response = client.chat.completions.create(
model="qwen/qwen3.6-plus-preview:free",
messages=conversation,
)
assistant_message = response.choices[0].message.content
conversation.append({"role": "assistant", "content": assistant_message})
return assistant_message
# ตัวอย่าง session debug ยาวๆ
print(chat("ฉันได้รับข้อผิดพลาด 401 จาก GitHub API นี่คือโค้ดของฉัน..."))
print(chat("ฉันเพิ่มโทเค็นแล้วแต่ตอนนี้ได้รับ 403 โทเค็นมีขอบเขต repo."))
print(chat("repo เป็นส่วนตัว ฉันต้องการขอบเขตอะไรจริงๆ?"))
การทดสอบคำขอ OpenRouter API ด้วย Apidog
เมื่อต้องการ debug หรือทดสอบ OpenRouter API แนะนำให้ใช้ Apidog ไคลเอนต์ API ฟรีที่ช่วยจัดการ request, response และการทดสอบอัตโนมัติ
วิธีทดสอบ Qwen 3.6 endpoint ใน Apidog:
- สร้าง POST request ไปที่
https://openrouter.ai/api/v1/chat/completions - ใส่ header
Authorization: Bearer sk-or-v1-... - Body เป็น JSON มี
modelและmessages - ส่ง request แล้วเช็ค response
สามารถบันทึกเป็น collection, เปลี่ยน Model ID เพื่อเทียบผล หรือเขียน test ตรวจสอบโครงสร้าง response ได้
ถ้าคุณสร้างแอปที่เรียกใช้ OpenRouter แนะนำให้เขียน test ใน Apidog แต่เนิ่นๆ เพื่อลดปัญหาเมื่อโมเดลเปลี่ยนพฤติกรรม
ข้อจำกัดของระดับฟรีที่ควรทราบ
- Rate limit: โมเดลฟรีแชร์กับผู้ใช้ทั้งหมด ช่วงพีค (เช่น เวลาสหรัฐฯ กลางคืน) อาจเจอ delay หรือ error ในการจำกัดอัตรา ควรมี retry logic เสมอ
import time
import requests
from requests.adapters import HTTPAdapter
from urllib3.util.retry import Retry
session = requests.Session()
retry_strategy = Retry(
total=3,
backoff_factor=2,
status_forcelist=[429, 500, 502, 503, 504],
)
adapter = HTTPAdapter(max_retries=retry_strategy)
session.mount("https://", adapter)
response = session.post(
"https://openrouter.ai/api/v1/chat/completions",
headers={"Authorization": "Bearer sk-or-v1-YOUR_KEY_HERE"},
json={
"model": "qwen/qwen3.6-plus-preview:free",
"messages": [{"role": "user", "content": "Hello"}],
},
timeout=30,
)
ข้อมูลจะถูกบันทึก: OpenRouter ระบุว่าพรอมต์และข้อมูลประมวลผลจะถูกรวบรวมเพื่อปรับปรุงโมเดล หลีกเลี่ยงการส่งข้อมูลสำคัญหรือ PII
สถานะพรีวิว: เป็นเวอร์ชัน preview พฤติกรรมอาจเปลี่ยนแปลง ตรวจสอบ Model ID และเฝ้าระวัง error
ข้อความเท่านั้น: Qwen 3.6 รองรับเฉพาะข้อความ ไม่มีภาพ เสียง หรือไฟล์
กรณีใช้งานจริง
เอเจนต์ตรวจสอบโค้ด
ทีม dev ใช้ Qwen 3.6 ตรวจสอบ diff ของ pull request ขนาดใหญ่ (10K+ บรรทัด) เพื่อหา logic bug, test ที่ขาด, และช่องโหว่
สร้าง Front-end Component
dev มือเดียวใช้ Qwen 3.6 สร้าง React component จาก design spec โมเดลสร้าง TypeScript & CSS พร้อม prop type ครบถ้วน
สรุปเอกสาร API
ทีม migrate ข้อมูลระหว่าง API payment ป้อนเอกสาร API ทั้งสอง (~100K โทเค็น) ขอให้สรุป authentication, webhook, rate limit เทียบกัน โมเดลตอบกลับเป็นตารางภายใน 30 วิ
สมัครที่ openrouter.ai รับ API Key แล้วใช้ qwen/qwen3.6-plus-preview:free ทดแทนโมเดลเสียเงินได้ทันที
คำถามที่พบบ่อย
Qwen 3.6 ใช้งานได้ฟรีจริงหรือไม่?
ใช่ ณ มีนาคม 2026 ฟรี $0 ต่อล้านโทเค็นบน OpenRouter สถานะฟรีอาจเปลี่ยนได้หลังพรีวิว ตรวจสอบหน้าราคา OpenRouter ก่อนใช้งานจริง
ข้อจำกัดอัตราการใช้งานระดับฟรีเป็นอย่างไร?
OpenRouter ไม่เปิดเผย rate limit โมเดลฟรีแชร์ traffic อาจถูกจำกัดช่วง peak ส่ง request ทีละรายการ + มี retry logic ก่อนเพิ่ม concurrency
ใช้ Qwen 3.6 เชิงพาณิชย์ได้ไหม?
ได้ OpenRouter อนุญาตให้ใช้งานเชิงพาณิชย์ ตรวจสอบ license Qwen ของ Alibaba Cloud หากมีการแจกจ่าย output
ทำไม Qwen 3.6 ตอบช้ากว่าโมเดลอื่น?
มี chain-of-thought reasoning ตลอด เพิ่ม latency 2-3 วินาทีใน prompt ง่ายๆ งาน reasoning ซับซ้อน latency ที่เพิ่มถือว่าคุ้ม หากต้องการเร็วให้ใช้ stream หรือโมเดลที่ไม่มี reasoning
ปิด reasoning token ได้หรือไม่?
ในพรีวิว reasoning บังคับเปิด ปิดไม่ได้ หากต้องการตอบสนองเร็วขึ้น ให้เลือกโมเดลอื่นหรือขนาดเล็กกว่า (เช่น LLaMA 3.1 8B)
context window 1M โทเค็นมีผลต่อค่าใช้จ่ายหรือไม่?
สำหรับระดับฟรี ไม่มีผล จ่าย $0 ไม่ว่าจะส่งโทเค็นเท่าไร แต่คำขอใหญ่จะประมวลผลนานขึ้นหรือหมดเวลา (timeout) ตั้ง timeout 30-60 วินาทีสำหรับ 100K+ โทเค็น
ทดลองใช้ Apidog วันนี้: https://apidog.com/?utm_source=dev.to&utm_medium=wanda&utm_content=n8n-post-automation


Top comments (0)