DEV Community

Cover image for วิธีใช้ DeepSeek V4: Web Chat, API และการติดตั้งด้วยตนเอง
Thanawat Wongchai
Thanawat Wongchai

Posted on • Originally published at apidog.com

วิธีใช้ DeepSeek V4: Web Chat, API และการติดตั้งด้วยตนเอง

DeepSeek V4 เปิดตัวเมื่อวันที่ 23 เมษายน 2026 พร้อมเช็คพอยต์ 4 แบบ, API ที่พร้อมใช้งาน, และโมเดลน้ำหนักที่ให้สิทธิ์แบบ MIT บน Hugging Face คุณสามารถเลือกใช้งานได้หลายทางขึ้นกับความต้องการ ไม่ว่าจะเข้าถึงทันที เรียกใช้ API สำหรับ production หรือปรับใช้แบบ On-Premise บทความนี้สรุปวิธีใช้งานทั้งสามเส้นทาง พร้อมข้อดีข้อเสียและตัวอย่างเวิร์กโฟลว์สำหรับ production ที่คุณสามารถนำไปใช้ซ้ำได้ทันที ลองใช้ Apidog วันนี้ หากต้องการภาพรวมผลิตภัณฑ์ อ่าน DeepSeek V4 คืออะไร สำหรับคู่มือการใช้งาน API ดูที่ คู่มือ DeepSeek V4 API หรือหากต้องการใช้งานฟรี ดู วิธีใช้ DeepSeek V4 ฟรี เมื่อต้องการทดสอบคำขอ API จริง ดาวน์โหลด Apidog และสร้างคอลเลกชันไว้ล่วงหน้า

TL;DR

  • เร็วสุด: chat.deepseek.com เว็บแชทฟรี, V4-Pro เป็น default, มี 3 โหมด reasoning
  • สำหรับ production: https://api.deepseek.com/v1/chat/completions ใช้ model IDs deepseek-v4-pro หรือ deepseek-v4-flash
  • Self-hosted: ดึงน้ำหนักโมเดลจาก Hugging Face, รันสคริปต์ /inference ใน repo
  • เลือก Non-Think สำหรับ routing/classification, Think High สำหรับงานโค้ด/วิเคราะห์, Think Max เมื่อเน้นความแม่นยำ
  • ปรับ sampling ตาม DeepSeek: temperature=1.0, top_p=1.0
  • ใช้ Apidog เป็น API client; รูปแบบ compatible กับ OpenAI ส่งคำขอซ้ำได้ระหว่าง DeepSeek, OpenAI, Anthropic
image-220.png

เลือกเส้นทางที่เหมาะสมกับปริมาณงานของคุณ

เลือกวิธีใช้งานตามความต้องการและข้อจำกัดของคุณ ตารางเปรียบเทียบ:

เส้นทาง ค่าใช้จ่าย เวลาในการตั้งค่า เหมาะสำหรับ
chat.deepseek.com ฟรี 30 วินาที ทดสอบด่วน, งาน ad-hoc
DeepSeek API คิดค่าบริการตามโทเค็น 5 นาที production, agent, งาน batch
V4-Flash Self-hosted จ่ายเฉพาะฮาร์ดแวร์ ไม่กี่ชั่วโมง ข้อกำหนดภายใน, offline inference
V4-Pro Self-hosted จ่ายเฉพาะ cluster หนึ่งวัน วิจัย, ปรับแต่งโมเดล
OpenRouter / Aggregator คิดค่าบริการตามโทเค็น 2 นาที multi-provider backup

เส้นทางที่ 1: ใช้ V4 ในเว็บแชท

เริ่มต้นเร็วสุดด้วยอินเทอร์เฟซแชทอย่างเป็นทางการ:

  1. ไปที่ chat.deepseek.com
  2. เข้าสู่ระบบด้วยอีเมล, Google หรือ WeChat
  3. V4-Pro คือโมเดลเริ่มต้น สลับโหมด Non-Think / Think High / Think Max ได้ที่ด้านบนกล่องข้อความ
  4. เริ่มใช้งานทันที
image-221.png
  • รองรับอัปโหลดไฟล์, web search, บริบท 1M โทเค็น
  • มี rate limit ระดับบัญชี; ใช้งานหนักอาจช้าลงแต่ไม่โดนบล็อก
  • เหมาะกับ: debug, สรุป PDF, เทียบ prompt กับ GPT-5.5/Claude
  • ไม่เหมาะกับ: งานที่ต้องการ automation หรือ replay

เส้นทางที่ 2: ใช้ DeepSeek API

เหมาะสำหรับงานจริงและ production รองรับรูปแบบ OpenAI

ขั้นตอนรับ API Key

  1. สมัครที่ platform.deepseek.com
  2. เพิ่มวิธีจ่ายเงิน ขั้นต่ำเริ่ม $2
  3. สร้าง API key ใน API Keys และคัดลอกทันที
export DEEPSEEK_API_KEY="sk-..."

Minimal API Request

curl https://api.deepseek.com/v1/chat/completions \
  -H "Authorization: Bearer $DEEPSEEK_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v4-pro",
    "messages": [
      {"role": "user", "content": "Refactor this Python function to async. Reply with code only."}
    ],
    "thinking_mode": "thinking"
  }'
  • เปลี่ยน deepseek-v4-pro เป็น deepseek-v4-flash ถ้าต้องการประหยัด
  • เปลี่ยน thinking เป็น non-thinking สำหรับ fast-path

ตัวอย่าง Python Client

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.environ["DEEPSEEK_API_KEY"],
    base_url="https://api.deepseek.com/v1",
)

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "You are a concise senior engineer."},
        {"role": "user", "content": "Explain the CSA+HCA hybrid attention stack."},
    ],
    extra_body={"thinking_mode": "thinking_max"},
    temperature=1.0,
    top_p=1.0,
)

print(response.choices[0].message.content)

ตัวอย่าง Node Client

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DEEPSEEK_API_KEY,
  baseURL: "https://api.deepseek.com/v1",
});

const response = await client.chat.completions.create({
  model: "deepseek-v4-flash",
  messages: [{ role: "user", content: "Write a fizzbuzz in Rust." }],
  temperature: 1.0,
  top_p: 1.0,
});

console.log(response.choices[0].message.content);

ดูรายละเอียดปลายทาง, ตารางพารามิเตอร์, และ error handling เพิ่มเติมใน คู่มือ DeepSeek V4 API

เส้นทางที่ 3: Automate & Replay ด้วย Apidog

ใช้ Curl สำหรับ request เดี่ยว ๆ แต่สำหรับ automation หรือ replay หลายรอบ Apidog จะสะดวกกว่า

  1. ดาวน์โหลด Apidog สำหรับ Mac, Windows, หรือ Linux
  2. สร้างโปรเจกต์ API ใหม่, เพิ่ม POST request ไปที่ https://api.deepseek.com/v1/chat/completions
  3. ใส่ Authorization: Bearer {{DEEPSEEK_API_KEY}} ใน Header และเก็บ key ใน environment variable
  4. วาง content JSON แรกแล้วบันทึก ปรับแต่งและ replay ได้ง่าย
  5. ใช้ response viewer ในตัวเปรียบเทียบ reasoning trace ระหว่าง Non-Think กับ Think Max

คอลเลกชันเดียวกันเก็บทั้ง OpenAI GPT-5.5, Claude, DeepSeek V4 requests ได้ ทำ A/B test ข้าม provider ได้ง่าย และดู billing ทุกรายการในที่เดียว สำหรับทีมที่ใช้ Apidog อยู่แล้ว แค่เปลี่ยน Base URL จาก คอลเลกชัน GPT-5.5 API เดิมก็พร้อมใช้งานกับ V4

เส้นทางที่ 4: Self-host V4-Flash

ถ้าคุณต้องการควบคุมเต็มที่ เลือก self-host ด้วย MIT license

ฮาร์ดแวร์ที่ต้องใช้

  • V4-Flash (13B ใช้งาน, 284B รวม): H100/H200/MI300X 2-4 ใบ FP8, ควอนไทซ์ INT4 รันบน 80GB ได้
  • V4-Pro (49B ใช้งาน, 1.6T รวม): ต้องใช้ H100 16-32 ใบ สำหรับ production inference

ดึงน้ำหนักโมเดล

pip install -U "huggingface_hub[cli]"
huggingface-cli login
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash \
  --local-dir ./models/deepseek-v4-flash \
  --local-dir-use-symlinks False

V4-Flash ~500GB (FP8), V4-Pro หลาย TB

เรียกใช้งาน Inference

pip install "vllm>=0.9.0"

vllm serve deepseek-ai/DeepSeek-V4-Flash \
  --tensor-parallel-size 4 \
  --max-model-len 1048576 \
  --dtype auto
  • เมื่อ vLLM ขึ้นแล้ว ใช้ client ที่ compatible กับ OpenAI ชี้ไป http://localhost:8000/v1
  • คอลเลกชัน Apidog เดิมใช้ต่อได้ แค่เปลี่ยน Base URL

การใช้ prompt V4 อย่างมีประสิทธิภาพ

  1. ระบุโหมด reasoning ที่ต้องการ กำหนด thinking_mode ตรงกับงาน อย่าให้โมเดลเลือกเอง
  2. System Prompt สำหรับ persona เท่านั้น ใส่รายละเอียดงานใน user prompt แทน system prompt
  3. งานโค้ดแนบ test harness เช่นเดียวกับ LiveCodeBench, แปะ test case ที่ไม่ผ่านด้วย จะได้โค้ดที่ผ่านจริง

สำหรับ context ยาว (หลายแสนโทเค็น) ให้เน้นเนื้อหาสำคัญไว้ต้น/ท้าย context window แม้จะมี Hybrid Attention ก็ตาม

การควบคุมค่าใช้จ่าย

  • เริ่มที่ V4-Flash + Non-Think แล้วค่อยอัปเกรดเมื่อจำเป็น
  • จำกัด max_tokens 1M คือ limit ไม่ใช่เป้าหมาย คำตอบส่วนใหญ่พอดีที่ 2,000 โทเค็น
  • ใน Apidog กำหนด environment variable DEEPSEEK_API_KEY แยก dev/prod
  • Apidog แสดง token usage ทุก request

ย้ายจาก DeepSeek V3 หรือโมเดลอื่น

  • จาก deepseek-chat / deepseek-reasoner: เปลี่ยน model ID เป็น deepseek-v4-pro หรือ deepseek-v4-flash ก่อน 24 ก.ค. 2026
  • จาก OpenAI GPT-5.x: เปลี่ยน Base URL เป็น https://api.deepseek.com/v1 และ model ID, รูปแบบ request อื่นใช้เหมือนเดิม (ดูคู่มือ GPT-5.5 API)
  • จาก Anthropic Claude: ใช้ https://api.deepseek.com/anthropic หรือปรับเป็นรูปแบบ OpenAI

FAQ

ต้องมีบัญชีแบบชำระเงินไหม? เว็บแชทฟรี API ต้องเติมเงินขั้นต่ำ $2 ดู วิธีใช้ DeepSeek V4 ฟรี

ควรใช้รุ่นไหนเป็น default? เริ่มที่ V4-Flash + Non-Think วัดคุณภาพก่อนอัปเกรด

V4 รันบน MacBook ได้ไหม? V4-Flash รันบน M3 Max/M4 Max (128GB RAM) ได้แต่ช้ามาก V4-Pro ไม่เหมาะ ใช้ API หรือเว็บแชทจะสะดวกกว่า

V4 รองรับฟังก์ชันและ tool calling ไหม? รองรับผ่าน OpenAI tools array และรูปแบบ Anthropic

จะ stream response ยังไง? ใส่ stream: true ใน request body ได้ SSE stream compatible กับ OpenAI เลย

มี rate limit ไหม? Hosted API มี limit ตามระดับ ดู api-docs.deepseek.com Self-hosted ไม่มี limit นอกจากกำลังฮาร์ดแวร์

Top comments (0)