DEV Community

Cover image for DeepSeek V4を無料で使う方法
Akira
Akira

Posted on • Originally published at apidog.com

DeepSeek V4を無料で使う方法

DeepSeek V4は2026年4月23日にリリースされ、他の最先端モデルとは異なり無料で利用できます。公式チャット(V4-Pro)はクレジットカード不要で即利用可能。モデルのウェイトはMITライセンスで公開されており、すぐにダウンロードできます。OpenRouterやChutesなどのアグリゲーターも数日以内に無料枠を開放するため、アカウントにチャージする前に本格的なV4のワークロードを無料で実行できます。

今すぐApidogを試す

このガイドでは、すべての無料パスとその適用ユースケース、さらに利用増加時にスムーズに有料へ移行できるようApidogで本番対応コレクションを構築する実践的な方法を示します。

製品概要はDeepSeek V4とは、APIの詳細はDeepSeek V4 APIの使用方法を参照してください。

要するに

  • chat.deepseek.com — V4-Proの無料ウェブチャット。Think High/Max切り替え可能。カード不要で即時利用。
  • Hugging Faceのウェイト + 自身のGPU — MITライセンス。V4-Flashは2~4台のH100で稼働、V4-Proはクラスターが必要。
  • OpenRouterやChutesの無料枠 — DeepSeekリリース直後に無料クォータを開放するサードパーティゲートウェイ。
  • Hugging Face推論プロバイダー — 初期実験向けに公開された共有・レート制限エンドポイント。
  • Kaggle、Colab、RunPodのトライアルクレジット — セルフホスティング一度きりの実験用の無料計算リソース。
  • すべての無料パスには上限あり。本番運用は上限到達前に有料へ移行してください。

画像

パス1:chat.deepseek.com(デフォルトの無料パス)

最速かつ信頼性が高い無料パスは公式チャットインターフェースです。V4-Proがデフォルトで、非思考・思考高・思考最大の3モードをコンポーザー上部で切り替え可能。

画像

セットアップ

  1. chat.deepseek.comを開く
  2. メール、Google、WeChatでサインイン
  3. アクティブモデルがV4-Proであることを確認
  4. 入力開始

得られるもの

  • 1Mトークンのコンテキストウィンドウ
  • PDF/画像/コードバンドルのファイルアップロード
  • オンデマンドWeb検索
  • 3つの推論モード(Think Max含む)
  • 会話履歴とフォルダ管理

上限について

1日あたりのメッセージ数は非公開。負荷が高まるとソフトに制限され、応答遅延やキューイングが発生しますが、ハードブロックは稀。継続的なレート制限はAPI移行を検討するサインです。

適したタスク: 高難度プロンプトの比較、リポジトリのtarball貼付けでのアーキテクチャレビュー、大規模な契約書のThink Max実行など

不向きなタスク: 自動化や再現性が必要な作業

パス2:自身のGPUでV4-Flashをセルフホスト

V4-FlashはMITライセンスで提供され、実質的に誰でもセルフホスト可能です。FP8で約500GB、INT4量子化で80GBカード1枚に収まります。

コストはライセンスではなくハードウェア。既存GPUがあれば最も持続可能な無料パスです。

ウェイトをプルする

pip install -U "huggingface_hub[cli]"
huggingface-cli login
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash \
  --local-dir ./models/deepseek-v4-flash
Enter fullscreen mode Exit fullscreen mode

FP8:約500GB。ディスク容量に注意。

vLLMでサービング

pip install "vllm>=0.9.0"

vllm serve deepseek-ai/DeepSeek-V4-Flash \
  --tensor-parallel-size 4 \
  --max-model-len 1048576 \
  --dtype auto \
  --port 8000
Enter fullscreen mode Exit fullscreen mode

起動後、OpenAI互換クライアントを http://localhost:8000/v1 に向けて利用可能。有料DeepSeek APIと同じリクエスト形式を受け付けます。ApidogでベースURLを切り替えるだけで既存コレクションをそのまま使えます。

ハードウェアの現実的な確認

バリアント 最小カード数 (FP8) 最小カード数 (INT4) 現実的なスループット
V4-Flash H100 80GB × 2 H100 80GB × 1 50~150トークン/秒
V4-Pro H100 80GB × 16 H100 80GB × 8 クラスターに依存

遊休カードがない場合はAPI利用の方が費用対効果が高いです。セルフホストは既存リソースがある、または厳格なコンプライアンス要件がある場合に有効。

パス3:OpenRouterの無料枠

OpenRouterは、オープン/クローズドモデルを単一API経由で利用できるアグリゲーター。DeepSeek新リリース時には無料枠を定期的に提供します(V3系も同様)。

画像

セットアップ

  1. openrouter.aiにサインアップ
  2. APIキー発行
  3. モデルカタログで deepseek/deepseek-v4-pro または deepseek/deepseek-v4-flash を確認(無料バリアントには:freeサフィックス)
  4. OpenAI互換SDKで利用
from openai import OpenAI

client = OpenAI(
    api_key=OPENROUTER_KEY,
    base_url="https://openrouter.ai/api/v1",
)

response = client.chat.completions.create(
    model="deepseek/deepseek-v4-flash:free",
    messages=[{"role": "user", "content": "Write a Python CLI for semver bumping."}],
)

print(response.choices[0].message.content)
Enter fullscreen mode Exit fullscreen mode

上限

通常、キーごとに1日数百リクエスト。負荷増大時は優先度低下。プロトタイピング向きで本番利用には不向き。

パス4:Hugging Face推論プロバイダー

Hugging FaceはV4チェックポイントを即日推論サービスとして公開。レート制限やレイテンシーはありますが、無料でAPI利用可能。

from huggingface_hub import InferenceClient

client = InferenceClient(model="deepseek-ai/DeepSeek-V4-Flash")

response = client.chat_completion(
    messages=[{"role": "user", "content": "Summarize the V4 technical report in 5 bullets."}],
    max_tokens=512,
)

print(response.choices[0].message.content)
Enter fullscreen mode Exit fullscreen mode

HFトークンは無料。頻度が高い場合はProへアップグレード。公式APIに比べてコストは圧倒的に低い。

パス5:Colab、Kaggle、RunPod、Lambdaのトライアルクレジット

主要GPUレンタルプロバイダーのトライアルを活用し、費用ゼロでV4-Flashの実験が可能。

  • Google Colab: 無料T4は容量不足。Colab Pro+はA100でV4-Flash実験に十分。
  • Kaggle: T4/P100で毎週無料GPU時間。量子化V4-Flashの実験向き。
  • RunPod: $10トライアルでH100を数時間利用可能。vLLM起動&ベンチマークも余裕。
  • Lambda: H100/H200で期間限定無料プロモ有り。要サインアップページ確認。

いずれも長期利用は不可。限定的な一回実験向き。

プロバイダーに依存しないApidogコレクションの構築

複数の無料パスを同一ワークフローでA/Bテストできるのが大きな利点です。

手順:

  1. Apidogをダウンロード
  2. 4つの環境を持つコレクション作成:
    • chat(プレースホルダー)
    • deepseekhttps://api.deepseek.com/v1
    • openrouterhttps://openrouter.ai/api/v1
    • self-hostedhttp://localhost:8000/v1
  3. {{BASE_URL}}/chat/completionsへのPOSTリクエストを保存
  4. 各プロバイダーのキーをシークレット変数で管理し、リクエストボディを共通化
  5. 環境を切り替えて各バックエンドで同一プロンプトをA/Bテスト

これはGPT-5.5無料枠コレクションと同様のパターンです。1ツールで全プロバイダーに対応、作業の重複なし。

どの無料パスを選ぶべきか?

判断基準は以下の通り:

  • 5分で意見を形成したいchat.deepseek.com
  • プロダクトのプロトタイプを作りたい → OpenRouter無料枠を使い切ったらDeepSeekにチャージ
  • GPU/コンプライアンス要件あり → vLLM+V4-Flashセルフホスト
  • 長期無料利用したい → できません。どこかで必ず上限有り。対話作業はchat.deepseek.com、自動化は有料チャージ併用を。

無料利用から移行すべきタイミング

次のいずれかに該当したら有料APIへ移行を検討してください。

  1. 1日に複数回レート制限に達する → ワークロードが予算化に値する規模
  2. SLAが必要 → 無料枠では保証なし。公式APIのみ対応
  3. ログ・監査・コンプライアンスが必要 → 有料APIは請求記録あり、無料枠は不可

該当時は公式APIに移行を。最低チャージ2ドル、トークン単価は最先端層で最安。

よくある質問

chat.deepseek.comは本当に無料?

はい。クレジットカード・トライアル期間不要。ソフト制限はありますが有料化されていません。

ウェイトをダウンロードするのにHugging Faceアカウントは必要?

不要ですが、ログイン済みアカウントの方がレート制限が緩和されます。

どの無料パスでV4-Proが実行される?

chat.deepseek.comは完全なV4-Pro。OpenRouter無料枠はV4-Flashが多い。V4-Pro出力が必要で無料にこだわるならウェブチャット一択。

製品バックエンドに無料枠を使える?

不可。無料枠はレート制限・規約変更・消滅リスク有り。顧客提供は有料APIまたはセルフホスト必須。

セルフホストは本当に無料?

ライセンスは無料だがハードウェアは別。既存GPUなら限界費用は電気代のみ。レンタルGPUなら有料APIの方が安価な場合も。

Apidogのテスト用無料枠はある?

ApidogはAPI設計・テスト用途で無料利用可。有料API利用時のみクレジット消費。無料Apidogワークスペース+chat.deepseek.comまたはOpenRouterの組み合わせで完全無料ワークフローも可能です。

Top comments (0)