DeepSeek V4は2026年4月23日にリリースされ、他の最先端モデルとは異なり無料で利用できます。公式チャット(V4-Pro)はクレジットカード不要で即利用可能。モデルのウェイトはMITライセンスで公開されており、すぐにダウンロードできます。OpenRouterやChutesなどのアグリゲーターも数日以内に無料枠を開放するため、アカウントにチャージする前に本格的なV4のワークロードを無料で実行できます。
このガイドでは、すべての無料パスとその適用ユースケース、さらに利用増加時にスムーズに有料へ移行できるようApidogで本番対応コレクションを構築する実践的な方法を示します。
製品概要はDeepSeek V4とは、APIの詳細はDeepSeek V4 APIの使用方法を参照してください。
要するに
- chat.deepseek.com — V4-Proの無料ウェブチャット。Think High/Max切り替え可能。カード不要で即時利用。
- Hugging Faceのウェイト + 自身のGPU — MITライセンス。V4-Flashは2~4台のH100で稼働、V4-Proはクラスターが必要。
- OpenRouterやChutesの無料枠 — DeepSeekリリース直後に無料クォータを開放するサードパーティゲートウェイ。
- Hugging Face推論プロバイダー — 初期実験向けに公開された共有・レート制限エンドポイント。
- Kaggle、Colab、RunPodのトライアルクレジット — セルフホスティング一度きりの実験用の無料計算リソース。
- すべての無料パスには上限あり。本番運用は上限到達前に有料へ移行してください。
パス1:chat.deepseek.com(デフォルトの無料パス)
最速かつ信頼性が高い無料パスは公式チャットインターフェースです。V4-Proがデフォルトで、非思考・思考高・思考最大の3モードをコンポーザー上部で切り替え可能。
セットアップ
- chat.deepseek.comを開く
- メール、Google、WeChatでサインイン
- アクティブモデルがV4-Proであることを確認
- 入力開始
得られるもの
- 1Mトークンのコンテキストウィンドウ
- PDF/画像/コードバンドルのファイルアップロード
- オンデマンドWeb検索
- 3つの推論モード(Think Max含む)
- 会話履歴とフォルダ管理
上限について
1日あたりのメッセージ数は非公開。負荷が高まるとソフトに制限され、応答遅延やキューイングが発生しますが、ハードブロックは稀。継続的なレート制限はAPI移行を検討するサインです。
適したタスク: 高難度プロンプトの比較、リポジトリのtarball貼付けでのアーキテクチャレビュー、大規模な契約書のThink Max実行など
不向きなタスク: 自動化や再現性が必要な作業
パス2:自身のGPUでV4-Flashをセルフホスト
V4-FlashはMITライセンスで提供され、実質的に誰でもセルフホスト可能です。FP8で約500GB、INT4量子化で80GBカード1枚に収まります。
コストはライセンスではなくハードウェア。既存GPUがあれば最も持続可能な無料パスです。
ウェイトをプルする
pip install -U "huggingface_hub[cli]"
huggingface-cli login
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash \
--local-dir ./models/deepseek-v4-flash
FP8:約500GB。ディスク容量に注意。
vLLMでサービング
pip install "vllm>=0.9.0"
vllm serve deepseek-ai/DeepSeek-V4-Flash \
--tensor-parallel-size 4 \
--max-model-len 1048576 \
--dtype auto \
--port 8000
起動後、OpenAI互換クライアントを http://localhost:8000/v1 に向けて利用可能。有料DeepSeek APIと同じリクエスト形式を受け付けます。ApidogでベースURLを切り替えるだけで既存コレクションをそのまま使えます。
ハードウェアの現実的な確認
| バリアント | 最小カード数 (FP8) | 最小カード数 (INT4) | 現実的なスループット |
|---|---|---|---|
| V4-Flash | H100 80GB × 2 | H100 80GB × 1 | 50~150トークン/秒 |
| V4-Pro | H100 80GB × 16 | H100 80GB × 8 | クラスターに依存 |
遊休カードがない場合はAPI利用の方が費用対効果が高いです。セルフホストは既存リソースがある、または厳格なコンプライアンス要件がある場合に有効。
パス3:OpenRouterの無料枠
OpenRouterは、オープン/クローズドモデルを単一API経由で利用できるアグリゲーター。DeepSeek新リリース時には無料枠を定期的に提供します(V3系も同様)。
セットアップ
- openrouter.aiにサインアップ
- APIキー発行
- モデルカタログで
deepseek/deepseek-v4-proまたはdeepseek/deepseek-v4-flashを確認(無料バリアントには:freeサフィックス) - OpenAI互換SDKで利用
from openai import OpenAI
client = OpenAI(
api_key=OPENROUTER_KEY,
base_url="https://openrouter.ai/api/v1",
)
response = client.chat.completions.create(
model="deepseek/deepseek-v4-flash:free",
messages=[{"role": "user", "content": "Write a Python CLI for semver bumping."}],
)
print(response.choices[0].message.content)
上限
通常、キーごとに1日数百リクエスト。負荷増大時は優先度低下。プロトタイピング向きで本番利用には不向き。
パス4:Hugging Face推論プロバイダー
Hugging FaceはV4チェックポイントを即日推論サービスとして公開。レート制限やレイテンシーはありますが、無料でAPI利用可能。
from huggingface_hub import InferenceClient
client = InferenceClient(model="deepseek-ai/DeepSeek-V4-Flash")
response = client.chat_completion(
messages=[{"role": "user", "content": "Summarize the V4 technical report in 5 bullets."}],
max_tokens=512,
)
print(response.choices[0].message.content)
HFトークンは無料。頻度が高い場合はProへアップグレード。公式APIに比べてコストは圧倒的に低い。
パス5:Colab、Kaggle、RunPod、Lambdaのトライアルクレジット
主要GPUレンタルプロバイダーのトライアルを活用し、費用ゼロでV4-Flashの実験が可能。
- Google Colab: 無料T4は容量不足。Colab Pro+はA100でV4-Flash実験に十分。
- Kaggle: T4/P100で毎週無料GPU時間。量子化V4-Flashの実験向き。
- RunPod: $10トライアルでH100を数時間利用可能。vLLM起動&ベンチマークも余裕。
- Lambda: H100/H200で期間限定無料プロモ有り。要サインアップページ確認。
いずれも長期利用は不可。限定的な一回実験向き。
プロバイダーに依存しないApidogコレクションの構築
複数の無料パスを同一ワークフローでA/Bテストできるのが大きな利点です。
手順:
- Apidogをダウンロード
- 4つの環境を持つコレクション作成:
-
chat(プレースホルダー) -
deepseek(https://api.deepseek.com/v1) -
openrouter(https://openrouter.ai/api/v1) -
self-hosted(http://localhost:8000/v1)
-
-
{{BASE_URL}}/chat/completionsへのPOSTリクエストを保存 - 各プロバイダーのキーをシークレット変数で管理し、リクエストボディを共通化
- 環境を切り替えて各バックエンドで同一プロンプトをA/Bテスト
これはGPT-5.5無料枠コレクションと同様のパターンです。1ツールで全プロバイダーに対応、作業の重複なし。
どの無料パスを選ぶべきか?
判断基準は以下の通り:
- 5分で意見を形成したい → chat.deepseek.com
- プロダクトのプロトタイプを作りたい → OpenRouter無料枠を使い切ったらDeepSeekにチャージ
- GPU/コンプライアンス要件あり → vLLM+V4-Flashセルフホスト
- 長期無料利用したい → できません。どこかで必ず上限有り。対話作業はchat.deepseek.com、自動化は有料チャージ併用を。
無料利用から移行すべきタイミング
次のいずれかに該当したら有料APIへ移行を検討してください。
- 1日に複数回レート制限に達する → ワークロードが予算化に値する規模
- SLAが必要 → 無料枠では保証なし。公式APIのみ対応
- ログ・監査・コンプライアンスが必要 → 有料APIは請求記録あり、無料枠は不可
該当時は公式APIに移行を。最低チャージ2ドル、トークン単価は最先端層で最安。
よくある質問
chat.deepseek.comは本当に無料?
はい。クレジットカード・トライアル期間不要。ソフト制限はありますが有料化されていません。
ウェイトをダウンロードするのにHugging Faceアカウントは必要?
不要ですが、ログイン済みアカウントの方がレート制限が緩和されます。
どの無料パスでV4-Proが実行される?
chat.deepseek.comは完全なV4-Pro。OpenRouter無料枠はV4-Flashが多い。V4-Pro出力が必要で無料にこだわるならウェブチャット一択。
製品バックエンドに無料枠を使える?
不可。無料枠はレート制限・規約変更・消滅リスク有り。顧客提供は有料APIまたはセルフホスト必須。
セルフホストは本当に無料?
ライセンスは無料だがハードウェアは別。既存GPUなら限界費用は電気代のみ。レンタルGPUなら有料APIの方が安価な場合も。
Apidogのテスト用無料枠はある?
ApidogはAPI設計・テスト用途で無料利用可。有料API利用時のみクレジット消費。無料Apidogワークスペース+chat.deepseek.comまたはOpenRouterの組み合わせで完全無料ワークフローも可能です。



Top comments (0)