<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>DEV Community: Rihpig</title>
    <description>The latest articles on DEV Community by Rihpig (@rihpig).</description>
    <link>https://dev.to/rihpig</link>
    <image>
      <url>https://media2.dev.to/dynamic/image/width=90,height=90,fit=cover,gravity=auto,format=auto/https:%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Fuser%2Fprofile_image%2F2745155%2Ff727be57-3d98-4e9b-90ef-46211b492018.jpg</url>
      <title>DEV Community: Rihpig</title>
      <link>https://dev.to/rihpig</link>
    </image>
    <atom:link rel="self" type="application/rss+xml" href="https://dev.to/feed/rihpig"/>
    <language>en</language>
    <item>
      <title>DeepSeek V4 로컬 실행 방법</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:34:08 +0000</pubDate>
      <link>https://dev.to/rihpig/deepseek-v4-rokeol-silhaeng-bangbeob-1igh</link>
      <guid>https://dev.to/rihpig/deepseek-v4-rokeol-silhaeng-bangbeob-1igh</guid>
      <description>&lt;p&gt;2026년 4월 23일, MIT 라이선스가 적용된 DeepSeek V4 가중치가 Hugging Face에 공개되었습니다. 이 단일 라이선스 선택은 자체 하드웨어에서 최첨단 AI를 원하는 모든 팀의 계산 방식을 바꿉니다. V4-Flash (총 284B, 활성 13B)는 FP8에서 H100 2대에 적합합니다. V4-Pro (총 1.6T, 활성 49B)는 클러스터가 필요하지만, 코드 및 추론에서 GPT-5.5 및 Claude Opus 4.6과 경쟁력 있게 작동합니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;지금 Apidog을 사용해보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;이 가이드는 로컬 배포를 위한 실전 가이드입니다. 하드웨어 요구 사항, 양자화 옵션, vLLM 및 SGLang 설정, 도구 사용 구성, 그리고 프로덕션 트래픽을 연결하기 전에 Apidog으로 로컬 서버를 검증하는 테스트 워크플로를 다룹니다.&lt;/p&gt;

&lt;p&gt;제품 개요는 &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4란 무엇인가&lt;/a&gt;를 참조하세요. 호스팅된 API 경로는 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 API 사용 방법&lt;/a&gt;을 참조하세요. 비용 비교는 &lt;a href="http://apidog.com/blog/deepseek-v4-api-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 API 가격&lt;/a&gt;을 참고하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  요약
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;V4-Flash&lt;/strong&gt;: FP8에서 2 × H100 80GB 또는 INT4에서 1 × H100에서 실행. 가중치는 FP8에서 약 500GB.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;V4-Pro&lt;/strong&gt;: 프로덕션 처리량을 위해 FP8에서 16개 이상의 H100 필요. 노트북 모델 아님.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;vLLM&lt;/strong&gt;: OpenAI 호환 서버로 가장 빠르게 배포 가능. &lt;code&gt;vllm&amp;gt;=0.9.0&lt;/code&gt;에서 V4 지원.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;SGLang&lt;/strong&gt;: 더 나은 도구 사용 및 구조화된 출력이 필요한 팀에 적합.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;AWQ INT4/GPTQ INT4 양자화&lt;/strong&gt;: V4-Flash를 단일 80GB 카드에서 약 5% 품질 손실로 실행 가능.&lt;/li&gt;
&lt;li&gt;
&lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;으로 &lt;code&gt;http://localhost:8000/v1&lt;/code&gt;를 테스트하고, 호스팅 API에서 사용한 컬렉션을 그대로 재사용.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  자가 호스팅이 필요한 경우
&lt;/h2&gt;

&lt;p&gt;V4 자가 호스팅은 다음과 같은 팀에 적합합니다.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;규제 준수&lt;/strong&gt;: 네트워크 밖으로 데이터가 나갈 수 없는 의료, 금융, 법률, 국방 등.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;대규모·안정적 워크로드&lt;/strong&gt;: 월 2천억 토큰 이상 워크로드면 전용 하드웨어가 API 대비 경제적.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;미세 조정 및 연구&lt;/strong&gt;: MIT 라이선스는 결과물의 상업적 재배포까지 허용.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;하지 말아야 할 경우: 프로토타입, GPU 운영 경험 부족, 월 $200 미만 API 사용량. 이 경우 운영 오버헤드가 비용 절감을 상쇄합니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  하드웨어 요구 사항
&lt;/h2&gt;

&lt;p&gt;DeepSeek V4는 FP4 + FP8 혼합 정밀도를 기본 사용합니다. 메모리 요구 사항은 다음과 같습니다.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;변형&lt;/th&gt;
&lt;th&gt;총 매개변수&lt;/th&gt;
&lt;th&gt;활성 매개변수&lt;/th&gt;
&lt;th&gt;FP8 VRAM&lt;/th&gt;
&lt;th&gt;INT4 VRAM&lt;/th&gt;
&lt;th&gt;최소 카드&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;V4-Flash&lt;/td&gt;
&lt;td&gt;284B&lt;/td&gt;
&lt;td&gt;13B&lt;/td&gt;
&lt;td&gt;~500GB&lt;/td&gt;
&lt;td&gt;~140GB&lt;/td&gt;
&lt;td&gt;2 × H100 80GB (FP8) 또는 1 × H100 (INT4)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;V4-Pro&lt;/td&gt;
&lt;td&gt;1.6T&lt;/td&gt;
&lt;td&gt;49B&lt;/td&gt;
&lt;td&gt;~2.4TB&lt;/td&gt;
&lt;td&gt;~700GB&lt;/td&gt;
&lt;td&gt;16 × H100 80GB (FP8) 또는 8 × H100 (INT4)&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;설명:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;MoE 메모리&lt;/strong&gt;는 활성 매개변수가 아닌 전체 전문가 수에 맞춰야 합니다.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;H200/MI300X&lt;/strong&gt;: 더 높은 VRAM 카드(141/192GB)는 카드 수를 줄여줍니다.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;소비자 GPU&lt;/strong&gt;: 24GB RTX 5090도 INT4 V4-Flash 실행 불가.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Apple Silicon&lt;/strong&gt;: 128GB M3/M4 Max에서 느리게 구동 가능(개발/테스트용).&lt;/li&gt;
&lt;/ul&gt;




&lt;h2&gt;
  
  
  1단계: 가중치 다운로드
&lt;/h2&gt;

&lt;p&gt;공식 저장소:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;&lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash" rel="noopener noreferrer"&gt;deepseek-ai/DeepSeek-V4-Flash&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro" rel="noopener noreferrer"&gt;deepseek-ai/DeepSeek-V4-Pro&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;미세 조정: &lt;code&gt;deepseek-ai/DeepSeek-V4-Flash-Base&lt;/code&gt;, &lt;code&gt;DeepSeek-V4-Pro-Base&lt;/code&gt;
&lt;/li&gt;
&lt;/ul&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="nt"&gt;-U&lt;/span&gt; &lt;span class="s2"&gt;"huggingface_hub[cli]"&lt;/span&gt;
huggingface-cli login

huggingface-cli download deepseek-ai/DeepSeek-V4-Flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--local-dir&lt;/span&gt; ./models/deepseek-v4-flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--local-dir-use-symlinks&lt;/span&gt; False
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ul&gt;
&lt;li&gt;V4-Flash: 약 500GB, V4-Pro: 수 TB 디스크 필요.&lt;/li&gt;
&lt;li&gt;중국 사용자는 &lt;a href="https://modelscope.cn/models/deepseek-ai/DeepSeek-V4-Flash" rel="noopener noreferrer"&gt;ModelScope&lt;/a&gt; 미러링 활용.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  2단계: 서빙 엔진 선택
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;vLLM&lt;/strong&gt;: 최고의 처리량, OpenAI 호환, 기본값.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;SGLang&lt;/strong&gt;: 도구 사용·구조화 출력에 강점. 함수 호출 중심 워크로드에 권장.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;최신 버전은 V4를 기본 지원합니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  3단계: vLLM으로 V4-Flash 서빙
&lt;/h2&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="s2"&gt;"vllm&amp;gt;=0.9.0"&lt;/span&gt;

vllm serve deepseek-ai/DeepSeek-V4-Flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--tensor-parallel-size&lt;/span&gt; 2 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--max-model-len&lt;/span&gt; 1048576 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--dtype&lt;/span&gt; auto &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--enable-prefix-caching&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--port&lt;/span&gt; 8000
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ul&gt;
&lt;li&gt;
&lt;code&gt;--tensor-parallel-size 2&lt;/code&gt;: 2개 H100 분산. 카드 수에 맞게 조절.&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;--max-model-len 1048576&lt;/code&gt;: 1M 토큰 컨텍스트. 필요시 131072로 축소.&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;--enable-prefix-caching&lt;/code&gt;: 반복 접두사 캐싱 활성화.&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;--dtype auto&lt;/code&gt;: FP8 혼합 정밀도 자동 적용.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;서버가 뜨면 모든 OpenAI 호환 클라이언트가 &lt;code&gt;http://localhost:8000/v1&lt;/code&gt;에 접속할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  4단계: vLLM으로 V4-Pro 서빙
&lt;/h2&gt;

&lt;p&gt;클러스터 환경 필요. 명령어 예시:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;vllm serve deepseek-ai/DeepSeek-V4-Pro &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--tensor-parallel-size&lt;/span&gt; 8 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--pipeline-parallel-size&lt;/span&gt; 2 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--max-model-len&lt;/span&gt; 524288 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--enable-prefix-caching&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--port&lt;/span&gt; 8000
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ul&gt;
&lt;li&gt;16개 H100에 맞춰 컨텍스트 길이와 병렬 처리 분할.&lt;/li&gt;
&lt;li&gt;VRAM 허용 시 1M 토큰까지 확장 가능.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  5단계: SGLang으로 서빙 (도구 사용 대안)
&lt;/h2&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="s2"&gt;"sglang[all]&amp;gt;=0.4.0"&lt;/span&gt;

python &lt;span class="nt"&gt;-m&lt;/span&gt; sglang.launch_server &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--model-path&lt;/span&gt; deepseek-ai/DeepSeek-V4-Flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--tp&lt;/span&gt; 2 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--context-length&lt;/span&gt; 1048576 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--port&lt;/span&gt; 30000
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ul&gt;
&lt;li&gt;SGLang은 &lt;code&gt;http://localhost:30000/v1&lt;/code&gt;에서 OpenAI 호환 엔드포인트 제공.&lt;/li&gt;
&lt;li&gt;SGLang의 DSL(&lt;code&gt;lang&lt;/code&gt;)로 함수 호출/JSON 모드 등 확장 가능.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  6단계: 단일 GPU 상자를 위한 양자화
&lt;/h2&gt;

&lt;p&gt;INT4 양자화로 V4-Flash를 단일 80GB 카드에서 실행(5% 품질 손실).&lt;/p&gt;

&lt;h3&gt;
  
  
  AWQ (권장)
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install &lt;/span&gt;autoawq

python &lt;span class="nt"&gt;-c&lt;/span&gt; &lt;span class="s2"&gt;"
from awq import AutoAWQForCausalLM
from transformers import AutoTokenizer

model_path = './models/deepseek-v4-flash'
out_path = './models/deepseek-v4-flash-awq'
model = AutoAWQForCausalLM.from_pretrained(model_path)
tokenizer = AutoTokenizer.from_pretrained(model_path)
model.quantize(tokenizer, quant_config={'w_bit': 4, 'q_group_size': 128})
model.save_quantized(out_path)
tokenizer.save_pretrained(out_path)
"&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h3&gt;
  
  
  GPTQ
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install &lt;/span&gt;auto-gptq
&lt;span class="c"&gt;# GPTQ 양자화 레시피 참고. AWQ와 유사한 사용법.&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ul&gt;
&lt;li&gt;vLLM 실행 시 &lt;code&gt;--quantization awq&lt;/code&gt; 또는 &lt;code&gt;--quantization gptq&lt;/code&gt; 옵션 추가.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  7단계: Apidog로 테스트
&lt;/h2&gt;

&lt;p&gt;프로덕션 트래픽 투입 전, 로컬 서버를 반드시 검증하세요.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-228.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-228.png" alt="" width="800" height="530"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; 설치&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;http://localhost:8000/v1/chat/completions&lt;/code&gt;로 연결되는 컬렉션 생성&lt;/li&gt;
&lt;li&gt;호스팅 API에 사용한 테스트 프롬프트 붙여넣기. 결과 비교&lt;/li&gt;
&lt;li&gt;500K 토큰 컨텍스트 테스트로 KV 캐시 확인&lt;/li&gt;
&lt;li&gt;에이전트 루프 연결 전, 도구 호출 흐름 처음부터 끝까지 실행&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;동일한 컬렉션을 호스팅 API와 로컬 서버 모두에 사용할 수 있습니다. OpenAI 호환 엔드포인트의 장점입니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  관측 가능성 및 모니터링
&lt;/h2&gt;

&lt;p&gt;초기부터 다음 4가지 지표를 추적하세요.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;초당 토큰 수&lt;/strong&gt;: vLLM의 &lt;code&gt;/metrics&lt;/code&gt;(Prometheus 포맷)에서 확인&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;GPU 활용률&lt;/strong&gt;: &lt;code&gt;nvidia-smi&lt;/code&gt; 또는 DCGM. 70% 미만이면 배치 크기 조정&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;KV 캐시 히트율&lt;/strong&gt;: &lt;code&gt;--enable-prefix-caching&lt;/code&gt; 사용 시 vLLM이 제공. 히트율 하락 시 프롬프트 변동성 높음&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;요청 지연 p50/p95/p99&lt;/strong&gt;: 표준 트레이싱 도구 사용. p99가 높으면 특정 요청이 큐를 정체&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;모든 지표를 Grafana 등 관측 스택에 연동하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  V4 기본 체크포인트 미세 조정
&lt;/h2&gt;

&lt;p&gt;기본 체크포인트는 지속적 사전학습 및 SFT 용도로 설계됨. 표준 SFT 파이프라인:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="s2"&gt;"torch&amp;gt;=2.6"&lt;/span&gt; transformers accelerate peft trl

&lt;span class="c"&gt;# LoRA를 이용한 V4-Flash-Base SFT 예시&lt;/span&gt;
python &lt;span class="nt"&gt;-m&lt;/span&gt; trl sft &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--model_name_or_path&lt;/span&gt; deepseek-ai/DeepSeek-V4-Flash-Base &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--dataset_name&lt;/span&gt; your-org/your-sft-set &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--output_dir&lt;/span&gt; ./models/v4-flash-custom &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--per_device_train_batch_size&lt;/span&gt; 1 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--gradient_accumulation_steps&lt;/span&gt; 16 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--learning_rate&lt;/span&gt; 2e-5 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--bf16&lt;/span&gt; &lt;span class="nb"&gt;true&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--use_peft&lt;/span&gt; &lt;span class="nb"&gt;true&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--lora_r&lt;/span&gt; 64 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--lora_alpha&lt;/span&gt; 128
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ul&gt;
&lt;li&gt;V4-Pro 전체 매개변수 미세 조정은 연구용 과제.&lt;/li&gt;
&lt;li&gt;대부분의 팀은 V4-Flash-Base의 LoRA 어댑터로 충분.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  일반적인 문제점
&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;시작 시 OOM(메모리 부족)&lt;/strong&gt;: &lt;code&gt;--max-model-len&lt;/code&gt;이 너무 크거나 &lt;code&gt;--tensor-parallel-size&lt;/code&gt;가 낮음. 컨텍스트 줄이거나 병렬수 늘리기.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;느린 첫 요청&lt;/strong&gt;: vLLM 커널 지연 컴파일. 더미 요청으로 워밍업.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;도구 사용 파싱 오류&lt;/strong&gt;: DeepSeek 인코딩 스키마가 다름. 최신 SDK/버전 고정.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;FP8 오류(A100 등)&lt;/strong&gt;: A100은 FP8 미지원. BF16 사용, VRAM 2배 필요.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  자가 호스팅 이득 시점
&lt;/h2&gt;

&lt;p&gt;&lt;a href="http://apidog.com/blog/deepseek-v4-api-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;호스팅 DeepSeek V4 가격&lt;/a&gt; 기반 손익분기점:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;V4-Flash, 월 2000억 입력/20억 출력 토큰&lt;/strong&gt;: API $33.6K, 8×H100 임대 $20K (자가 호스팅 40% 절감)&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;V4-Pro, 월 5000억 입력/50억 출력 토큰&lt;/strong&gt;: API $1.04M, 16×H100 클러스터 $35K (자가 호스팅 95% 절감)&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;V4-Flash 손익분기점: 월 약 1000억 토큰. 그 이하라면 호스팅 API가 더 저렴.&lt;/p&gt;

&lt;h2&gt;
  
  
  자주 묻는 질문
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;단일 A100에서 V4-Flash 구동?&lt;/strong&gt;: 고양자화/짧은 컨텍스트에서 가능하나 느림(80GB, INT4: 5~15 tok/s). H100 권장.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;LoRA 미세조정 지원?&lt;/strong&gt;: 예. 기본 체크포인트 + 표준 TRL/Axolotl 파이프라인 사용.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;로컬 서버 OpenAI 호환?&lt;/strong&gt;: 예. vLLM/SGLang 모두 &lt;code&gt;/v1/chat/completions&lt;/code&gt;, &lt;code&gt;/v1/completions&lt;/code&gt; 지원. &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;API 가이드&lt;/a&gt; 참고.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;로컬 사고 모드 활성화?&lt;/strong&gt;: body에 &lt;code&gt;thinking_mode: "thinking"&lt;/code&gt; 또는 &lt;code&gt;"thinking_max"&lt;/code&gt; 전달.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;로컬 V4 서버 스트리밍?&lt;/strong&gt;: 예. &lt;code&gt;stream: true&lt;/code&gt; 설정.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;가장 저렴한 실험법?&lt;/strong&gt;: RunPod/Lambda에서 H100 임대, INT4 V4-Flash로 실제 프롬프트 처리량 측정($10~$30).&lt;/li&gt;
&lt;/ul&gt;

</description>
    </item>
    <item>
      <title>DeepSeek V4 무료로 사용하는 방법</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:28:39 +0000</pubDate>
      <link>https://dev.to/rihpig/deepseek-v4-muryoro-sayonghaneun-bangbeob-3n28</link>
      <guid>https://dev.to/rihpig/deepseek-v4-muryoro-sayonghaneun-bangbeob-3n28</guid>
      <description>&lt;p&gt;DeepSeek V4는 2026년 4월 23일에 출시된 최신 LLM으로, 다른 최첨단 모델들과 달리 실질적인 무료 사용 경로를 제공합니다. 공식 웹 채팅에서는 신용카드 없이 V4-Pro를 즉시 실행할 수 있으며, MIT 라이선스의 가중치는 바로 다운로드 가능합니다. OpenRouter, Chutes 등 애그리게이터도 출시 후 며칠 내 무료 티어를 오픈합니다. 즉, 계정 충전 전에 충분히 무료로 V4를 실사용해볼 수 있습니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;오늘 Apidog을 체험해보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;이 가이드에서는 모든 무료 사용 경로, 각 경로별 최적 사용 사례, 그리고 유료 전환 시 &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;에서 프로덕션 컬렉션을 빠르게 세팅하는 방법까지 단계적으로 안내합니다.&lt;/p&gt;

&lt;p&gt;제품 개요는 &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4란 무엇인가&lt;/a&gt;를, 전체 API 활용법은 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 API 사용 방법&lt;/a&gt;에서 확인하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  요약 (TL;DR)
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;&lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;&lt;/strong&gt; — Think High 및 Think Max 토글 포함 V4-Pro 무료 웹 채팅. 카드 필요 없음. 즉시 사용 가능.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Hugging Face 가중치 + 자체 GPU&lt;/strong&gt; — MIT 라이선스, V4-Flash는 2~4 H100에서 실행, V4-Pro는 대형 클러스터 필요.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;OpenRouter 및 Chutes 무료 티어&lt;/strong&gt; — DeepSeek 출시 후 보통 일주일 내 무료 할당량 제공.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Hugging Face 추론 제공자&lt;/strong&gt; — 실험 용도의 공유/속도 제한 엔드포인트.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Kaggle, Colab, RunPod 평가판 크레딧&lt;/strong&gt; — 자체 호스팅 테스트용 무료 컴퓨트.&lt;/li&gt;
&lt;li&gt;모든 무료 경로는 사용량 제한이 있습니다. 프로덕션 용도라면 제한에 도달하기 전 유료로 전환하세요.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-225.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-225.png" alt="" width="800" height="550"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  경로 1: chat.deepseek.com (기본 무료 경로)
&lt;/h2&gt;

&lt;p&gt;가장 빠르고 신뢰할 수 있는 무료 경로는 공식 채팅 웹 UI입니다. V4-Pro가 기본 모델로, 에디터 상단 토글로 Non-Think, Think High, Think Max 모드를 선택할 수 있습니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-224.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-224.png" alt="" width="800" height="434"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h3&gt;
  
  
  설정
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt; 접속&lt;/li&gt;
&lt;li&gt;이메일/Google/WeChat으로 로그인&lt;/li&gt;
&lt;li&gt;에디터에서 활성 모델이 V4-Pro인지 확인&lt;/li&gt;
&lt;li&gt;프롬프트 입력 및 실행&lt;/li&gt;
&lt;/ol&gt;

&lt;h3&gt;
  
  
  제공 기능
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;최대 1M 토큰 컨텍스트 창&lt;/li&gt;
&lt;li&gt;PDF, 이미지, 코드 번들 업로드&lt;/li&gt;
&lt;li&gt;온디맨드 웹 검색&lt;/li&gt;
&lt;li&gt;모든 추론 모드 (Think Max 포함)&lt;/li&gt;
&lt;li&gt;대화 기록/폴더 관리&lt;/li&gt;
&lt;/ul&gt;

&lt;h3&gt;
  
  
  제한 사항
&lt;/h3&gt;

&lt;p&gt;무료 티어는 일일 메시지 개수나 속도 제한이 명확히 공개되지 않습니다. 부하가 많을 때는 응답 지연, 요청 대기가 발생할 수 있습니다. 하드 블록은 거의 없으며, 지속적인 속도 제한이 보이면 사용 빈도 조절 또는 API 전환을 권장합니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;적합한 작업&lt;/strong&gt;: V4와 Claude 비교, 대형 파일/계약서 검토 등 수작업 테스트&lt;br&gt;&lt;br&gt;
&lt;strong&gt;부적합한 작업&lt;/strong&gt;: 자동화, 반복성 있는 워크플로우&lt;/p&gt;
&lt;h2&gt;
  
  
  경로 2: 자체 GPU에 V4-Flash 자체 호스팅
&lt;/h2&gt;

&lt;p&gt;V4-Flash는 MIT 라이선스로 실질적인 자체 호스팅이 가능한 버전입니다. 284B 파라미터(활성 13B)로, FP8 기준 여러 H100에서 운영할 수 있고, INT4 양자화 시 단일 80GB 카드에도 적재 가능합니다.&lt;/p&gt;
&lt;h3&gt;
  
  
  가중치 다운로드
&lt;/h3&gt;


&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="nt"&gt;-U&lt;/span&gt; &lt;span class="s2"&gt;"huggingface_hub[cli]"&lt;/span&gt;
huggingface-cli login
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--local-dir&lt;/span&gt; ./models/deepseek-v4-flash
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;


&lt;p&gt;FP8 기준 약 500GB 디스크 공간 필요&lt;/p&gt;
&lt;h3&gt;
  
  
  vLLM으로 서비스 시작
&lt;/h3&gt;


&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="s2"&gt;"vllm&amp;gt;=0.9.0"&lt;/span&gt;

vllm serve deepseek-ai/DeepSeek-V4-Flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--tensor-parallel-size&lt;/span&gt; 4 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--max-model-len&lt;/span&gt; 1048576 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--dtype&lt;/span&gt; auto &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--port&lt;/span&gt; 8000
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;


&lt;p&gt;설정 후 모든 OpenAI 클라이언트에서 &lt;code&gt;http://localhost:8000/v1&lt;/code&gt; 엔드포인트 사용 가능.&lt;br&gt;&lt;br&gt;
&lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; 환경에서도 별도 설정 없이 동일하게 연동됩니다.&lt;/p&gt;
&lt;h3&gt;
  
  
  하드웨어 요구사항
&lt;/h3&gt;



&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;버전&lt;/th&gt;
&lt;th&gt;최소 카드 (FP8)&lt;/th&gt;
&lt;th&gt;최소 카드 (INT4)&lt;/th&gt;
&lt;th&gt;실질 처리량&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;V4-Flash&lt;/td&gt;
&lt;td&gt;2 × H100 80GB&lt;/td&gt;
&lt;td&gt;1 × H100 80GB&lt;/td&gt;
&lt;td&gt;50 ~ 150 토큰/초&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;V4-Pro&lt;/td&gt;
&lt;td&gt;16 × H100 80GB&lt;/td&gt;
&lt;td&gt;8 × H100 80GB&lt;/td&gt;
&lt;td&gt;클러스터에 따라 다름&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;



&lt;p&gt;유휴 GPU가 없다면, 임대 비용이 API 호출보다 높을 수 있습니다. 자체 호스팅은 기존 GPU 자원 보유자 또는 규정 준수 요건이 있을 때만 추천합니다.&lt;/p&gt;
&lt;h2&gt;
  
  
  경로 3: OpenRouter 무료 티어
&lt;/h2&gt;

&lt;p&gt;OpenRouter는 여러 오픈/비공개 모델을 하나의 API로 통합하며, DeepSeek 신규 릴리스마다 무료 티어를 빠르게 오픈합니다.&lt;/p&gt;

&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-226.png" alt="" width="800" height="293"&gt;
&lt;h3&gt;
  
  
  설정
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://openrouter.ai/" rel="noopener noreferrer"&gt;openrouter.ai&lt;/a&gt; 가입 및 로그인&lt;/li&gt;
&lt;li&gt;API 키 생성&lt;/li&gt;
&lt;li&gt;모델 카탈로그에서 &lt;code&gt;deepseek/deepseek-v4-pro&lt;/code&gt; 또는 &lt;code&gt;deepseek/deepseek-v4-flash&lt;/code&gt; 확인 (&lt;code&gt;:free&lt;/code&gt; 접미사 확인)&lt;/li&gt;
&lt;li&gt;아래 코드로 테스트
&lt;/li&gt;
&lt;/ol&gt;
&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;openai&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;OpenAI&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;OPENROUTER_KEY&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://openrouter.ai/api/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek/deepseek-v4-flash:free&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Write a Python CLI for semver bumping.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;

&lt;h3&gt;
  
  
  제한 사항
&lt;/h3&gt;

&lt;p&gt;OpenRouter 무료 티어는 키당 하루 수백 요청 제한, 부하 시 우선순위 낮음. 프로토타입·테스트엔 적합, 프로덕션엔 부적합.&lt;/p&gt;
&lt;h2&gt;
  
  
  경로 4: Hugging Face 추론 제공자
&lt;/h2&gt;

&lt;p&gt;Hugging Face는 DeepSeek V4 모델을 신속하게 호스팅하며, 무료로 inference endpoint를 제공합니다.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;huggingface_hub&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;InferenceClient&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;InferenceClient&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-ai/DeepSeek-V4-Flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Summarize the V4 technical report in 5 bullets.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
    &lt;span class="n"&gt;max_tokens&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mi"&gt;512&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;HF 토큰은 무료. 더 높은 사용량 필요 시 Pro 계정으로 업그레이드 가능. 속도 제한은 있지만, 공식 API 대비 저렴합니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  경로 5: Colab, Kaggle, RunPod, Lambda 평가판 크레딧
&lt;/h2&gt;

&lt;p&gt;GPU 렌탈 플랫폼은 평가판 크레딧을 제공합니다. 이를 활용해 일회성 V4 실험을 무료로 진행할 수 있습니다.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Google Colab&lt;/strong&gt;: 무료 T4 한계, Pro+에서 A100 소량 실험 가능&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Kaggle&lt;/strong&gt;: T4/P100 주간 무료 시간. 소규모 V4-Flash 실험 한정&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;RunPod&lt;/strong&gt;: $10 크레딧으로 H100 수 시간 사용, 벤치마크 및 테스트 적합&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Lambda&lt;/strong&gt;: H100/H200 무료 시간 프로모션 비정기 제공&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;장기 무료 사용엔 부적합, 실험 및 단기 테스트에만 활용하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  프로바이더 독립적인 Apidog 컬렉션 구축
&lt;/h2&gt;

&lt;p&gt;모든 무료 경로를 동일 프롬프트로 테스트하려면 아래 워크플로우를 구성하세요:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; 다운로드&lt;/li&gt;
&lt;li&gt;환경 4개 생성: &lt;code&gt;chat&lt;/code&gt;(플레이스홀더), &lt;code&gt;deepseek&lt;/code&gt;(&lt;code&gt;https://api.deepseek.com/v1&lt;/code&gt;), &lt;code&gt;openrouter&lt;/code&gt;(&lt;code&gt;https://openrouter.ai/api/v1&lt;/code&gt;), &lt;code&gt;self-hosted&lt;/code&gt;(&lt;code&gt;http://localhost:8000/v1&lt;/code&gt;)&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;{{BASE_URL}}/chat/completions&lt;/code&gt; 단일 POST 요청 저장&lt;/li&gt;
&lt;li&gt;각 경로별 API 키를 비밀 변수로 저장&lt;/li&gt;
&lt;li&gt;환경 전환만으로 백엔드별 프롬프트 A/B 테스트 실행&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;이는 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 무료 티어 컬렉션&lt;/a&gt;과 동일한 패턴입니다. 하나의 도구로 모든 제공처를 중복 작업 없이 커버하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  어떤 무료 경로를 선택해야 할까요?
&lt;/h2&gt;

&lt;p&gt;다음 휴리스틱으로 경로를 빠르게 결정할 수 있습니다.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;5분 내 체험&lt;/strong&gt;: &lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;프로토타입 제작&lt;/strong&gt;: OpenRouter 무료 티어→제한 도달 시 DeepSeek 유료 충전&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;GPU 및 규정 준수 필요&lt;/strong&gt;: vLLM + V4-Flash 자체 호스팅&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;장기 무료 사용&lt;/strong&gt;: 없음. 모든 무료 티어는 제한 있음. 대화형엔 chat.deepseek.com, 자동화엔 유료 충전 결합&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  무료 사용을 중단해야 할 때
&lt;/h2&gt;

&lt;p&gt;아래 중 한 가지라도 해당되면 유료로 전환하세요.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;하루 1회 이상 속도 제한&lt;/strong&gt;: 예산 편성 필요 신호&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;SLA 필요&lt;/strong&gt;: 무료 티어는 SLA 미제공, 공식 API만 제공&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;로깅/감사/규정 준수 필요&lt;/strong&gt;: 유료 API만 결제 기록 명확&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;해당 시 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;공식 API&lt;/a&gt;로 전환하세요. 최소 충전 $2, 토큰당 비용은 최저 수준입니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  자주 묻는 질문
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;&lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;은 정말 무료인가요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
네. 신용카드/평가판 없이 완전 무료. 소프트 스로틀링만 있으며, 유료 전환 강요 없음.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;가중치 다운로드에 Hugging Face 계정이 필요한가요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
공개 리포지토리로 계정 없이도 가능하나, 로그인 시 속도 제한 완화.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;어떤 무료 경로가 실제 V4-Pro를 실행하나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
&lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;이 전체 V4-Pro를 실행. OpenRouter 무료 티어는 V4-Flash 제공이 더 잦음. V4-Pro가 필요하고 무료를 원하면 공식 웹 채팅이 최선.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;제품에 무료 티어를 써도 되나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
권장하지 않습니다. 속도 제한, 이용약관 변경, 서비스 중단 위험이 있습니다. 고객-facing 서비스엔 유료 API나 자체 호스팅 사용.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;자체 호스팅이 실제로 무료인가요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
라이선스는 무료, 하드웨어만 부담. 이미 GPU가 있다면 추가 비용은 전기료. 임대할 경우 유료 API가 더 저렴할 수 있음.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Apidog 무료 티어가 있나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
&lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;은 API 설계/테스트까지 무료. 유료 API 호출 시에만 크레딧 소모. 따라서 Apidog 무료 워크스페이스와 chat.deepseek.com 또는 OpenRouter 조합으로 완전 무료 워크플로우 가능.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>DeepSeek V4 API 무료로 사용하는 방법</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:22:20 +0000</pubDate>
      <link>https://dev.to/rihpig/deepseek-v4-api-muryoro-sayonghaneun-bangbeob-1bcp</link>
      <guid>https://dev.to/rihpig/deepseek-v4-api-muryoro-sayonghaneun-bangbeob-1bcp</guid>
      <description>&lt;p&gt;DeepSeek V4는 2026년 4월 23일에 출시되었으며, 대부분의 팀이 무료 티어 탐색을 건너뛸 만큼 API 가격이 저렴합니다. 그러나 결제 정보를 입력하지 않고도 V4를 프로그래밍적으로 호출하려는 개발자를 위한 완전 무료 경로가 존재합니다. 집계 게이트웨이의 &lt;code&gt;:free&lt;/code&gt; 변형, Hugging Face의 공유 추론 엔드포인트, 공식 API의 신규 계정 체험 크레딧을 조합하면 Apidog에서 폴백 체인(fallback chain)을 구축해 비용 없이 V4 기반 제품을 프로토타이핑할 수 있습니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;지금 Apidog을 시도해 보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;이 가이드는 API 중심의 무료 사용 경로에 집중합니다. 웹 채팅 및 자체 호스팅을 포함한 더 넓은 활용법은 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4를 무료로 사용하는 방법&lt;/a&gt;을 참고하세요. 유료 사용법은 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 API를 사용하는 방법&lt;/a&gt;을 참고하고, 제품 개요는 &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4란 무엇인가&lt;/a&gt;를 확인하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  요약
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;OpenRouter 무료 티어&lt;/strong&gt; — &lt;code&gt;deepseek/deepseek-v4-flash:free&lt;/code&gt; 등 OpenAI 호환, 키당 하루 수백 건 요청 지원.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Hugging Face 추론 제공자&lt;/strong&gt; — &lt;code&gt;&lt;a href="https://router.huggingface.co/hf-inference" rel="noopener noreferrer"&gt;https://router.huggingface.co/hf-inference&lt;/a&gt;&lt;/code&gt;에서 무료 공유 엔드포인트 제공, 프로토타이핑에 적합.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Chutes 무료 티어&lt;/strong&gt; — 출시 직후 무료 DeepSeek 엔드포인트를 자주 노출하는 커뮤니티 GPU 네트워크.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek 체험 크레딧&lt;/strong&gt; — &lt;code&gt;platform.deepseek.com&lt;/code&gt; 신규 계정은 체험 잔액을 받을 수 있음.&lt;/li&gt;
&lt;li&gt;자체 GPU에서 V4-Flash를 직접 호스팅하는 것도 라이선스상 무료. &lt;a href="http://apidog.com/blog/how-to-run-deepseek-v4-locally?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4를 로컬에서 실행하는 방법&lt;/a&gt; 참고.&lt;/li&gt;
&lt;li&gt;
&lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;에서 폴백 체인을 구축해 일관된 API 호출 구조를 유지하세요.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-227.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-227.png" alt="" width="800" height="550"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  무료 API 경로가 존재하는 이유
&lt;/h2&gt;

&lt;p&gt;DeepSeek의 유료 요금은 이미 저렴하지만, 다음 세 가지 상황에서 무료 경로가 실질적으로 유용합니다.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;결제 전 프로토타입&lt;/strong&gt;: 결제 정보를 등록하기 전에 코드에서 V4를 테스트하고 싶을 때.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;학생, 연구, 오픈소스&lt;/strong&gt;: 예산이 제한된 프로젝트에서 최첨단 품질이 필요할 때.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;제공자 비교&lt;/strong&gt;: 여러 무료 엔드포인트에서 프롬프트를 실행해 지연, 품질, 신뢰성 차이를 직접 확인하고 싶을 때.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;위 상황에 해당한다면 아래 실습 가이드를 따라가세요. 제품 개발 단계라면 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;유료 API 가이드&lt;/a&gt;가 더 적합합니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  경로 1: OpenRouter 무료 티어
&lt;/h2&gt;

&lt;p&gt;OpenRouter는 OpenAI 호환 API를 통해 다양한 모델을 집계하는 게이트웨이입니다. DeepSeek V4도 무료 변형으로 제공됩니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  설정 방법
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://openrouter.ai/" rel="noopener noreferrer"&gt;openrouter.ai&lt;/a&gt; 가입&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;설정 → 키&lt;/strong&gt; 메뉴에서 API 키 생성&lt;/li&gt;
&lt;li&gt;모델 카탈로그에서 &lt;code&gt;:free&lt;/code&gt; 접미사 모델(예: &lt;code&gt;deepseek/deepseek-v4-flash:free&lt;/code&gt;) 확인&lt;/li&gt;
&lt;li&gt;OpenAI 호환 SDK로 엔드포인트 호출&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;strong&gt;Python 예시:&lt;/strong&gt;&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;openai&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;OpenAI&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;OPENROUTER_API_KEY&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://openrouter.ai/api/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek/deepseek-v4-flash:free&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Refactor this Go function to use channels.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;
&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h3&gt;
  
  
  제한 사항
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;무료 티어는 유료 트래픽보다 우선순위가 낮음&lt;/li&gt;
&lt;li&gt;키당 하루 50~200회 요청, 동시 실행 매우 제한적&lt;/li&gt;
&lt;li&gt;변형은 예고 없이 제한/중단될 수 있음&lt;/li&gt;
&lt;li&gt;프로토타입 용도에만 적합&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;strong&gt;Node.js 예시:&lt;/strong&gt;&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight javascript"&gt;&lt;code&gt;&lt;span class="k"&gt;import&lt;/span&gt; &lt;span class="nx"&gt;OpenAI&lt;/span&gt; &lt;span class="k"&gt;from&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;openai&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;;&lt;/span&gt;

&lt;span class="kd"&gt;const&lt;/span&gt; &lt;span class="nx"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="k"&gt;new&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;({&lt;/span&gt;
  &lt;span class="na"&gt;apiKey&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="nx"&gt;process&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;env&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;OPENROUTER_API_KEY&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;baseURL&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;https://openrouter.ai/api/v1&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;});&lt;/span&gt;

&lt;span class="kd"&gt;const&lt;/span&gt; &lt;span class="nx"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="k"&gt;await&lt;/span&gt; &lt;span class="nx"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;({&lt;/span&gt;
  &lt;span class="na"&gt;model&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;deepseek/deepseek-v4-flash:free&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;messages&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;[{&lt;/span&gt; &lt;span class="na"&gt;role&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;user&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="na"&gt;content&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;Explain MoE routing like I'm 12.&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt; &lt;span class="p"&gt;}],&lt;/span&gt;
&lt;span class="p"&gt;});&lt;/span&gt;

&lt;span class="nx"&gt;console&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;log&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="nx"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="nx"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;content&lt;/span&gt;&lt;span class="p"&gt;);&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h2&gt;
  
  
  경로 2: Hugging Face 추론 제공자
&lt;/h2&gt;

&lt;p&gt;Hugging Face는 V4 체크포인트를 공유 추론 엔드포인트로 제공합니다. 로그인된 HF 토큰을 사용해 무료 호출이 가능하지만, 가장 엄격한 속도 제한이 있습니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Python 예시:&lt;/strong&gt;&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;
&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;huggingface_hub&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;InferenceClient&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;InferenceClient&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-ai/DeepSeek-V4-Flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;token&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;os&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;environ&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;HF_TOKEN&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;chat_completion&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;
        &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Write a Python decorator that retries with jitter.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}&lt;/span&gt;
    &lt;span class="p"&gt;],&lt;/span&gt;
    &lt;span class="n"&gt;max_tokens&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mi"&gt;512&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ul&gt;
&lt;li&gt;HF 토큰은 &lt;a href="https://huggingface.co/settings/tokens" rel="noopener noreferrer"&gt;huggingface.co/settings/tokens&lt;/a&gt;에서 무료 발급&lt;/li&gt;
&lt;li&gt;부하에 따라 지연 시간 및 호출 가능량 변화&lt;/li&gt;
&lt;li&gt;더 많은 할당량이 필요하면 HF Pro로 업그레이드&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  경로 3: Chutes 및 커뮤니티 게이트웨이
&lt;/h2&gt;

&lt;p&gt;Chutes는 커뮤니티가 자주 DeepSeek 모델을 제공하는 분산형 GPU 네트워크입니다. &lt;code&gt;&lt;a href="https://llm.chutes.ai/v1" rel="noopener noreferrer"&gt;https://llm.chutes.ai/v1&lt;/a&gt;&lt;/code&gt;에서 OpenAI 호환 엔드포인트를 제공합니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Python 예시:&lt;/strong&gt;&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;CHUTES_API_KEY&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://llm.chutes.ai/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-ai/DeepSeek-V4-Flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Compare CSA and HCA attention in two sentences.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ul&gt;
&lt;li&gt;가용성과 지원 모델 ID, 비용은 자주 변동 → 대시보드에서 확인 필요&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  경로 4: DeepSeek 체험 크레딧
&lt;/h2&gt;

&lt;p&gt;DeepSeek은 신규 계정에 소액의 체험 크레딧을 지급합니다. (금액/기간은 변동, 가입 후 &lt;a href="https://platform.deepseek.com/" rel="noopener noreferrer"&gt;platform.deepseek.com&lt;/a&gt;의 청구 대시보드 확인 필수)&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;$1 크레딧으로 V4-Flash 기준 약 700만 입력 토큰(700회 이상 프로토타입 호출) 사용 가능&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Apidog에서 제공자 독립 무료 체인 구축하기
&lt;/h2&gt;

&lt;p&gt;여러 무료 경로를 조합하면 특정 제공자에 속도 제한이 걸려도 자동 폴백이 가능한 복원력 있는 워크플로우를 만들 수 있습니다.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog 다운로드&lt;/a&gt; 및 새 프로젝트 생성&lt;/li&gt;
&lt;li&gt;환경 4개 생성: &lt;code&gt;openrouter&lt;/code&gt;, &lt;code&gt;huggingface&lt;/code&gt;, &lt;code&gt;chutes&lt;/code&gt;, &lt;code&gt;deepseek-trial&lt;/code&gt;
&lt;/li&gt;
&lt;li&gt;각 환경에 API 키, &lt;code&gt;BASE_URL&lt;/code&gt; 등 변수 저장&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;{{BASE_URL}}/chat/completions&lt;/code&gt;에 대한 파라미터화된 POST 요청 생성&lt;/li&gt;
&lt;li&gt;환경 전환으로 동일 프롬프트를 여러 제공자에 재사용&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;이 방식은 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 무료 경로&lt;/a&gt; 등에도 적용할 수 있습니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  코드에서 폴백 체인 자동화
&lt;/h3&gt;

&lt;p&gt;OpenAI SDK를 활용해 폴백 체인을 직접 구현할 수 있습니다.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;
&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;openai&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;RateLimitError&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;APIError&lt;/span&gt;

&lt;span class="n"&gt;PROVIDERS&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="p"&gt;[&lt;/span&gt;
    &lt;span class="p"&gt;{&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;base_url&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://openrouter.ai/api/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;api_key&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;environ&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;OPENROUTER_API_KEY&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;model&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek/deepseek-v4-flash:free&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="p"&gt;{&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;base_url&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://llm.chutes.ai/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;api_key&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;environ&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;CHUTES_API_KEY&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;model&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-ai/DeepSeek-V4-Flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="p"&gt;{&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;base_url&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://api.deepseek.com/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;api_key&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;environ&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;DEEPSEEK_API_KEY&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;model&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-v4-flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="p"&gt;},&lt;/span&gt;
&lt;span class="p"&gt;]&lt;/span&gt;

&lt;span class="k"&gt;def&lt;/span&gt; &lt;span class="nf"&gt;call_v4&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="p"&gt;):&lt;/span&gt;
    &lt;span class="k"&gt;for&lt;/span&gt; &lt;span class="n"&gt;provider&lt;/span&gt; &lt;span class="ow"&gt;in&lt;/span&gt; &lt;span class="n"&gt;PROVIDERS&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
        &lt;span class="k"&gt;try&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
            &lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
                &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;provider&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;api_key&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
                &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;provider&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;base_url&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
            &lt;span class="p"&gt;)&lt;/span&gt;
            &lt;span class="k"&gt;return&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
                &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;provider&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;model&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
                &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
            &lt;span class="p"&gt;)&lt;/span&gt;
        &lt;span class="nf"&gt;except &lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;RateLimitError&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;APIError&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt; &lt;span class="k"&gt;as&lt;/span&gt; &lt;span class="n"&gt;e&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
            &lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="sa"&gt;f&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="si"&gt;{&lt;/span&gt;&lt;span class="n"&gt;provider&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;'&lt;/span&gt;&lt;span class="s"&gt;base_url&lt;/span&gt;&lt;span class="sh"&gt;'&lt;/span&gt;&lt;span class="p"&gt;]&lt;/span&gt;&lt;span class="si"&gt;}&lt;/span&gt;&lt;span class="s"&gt; failed: &lt;/span&gt;&lt;span class="si"&gt;{&lt;/span&gt;&lt;span class="n"&gt;e&lt;/span&gt;&lt;span class="si"&gt;}&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
            &lt;span class="k"&gt;continue&lt;/span&gt;
    &lt;span class="k"&gt;raise&lt;/span&gt; &lt;span class="nc"&gt;RuntimeError&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;all providers exhausted&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h2&gt;
  
  
  각 무료 경로가 실제 유용한 경우
&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;경로&lt;/th&gt;
&lt;th&gt;가장 적합한 용도&lt;/th&gt;
&lt;th&gt;가장 부적합한 용도&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;OpenRouter 무료&lt;/td&gt;
&lt;td&gt;프로토타이핑, 일상 개발&lt;/td&gt;
&lt;td&gt;엄격한 SLA가 필요한 모든 작업&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;HF 추론&lt;/td&gt;
&lt;td&gt;탐색적 호출, 노트북&lt;/td&gt;
&lt;td&gt;저지연 워크로드&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Chutes&lt;/td&gt;
&lt;td&gt;실험적인 커뮤니티 작업&lt;/td&gt;
&lt;td&gt;장기적인 의존성&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;DeepSeek 체험&lt;/td&gt;
&lt;td&gt;완벽한 충실도 테스트&lt;/td&gt;
&lt;td&gt;지속적인 프로덕션&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;자체 호스팅 V4-Flash&lt;/td&gt;
&lt;td&gt;규정 준수 관련 작업&lt;/td&gt;
&lt;td&gt;GPU 용량이 없는 팀&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;h2&gt;
  
  
  중요한 할당량 계산
&lt;/h2&gt;

&lt;p&gt;무료 경로 사용 전 일일 처리량을 체크하세요.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;OpenRouter 무료:&lt;/strong&gt; 키당 하루 약 100회, 각 5만 토큰 → 일 30~50회 개발 호출에 적합&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;HF 추론 무료:&lt;/strong&gt; 계정당 하루 약 1천회, 속도 제한 큼&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Chutes:&lt;/strong&gt; 매우 가변적, 커뮤니티 상황에 따라 달라짐&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek 체험($1):&lt;/strong&gt; V4-Flash 기준 1만 입력 토큰씩 약 700회 호출 가능&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;자체 호스팅 V4-Flash:&lt;/strong&gt; 하드웨어 성능에 따라 다름 (예: 4 × H100 = 초당 50~150 토큰)&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;프로토타입에 그 이상이 필요하다면 유료 API가 경제적입니다. (V4-Flash에서 1만 호출 = 약 $2.80)&lt;/p&gt;

&lt;h2&gt;
  
  
  유료 API로 전환해야 할 때
&lt;/h2&gt;

&lt;p&gt;아래 세 가지 중 한 가지라도 해당하면 유료 API로 전환하세요.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;하루 1회 이상 속도 제한에 걸릴 때&lt;/li&gt;
&lt;li&gt;여러 무료 제공자를 연결해야 할 때&lt;/li&gt;
&lt;li&gt;예측 가능한 SLA/지연이 필요할 때&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;최소 충전 $2로 간단히 전환 가능. 전체 요금표는 &lt;a href="http://apidog.com/blog/deepseek-v4-api-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 가격 가이드&lt;/a&gt;에서 확인하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  자주 묻는 질문
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Q. 영구적으로 무료인 경로가 있나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
A. 없습니다. 무료 티어는 예고 없이 변경될 수 있으니 프로토타입 용도로만 사용하세요.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Q. OpenRouter &lt;code&gt;:free&lt;/code&gt;가 실질적으로 V4를 실행하나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
A. 네, 품질은 동일하지만 공유 인프라에서 속도 제한이 매우 큽니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Q. 출시 제품에 무료 경로를 쓸 수 있나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
A. 제공자 약관을 반드시 확인하세요. OpenRouter/DeepSeek는 제한적으로 상업적 사용을 허용, HF Inference는 엄격하게 제한.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Q. 가장 빠른 무료 경로는?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
A. DeepSeek 체험 크레딧이 가장 빠르며, 그다음은 OpenRouter, 그 외는 상황에 따라 다름.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Q. V4를 자체 호스팅해 무료로 쓸 수 있나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
A. MIT 라이선스이므로 라이선스상 무료이나 GPU 등 인프라 비용이 필요합니다. &lt;a href="http://apidog.com/blog/how-to-run-deepseek-v4-locally?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 로컬 실행법&lt;/a&gt; 참고.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Q. 오늘 쓴 무료 경로 사용량은 어떻게 추적하나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
A. &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;의 응답 뷰어에서 usage 필드 확인, 대부분의 제공자는 자체 대시보드도 제공.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>DeepSeek V4 API 가격</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:20:52 +0000</pubDate>
      <link>https://dev.to/rihpig/deepseek-v4-api-gagyeog-nm8</link>
      <guid>https://dev.to/rihpig/deepseek-v4-api-gagyeog-nm8</guid>
      <description>&lt;p&gt;DeepSeek은 2026년 4월 23일 V4 모델 가격을 공개하면서, 선도적 AI 모델 시장의 새로운 가격 기준을 제시했습니다. V4-Flash는 백만 입력 토큰당 $0.14, 출력 토큰당 $0.28로, V4-Pro는 입력 백만 토큰당 $1.74, 출력 백만 토큰당 $3.48로 책정되었습니다. 두 모델 모두 1M 입력 토큰, 최대 384K 출력 토큰 컨텍스트 창을 지원하며, 반복 프롬프트에 대해 입력 비용을 최대 90%까지 절감하는 캐시 적중 할인을 제공합니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;오늘 Apidog을 체험해보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;이 글에서는 전체 DeepSeek V4 요금표, 컨텍스트 캐싱이 호출당 실제 비용에 미치는 영향, GPT-5.5 및 Claude Opus와의 실제 비교, 그리고 Apidog에서 개발자가 비용 예측을 쉽게 할 수 있는 네 가지 실전 방법을 다룹니다.&lt;/p&gt;

&lt;p&gt;제품 개요는 &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4란 무엇인가&lt;/a&gt;를, 개발자 가이드는 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 API 사용 방법&lt;/a&gt;를 참고하세요. 무료 사용법은 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4를 무료로 사용하는 방법&lt;/a&gt;을 확인할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  요약 (TL;DR)
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;V4-Flash:&lt;/strong&gt; 입력 백만 토큰당 $0.14 (캐시 미스), $0.028 (캐시 적중), 출력 백만 토큰당 $0.28&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;V4-Pro:&lt;/strong&gt; 입력 백만 토큰당 $1.74 (캐시 미스), $0.145 (캐시 적중), 출력 백만 토큰당 $3.48&lt;/li&gt;
&lt;li&gt;컨텍스트 창: 두 모델 모두 &lt;strong&gt;1M 토큰 입력&lt;/strong&gt;, &lt;strong&gt;384K 토큰 출력&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;캐시 적중 할인: 반복 접두사에 대해 Flash는 약 &lt;strong&gt;80% 할인&lt;/strong&gt;, Pro는 &lt;strong&gt;92% 할인&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;deepseek-chat&lt;/code&gt;, &lt;code&gt;deepseek-reasoner&lt;/code&gt;는 &lt;strong&gt;2026년 7월 24일 사용 중단&lt;/strong&gt; 및 V4-Flash 요율로 매핑&lt;/li&gt;
&lt;li&gt;캐시 미스 기준 V4-Pro는 입력에서 GPT-5.5보다 &lt;strong&gt;2.9배&lt;/strong&gt;, 출력에서 &lt;strong&gt;8.6배 저렴&lt;/strong&gt;
&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  전체 요금표
&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;모델&lt;/th&gt;
&lt;th&gt;입력 (캐시 미스)&lt;/th&gt;
&lt;th&gt;입력 (캐시 적중)&lt;/th&gt;
&lt;th&gt;출력&lt;/th&gt;
&lt;th&gt;컨텍스트&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;deepseek-v4-flash&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;$0.14 / M&lt;/td&gt;
&lt;td&gt;$0.028 / M&lt;/td&gt;
&lt;td&gt;$0.28 / M&lt;/td&gt;
&lt;td&gt;1M / 384K&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;deepseek-v4-pro&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;$1.74 / M&lt;/td&gt;
&lt;td&gt;$0.145 / M&lt;/td&gt;
&lt;td&gt;$3.48 / M&lt;/td&gt;
&lt;td&gt;1M / 384K&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;
&lt;code&gt;deepseek-chat&lt;/code&gt; (2026-07-24 사용 중단)&lt;/td&gt;
&lt;td&gt;V4-Flash 비-사고 모드에 매핑&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;
&lt;code&gt;deepseek-reasoner&lt;/code&gt; (2026-07-24 사용 중단)&lt;/td&gt;
&lt;td&gt;V4-Flash 사고 모드에 매핑&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;실제 사용 시 주의할 세부사항:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;사고(thinking) 및 비사고(non-thinking) 모드 모두 동일한 가격이 적용됩니다. 단, 추론 모드에 따라 토큰 소모량이 달라집니다.&lt;/li&gt;
&lt;li&gt;캐시 적중 할인은 자동 적용됩니다. 동일한 계정 내에서 1,024 토큰 이상 반복되는 접두사를 사용하는 모든 요청에 할인 적용(설정 필요 없음).&lt;/li&gt;
&lt;li&gt;기존 &lt;code&gt;deepseek-chat&lt;/code&gt; 및 &lt;code&gt;deepseek-reasoner&lt;/code&gt;는 V4-Flash로 청구됩니다. 2026년 7월 24일까지 마이그레이션 필요.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  컨텍스트 캐싱을 쉽게 설명
&lt;/h2&gt;

&lt;p&gt;캐싱은 DeepSeek V4의 핵심 비용 절감 수단입니다. 긴 시스템 프롬프트, 에이전트 도구 스키마, RAG 컨텍스트 등 반복되는 입력은 두 번째 호출부터 입력 요율의 일부만 과금됩니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  예시
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;20,000 토큰 시스템 프롬프트 + 200 토큰 사용자 질문 100회 호출&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;캐싱 미적용:&lt;/strong&gt;

&lt;ul&gt;
&lt;li&gt;입력: 100 × 20,200 × $1.74 / M = $3.52
&lt;/li&gt;
&lt;li&gt;출력: 100 × 500 × $3.48 / M = $0.17
&lt;/li&gt;
&lt;li&gt;합계: &lt;strong&gt;$3.69&lt;/strong&gt;
&lt;/li&gt;
&lt;/ul&gt;


&lt;/li&gt;

&lt;li&gt;

&lt;strong&gt;캐싱 적용:&lt;/strong&gt;

&lt;ul&gt;
&lt;li&gt;첫 입력: 20,200 × $1.74 / M = $0.035
&lt;/li&gt;
&lt;li&gt;99회 캐시 적중 접두사: 99 × 20,000 × $0.145 / M = $0.287
&lt;/li&gt;
&lt;li&gt;99회 캐시 미스 사용자 질문: 99 × 200 × $1.74 / M = $0.034
&lt;/li&gt;
&lt;li&gt;출력: 100 × 500 × $3.48 / M = $0.174
&lt;/li&gt;
&lt;li&gt;합계: &lt;strong&gt;$0.53&lt;/strong&gt;
&lt;/li&gt;
&lt;/ul&gt;


&lt;/li&gt;

&lt;/ul&gt;

&lt;p&gt;동일 워크로드에서 약 &lt;strong&gt;7배 절감&lt;/strong&gt;. V4-Flash는 더 극적인 효과를 보입니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  GPT-5.5 및 Claude와의 비교
&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;모델&lt;/th&gt;
&lt;th&gt;입력 (표준)&lt;/th&gt;
&lt;th&gt;입력 (캐시됨)&lt;/th&gt;
&lt;th&gt;출력&lt;/th&gt;
&lt;th&gt;컨텍스트&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;DeepSeek V4-Flash&lt;/td&gt;
&lt;td&gt;$0.14 / M&lt;/td&gt;
&lt;td&gt;$0.028 / M&lt;/td&gt;
&lt;td&gt;$0.28 / M&lt;/td&gt;
&lt;td&gt;1M&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;DeepSeek V4-Pro&lt;/td&gt;
&lt;td&gt;$1.74 / M&lt;/td&gt;
&lt;td&gt;$0.145 / M&lt;/td&gt;
&lt;td&gt;$3.48 / M&lt;/td&gt;
&lt;td&gt;1M&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5&lt;/td&gt;
&lt;td&gt;$5 / M&lt;/td&gt;
&lt;td&gt;$1.25 / M&lt;/td&gt;
&lt;td&gt;$30 / M&lt;/td&gt;
&lt;td&gt;1M&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 Pro&lt;/td&gt;
&lt;td&gt;$30 / M&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;td&gt;$180 / M&lt;/td&gt;
&lt;td&gt;1M&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Claude Opus 4.6&lt;/td&gt;
&lt;td&gt;$15 / M&lt;/td&gt;
&lt;td&gt;$1.50 / M&lt;/td&gt;
&lt;td&gt;$75 / M&lt;/td&gt;
&lt;td&gt;200K&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;출력 토큰 기준&lt;/strong&gt;: V4-Pro는 GPT-5.5보다 8.6배, Claude Opus 4.6보다 21배 저렴&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;캐시된 입력 기준&lt;/strong&gt;: V4-Pro는 GPT-5.5/Claude 대비 약 10배 저렴&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;성능 대비&lt;/strong&gt;: V4-Pro는 LiveCodeBench, Codeforces 등에서 GPT-5.5와 동급/상회&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;strong&gt;참고:&lt;/strong&gt; Claude는 긴 컨텍스트 검색에서는 여전히 강점을 가지고 있으니, 워크로드 특성에 따라 품질/비용을 비교하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  일반적인 워크로드별 비용 모델링
&lt;/h2&gt;

&lt;p&gt;아래는 V4-Pro 기준(캐시 미스) 실제 비용 예시입니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  1. 에이전트형 코딩 루프 (50K 컨텍스트, 2K 출력, 20회 호출)
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;입력: 50,000 × 20 × $1.74 / M = $1.74&lt;/li&gt;
&lt;li&gt;출력: 2,000 × 20 × $3.48 / M = $0.14&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;작업당 약 $1.88 (GPT-5.5는 약 $6.20)&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;h3&gt;
  
  
  2. 긴 문서 Q&amp;amp;A (500K 컨텍스트, 1K 출력)
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;입력: 500,000 × $1.74 / M = $0.87&lt;/li&gt;
&lt;li&gt;출력: 1,000 × $3.48 / M = $0.003&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;호출당 약 $0.87 (GPT-5.5는 약 $2.53)&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;h3&gt;
  
  
  3. 대량 분류 (2K 컨텍스트, 200 출력, 10,000회 호출)
&lt;/h3&gt;

&lt;blockquote&gt;
&lt;p&gt;&lt;em&gt;이 경우 V4-Flash 사용 권장&lt;/em&gt;&lt;/p&gt;
&lt;/blockquote&gt;

&lt;ul&gt;
&lt;li&gt;입력: 2,000 × 10,000 × $0.14 / M = $2.80&lt;/li&gt;
&lt;li&gt;출력: 200 × 10,000 × $0.28 / M = $0.56&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;약 $3.36 (GPT-5.5는 약 $110)&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;h3&gt;
  
  
  4. 반복 프롬프트 챗봇 (10K 시스템 프롬프트, 500 사용자 토큰, 1K 출력, 1,000 세션)
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;첫 호출 입력: 10,500 × $1.74 / M = $0.018&lt;/li&gt;
&lt;li&gt;캐시 적중 입력: 999 × 10,000 × $0.145 / M = $1.45&lt;/li&gt;
&lt;li&gt;캐시 미스 사용자 질문: 999 × 500 × $1.74 / M = $0.87&lt;/li&gt;
&lt;li&gt;출력: 1,000 × 1,000 × $3.48 / M = $3.48&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;세션당 약 $5.82 (GPT-5.5는 약 $26.35)&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  주의해야 할 숨겨진 비용
&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;사고 모드 토큰 인플레이션:&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
&lt;code&gt;thinking_max&lt;/code&gt;는 &lt;code&gt;non-thinking&lt;/code&gt;보다 3~10배 많은 토큰을 소모. 출력 요율로 과금됨. Think Max는 꼭 필요한 경우만 사용.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;컨텍스트 증가:&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
대화 전체를 반복 공급하는 에이전트 루프는 비용이 급증. 토큰 잘라내기/요약 필수.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;재시도 폭풍:&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
500 에러마다 무제한 재시도하는 루프는 비용을 급증시킴. 반드시 지수 백오프와 요청당 재시도 상한을 구현.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;개발 변동:&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
매번 전체 컨텍스트를 실행하는 개발 패턴은 비용이 큼.&lt;br&gt;&lt;br&gt;
&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;에서 프롬프트 변수화로 비용 최소화 가능.&lt;/p&gt;&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Apidog에서 비용 추적
&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog 다운로드&lt;/a&gt; 및 &lt;code&gt;DEEPSEEK_API_KEY&lt;/code&gt;를 환경별 비밀 변수로 저장&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;https://api.deepseek.com/v1/chat/completions&lt;/code&gt;에 대한 POST 요청 템플릿 저장&lt;/li&gt;
&lt;li&gt;응답 패널에서 &lt;code&gt;usage.prompt_tokens&lt;/code&gt;, &lt;code&gt;usage.completion_tokens&lt;/code&gt;, &lt;code&gt;usage.reasoning_tokens&lt;/code&gt;를 고정해 모든 호출의 비용을 실시간 확인&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;model&lt;/code&gt;, &lt;code&gt;thinking_mode&lt;/code&gt;를 변수화해 V4-Flash/Pro, Non-Think/Think Max A/B 테스트&lt;/li&gt;
&lt;li&gt;GPT-5.5 컬렉션도 동일하게 구성해 두 모델 비용을 한눈에 비교
(설정 방법은 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 가이드&lt;/a&gt; 참고)&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;이 워크플로우로 월말 청구서의 80% 이상 예기치 않은 비용을 예방할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  지출을 예측 가능하게 유지하는 네 가지 규칙
&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;기본은 V4-Flash&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
품질 격차가 수익에 영향 줄 때만 V4-Pro로 전환&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;기본은 Non-Think&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
어려운 작업에서만 Think High/Max 사용&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;&lt;code&gt;max_tokens&lt;/code&gt; 제한&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
384K 출력 상한은 안전장치, 실제 프로덕션은 2K 내외로 충분&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;사용량 원격 측정(telemetry) 기록&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
모든 호출에서 &lt;code&gt;prompt_tokens&lt;/code&gt;, &lt;code&gt;completion_tokens&lt;/code&gt;, &lt;code&gt;reasoning_tokens&lt;/code&gt; 기록 및 급증 시 경고 알림&lt;/p&gt;&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  자주 묻는 질문
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;무료 등급이 있나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
무료 API 등급은 없으나, 신규 계정에는 소액 체험 크레딧이 제공될 수 있습니다. API 외 무료 경로는 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4를 무료로 사용하는 방법&lt;/a&gt; 참고.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;캐시 적중 가격은 어떻게 작동하나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
동일 계정에서 1,024 토큰 이상 반복 접두사는 캐시 적중 요율 적용. 첫 호출만 캐시 미스 요율, 이후 동일 접두사 호출은 할인 자동 적용.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;사고 모드는 비용이 더 많이 드나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
토큰당 요율은 동일. 단, 사고 모드는 추론 과정까지 생성하여 토큰 소모량이 증가. &lt;code&gt;usage.reasoning_tokens&lt;/code&gt; 추적 필수.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;가격은 안정적인가요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
DeepSeek은 가격을 주기적으로 변경합니다. 예산 책정 전 &lt;a href="https://api-docs.deepseek.com/quick_start/pricing" rel="noopener noreferrer"&gt;실시간 가격 페이지&lt;/a&gt; 확인 필수.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;V4-Pro와 V4-Flash는 동일한 출력 요율인가요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
아닙니다. V4-Pro 출력은 $3.48/M, V4-Flash는 $0.28/M. 12.4배 차이로 V4-Flash가 기본 선택지.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Anthropic-형식 엔드포인트도 가격에 영향 있나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
아니요. &lt;code&gt;&lt;a href="https://api.deepseek.com/anthropic" rel="noopener noreferrer"&gt;https://api.deepseek.com/anthropic&lt;/a&gt;&lt;/code&gt; 역시 동일 요율로 청구됩니다. 엔드포인트 형식과 무관.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>DeepSeek V4 API 사용법</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:14:56 +0000</pubDate>
      <link>https://dev.to/rihpig/deepseek-v4-api-sayongbeob-28d</link>
      <guid>https://dev.to/rihpig/deepseek-v4-api-sayongbeob-28d</guid>
      <description>&lt;p&gt;DeepSeek V4가 출시되었으며, API는 첫날부터 라이브로 제공됩니다. 모델 ID는 &lt;code&gt;deepseek-v4-pro&lt;/code&gt;와 &lt;code&gt;deepseek-v4-flash&lt;/code&gt;이며, 엔드포인트는 OpenAI와 호환되고, 기본 URL은 &lt;code&gt;https://api.deepseek.com&lt;/code&gt;입니다. 이는 이미 GPT-5.5 또는 다른 OpenAI 호환 API에 사용하던 모든 클라이언트가 기본 URL만 변경하면 V4에 대해 작동한다는 의미입니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;지금 Apidog을 사용해보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-222.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-222.png" alt="" width="1200" height="825"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;이 가이드는 인증, 모든 주요 매개변수, Python 및 Node 예제, 사고 모드 수학, 도구 호출, 스트리밍, 그리고 반복 작업 중에도 비용을 명확하게 파악할 수 있는 &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; 기반 워크플로우를 다룹니다.&lt;/p&gt;

&lt;p&gt;&amp;lt;!--kg-card-begin: html--&amp;gt;&lt;/p&gt;
&lt;br&gt;
        &lt;br&gt;
        &lt;br&gt;
    &amp;lt;!--kg-card-end: html--&amp;gt;

&lt;p&gt;제품 수준 개요는 &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4란 무엇인가&lt;/a&gt;를 참조하십시오. 무료 경로는 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4를 무료로 사용하는 방법&lt;/a&gt;을 참조하십시오.&lt;/p&gt;
&lt;h2&gt;
  
  
  요약
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;DeepSeek V4는 &lt;code&gt;&lt;a href="https://api.deepseek.com/v1/chat/completions" rel="noopener noreferrer"&gt;https://api.deepseek.com/v1/chat/completions&lt;/a&gt;&lt;/code&gt;의 &lt;strong&gt;OpenAI 호환&lt;/strong&gt; 엔드포인트와 &lt;code&gt;&lt;a href="https://api.deepseek.com/anthropic" rel="noopener noreferrer"&gt;https://api.deepseek.com/anthropic&lt;/a&gt;&lt;/code&gt;의 &lt;strong&gt;Anthropic 호환&lt;/strong&gt; 엔드포인트에서 제공됩니다.&lt;/li&gt;
&lt;li&gt;모델 ID: &lt;code&gt;deepseek-v4-pro&lt;/code&gt; (총 1.6T, 활성 49B) 및 &lt;code&gt;deepseek-v4-flash&lt;/code&gt; (총 284B, 활성 13B).&lt;/li&gt;
&lt;li&gt;두 변형 모두 &lt;strong&gt;1M 토큰 컨텍스트&lt;/strong&gt;와 세 가지 추론 모드를 지원합니다: &lt;code&gt;non-thinking&lt;/code&gt;, &lt;code&gt;thinking&lt;/code&gt;, &lt;code&gt;thinking_max&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;DeepSeek 권장 사항에 따라 &lt;code&gt;temperature=1.0, top_p=1.0&lt;/code&gt;을 사용하십시오. GPT-5.5 또는 Claude 기본값을 가져오지 마십시오.&lt;/li&gt;
&lt;li&gt;레거시 ID인 &lt;code&gt;deepseek-chat&lt;/code&gt; 및 &lt;code&gt;deepseek-reasoner&lt;/code&gt;는 &lt;strong&gt;2026년 7월 24일&lt;/strong&gt;에 사용 중단됩니다. 그 전에 마이그레이션하십시오.&lt;/li&gt;
&lt;li&gt;요청을 재생하고, 사고 모드를 비교하고, 키가 셸 기록에 남지 않도록 &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog 다운로드&lt;/a&gt;하십시오.&lt;/li&gt;
&lt;/ul&gt;

&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-223.png" alt="" width="1200" height="887"&gt;
&lt;h2&gt;
  
  
  사전 요구 사항
&lt;/h2&gt;

&lt;p&gt;첫 요청을 보내기 전에 아래 네 가지를 준비하십시오.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;최소 $2가 충전된 &lt;a href="https://platform.deepseek.com/" rel="noopener noreferrer"&gt;platform.deepseek.com&lt;/a&gt;의 DeepSeek 개발자 계정. 잔액이 없으면 &lt;code&gt;402 Insufficient Balance&lt;/code&gt; 오류가 반환됩니다.&lt;/li&gt;
&lt;li&gt;청구할 프로젝트 범위에 맞는 API 키. 프로젝트 범위 키는 프로덕션 환경에서 계정 키보다 안전합니다.&lt;/li&gt;
&lt;li&gt;OpenAI 호환 기본 URL에 요청을 보낼 수 있는 SDK. Python &lt;code&gt;openai&amp;gt;=1.30.0&lt;/code&gt; 및 Node &lt;code&gt;&lt;a href="mailto:openai@4.x"&gt;openai@4.x&lt;/a&gt;&lt;/code&gt;는 모두 수정 없이 작동합니다.&lt;/li&gt;
&lt;li&gt;터미널에 스팸을 보내지 않고 요청을 재생할 수 있는 API 클라이언트. curl은 한 번의 호출에는 작동하지만, 그 이후에는 &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;를 사용하십시오.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;키를 환경변수로 등록하세요:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;&lt;span class="nb"&gt;export &lt;/span&gt;&lt;span class="nv"&gt;DEEPSEEK_API_KEY&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="s2"&gt;"sk-..."&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h2&gt;
  
  
  엔드포인트 및 인증
&lt;/h2&gt;

&lt;p&gt;두 개의 기본 URL은 두 가지 요청 형식을 다룹니다.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight http"&gt;&lt;code&gt;&lt;span class="err"&gt;POST https://api.deepseek.com/v1/chat/completions    # OpenAI 형식
POST https://api.deepseek.com/anthropic/v1/messages  # Anthropic 형식
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;기존 Anthropic 형식의 코드베이스가 없다면 OpenAI 호환 형식을 선택하는 것이 좋습니다. 이하 예제는 OpenAI 형식을 기준으로 설명합니다.&lt;/p&gt;

&lt;p&gt;인증은 표준 &lt;code&gt;Authorization&lt;/code&gt; 헤더의 베어러 토큰입니다. 최소 예시:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;curl https://api.deepseek.com/v1/chat/completions &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;-H&lt;/span&gt; &lt;span class="s2"&gt;"Authorization: Bearer &lt;/span&gt;&lt;span class="nv"&gt;$DEEPSEEK_API_KEY&lt;/span&gt;&lt;span class="s2"&gt;"&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;-H&lt;/span&gt; &lt;span class="s2"&gt;"Content-Type: application/json"&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;-d&lt;/span&gt; &lt;span class="s1"&gt;'{
    "model": "deepseek-v4-pro",
    "messages": [
      {"role": "user", "content": "MoE 라우팅을 두 문장으로 설명해주세요."}
    ]
  }'&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;성공 시 &lt;code&gt;choices&lt;/code&gt; 배열, 입력/출력/추론 토큰(&lt;code&gt;usage&lt;/code&gt; 및 &lt;code&gt;reasoning_tokens&lt;/code&gt;), 추적용 &lt;code&gt;id&lt;/code&gt;가 포함된 JSON을 반환합니다. 실패 시 &lt;code&gt;error.code&lt;/code&gt; 및 &lt;code&gt;error.message&lt;/code&gt;를 반환합니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  요청 매개변수
&lt;/h2&gt;

&lt;p&gt;모든 필드는 비용 및 결과 동작에 직접 연결됩니다. 주요 매개변수 정리:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;매개변수&lt;/th&gt;
&lt;th&gt;유형&lt;/th&gt;
&lt;th&gt;값&lt;/th&gt;
&lt;th&gt;참고&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;model&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;문자열&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;deepseek-v4-pro&lt;/code&gt;, &lt;code&gt;deepseek-v4-flash&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;필수.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;messages&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;배열&lt;/td&gt;
&lt;td&gt;role/content 쌍&lt;/td&gt;
&lt;td&gt;필수. OpenAI와 동일한 스키마.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;thinking_mode&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;문자열&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;non-thinking&lt;/code&gt;, &lt;code&gt;thinking&lt;/code&gt;, &lt;code&gt;thinking_max&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;기본값은 &lt;code&gt;non-thinking&lt;/code&gt;.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;temperature&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;부동 소수점&lt;/td&gt;
&lt;td&gt;0 ~ 2&lt;/td&gt;
&lt;td&gt;DeepSeek은 1.0을 권장.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;top_p&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;부동 소수점&lt;/td&gt;
&lt;td&gt;0 ~ 1&lt;/td&gt;
&lt;td&gt;DeepSeek은 1.0을 권장.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;max_tokens&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;정수&lt;/td&gt;
&lt;td&gt;1 ~ 131,072&lt;/td&gt;
&lt;td&gt;출력 길이 제한.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;stream&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;부울&lt;/td&gt;
&lt;td&gt;true 또는 false&lt;/td&gt;
&lt;td&gt;SSE 스트리밍 활성화.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;tools&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;배열&lt;/td&gt;
&lt;td&gt;OpenAI 도구 사양&lt;/td&gt;
&lt;td&gt;함수 호출용.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;tool_choice&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;문자열 또는 객체&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;auto&lt;/code&gt;, &lt;code&gt;required&lt;/code&gt;, &lt;code&gt;none&lt;/code&gt;, 또는 특정 도구&lt;/td&gt;
&lt;td&gt;도구 사용 제어.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;response_format&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;객체&lt;/td&gt;
&lt;td&gt;&lt;code&gt;{"type": "json_object"}&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;JSON 모드 출력.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;seed&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;정수&lt;/td&gt;
&lt;td&gt;모든 정수&lt;/td&gt;
&lt;td&gt;재현성을 위해.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;presence_penalty&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;부동 소수점&lt;/td&gt;
&lt;td&gt;-2 ~ 2&lt;/td&gt;
&lt;td&gt;반복되는 주제에 불이익.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;frequency_penalty&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;부동 소수점&lt;/td&gt;
&lt;td&gt;-2 ~ 2&lt;/td&gt;
&lt;td&gt;반복되는 토큰에 불이익.&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;code&gt;thinking_mode&lt;/code&gt;는 비용에 가장 큰 영향을 줍니다. &lt;code&gt;non-thinking&lt;/code&gt;은 추론 없이 빠르게 응답하며, &lt;code&gt;thinking&lt;/code&gt;은 코드/수학 정확도를 높여주지만 토큰 비용이 추가됩니다. &lt;code&gt;thinking_max&lt;/code&gt;는 가장 높은 품질과 함께 많은 토큰을 소모합니다.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Python 클라이언트
&lt;/h2&gt;

&lt;p&gt;OpenAI 공식 SDK를 사용하면 base_url만 교체하여 바로 DeepSeek V4에 연결할 수 있습니다.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;
&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;openai&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;OpenAI&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;os&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;environ&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;DEEPSEEK_API_KEY&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
    &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://api.deepseek.com/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-v4-pro&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;
        &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;system&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;코드만으로 답해주세요.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
        &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;이벤트를 디바운싱하는 Rust 함수를 작성해주세요.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="p"&gt;],&lt;/span&gt;
    &lt;span class="n"&gt;extra_body&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking_mode&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="n"&gt;temperature&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mf"&gt;1.0&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;top_p&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mf"&gt;1.0&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;max_tokens&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mi"&gt;2048&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;choice&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;]&lt;/span&gt;
&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;내용:&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;choice&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;추론 토큰:&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;usage&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;reasoning_tokens&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;총 토큰:&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;usage&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;total_tokens&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;&lt;code&gt;extra_body&lt;/code&gt;를 활용하면 OpenAI SDK에서 DeepSeek 전용 옵션도 쉽게 전달할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  Node 클라이언트
&lt;/h2&gt;

&lt;p&gt;Node 환경에서도 구조가 거의 동일합니다.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight javascript"&gt;&lt;code&gt;&lt;span class="k"&gt;import&lt;/span&gt; &lt;span class="nx"&gt;OpenAI&lt;/span&gt; &lt;span class="k"&gt;from&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;openai&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;;&lt;/span&gt;

&lt;span class="kd"&gt;const&lt;/span&gt; &lt;span class="nx"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="k"&gt;new&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;({&lt;/span&gt;
  &lt;span class="na"&gt;apiKey&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="nx"&gt;process&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;env&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;DEEPSEEK_API_KEY&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;baseURL&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;https://api.deepseek.com/v1&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;});&lt;/span&gt;

&lt;span class="kd"&gt;const&lt;/span&gt; &lt;span class="nx"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="k"&gt;await&lt;/span&gt; &lt;span class="nx"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;({&lt;/span&gt;
  &lt;span class="na"&gt;model&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;deepseek-v4-flash&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;messages&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;[&lt;/span&gt;
    &lt;span class="p"&gt;{&lt;/span&gt; &lt;span class="na"&gt;role&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;user&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="na"&gt;content&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;뮤온 최적화 도구를 일반적인 용어로 설명해주세요.&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt; &lt;span class="p"&gt;},&lt;/span&gt;
  &lt;span class="p"&gt;],&lt;/span&gt;
  &lt;span class="na"&gt;thinking_mode&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;thinking&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;temperature&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="mf"&gt;1.0&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;top_p&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="mf"&gt;1.0&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;});&lt;/span&gt;

&lt;span class="nx"&gt;console&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;log&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="nx"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="nx"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;content&lt;/span&gt;&lt;span class="p"&gt;);&lt;/span&gt;
&lt;span class="nx"&gt;console&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;log&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;사용량:&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="nx"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;usage&lt;/span&gt;&lt;span class="p"&gt;);&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Node SDK는 별도 래퍼 없이 &lt;code&gt;thinking_mode&lt;/code&gt; 등 커스텀 필드를 바로 전달할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  스트리밍 응답
&lt;/h2&gt;

&lt;p&gt;&lt;code&gt;stream: true&lt;/code&gt;로 설정하면, OpenAI와 동일하게 SSE로 응답을 받을 수 있습니다.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="n"&gt;stream&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-v4-pro&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;MoE에 대한 300단어 에세이를 스트리밍해주세요.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
    &lt;span class="n"&gt;stream&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="bp"&gt;True&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;extra_body&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking_mode&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;non-thinking&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="k"&gt;for&lt;/span&gt; &lt;span class="n"&gt;chunk&lt;/span&gt; &lt;span class="ow"&gt;in&lt;/span&gt; &lt;span class="n"&gt;stream&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
    &lt;span class="n"&gt;delta&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;chunk&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;delta&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt; &lt;span class="ow"&gt;or&lt;/span&gt; &lt;span class="sh"&gt;""&lt;/span&gt;
    &lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;delta&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;end&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;""&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;flush&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="bp"&gt;True&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;사고 모드가 활성화된 경우, &lt;code&gt;delta.reasoning_content&lt;/code&gt;로 추론 트레이스를 별도로 받을 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  도구 호출
&lt;/h2&gt;

&lt;p&gt;V4는 OpenAI 도구 호출 스키마를 그대로 지원합니다. 함수 정의와 호출 패턴은 OpenAI와 동일하게 적용됩니다.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="n"&gt;tools&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="p"&gt;[{&lt;/span&gt;
    &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;type&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;function&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;function&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;name&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;get_weather&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;description&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;도시의 현재 날씨를 반환합니다.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;parameters&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;
            &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;type&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;object&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
            &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;properties&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;
                &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;city&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;type&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;string&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
                &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;unit&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;type&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;string&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;enum&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;c&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;f&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;]},&lt;/span&gt;
            &lt;span class="p"&gt;},&lt;/span&gt;
            &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;required&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;city&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
        &lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="p"&gt;},&lt;/span&gt;
&lt;span class="p"&gt;}]&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-v4-pro&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;라고스의 날씨는 섭씨로?&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
    &lt;span class="n"&gt;tools&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;tools&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;tool_choice&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;auto&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;extra_body&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking_mode&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;tool_call&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;tool_calls&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;]&lt;/span&gt;
&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;tool_call&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;function&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;name&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;tool_call&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;function&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;arguments&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;함수 실행 후 결과를 &lt;code&gt;role: "tool"&lt;/code&gt; 메시지로 추가하고, 동일한 패턴으로 루프를 반복 호출하여 완성형 워크플로우를 구현할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  JSON 모드
&lt;/h2&gt;

&lt;p&gt;구조화된 JSON 출력을 강제하려면 &lt;code&gt;response_format&lt;/code&gt;을 사용하십시오.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-v4-flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;
        &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;system&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;단일 JSON 객체로 답변해주세요.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
        &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;이 릴리스 노트를 {제목, 날짜, 불릿}으로 요약해주세요: ...&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="p"&gt;],&lt;/span&gt;
    &lt;span class="n"&gt;response_format&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;type&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;json_object&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="n"&gt;extra_body&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking_mode&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;non-thinking&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;JSON 모드는 유효한 JSON만을 반환하지만, 스키마 검증은 클라이언트 측에서(Pydantic, Zod 등) 별도로 처리해야 합니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  Apidog에서 컬렉션 구축
&lt;/h2&gt;

&lt;p&gt;터미널에서 직접 반복 호출은 비효율적이며, 실행 간 차이가 드러나지 않습니다. 실제 워크플로우를 위해 아래 절차를 따르세요.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog를 다운로드&lt;/a&gt;하고 프로젝트를 생성합니다.&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;{{DEEPSEEK_API_KEY}}&lt;/code&gt;를 비밀 변수로 저장한 환경을 추가합니다.&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;Authorization: Bearer {{DEEPSEEK_API_KEY}}&lt;/code&gt; 헤더로 &lt;code&gt;{{BASE_URL}}/chat/completions&lt;/code&gt; POST 요청을 저장합니다.&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;model&lt;/code&gt;과 &lt;code&gt;thinking_mode&lt;/code&gt;를 변수로 만들어 A/B 테스트가 쉽도록 만듭니다.&lt;/li&gt;
&lt;li&gt;응답 뷰어에서 &lt;code&gt;usage.reasoning_tokens&lt;/code&gt;를 항상 확인하여 사고 모드 비용을 추적합니다.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;이미 Apidog에서 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 컬렉션&lt;/a&gt;을 사용하는 경우, 복제 후 base_url과 모델 ID만 바꿔 바로 비교 워크플로우를 구성할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  오류 처리
&lt;/h2&gt;

&lt;p&gt;OpenAI 응답 포맷과 동일하므로, 아래 표를 참조해 오류를 신속하게 진단하세요.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;코드&lt;/th&gt;
&lt;th&gt;의미&lt;/th&gt;
&lt;th&gt;해결책&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;400&lt;/td&gt;
&lt;td&gt;잘못된 요청&lt;/td&gt;
&lt;td&gt;JSON 스키마, 특히 &lt;code&gt;messages&lt;/code&gt; 및 &lt;code&gt;tools&lt;/code&gt; 확인&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;401&lt;/td&gt;
&lt;td&gt;유효하지 않은 키&lt;/td&gt;
&lt;td&gt;
&lt;a href="https://platform.deepseek.com/" rel="noopener noreferrer"&gt;platform.deepseek.com&lt;/a&gt;에서 키 재생성&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;402&lt;/td&gt;
&lt;td&gt;잔액 부족&lt;/td&gt;
&lt;td&gt;계정에 충전&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;403&lt;/td&gt;
&lt;td&gt;모델 허용 안됨&lt;/td&gt;
&lt;td&gt;키 범위/모델 ID 철자 확인&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;422&lt;/td&gt;
&lt;td&gt;매개변수 범위 초과&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;max_tokens&lt;/code&gt; 또는 &lt;code&gt;thinking_mode&lt;/code&gt; 확인&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;429&lt;/td&gt;
&lt;td&gt;속도 제한&lt;/td&gt;
&lt;td&gt;잠시 대기 후 지수적 지터로 재시도&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;500&lt;/td&gt;
&lt;td&gt;서버 오류&lt;/td&gt;
&lt;td&gt;한 번 재시도, 반복되면 상태 페이지 확인&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;503&lt;/td&gt;
&lt;td&gt;과부하&lt;/td&gt;
&lt;td&gt;V4-Flash 대체 또는 30초 후 재시도&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;429/5xx는 지수 백오프와 함께 재시도 헬퍼로 감싸고, 4xx는 논리 오류이므로 자동 재시도를 하지 마세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  비용 관리 패턴
&lt;/h2&gt;

&lt;p&gt;비용 예측과 통제는 다음과 같이 접근하세요.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;기본적으로 V4-Flash를 사용&lt;/strong&gt;하고, 품질이 반드시 중요한 프롬프트만 V4-Pro로 전환합니다.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;&lt;code&gt;thinking_max&lt;/code&gt;는 플래그로 관리&lt;/strong&gt;하세요. 고비용 모드이므로 꼭 필요할 때만 활성화합니다.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;&lt;code&gt;max_tokens&lt;/code&gt; 제한&lt;/strong&gt;: 대부분의 답변은 2,000 토큰 이내. 1M 컨텍스트는 입력용입니다.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;모든 호출에 &lt;code&gt;usage&lt;/code&gt; 기록&lt;/strong&gt;: 입력/출력/추론 토큰을 모니터링 스택에 전송하고, 급격한 변동에 알림을 걸어둡니다.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  이전 DeepSeek 모델에서 마이그레이션
&lt;/h2&gt;

&lt;p&gt;2026년 7월 24일까지 이전 모델 ID(&lt;code&gt;deepseek-chat&lt;/code&gt;, &lt;code&gt;deepseek-reasoner&lt;/code&gt;)를 &lt;code&gt;deepseek-v4-pro&lt;/code&gt;로 변경해야 합니다. 호출부 한 줄만 바꾸면 됩니다.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight diff"&gt;&lt;code&gt;&lt;span class="gd"&gt;-  model="deepseek-chat"
&lt;/span&gt;&lt;span class="gi"&gt;+  model="deepseek-v4-pro"
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;전환 전 Apidog에서 A/B 비교를 실행해 품질 차이를 직접 확인하고, 변경 후 운영에 반영하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  FAQ
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;DeepSeek V4 API는 프로덕션 준비가 되었습니까?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
네. 2026년 4월 23일 라이브 출시, 1년 이상 검증된 인프라 기반입니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;V4는 Anthropic 메시지 형식을 지원합니까?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
네. &lt;code&gt;&lt;a href="https://api.deepseek.com/anthropic/v1/messages" rel="noopener noreferrer"&gt;https://api.deepseek.com/anthropic/v1/messages&lt;/a&gt;&lt;/code&gt; 엔드포인트를 사용하세요.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;컨텍스트 창 크기는?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
V4-Pro, V4-Flash 모두 100만 토큰. &lt;code&gt;thinking_max&lt;/code&gt;에는 최소 384K 권장.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;전송 전 입력 토큰 계산은?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
OpenAI 토크나이저로 근사치 산출, 실제 비용은 응답의 &lt;code&gt;usage&lt;/code&gt; 참고.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;API로 미세 조정(finetune) 가능합니까?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
불가. 미세 조정은 Hugging Face 체크포인트를 통해 별도 진행.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;API를 무료로 써볼 수 있습니까?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
계정 무료 티어는 없으나, 신규 가입자에 한해 평가판 크레딧이 제공될 수 있습니다.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>DeepSeek V4 사용법: 웹 채팅, API 및 자체 호스팅 방법</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:13:46 +0000</pubDate>
      <link>https://dev.to/rihpig/deepseek-v4-sayongbeob-web-caeting-api-mic-jace-hoseuting-bangbeob-22np</link>
      <guid>https://dev.to/rihpig/deepseek-v4-sayongbeob-web-caeting-api-mic-jace-hoseuting-bangbeob-22np</guid>
      <description>&lt;p&gt;DeepSeek V4는 2026년 4월 23일에 4개의 체크포인트, 라이브 API, 그리고 Hugging Face에 MIT 라이선스로 공개된 가중치와 함께 출시되었습니다. 한 가지 “정답”이 존재하지 않으므로, 즉각적인 접근, 프로덕션 API 호출, 온프레미스 배포 중 원하는 경로를 명확히 해야 합니다. 이 가이드는 각각의 장단점과 주의할 점, 그리고 프로덕션에서 바로 쓸 수 있는 프롬프트 워크플로우 예시를 제공합니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;지금 Apidog을 사용해보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;제품 개요만 필요하다면 &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4란 무엇인가&lt;/a&gt;를, API 사용 예시는 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 API 가이드&lt;/a&gt;를, 무료 사용법은 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4를 무료로 사용하는 방법&lt;/a&gt;을 참고하세요. 실전 요청을 바로 테스트하려면 &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;에서 미리 컬렉션을 빌드하세요.&lt;/p&gt;

&lt;h2 id="%EC%9A%94%EC%95%BD-tldr"&gt;요약 (TL;DR)&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;가장 빠른 경로: &lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;. 무료 웹 채팅, V4-Pro 기본, 세 가지 추론 모드 지원.&lt;/li&gt;
&lt;li&gt;프로덕션 경로: 모델 ID &lt;code&gt;deepseek-v4-pro&lt;/code&gt; 또는 &lt;code&gt;deepseek-v4-flash&lt;/code&gt;를 사용하는 &lt;code&gt;https://api.deepseek.com/v1/chat/completions&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;자체 호스팅: &lt;a href="https://huggingface.co/collections/deepseek-ai/deepseek-v4" rel="noopener noreferrer"&gt;Hugging Face&lt;/a&gt;에서 가중치 다운로드 후 저장소 &lt;code&gt;/inference&lt;/code&gt; 스크립트 실행.&lt;/li&gt;
&lt;li&gt;라우팅/분류엔 &lt;strong&gt;Non-Think&lt;/strong&gt;, 코드/분석엔 &lt;strong&gt;Think High&lt;/strong&gt;, 정확성 우선만 &lt;strong&gt;Think Max&lt;/strong&gt; 선택.&lt;/li&gt;
&lt;li&gt;DeepSeek 샘플링 권장값: &lt;code&gt;temperature=1.0, top_p=1.0&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;API 클라이언트는 &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; 권장. OpenAI 호환 포맷으로 DeepSeek, OpenAI, Anthropic를 한 요청에서 재생 가능.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-220.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-220.png" alt="" width="800" height="550"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2 id="%EC%9B%8C%ED%81%AC%EB%A1%9C%EB%93%9C%EC%97%90-%EC%A0%81%ED%95%A9%ED%95%9C-%EA%B2%BD%EB%A1%9C-%EC%84%A0%ED%83%9D"&gt;워크로드에 적합한 경로 선택&lt;/h2&gt;

&lt;p&gt;실제 사용 가능한 네 가지 경로와 각각의 강점은 다음과 같습니다.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;경로&lt;/th&gt;
&lt;th&gt;비용&lt;/th&gt;
&lt;th&gt;설정 시간&lt;/th&gt;
&lt;th&gt;최적 사용처&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;무료&lt;/td&gt;
&lt;td&gt;30초&lt;/td&gt;
&lt;td&gt;빠른 테스트, 즉석 작업&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;DeepSeek API&lt;/td&gt;
&lt;td&gt;토큰당 요금 부과&lt;/td&gt;
&lt;td&gt;5분&lt;/td&gt;
&lt;td&gt;프로덕션, 에이전트, 배치 작업&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;자체 호스팅 V4-Flash&lt;/td&gt;
&lt;td&gt;하드웨어 비용&lt;/td&gt;
&lt;td&gt;몇 시간&lt;/td&gt;
&lt;td&gt;온프레미스, 오프라인 추론&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;자체 호스팅 V4-Pro&lt;/td&gt;
&lt;td&gt;클러스터 비용&lt;/td&gt;
&lt;td&gt;하루&lt;/td&gt;
&lt;td&gt;연구, 커스텀 파인튜닝&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;OpenRouter / 애그리게이터&lt;/td&gt;
&lt;td&gt;토큰당 요금&lt;/td&gt;
&lt;td&gt;2분&lt;/td&gt;
&lt;td&gt;다중 공급자 폴백&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;h2 id="%EA%B2%BD%EB%A1%9C-1-%EC%9B%B9-%EC%B1%84%ED%8C%85%EC%97%90%EC%84%9C-v4-%EC%82%AC%EC%9A%A9%ED%95%98%EA%B8%B0"&gt;경로 1: 웹 채팅에서 V4 사용하기&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;에 접속&lt;/li&gt;
&lt;li&gt;이메일/Google/WeChat 로그인&lt;/li&gt;
&lt;li&gt;V4-Pro 기본 선택, 상단 토글로 Non-Think, Think High, Think Max 전환&lt;/li&gt;
&lt;li&gt;입력 시작&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-221.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-221.png" alt="" width="800" height="434"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;웹 채팅은 파일 업로드, 웹 검색, 1M 토큰 컨텍스트를 지원합니다. 계정별 속도 제한이 있으며, 사용이 과도할 경우 응답이 느려질 수 있습니다.&lt;/p&gt;

&lt;p&gt;추천 활용: 오류 추적 진단, 대용량 PDF 요약, 경쟁 모델 벤치마킹 등. 자동화나 반복적 재생에는 적합하지 않습니다.&lt;/p&gt;

&lt;h2 id="%EA%B2%BD%EB%A1%9C-2-deepseek-api-%EC%82%AC%EC%9A%A9%ED%95%98%EA%B8%B0"&gt;경로 2: DeepSeek API 사용하기&lt;/h2&gt;

&lt;p&gt;대부분의 팀이 선택하는 방식입니다. API는 OpenAI 호환 포맷을 사용하며, 모델 ID는 2026년 7월 이후에도 동일하게 유지됩니다.&lt;/p&gt;

&lt;h3 id="%ED%82%A4-%EC%96%BB%EA%B8%B0"&gt;키 얻기&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://platform.deepseek.com/" rel="noopener noreferrer"&gt;platform.deepseek.com&lt;/a&gt;에서 가입&lt;/li&gt;
&lt;li&gt;결제 수단 등록(최소 2달러 충전)&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;API Keys&lt;/strong&gt;에서 키 생성 후 복사(재확인 불가)&lt;/li&gt;
&lt;/ol&gt;

&lt;pre&gt;&lt;code&gt;export DEEPSEEK_API_KEY="sk-..."
&lt;/code&gt;&lt;/pre&gt;

&lt;h3 id="%EC%B5%9C%EC%86%8C-%EC%9C%A0%ED%9A%A8-%EC%9A%94%EC%B2%AD"&gt;최소 유효 요청&lt;/h3&gt;

&lt;pre&gt;&lt;code&gt;curl https://api.deepseek.com/v1/chat/completions \
  -H "Authorization: Bearer $DEEPSEEK_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v4-pro",
    "messages": [
      {"role": "user", "content": "Refactor this Python function to async. Reply with code only."}
    ],
    "thinking_mode": "thinking"
  }'
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;저렴한 옵션: &lt;code&gt;deepseek-v4-flash&lt;/code&gt; 모델 ID 사용. 속도 우선: &lt;code&gt;thinking_mode&lt;/code&gt;를 &lt;code&gt;non-thinking&lt;/code&gt;으로 변경.&lt;/p&gt;

&lt;h3 id="python-%ED%81%B4%EB%9D%BC%EC%9D%B4%EC%96%B8%ED%8A%B8"&gt;Python 클라이언트&lt;/h3&gt;

&lt;pre&gt;&lt;code&gt;import os
from openai import OpenAI

client = OpenAI(
    api_key=os.environ["DEEPSEEK_API_KEY"],
    base_url="https://api.deepseek.com/v1",
)

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "You are a concise senior engineer."},
        {"role": "user", "content": "Explain the CSA+HCA hybrid attention stack."},
    ],
    extra_body={"thinking_mode": "thinking_max"},
    temperature=1.0,
    top_p=1.0,
)

print(response.choices[0].message.content)
&lt;/code&gt;&lt;/pre&gt;

&lt;h3 id="node-%ED%81%B4%EB%9D%BC%EC%9D%B4%EC%96%B8%ED%8A%B8"&gt;Node 클라이언트&lt;/h3&gt;

&lt;pre&gt;&lt;code&gt;import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DEEPSEEK_API_KEY,
  baseURL: "https://api.deepseek.com/v1",
});

const response = await client.chat.completions.create({
  model: "deepseek-v4-flash",
  messages: [{ role: "user", content: "Write a fizzbuzz in Rust." }],
  temperature: 1.0,
  top_p: 1.0,
});

console.log(response.choices[0].message.content);
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;엔드포인트 상세, 파라미터 표, 오류처리는 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 API 가이드&lt;/a&gt; 참고.&lt;/p&gt;

&lt;h2 id="%EA%B2%BD%EB%A1%9C-3-apidog%EB%A1%9C-%EB%B0%98%EB%B3%B5-%EC%9E%91%EC%97%85%ED%95%98%EA%B8%B0"&gt;경로 3: Apidog로 반복 작업하기&lt;/h2&gt;

&lt;p&gt;Curl은 단발 테스트엔 적합하지만, 반복 작업에는 Apidog가 훨씬 효율적입니다.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Mac/Windows/Linux용 &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; 다운로드&lt;/li&gt;
&lt;li&gt;새 API 프로젝트 생성, &lt;code&gt;https://api.deepseek.com/v1/chat/completions&lt;/code&gt; POST 요청 추가&lt;/li&gt;
&lt;li&gt;헤더에 &lt;code&gt;Authorization: Bearer {{DEEPSEEK_API_KEY}}&lt;/code&gt; 추가, 키는 환경변수에 저장&lt;/li&gt;
&lt;li&gt;JSON 본문 붙여넣고 저장, 원하는 만큼 클릭으로 즉시 재실행&lt;/li&gt;
&lt;li&gt;응답 뷰어에서 Non-Think/Think Max 결과 추론 비교&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;OpenAI GPT-5.5, Claude, DeepSeek V4 요청을 한 컬렉션에 나란히 관리할 수 있어, 공급자 간 A/B 테스트가 간편합니다. 기존 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 컬렉션&lt;/a&gt;은 기본 URL만 바꾸면 V4로 바로 전환됩니다.&lt;/p&gt;

&lt;h2 id="%EA%B2%BD%EB%A1%9C-4-v4-flash-%EC%9E%90%EC%B2%B4-%ED%98%B8%EC%8A%A4%ED%8C%85%ED%95%98%EA%B8%B0"&gt;경로 4: V4-Flash 자체 호스팅하기&lt;/h2&gt;

&lt;p&gt;규정 준수, 에어갭, 단위 경제성 등으로 호스팅 API가 어렵다면, MIT 라이선스를 활용한 자체 호스팅이 가능합니다.&lt;/p&gt;

&lt;h3 id="%ED%95%98%EB%93%9C%EC%9B%A8%EC%96%B4"&gt;하드웨어&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;V4-Flash (13B 활성, 284B 전체):&lt;/strong&gt; FP8 기준 H100/H200/MI300X 카드 2~4개 필요. INT4 양자화 시 80GB 단일 카드 가능.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;V4-Pro (49B 활성, 1.6T 전체):&lt;/strong&gt; H100 16~32개 이상 요구.&lt;/li&gt;
&lt;/ul&gt;

&lt;h3 id="%EA%B0%80%EC%A4%91%EC%B9%98-%EA%B0%80%EC%A0%B8%EC%98%A4%EA%B8%B0"&gt;가중치 가져오기&lt;/h3&gt;

&lt;pre&gt;&lt;code&gt;pip install -U "huggingface_hub[cli]"
huggingface-cli login  # (공개 모델이지만 로그인하면 더 빠름)
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash \
  --local-dir ./models/deepseek-v4-flash \
  --local-dir-use-symlinks False
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;V4-Flash는 FP8 기준 약 500GB, V4-Pro는 수 TB 용량이 필요합니다.&lt;/p&gt;

&lt;h3 id="%EC%B6%94%EB%A1%A0-%EC%8B%A4%ED%96%89"&gt;추론 실행&lt;/h3&gt;

&lt;pre&gt;&lt;code&gt;pip install "vllm&amp;gt;=0.9.0"

vllm serve deepseek-ai/DeepSeek-V4-Flash \
  --tensor-parallel-size 4 \
  --max-model-len 1048576 \
  --dtype auto
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;vLLM 서비스가 실행되면 OpenAI 호환 클라이언트의 base_url을 &lt;code&gt;http://localhost:8000/v1&lt;/code&gt;로 지정하면 됩니다. Apidog에서도 동일한 컬렉션을 base_url만 바꿔 재활용할 수 있습니다.&lt;/p&gt;

&lt;h2 id="v4%EC%97%90-%ED%9A%A8%EA%B3%BC%EC%A0%81%EC%9C%BC%EB%A1%9C-%ED%94%84%EB%A1%AC%ED%94%84%ED%8A%B8%ED%95%98%EA%B8%B0"&gt;V4에 효과적으로 프롬프트하기&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;thinking_mode를 명시적으로 지정&lt;/strong&gt; — 작업별로 &lt;code&gt;thinking_mode&lt;/code&gt;를 직접 지정. 모델 자동선택에 의존하지 마세요.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;시스템 프롬프트는 페르소나 중심&lt;/strong&gt; — 작업 사양은 user 메시지에, 톤/제약은 system 메시지에.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;코드 작업에는 테스트 하니스 제공&lt;/strong&gt; — 실패하는 테스트 케이스를 붙여넣으면, 단순 설명보다 더 정확한 코드를 생성합니다.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;긴 컨텍스트 작업 시, 중요한 자료는 입력 창 상단과 하단에 근접하게 배치하세요. V4의 하이브리드 어텐션이라도 최신성/초두 효과 편향은 남아있습니다.&lt;/p&gt;

&lt;h2 id="%EB%B9%84%EC%9A%A9-%EA%B4%80%EB%A6%AC"&gt;비용 관리&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;V4-Flash 기본 사용&lt;/strong&gt; — V4-Pro는 정말 필요한 경우에만.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Non-Think 기본 사용&lt;/strong&gt; — 어려운 작업만 Think High/Max로 확장.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;&lt;code&gt;max_tokens&lt;/code&gt; 제한&lt;/strong&gt; — 대부분의 답변은 2,000 토큰 이하로 충분.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Apidog에서 &lt;code&gt;DEEPSEEK_API_KEY&lt;/code&gt;를 테스트/프로덕션 계정별 환경변수로 관리하세요. &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;는 응답 토큰 수도 자동 기록하므로, 과도한 프롬프트 탐지도 용이합니다.&lt;/p&gt;

&lt;h2 id="deepseek-v3-%EB%98%90%EB%8A%94-%EB%8B%A4%EB%A5%B8-%EB%AA%A8%EB%8D%B8%EC%97%90%EC%84%9C-%EB%A7%88%EC%9D%B4%EA%B7%B8%EB%A0%88%EC%9D%B4%EC%85%98"&gt;DeepSeek V3 또는 다른 모델에서 마이그레이션&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;&lt;code&gt;deepseek-chat&lt;/code&gt; / &lt;code&gt;deepseek-reasoner&lt;/code&gt;에서:&lt;/strong&gt; 모델 ID를 &lt;code&gt;deepseek-v4-pro&lt;/code&gt; 또는 &lt;code&gt;deepseek-v4-flash&lt;/code&gt;로 교체. 2026년 7월 24일 이전 마이그레이션 필수.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;OpenAI GPT-5.x에서:&lt;/strong&gt; base_url만 &lt;code&gt;https://api.deepseek.com/v1&lt;/code&gt;로 변경, 모델 ID만 교체. &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 가이드&lt;/a&gt; 참고.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Anthropic Claude에서:&lt;/strong&gt; Anthropic 메시지 형식 유지 시 &lt;code&gt;https://api.deepseek.com/anthropic&lt;/code&gt; 사용, 아니면 OpenAI 포맷으로 재구성.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="%EC%9E%90%EC%A3%BC-%EB%AC%BB%EB%8A%94-%EC%A7%88%EB%AC%B8-faq"&gt;자주 묻는 질문 (FAQ)&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;V4 사용에 유료 계정 필수인가요?&lt;/strong&gt; 웹 채팅은 무료, API는 최소 2달러 충전 필요. 무비용 경로는 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 무료 사용법&lt;/a&gt; 참고.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;어떤 변형을 기본으로 써야 하나요?&lt;/strong&gt; V4-Flash의 Non-Think로 시작, 필요시 상위 모드 전환.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;MacBook에서 V4 실행 가능?&lt;/strong&gt; V4-Flash는 128GB RAM의 M3 Max/M4 Max에서 느리게 구동, V4-Pro는 불가. 노트북 실험용으론 API나 웹 채팅 활용 권장.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;도구 사용/함수 호출 지원?&lt;/strong&gt; 네. OpenAI 호환 엔드포인트는 &lt;code&gt;tools&lt;/code&gt; 배열, &lt;code&gt;tool_calls&lt;/code&gt; 응답 지원. Anthropic 엔드포인트도 네이티브 도구 스키마 지원.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;응답 스트리밍 방법?&lt;/strong&gt; 요청 본문에 &lt;code&gt;stream: true&lt;/code&gt; 지정. 표준 OpenAI SSE 스트림이므로 기존 라이브러리 그대로 사용.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;속도 제한?&lt;/strong&gt; 호스팅 API는 &lt;a href="https://api-docs.deepseek.com/" rel="noopener noreferrer"&gt;api-docs.deepseek.com&lt;/a&gt;에서 계층별 제한 확인. 자체 호스팅은 하드웨어 제한 외 별도 제한 없음.&lt;/li&gt;
&lt;/ul&gt;

</description>
    </item>
    <item>
      <title>DeepSeek V4란 무엇인가?</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:11:03 +0000</pubDate>
      <link>https://dev.to/rihpig/deepseek-v4ran-mueosinga-272n</link>
      <guid>https://dev.to/rihpig/deepseek-v4ran-mueosinga-272n</guid>
      <description>&lt;p&gt;DeepSeek은 2026년 4월 23일 V4를 출시했습니다. 이번 릴리스는 단순한 버전 업그레이드가 아닌, 1.6조 매개변수, MIT 라이선스, 1백만 토큰 컨텍스트 창을 갖춘 DeepSeek-V4-Pro를 비롯한 4가지 체크포인트의 동시 공개입니다. V4-Flash는 동일한 컨텍스트 및 공개 가중치로 2,840억 매개변수를 제공합니다. 벤치마크 결과 Pro 모델은 LiveCodeBench 및 Codeforces에서 Claude Opus 4.6을 앞서고, MMLU-Pro에서는 GPT-5.4 xHigh와 대등합니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;지금 Apidog을 사용해보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Claude, GPT-5.5, Qwen을 DeepSeek V4로 교체할지 고민한다면 본 글에서는 DeepSeek V4의 특징, V3.2와의 차이, 주요 벤치마크, 그리고 실전 적용 방법까지 빠르게 파악할 수 있도록 안내합니다.&lt;/p&gt;

&lt;p&gt;관련 개발자 가이드: &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 API 가이드&lt;/a&gt;, &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;무료 액세스 가이드&lt;/a&gt;, &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 사용 가이드&lt;/a&gt; 참고. OpenAI와 유사한 API 포맷이므로, &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;에서 사전 컬렉션 구성이 가능합니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  요약
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek V4&lt;/strong&gt;는 2026년 4월 23일 &lt;strong&gt;MIT 라이선스&lt;/strong&gt;로 공개된 Mixture-of-Experts(MoE) 계열 모델입니다.&lt;/li&gt;
&lt;li&gt;출시 시점 기준 4가지 체크포인트: V4-Pro, V4-Pro-Base, V4-Flash, V4-Flash-Base.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;V4-Pro&lt;/strong&gt;: 1.6조 매개변수 중 490억 활성화. &lt;strong&gt;V4-Flash&lt;/strong&gt;: 2,840억 중 130억 활성화.&lt;/li&gt;
&lt;li&gt;두 모델 모두 &lt;strong&gt;1백만 토큰 컨텍스트 창&lt;/strong&gt; 및 세 가지 추론 모드(Non-Think, Think High, Think Max) 제공.&lt;/li&gt;
&lt;li&gt;주요 벤치마크: &lt;strong&gt;LiveCodeBench 93.5&lt;/strong&gt;, &lt;strong&gt;Codeforces 3206&lt;/strong&gt;, &lt;strong&gt;MMLU-Pro 87.5&lt;/strong&gt; (Pro 기준).&lt;/li&gt;
&lt;li&gt;API는 &lt;code&gt;api.deepseek.com&lt;/code&gt;에서 &lt;code&gt;deepseek-v4-pro&lt;/code&gt;, &lt;code&gt;deepseek-v4-flash&lt;/code&gt; 모델 ID로 활성. 가중치는 Hugging Face/ModelScope에서 다운로드 가능.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  DeepSeek V4는 실제로 무엇인가요?
&lt;/h2&gt;

&lt;p&gt;DeepSeek V4는 V3 및 V3.2의 후속 모델로, MoE 아키텍처를 유지하되 구조와 효율성을 대폭 개선했습니다. V4-Pro의 경우 1.6조 매개변수 중 매 토큰 490억만 활성화되므로, 실제 추론 비용은 500억 매개변수 밀집 모델과 유사합니다. 자세한 기술 정보는 &lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro" rel="noopener noreferrer"&gt;DeepSeek V4 모델 카드&lt;/a&gt;에서 확인할 수 있습니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fpejjjliky55psxexo3l2.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fpejjjliky55psxexo3l2.png" alt="architecture" width="800" height="158"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;네 가지 체크포인트:&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek-V4-Pro&lt;/strong&gt;: 플래그십 모델, 1.6조(490억 활성), 1M 컨텍스트, API 호출용.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek-V4-Pro-Base&lt;/strong&gt;: 사전학습-only, 미세조정/연구 용도.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek-V4-Flash&lt;/strong&gt;: 경량화, 2,840억(130억 활성), 1M 컨텍스트, 저지연/로컬 배포 최적.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek-V4-Flash-Base&lt;/strong&gt;: Flash 기본 체크포인트.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;모든 모델은 MIT 라이선스. GPT-5.5, Claude Opus 4.6과 달리 라이선스 비용 없이 직접 다운로드, 미러링, 미세조정, 자체 배포 가능.&lt;/p&gt;

&lt;h2&gt;
  
  
  V3.2에서 무엇이 바뀌었나요?
&lt;/h2&gt;

&lt;p&gt;V4는 어텐션 스택과 훈련 파이프라인을 근본적으로 개선해 긴 컨텍스트와 효율성을 대폭 강화했습니다.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;기능&lt;/th&gt;
&lt;th&gt;V3.2&lt;/th&gt;
&lt;th&gt;V4-Pro&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;총 매개변수&lt;/td&gt;
&lt;td&gt;6,850억 개&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;1.6조 개&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;활성 매개변수&lt;/td&gt;
&lt;td&gt;370억 개&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;490억 개&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;컨텍스트 창&lt;/td&gt;
&lt;td&gt;128K&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;1M&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;추론 FLOPs (1M 컨텍스트)&lt;/td&gt;
&lt;td&gt;기준&lt;/td&gt;
&lt;td&gt;V3.2의 &lt;strong&gt;27%&lt;/strong&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;KV 캐시 (1M 컨텍스트)&lt;/td&gt;
&lt;td&gt;기준&lt;/td&gt;
&lt;td&gt;V3.2의 &lt;strong&gt;10%&lt;/strong&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;정밀도&lt;/td&gt;
&lt;td&gt;FP8&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;FP4 + FP8 혼합&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;라이선스&lt;/td&gt;
&lt;td&gt;DeepSeek 라이선스&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;MIT&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;추론 모드&lt;/td&gt;
&lt;td&gt;단일&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;세 가지&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;&lt;strong&gt;핵심 개선점:&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;하이브리드 어텐션&lt;/strong&gt;(압축 희소 + 고압축): 1M 컨텍스트 기준 KV-캐시 10%, FLOPs 27%만 사용.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;매니폴드 제약 하이퍼-연결&lt;/strong&gt;: 그래디언트 안정화, 더 깊은 네트워크 가능.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;뮤온(Muon) 옵티마이저&lt;/strong&gt;: 빠른 수렴, MoE 특화.&lt;/li&gt;
&lt;li&gt;훈련 데이터 32조 토큰, 도메인별 전문가와 정책 기반 증류 2단계 파이프라인.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F0ohkm6y7q9i5q2swecu2.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F0ohkm6y7q9i5q2swecu2.png" alt="training pipeline" width="800" height="550"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  중요한 벤치마크
&lt;/h2&gt;

&lt;p&gt;DeepSeek 공개 수치 기준, V4-Pro는 코드와 지식 분야에서 강력합니다. 긴 컨텍스트 검색은 경쟁 모델 대비 약간 열세.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fqn2q9hlfiouvipu8z13b.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fqn2q9hlfiouvipu8z13b.png" alt="benchmark" width="800" height="591"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;V4-Flash&lt;/strong&gt;: MMLU-Pro 86.2, GPQA 88.1, LiveCodeBench 91.6, Codeforces 3052, SWE Verified 79.0. 130억 활성 모델 중 선두급. 자세한 표는 &lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash" rel="noopener noreferrer"&gt;V4-Flash 카드&lt;/a&gt; 참고.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;요약 평가&lt;/strong&gt;: V4-Pro는 코드 및 추론 중심 작업에 매우 적합. 100만 토큰 내 대규모 검색은 Claude가 여전히 우위.&lt;/p&gt;

&lt;h2&gt;
  
  
  세 가지 추론 모드
&lt;/h2&gt;

&lt;p&gt;모든 V4 체크포인트는 세 가지 추론 모드를 지원하며, 용도에 맞는 모드 선택이 비용 효율성에 중요합니다.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Non-Think&lt;/strong&gt;: 단일 패스, 빠른 응답, 분류/라우팅/짧은 요약 등 지연 우선.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Think High&lt;/strong&gt;: 복잡한 작업 기본값, 추가 추론 토큰/검증/도구 플래닝.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Think Max&lt;/strong&gt;: 최상위 정확도, 긴 추론 경로, 384K 이상 컨텍스트 권장, 토큰 비용 증가.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;API에서 &lt;code&gt;thinking_mode&lt;/code&gt; 파라미터로 지정. 샘플링은 &lt;code&gt;temperature=1.0, top_p=1.0&lt;/code&gt; 권장.&lt;/p&gt;

&lt;h2&gt;
  
  
  간단히 설명하는 아키텍처
&lt;/h2&gt;

&lt;p&gt;V4의 효율성과 확장성은 세 가지 주요 선택에서 나옵니다.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;하이브리드 어텐션&lt;/strong&gt;: 압축 희소 어텐션 + 고압축 어텐션 병용, 1M 토큰에서 FLOPs/KV-캐시 대폭 절감.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;매니폴드 제약 하이퍼-연결&lt;/strong&gt;: 안정적인 활성화, 더 깊은 네트워크 가능.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;뮤온 옵티마이저&lt;/strong&gt;: AdamW 대체, MoE에서 더 빠른 수렴과 안정성.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;이 조합이 1조 매개변수 모델에서 실제 훈련 효율을 달성합니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  오늘날의 가용성
&lt;/h2&gt;

&lt;p&gt;DeepSeek은 4가지 체크포인트와 API를 동시 공개했습니다. 2026년 4월 24일 기준:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;접근 방식&lt;/th&gt;
&lt;th&gt;접근&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;무료 웹 채팅, V4-Pro 기본, 로그인 필요&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;DeepSeek API&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;api.deepseek.com&lt;/code&gt;에서 라이브; 모델 ID &lt;code&gt;deepseek-v4-pro&lt;/code&gt;, &lt;code&gt;deepseek-v4-flash&lt;/code&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Hugging Face 가중치&lt;/td&gt;
&lt;td&gt;
&lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro" rel="noopener noreferrer"&gt;V4-Pro&lt;/a&gt;, &lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash" rel="noopener noreferrer"&gt;V4-Flash&lt;/a&gt;, 둘 다 MIT 라이선스&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ModelScope&lt;/td&gt;
&lt;td&gt;중국 사용자를 위한 미러 가중치&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;OpenRouter 및 애그리게이터&lt;/td&gt;
&lt;td&gt;수일 내 예정, DeepSeek 표준 패턴&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;
&lt;code&gt;deepseek-chat&lt;/code&gt; / &lt;code&gt;deepseek-reasoner&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;2026년 7월 24일 사용 중단 예정&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;&lt;code&gt;deepseek-chat&lt;/code&gt;을 사용 중인 경우, &lt;code&gt;deepseek-v4-pro&lt;/code&gt; 또는 &lt;code&gt;deepseek-v4-flash&lt;/code&gt;로 3개월 내 마이그레이션 필요.&lt;/p&gt;

&lt;h2&gt;
  
  
  GPT-5.5 및 Claude와 비교
&lt;/h2&gt;

&lt;p&gt;실전 관점 주요 비교:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;비용&lt;/strong&gt;: V4-Pro/Flash는 공개 가중치. 자체 호스팅 시 단위 경제성 우위.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;코딩&lt;/strong&gt;: LiveCodeBench, Codeforces에서 GPT-5.5/Claude Opus 대비 우위.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;지식&lt;/strong&gt;: Gemini 3.1 Pro(MMLU 91.0)에 약간 뒤처지나, SimpleQA 등 일부 영역은 V4가 앞섬.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;긴 컨텍스트 검색&lt;/strong&gt;: Claude Opus가 MRCR 1M 기준 약 9점 우위.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;라이선스&lt;/strong&gt;: MIT로, 제품 내 자유 배포 가능.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  무엇을 구축할 수 있나요?
&lt;/h2&gt;

&lt;p&gt;V4의 강점에 최적화된 작업 부하:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;에이전트 코딩 루프&lt;/strong&gt;: SWE Verified 79.0, Codeforces 3206. 코드 리팩토링, 자율 테스트 등. &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; 등 API 클라이언트로 프롬프트 튜닝 및 실시간 응답 확인.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;긴 문서 추론&lt;/strong&gt;: 1M 토큰 컨텍스트, Think High 모드 활용. 대형 모노레포, 계약, 논문 등 처리.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;자체 호스팅 AI 제품&lt;/strong&gt;: 온프레미스 요구 시 V4-Flash가 공개 가중치 중 실전 경쟁력 최초 달성.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;연구/미세조정&lt;/strong&gt;: Base 체크포인트 + 도메인 데이터로 맞춤형 모델 구축 가능.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;strong&gt;적합하지 않은 용도&lt;/strong&gt;: 대량 분류/임베딩 검색/짧은 채팅. V4-Flash조차 과도할 수 있으며, 저사양 용도는 이전 체크포인트 추천.&lt;/p&gt;

&lt;h2&gt;
  
  
  한 줄로 요약하는 가격 책정
&lt;/h2&gt;

&lt;p&gt;작성 시점 DeepSeek V4 API 요금 미정. V3.2 기준 백만 입력 토큰 0.28달러, 출력 0.42달러 수준. V4-Flash는 비슷, V4-Pro는 약간 프리미엄 예상. 폐쇄형 API(5~15달러/백만 토큰) 대비 월등히 저렴. 실시간 요금은 &lt;a href="https://api-docs.deepseek.com/" rel="noopener noreferrer"&gt;DeepSeek 가격 페이지&lt;/a&gt; 참고.&lt;/p&gt;

&lt;h2&gt;
  
  
  오늘 V4를 테스트하는 방법
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;실행 경로(빠른 순):&lt;/strong&gt;&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;웹 채팅&lt;/strong&gt;: &lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt; 로그인. V4-Pro 기본, UI에서 Think High 선택 가능. 무료, 즉시 사용.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;API&lt;/strong&gt;: 키 발급 후 클라이언트 엔드포인트를 &lt;code&gt;https://api.deepseek.com&lt;/code&gt;으로 설정, &lt;code&gt;"model": "deepseek-v4-pro"&lt;/code&gt; 지정. OpenAI 호환 포맷 그대로 동작. 자세한 내용은 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;API 가이드&lt;/a&gt; 참고.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;로컬 가중치&lt;/strong&gt;: Hugging Face/ModelScope에서 다운로드. V4-Flash는 2~4 H100, V4-Pro는 대규모 클러스터 필요. 추론 코드는 &lt;code&gt;/inference&lt;/code&gt; 폴더 제공.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Apidog 기반 프롬프트 반복 등 전체 활용법은 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 사용법&lt;/a&gt; 및 &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;무료 사용법&lt;/a&gt; 참고. &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog 다운로드&lt;/a&gt; 후 컬렉션을 미리 구성하세요. OpenAI 호환 포맷이므로, 하나의 요청으로 DeepSeek·OpenAI·기타 프론티어 API 모두 적용 가능합니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  자주 묻는 질문
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek V4는 정말 오픈 소스인가요?&lt;/strong&gt;

&lt;ul&gt;
&lt;li&gt;네, 네 가지 체크포인트 모두 MIT 라이선스입니다. 상업적 사용, 수정, 재배포 모두 허용.&lt;/li&gt;
&lt;/ul&gt;


&lt;/li&gt;

&lt;li&gt;

&lt;strong&gt;V4-Flash 실행에 GPU 클러스터가 필요한가요?&lt;/strong&gt;

&lt;ul&gt;
&lt;li&gt;완전 정밀도 기준 2~4 H100/H200 필요. 양자화 시 더 적은 자원 가능. 하드웨어 없이도 API/웹채팅 사용 가능.&lt;/li&gt;
&lt;/ul&gt;


&lt;/li&gt;

&lt;li&gt;

&lt;strong&gt;V4는 언제 DeepSeek API에 출시되나요?&lt;/strong&gt;

&lt;ul&gt;
&lt;li&gt;2026년 4월 23일부로 활성화. 모델ID: &lt;code&gt;deepseek-v4-pro&lt;/code&gt;, &lt;code&gt;deepseek-v4-flash&lt;/code&gt;. 기존 ID(&lt;code&gt;deepseek-chat&lt;/code&gt;, &lt;code&gt;deepseek-reasoner&lt;/code&gt;)는 2026년 7월 24일 사용 중단.&lt;/li&gt;
&lt;/ul&gt;


&lt;/li&gt;

&lt;li&gt;

&lt;strong&gt;V4는 Kimi, Qwen과 비교 시?&lt;/strong&gt;

&lt;ul&gt;
&lt;li&gt;LiveCodeBench, Codeforces 기준 V4-Pro가 Kimi K2, Qwen 3 Max보다 높음. 작업 부하에 맞는 벤치마크 기준으로 선택.&lt;/li&gt;
&lt;/ul&gt;


&lt;/li&gt;

&lt;li&gt;

&lt;strong&gt;내 데이터로 V4 미세조정 가능?&lt;/strong&gt;

&lt;ul&gt;
&lt;li&gt;가능. Base 체크포인트+도메인 데이터+SFT 파이프라인 조합. MIT 라이선스라 상업적 재배포도 문제 없음.&lt;/li&gt;
&lt;/ul&gt;


&lt;/li&gt;

&lt;li&gt;

&lt;strong&gt;OpenAI 호환 도구와 작동하나요?&lt;/strong&gt;

&lt;ul&gt;
&lt;li&gt;네. &lt;code&gt;https://api.deepseek.com&lt;/code&gt;, &lt;code&gt;https://api.deepseek.com/anthropic&lt;/code&gt;에서 각각 OpenAI/Anthropic 메시지 포맷 지원. 대부분의 클라이언트는 URL만 변경해 사용 가능. &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 가이드&lt;/a&gt; 참고.&lt;/li&gt;
&lt;/ul&gt;


&lt;/li&gt;

&lt;/ul&gt;




&lt;p&gt;빠른 적용, 테스트, 실전 배포를 원한다면 위 가이드와 코드 스니펫을 참고해 DeepSeek V4를 직접 활용해보세요!&lt;/p&gt;

</description>
    </item>
    <item>
      <title>GPT-5.5 가격: API, Codex, ChatGPT 비용 상세 분석 (2026년 4월)</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 02:27:24 +0000</pubDate>
      <link>https://dev.to/rihpig/gpt-55-gagyeog-api-codex-chatgpt-biyong-sangse-bunseog-2026nyeon-4weol-3pmd</link>
      <guid>https://dev.to/rihpig/gpt-55-gagyeog-api-codex-chatgpt-biyong-sangse-bunseog-2026nyeon-4weol-3pmd</guid>
      <description>&lt;p&gt;OpenAI는 2026년 4월 23일 GPT-5.5 출시와 함께 GPT-5 계열의 토큰당 가격을 두 배로 인상했습니다. 입력 토큰은 백만 개당 $2.50에서 $5.00로, 출력 토큰은 백만 개당 $15.00에서 $30.00로 변경되었습니다. Pro 요금($30 / $180)은 변동이 없습니다. 실사용 비용은 세부 워크로드에 따라 달라집니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;지금 Apidog을 사용해보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;이 글에서는 OpenAI의 모든 요금제(API 표준, 배치, 플렉스, 우선순위), Pro 요금, Codex 플랜별 제한, 그리고 실제 워크로드별 비용 계산 절차를 구현 중심으로 안내합니다.&lt;/p&gt;

&lt;p&gt;모델 개요는 &lt;a href="http://apidog.com/blog/what-is-gpt-5-5?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5란 무엇인가&lt;/a&gt;, 개발자 가이드는 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 사용 방법&lt;/a&gt;를 참고하세요.&lt;/p&gt;

&lt;h2 id="%EC%9A%94%EC%95%BD-tldr"&gt;요약 (TL;DR)&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;유형&lt;/th&gt;
&lt;th&gt;입력 / M&lt;/th&gt;
&lt;th&gt;출력 / M&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 표준 API&lt;/td&gt;
&lt;td&gt;$5.00&lt;/td&gt;
&lt;td&gt;$30.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 Pro API&lt;/td&gt;
&lt;td&gt;$30.00&lt;/td&gt;
&lt;td&gt;$180.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 배치 (50% 할인)&lt;/td&gt;
&lt;td&gt;$2.50&lt;/td&gt;
&lt;td&gt;$15.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 플렉스 (50% 할인)&lt;/td&gt;
&lt;td&gt;$2.50&lt;/td&gt;
&lt;td&gt;$15.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 우선순위 (2.5배)&lt;/td&gt;
&lt;td&gt;$12.50&lt;/td&gt;
&lt;td&gt;$75.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.4 표준 API&lt;/td&gt;
&lt;td&gt;$2.50&lt;/td&gt;
&lt;td&gt;$15.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.4-mini API&lt;/td&gt;
&lt;td&gt;$0.25&lt;/td&gt;
&lt;td&gt;$2.00&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;주요 효과: GPT-5.5는 토큰당 GPT-5.4보다 2배 비싸나, OpenAI 기준 토큰 효율성 증가로 약 20% 높은 인텔리전스 지수(Intelligence-Index)를 기대할 수 있습니다.&lt;/p&gt;

&lt;h2 id="%EC%A3%BC%EC%9A%94-%EC%88%98%EC%B9%98"&gt;주요 수치&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;GPT-5.5&lt;/strong&gt;: 입력 $5.00/M, 출력 $30.00/M&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;GPT-5.5 Pro&lt;/strong&gt;: 입력 $30.00/M, 출력 $180.00/M&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;컨텍스트 윈도우&lt;/strong&gt;: 모두 1M 토큰. 추론 토큰도 포함됨.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;최신 정보는 &lt;a href="https://openai.com/api/pricing/" rel="noopener noreferrer"&gt;OpenAI API 가격 페이지&lt;/a&gt;에서 확인하세요.&lt;/p&gt;

&lt;h2 id="%EB%B0%B0%EC%B9%98-%ED%94%8C%EB%A0%89%EC%8A%A4-%EB%B0%8F-%EC%9A%B0%EC%84%A0%EC%88%9C%EC%9C%84"&gt;배치, 플렉스 및 우선순위&lt;/h2&gt;

&lt;h3 id="%EB%B0%B0%EC%B9%98-api"&gt;배치 API&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;배치 엔드포인트로 요청하면 표준 가격의 50%에 처리(입력 $2.50/M, 출력 $15.00/M).&lt;/li&gt;
&lt;li&gt;처리 시간: 24시간 미만.&lt;/li&gt;
&lt;li&gt;적용 예시: 데이터셋 야간 평가, 백필, 대규모 오프라인 워크로드.&lt;/li&gt;
&lt;/ul&gt;

&lt;h3 id="%ED%94%8C%EB%A0%89%EC%8A%A4-%EC%B2%98%EB%A6%AC"&gt;플렉스 처리&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;플렉스 역시 50% 할인. 대기 시간은 가변적(몇 초~수 분).&lt;/li&gt;
&lt;li&gt;대기 시간 허용이 가능하면서 실시간성도 필요한 워크로드에 적용.&lt;/li&gt;
&lt;/ul&gt;

&lt;h3 id="%EC%9A%B0%EC%84%A0%EC%88%9C%EC%9C%84-%EC%B2%98%EB%A6%AC"&gt;우선순위 처리&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;표준의 2.5배(입력 $12.50/M, 출력 $75.00/M).&lt;/li&gt;
&lt;li&gt;최대 처리량, 속도 제한 증가, 거의 제로 대기 시간.&lt;/li&gt;
&lt;li&gt;라이브 사용자 경험 등 지연이 핵심인 서비스에 최적.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="%EC%82%AC%EA%B3%A0-%EB%AA%A8%EB%93%9C-%EB%B9%84%EC%9A%A9-%EA%B3%84%EC%82%B0"&gt;사고 모드 비용 계산&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;사고(Thinking) 모드는 &lt;code&gt;reasoning.effort&lt;/code&gt; 값에 따라 요청당 사용하는 토큰량이 증가.&lt;/li&gt;
&lt;li&gt;승수(multiplier)는 다음과 같이 적용:
&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;노력 수준&lt;/th&gt;
&lt;th&gt;출력 토큰 승수&lt;/th&gt;
&lt;th&gt;사용 시점&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;
&lt;code&gt;low&lt;/code&gt; (기본)&lt;/td&gt;
&lt;td&gt;1배&lt;/td&gt;
&lt;td&gt;일반 호출&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;medium&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;1.3–2배&lt;/td&gt;
&lt;td&gt;다단계 코딩, 구조화 생성&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;high&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;2–4배&lt;/td&gt;
&lt;td&gt;심층 연구, 정확성 요구&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;xhigh&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;3–8배&lt;/td&gt;
&lt;td&gt;에이전트 루프, 고밀도 계획&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;
&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;예시: &lt;code&gt;xhigh&lt;/code&gt; 호출로 2만 추론 토큰 소모 시, 출력 토큰 비용 외 추론에만 $0.60(백만 토큰당 $30) 발생.&lt;/p&gt;

&lt;p&gt;개별 요청 기준이 아니라 워크로드 전체 기준으로 예산을 설계하세요.&lt;/p&gt;

&lt;h2 id="%EC%BD%94%EB%8D%B1%EC%8A%A4-%EC%9A%94%EA%B8%88"&gt;코덱스 요금&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;Codex 접근은 토큰당 요금이 아니라 ChatGPT 플랜 요금에 포함.&lt;/li&gt;
&lt;li&gt;2026년 4월 23일 기준:
&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;플랜&lt;/th&gt;
&lt;th&gt;코덱스 접근&lt;/th&gt;
&lt;th&gt;GPT-5.5&lt;/th&gt;
&lt;th&gt;참고&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;무료&lt;/td&gt;
&lt;td&gt;예 (제한)&lt;/td&gt;
&lt;td&gt;예&lt;/td&gt;
&lt;td&gt;주간 제한&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Go&lt;/td&gt;
&lt;td&gt;예 (제한)&lt;/td&gt;
&lt;td&gt;예&lt;/td&gt;
&lt;td&gt;무료 제한의 2배&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Plus ($20 / 월)&lt;/td&gt;
&lt;td&gt;예&lt;/td&gt;
&lt;td&gt;예&lt;/td&gt;
&lt;td&gt;표준 제한&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Pro ($200 / 월)&lt;/td&gt;
&lt;td&gt;예&lt;/td&gt;
&lt;td&gt;예 + 사고 + Pro&lt;/td&gt;
&lt;td&gt;최고 한도&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Business&lt;/td&gt;
&lt;td&gt;예&lt;/td&gt;
&lt;td&gt;예&lt;/td&gt;
&lt;td&gt;시트 기반&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Enterprise / Edu&lt;/td&gt;
&lt;td&gt;맞춤형&lt;/td&gt;
&lt;td&gt;예&lt;/td&gt;
&lt;td&gt;계약&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;
&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;터미널 코딩 중심 워크플로우라면 Plus/Pro 플랜이 가장 경제적입니다. 하루 수십만 토큰 이상이면 월 정액이 배치 요금보다 저렴합니다. &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-free-codex?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;무료 경로 가이드&lt;/a&gt; 참고.&lt;/p&gt;

&lt;h2 id="%EB%B9%84%EA%B5%90-gpt-55-vs-%EB%8B%A4%EB%A5%B8-%EB%9D%BC%EC%9D%B8%EC%97%85"&gt;비교: GPT-5.5 vs 다른 라인업&lt;/h2&gt;

&lt;p&gt;GPT-5.5 요금 지불 시점과 GPT-5.4/5.4-mini 유지 시점은 워크로드별 출력 비중에 따라 다릅니다.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;모델&lt;/th&gt;
&lt;th&gt;입력 / M&lt;/th&gt;
&lt;th&gt;출력 / M&lt;/th&gt;
&lt;th&gt;출력 토큰 1천개당 비용&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.4-mini&lt;/td&gt;
&lt;td&gt;$0.25&lt;/td&gt;
&lt;td&gt;$2.00&lt;/td&gt;
&lt;td&gt;$0.0020&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.4&lt;/td&gt;
&lt;td&gt;$2.50&lt;/td&gt;
&lt;td&gt;$15.00&lt;/td&gt;
&lt;td&gt;$0.0150&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5&lt;/td&gt;
&lt;td&gt;$5.00&lt;/td&gt;
&lt;td&gt;$30.00&lt;/td&gt;
&lt;td&gt;$0.0300&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 Pro&lt;/td&gt;
&lt;td&gt;$30.00&lt;/td&gt;
&lt;td&gt;$180.00&lt;/td&gt;
&lt;td&gt;$0.1800&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;의사결정 기준 예시:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;고볼륨/저위험(분류, 요약, 간단 채팅): &lt;strong&gt;GPT-5.4-mini&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;품질 충족 일반 트래픽: &lt;strong&gt;GPT-5.4&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;어려운 코딩, 다단계 에이전트, 연구 체인: &lt;strong&gt;GPT-5.5&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;정확성 필수, 오류 검증 어려움: &lt;strong&gt;GPT-5.5 Pro&lt;/strong&gt;
&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="%EC%8B%A4%EC%A0%9C-%EC%98%88%EC%8B%9C-%EC%BD%94%EB%94%A9-%EC%97%90%EC%9D%B4%EC%A0%84%ED%8A%B8-%EC%9E%91%EC%97%85%EB%8B%B9-%EB%B9%84%EC%9A%A9"&gt;실제 예시: 코딩 에이전트 작업당 비용&lt;/h2&gt;

&lt;p&gt;GPT-5.5의 &lt;code&gt;reasoning.effort: "medium"&lt;/code&gt; 기준 일반 에이전트 코딩 작업:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;입력 토큰(컨텍스트 + 프롬프트): 약 15,000&lt;/li&gt;
&lt;li&gt;출력 토큰(코드+설명): 약 3,000&lt;/li&gt;
&lt;li&gt;추론 토큰(중간 노력): 약 6,000&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;비용 계산 예시:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;입력: 15K × $5.00 / 1M = $0.075&lt;/li&gt;
&lt;li&gt;출력: (3K+6K) × $30.00 / 1M = $0.27&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;총계: $0.345 / 작업&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;GPT-5.4 동일 워크로드:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;입력: 15K × $2.50 / 1M = $0.0375&lt;/li&gt;
&lt;li&gt;출력: 9K × $15.00 / 1M = $0.135&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;총계: $0.1725 / 작업&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;GPT-5.5는 동일한 추론 노력에서 2배 비용. 단, 작업 성공률(SWE-bench 등)이 증가해 재작업 횟수가 줄면 전체 비용은 오히려 감소할 수 있습니다.&lt;/p&gt;

&lt;h2 id="%EC%B2%AB%EB%82%A0%EB%B6%80%ED%84%B0-%EA%B5%AC%EC%B6%95%ED%95%A0-%EA%B0%80%EC%B9%98%EA%B0%80-%EC%9E%88%EB%8A%94-%EB%B9%84%EC%9A%A9-%EC%A0%9C%EC%96%B4"&gt;첫날부터 구축할 가치가 있는 비용 제어&lt;/h2&gt;

&lt;p&gt;비용을 효과적으로 관리하는 다섯 가지 실전 팁:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;&lt;code&gt;max_output_tokens&lt;/code&gt; 한도 엄수:&lt;/strong&gt; 모든 호출에 적용. 2,000 미만으로 기본값 설정 권장.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;엄격한 JSON 스키마:&lt;/strong&gt; 잘못된 출력은 재시도/재청구. 출력 검증 로직 필수.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;난이도별 모델 라우팅:&lt;/strong&gt; 쉬운 요청은 mini, 어려운 요청은 5.5로 분기. 간단한 라우터 구현이 비용 절감에 효과적.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;오프라인 작업은 무조건 배치 사용:&lt;/strong&gt; 평가/백필/야간보고 등은 항상 50% 할인 적용.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;&lt;code&gt;usage.reasoning_tokens&lt;/code&gt; 추적 및 경고:&lt;/strong&gt; 높은 노력 수준에서 발생하는 예기치 못한 청구 방지.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;아래는 기본 라우팅 예시 코드(Python):&lt;/p&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="k"&gt;def&lt;/span&gt; &lt;span class="nf"&gt;select_model&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;prompt&lt;/span&gt;&lt;span class="p"&gt;):&lt;/span&gt;
    &lt;span class="k"&gt;if&lt;/span&gt; &lt;span class="nf"&gt;len&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;prompt&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt; &lt;span class="o"&gt;&amp;lt;&lt;/span&gt; &lt;span class="mi"&gt;100&lt;/span&gt; &lt;span class="ow"&gt;or&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;요약&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt; &lt;span class="ow"&gt;in&lt;/span&gt; &lt;span class="n"&gt;prompt&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
        &lt;span class="k"&gt;return&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;gpt-5.4-mini&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;
    &lt;span class="k"&gt;elif&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;분석&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt; &lt;span class="ow"&gt;in&lt;/span&gt; &lt;span class="n"&gt;prompt&lt;/span&gt; &lt;span class="ow"&gt;or&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;코드 생성&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt; &lt;span class="ow"&gt;in&lt;/span&gt; &lt;span class="n"&gt;prompt&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
        &lt;span class="k"&gt;return&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;gpt-5.5&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;
    &lt;span class="k"&gt;else&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
        &lt;span class="k"&gt;return&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;gpt-5.4&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h2 id="%ED%94%8C%EB%9E%9C%EB%B3%84-%EC%9B%94%EB%B3%84-%EC%98%88%EC%83%81-%EB%B9%84%EC%9A%A9"&gt;플랜별 월별 예상 비용&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;플랜&lt;/th&gt;
&lt;th&gt;월별 가격&lt;/th&gt;
&lt;th&gt;가장 적합한 경우&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;무료&lt;/td&gt;
&lt;td&gt;$0&lt;/td&gt;
&lt;td&gt;코덱스 체험, 사전 검증&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Go&lt;/td&gt;
&lt;td&gt;$4 / 월&lt;/td&gt;
&lt;td&gt;가벼운 사용, 학생&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Plus&lt;/td&gt;
&lt;td&gt;$20 / 월&lt;/td&gt;
&lt;td&gt;매일 코덱스/ChatGPT 활용하는 개발자&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Pro&lt;/td&gt;
&lt;td&gt;$200 / 월&lt;/td&gt;
&lt;td&gt;사고/Pro 기능이 필요한 파워 유저&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Business&lt;/td&gt;
&lt;td&gt;$25 / 시트 / 월&lt;/td&gt;
&lt;td&gt;팀 단위, 공유 작업 공간&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Enterprise / Edu&lt;/td&gt;
&lt;td&gt;맞춤형&lt;/td&gt;
&lt;td&gt;SLA 기반 계약&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;API 기준 월 4백만 출력 토큰 이상이면, Pro 플랜+Codex CLI 조합이 종량제 API 대비 더 저렴합니다(40만 컨텍스트 윈도우 내 워크로드 기준).&lt;/p&gt;

&lt;h2 id="%EC%A3%BC%EB%AA%A9%ED%95%B4%EC%95%BC-%ED%95%A0-%EA%B0%80%EA%B2%A9-%EB%B3%80%EB%8F%99-%EC%8B%A0%ED%98%B8"&gt;주목해야 할 가격 변동 신호&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;GPT-5.5 API GA 시점:&lt;/strong&gt; 경쟁 모델(Claude Mythos, Gemini 3.5 등) 출시 시 가격 하락 가능성.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Pro 모델 가격 변동:&lt;/strong&gt; 출시 후 3~6개월 내 Pro 가격 인하 사례 다수. 단, 가격 인하/고정 모두 예측 불가.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="%EC%9E%90%EC%A3%BC-%EB%AC%BB%EB%8A%94-%EC%A7%88%EB%AC%B8"&gt;자주 묻는 질문&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;캐싱이 입력 비용을 줄이나요?&lt;/strong&gt; 네. 캐시된 입력 토큰은 표준 요금 일부로 청구. 재사용 가능한 프롬프트/스키마/컨텍스트는 필히 캐시. &lt;a href="https://openai.com/api/pricing/" rel="noopener noreferrer"&gt;OpenAI 가격 페이지&lt;/a&gt; 참고.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;볼륨 할인이 있나요?&lt;/strong&gt; 공식 할인 없음. 엔터프라이즈 계약은 협상 가능. 연간 7자리($1M+) 이상이면 영업팀 문의.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;사고(Thinking) 모드는 별도 추가 요금 있나요?&lt;/strong&gt; 추가 요금 없음. 더 많은 토큰 사용으로 인한 비용 증가만 존재.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Codex CLI 사용량은 API 사용량과 별도 청구되나요?&lt;/strong&gt; API 키 로그인 시 종량제 청구, ChatGPT 로그인 시 플랜 요금 적용.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;가장 저렴하게 GPT-5.5 체험하려면?&lt;/strong&gt; 무료/Go 플랜 + Codex CLI 조합. 모든 무료 옵션은 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;무료 경로 가이드&lt;/a&gt; 참고.&lt;/li&gt;
&lt;/ul&gt;

</description>
    </item>
    <item>
      <title>Codex로 GPT-5.5 무료로 사용하는 방법</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 02:26:48 +0000</pubDate>
      <link>https://dev.to/rihpig/codexro-gpt-55-muryoro-sayonghaneun-bangbeob-444c</link>
      <guid>https://dev.to/rihpig/codexro-gpt-55-muryoro-sayonghaneun-bangbeob-444c</guid>
      <description>&lt;p&gt;OpenAI는 2026년 4월 23일 GPT-5.5를 출시하면서, Codex를 한시적으로 무료 및 Go를 포함한 모든 ChatGPT 플랜에 도입했습니다. Codex CLI를 설치하고, ChatGPT 계정으로 로그인하면 API 키나 신용카드 없이 터미널에서 곧바로 GPT-5.5를 사용할 수 있습니다. 이 글은 Codex CLI의 설치부터, 인증, 모델 전환, 제한 사항, 실제 워크플로우 적용까지의 실질적인 사용법을 다룹니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;오늘 Apidog을 바로 사용해 보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;모델 기본 개요는 &lt;a href="http://apidog.com/blog/what-is-gpt-5-5?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5란 무엇인가&lt;/a&gt;를 참고하세요. 다른 무료 경로(시험 크레딧, 통합 서비스)는 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 무료 가이드&lt;/a&gt;에서 확인할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  요약
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;Codex CLI로 로컬 저장소에 GPT-5.5를 400K 컨텍스트 창과 함께 실행&lt;/li&gt;
&lt;li&gt;ChatGPT의 &lt;strong&gt;무료, Go, Plus, Pro, Business, Enterprise, Edu&lt;/strong&gt; 모든 플랜에서 Codex 사용 가능 (무료/Go는 한시적)&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;npm install -g @openai/codex&lt;/code&gt; 또는 &lt;code&gt;brew install codex&lt;/code&gt;로 CLI 설치&lt;/li&gt;
&lt;li&gt;브라우저 OAuth(로컬) 또는 장치 코드 흐름(헤드리스 서버)로 인증&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;/model gpt-5.5&lt;/code&gt;로 모델 전환, &lt;code&gt;/status&lt;/code&gt;로 할당량·상태 확인&lt;/li&gt;
&lt;li&gt;CLI 워크플로우를 &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;과 연동하여 API 호출 사전 테스트 및 문서화 가능&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Codex가 가장 쉬운 무료 경로인 이유
&lt;/h2&gt;

&lt;p&gt;OpenAI의 GPT-5.5 API는 기본적으로 유료 서비스입니다. 일반 출시 시, 입력 토큰 백만 개당 5달러, 출력 토큰 백만 개당 30달러가 과금됩니다. Codex CLI는 API 키 없이도 ChatGPT 계정 인증만으로 동일한 모델을 사용할 수 있게 해주며, 플랜별 속도 제한만 다릅니다.&lt;br&gt;&lt;br&gt;
Codex는 실제 GPT-5.5 모델을 터미널에서 곧바로 쓸 수 있기 때문에, 실질적으로 가장 빠르고 간단한 무료 경로입니다.&lt;/p&gt;

&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-214.png" alt="" width="1911" height="1149"&gt;
&lt;h2&gt;
  
  
  Codex CLI 설치
&lt;/h2&gt;

&lt;p&gt;아래 방법 중 하나로 Codex CLI를 설치하세요.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;&lt;span class="c"&gt;# npm (윈도우, macOS, Linux 모두 지원)&lt;/span&gt;
npm &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="nt"&gt;-g&lt;/span&gt; @openai/codex

&lt;span class="c"&gt;# 또는 Homebrew (macOS / Linux)&lt;/span&gt;
brew &lt;span class="nb"&gt;install &lt;/span&gt;codex
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;설치가 완료되면 버전을 확인합니다.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;codex &lt;span class="nt"&gt;--version&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;&lt;code&gt;0.28.0&lt;/code&gt; 이상이어야 GPT-5.5 모델 선택이 가능합니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-216.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-216.png" alt="" width="1960" height="1044"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  ChatGPT 계정으로 인증하기
&lt;/h2&gt;

&lt;p&gt;Codex CLI를 처음 실행하면 로그인 방법을 선택해야 합니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  브라우저 OAuth (로컬 머신)
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;codex
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;브라우저가 자동으로 열리고, ChatGPT 계정 이메일로 로그인하면 세션이 캐시되어 재로그인 없이 연속 사용 가능합니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  장치 코드 흐름 (헤드리스 박스/원격 서버)
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;codex login &lt;span class="nt"&gt;--device-auth&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;터미널에 표시된 코드와 URL을 복사해 다른 기기에서 인증하면, 서버에서도 로그인이 완료됩니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  API 키 대체
&lt;/h3&gt;

&lt;p&gt;API 키로 인증하고 싶다면:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;&lt;span class="nb"&gt;printenv &lt;/span&gt;OPENAI_API_KEY | codex login &lt;span class="nt"&gt;--with-api-key&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;이 경우에는 키의 결제 계정에 사용량이 청구됩니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  GPT-5.5를 모델로 선택
&lt;/h2&gt;

&lt;p&gt;Codex는 기본적으로 각 플랜에 권장되는 모델로 설정됩니다. 무료·Go 플랜에서는 수동으로 &lt;code&gt;gpt-5.5&lt;/code&gt; 전환이 필요할 수 있습니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  세션 중 전환
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight plaintext"&gt;&lt;code&gt;/model gpt-5.5
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h3&gt;
  
  
  시작 시 플래그로 지정
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;codex &lt;span class="nt"&gt;--model&lt;/span&gt; gpt-5.5
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h3&gt;
  
  
  남은 할당량 확인
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight plaintext"&gt;&lt;code&gt;/status
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;주간 메시지 예산, 컨텍스트 창, 무료/Go 플랜의 경우 만료 시간이 출력됩니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  첫 번째 세션: 실전 예시
&lt;/h2&gt;

&lt;p&gt;Codex는 전체 화면 터미널 UI에서 파일 읽기, 명령 실행, 파일 편집을 지원합니다. 실질적인 예시는 다음과 같습니다.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;&lt;span class="nb"&gt;cd&lt;/span&gt; ~/Projects/my-app
codex &lt;span class="nt"&gt;--model&lt;/span&gt; gpt-5.5
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;세션 내 프롬프트 예시:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight plaintext"&gt;&lt;code&gt;&amp;gt; README.md를 읽고, scripts/deploy.sh를 열어 다섯 가지 핵심 내용을 요약해줘.
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Codex가 파일을 읽고 요약을 출력합니다.&lt;/p&gt;

&lt;p&gt;이어서:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight plaintext"&gt;&lt;code&gt;&amp;gt; deploy.sh를 리팩토링하여 실패한 단계에서 종료되도록 하고, dry-run 플래그를 추가해줘. 하위 호환성을 유지해야 해.
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;GPT-5.5가 차이점을 제안하면 승인 후 적용합니다. 테스트도 바로 실행:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight plaintext"&gt;&lt;code&gt;&amp;gt; 배포 테스트 스위트를 실행하고 실패한 케이스를 보여줘.
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;실패 케이스가 있으면 추가로 수정을 요청하는 등, 즉시 코드-테스트-수정 루프가 가능합니다.&lt;/p&gt;

&lt;p&gt;이러한 다중 파일/도구/터미널 기반 작업에서 GPT-5.5는 이전 모델 대비 현저히 향상된 능력을 보입니다. (참고: &lt;a href="https://openai.com/index/introducing-gpt-5-5/" rel="noopener noreferrer"&gt;OpenAI 출시 게시글&lt;/a&gt;)&lt;/p&gt;

&lt;h2&gt;
  
  
  Codex가 원시 API 호출로는 제공하지 않는 것
&lt;/h2&gt;

&lt;p&gt;Codex CLI는 단순 API 호출 이상의 기능을 제공합니다.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;저장소 컨텍스트&lt;/strong&gt;: 파일 트리 인덱싱 및 파일 핸들 전달(붙여넣기 불필요)&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;명령 실행 시 승인&lt;/strong&gt;: 모델이 제안한 명령을 실행 전 승인(보안 제어)&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;쓰기 전 Diff 확인&lt;/strong&gt;: 파일 변경점 미리보기, 수락/거부/수정 가능&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;세션 지속성&lt;/strong&gt;: 프로젝트별 세션 기록 및 컨텍스트 복원&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;API 직접 호출로는 이러한 워크플로우를 모두 직접 구현해야 합니다. 기본 API 사용법은 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 가이드&lt;/a&gt;에서 확인할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  플랜별 속도 제한 및 상한
&lt;/h2&gt;

&lt;p&gt;2026년 4월 23일 기준, 주요 플랜별 접근 권한 및 상한:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;플랜&lt;/th&gt;
&lt;th&gt;Codex에서 GPT-5.5 접근&lt;/th&gt;
&lt;th&gt;주간 상한&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;무료&lt;/td&gt;
&lt;td&gt;예 (한시적)&lt;/td&gt;
&lt;td&gt;엄격함; 프로토타입 크기&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Go&lt;/td&gt;
&lt;td&gt;예 (한시적), 무료 제한의 2배&lt;/td&gt;
&lt;td&gt;작음&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Plus&lt;/td&gt;
&lt;td&gt;예&lt;/td&gt;
&lt;td&gt;중간&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Pro&lt;/td&gt;
&lt;td&gt;예, 개인 사용자 최고 상한&lt;/td&gt;
&lt;td&gt;높음&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Business&lt;/td&gt;
&lt;td&gt;예, 좌석 기반&lt;/td&gt;
&lt;td&gt;좌석당 높음&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Enterprise / Edu&lt;/td&gt;
&lt;td&gt;예, 계약 기반&lt;/td&gt;
&lt;td&gt;맞춤&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;상한 도달 시 Codex는 플랜별 오류를 반환하며, &lt;code&gt;/status&lt;/code&gt; 명령으로 남은 할당량을 실시간 확인할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  에디터 및 IDE 통합
&lt;/h2&gt;

&lt;p&gt;Codex 로그인 자격증명은 VS Code, JetBrains 등 주요 IDE 확장과 연동됩니다. CLI로 로그인하면 IDE 확장에서도 별도 로그인 절차 없이 바로 사용할 수 있습니다.&lt;/p&gt;

&lt;p&gt;Apidog과의 페어링 워크플로우:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Codex CLI에서 프롬프트 및 결과 프로토타입&lt;/li&gt;
&lt;li&gt;프롬프트/출력을 &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; 컬렉션으로 내보내어 팀과 공유&lt;/li&gt;
&lt;li&gt;API 계약이 확정되면 Codex 경로에서 직접 API 호출로 전환&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;VS Code에서 Apidog 연동 방법은 &lt;a href="http://apidog.com/blog/how-to-use-apidog-inside-vscode?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;VS Code의 Apidog&lt;/a&gt; 문서를 참고하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  무료 및 Go 플랜에서 워크플로우를 안전하게 유지하기
&lt;/h2&gt;

&lt;p&gt;무료/Go 플랜을 사용할 때 권장하는 보안 설정:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;파일 쓰기 항상 승인&lt;/strong&gt;: &lt;code&gt;~/.codex/config.json&lt;/code&gt;에서 &lt;code&gt;"autoApproveWrites": false&lt;/code&gt;로 설정 (무료 플랜은 기본 활성화)&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;작업 공간 범위 지정&lt;/strong&gt;: 프로젝트 디렉토리에서만 &lt;code&gt;codex&lt;/code&gt; 실행 (최상위 폴더에서 실행 시 전체 홈폴더 접근 주의)&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;OpenAI는 GPT-5.5 출시 전 제3자 안전 검토를 진행했으나, 파일 변경은 항상 직접 검토 후 승인하는 것이 안전합니다. (참고: &lt;a href="https://www.cnbc.com/2026/04/23/openai-announces-latest-artificial-intelligence-model.html" rel="noopener noreferrer"&gt;CNBC 보도&lt;/a&gt;)&lt;/p&gt;

&lt;h2&gt;
  
  
  무료 경로에서 벗어나야 할 때
&lt;/h2&gt;

&lt;p&gt;무료/Go 플랜은 한시적 제공입니다. 다음 상황에서 유료 플랜/직접 API로 전환을 고려하세요.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;주간 할당량 초과&lt;/strong&gt;: 실제 코딩에 쓰려면 Plus/Pro 업그레이드&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;직접 API 필요&lt;/strong&gt;: 자동화, 대량 처리엔 API 직접 사용 권장 (&lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;API 가이드&lt;/a&gt; 참조)&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;팀 좌석별 과금 필요&lt;/strong&gt;: &lt;a href="http://apidog.com/blog/gpt-5-5-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;가격 분석&lt;/a&gt; 참고 후 Business/Enterprise 검토&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;플랜 변경 시 모델은 동일, 결제 및 UI만 변경됩니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  자주 묻는 질문
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Codex도 GPT-5.5 Pro를 실행합니까?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
아니요. Codex는 모든 플랜에서 표준 GPT-5.5만 지원합니다. Pro는 ChatGPT 웹 또는 API에서 제공됩니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;ChatGPT 계정 없이 Codex를 사용할 수 있습니까?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
불가. ChatGPT 로그인 또는 OpenAI API 키 중 하나가 반드시 필요합니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;무료 및 Go 접근은 얼마나 지속됩니까?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
"한시적"으로, 수 주~수 개월 예상. 사용량 증가 시 업그레이드 필요.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Codex는 오프라인에서 작동합니까?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
아니요. 모든 호출은 OpenAI 서버로 요청됩니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Codex와 ChatGPT 웹 앱의 차이점은?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Codex는 로컬 파일 시스템, 셸 접근, 저장소 컨텍스트와 함께 터미널 기반으로 동작합니다. 웹 앱은 이러한 기능이 없습니다.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>GPT-5.5 API 무료로 사용하는 방법</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 02:14:06 +0000</pubDate>
      <link>https://dev.to/rihpig/gpt-55-api-muryoro-sayonghaneun-bangbeob-e5a</link>
      <guid>https://dev.to/rihpig/gpt-55-api-muryoro-sayonghaneun-bangbeob-e5a</guid>
      <description>&lt;p&gt;GPT-5.5는 2026년 4월 23일에 출시되었으며, 대부분의 서비스에 유료화 장벽이 적용됩니다. ChatGPT의 Plus, Pro, Business, Enterprise 요금제와 프로그래밍 호출을 위한 유료 API 토큰이 포함됩니다. 하지만 오늘날에도 결제 수단 없이 GPT-5.5를 실제로 호출할 수 있는 3가지 무료 경로가 존재합니다. 속도 제한과 만료 가능성을 감수한다면, 신용카드 없이도 바로 실험이 가능합니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;지금 Apidog을 체험해보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;이 가이드에서는 각 무료 경로의 상세 구현법, 적합한 사용 사례, 그리고 사용량 증가 시 &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;에서 프로덕션 컬렉션을 미리 구축하여 손쉽게 유료로 전환하는 방법까지 단계별로 안내합니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  요약 (TL;DR)
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;ChatGPT 무료 또는 Go의 Codex CLI&lt;/strong&gt; — Codex 명령줄 도구로 GPT-5.5 임시 무료 액세스. 신용카드 필요 없음. 바로 사용 가능.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;OpenAI 평가판 크레딧 (새 API 계정)&lt;/strong&gt; — Responses API 오픈 시 소액의 초기 잔액 제공, 실제 GPT-5.5 호출 가능.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;OpenRouter 등 통합 서비스 무료 티어&lt;/strong&gt; — 일부 서드파티 게이트웨이에서 수시로 무료 할당량 제공.&lt;/li&gt;
&lt;li&gt;각 경로는 제한적입니다. 프로덕션 환경에서는 평가판 만료 전 유료 결제 전환이 필수입니다.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  경로 1: Codex CLI (가장 실용적인 무료 경로)
&lt;/h2&gt;

&lt;p&gt;OpenAI는 GPT-5.5 출시 시 모든 ChatGPT 요금제(무료, Go 포함)에 Codex CLI를 제한 기간 제공했습니다. Codex는 API 키 없이 ChatGPT 로그인만으로 GPT-5.5를 사용할 수 있다는 점이 핵심입니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  설치
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;npm &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="nt"&gt;-g&lt;/span&gt; @openai/codex
&lt;span class="c"&gt;# 또는&lt;/span&gt;
brew &lt;span class="nb"&gt;install &lt;/span&gt;codex
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;설치 확인:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;codex &lt;span class="nt"&gt;--version&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h3&gt;
  
  
  인증
&lt;/h3&gt;

&lt;p&gt;최초 실행 시 ChatGPT OAuth 브라우저 인증이 필요합니다. 헤드리스 환경에서는:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;codex login &lt;span class="nt"&gt;--device-auth&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;장치 코드 플로우로 제공되는 URL/코드를 사용하면 API 키 없이 인증이 완료됩니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  모델 선택
&lt;/h3&gt;

&lt;p&gt;Codex 세션 내에서 명령어로 모델 선택:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight plaintext"&gt;&lt;code&gt;/model gpt-5.5
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;혹은 CLI 실행 시 플래그 사용:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;codex &lt;span class="nt"&gt;--model&lt;/span&gt; gpt-5.5
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;할당량은 &lt;code&gt;/status&lt;/code&gt;로 확인하세요. 무료 및 Go 요금제는 유료에 비해 제한이 크지만, 소규모 프로토타입에는 충분합니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  기능 및 한계
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;400K 토큰 컨텍스트에서 파일 읽기, 터미널 명령, 저장소 편집 등 지원&lt;/li&gt;
&lt;li&gt;직접 OpenAI API 호출은 불가, CLI 내에서만 사용 가능&lt;/li&gt;
&lt;li&gt;더 자세한 사용법: &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-free-codex?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Codex를 통한 무료 GPT-5.5 가이드&lt;/a&gt;
&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;code&gt;제한된 기간&lt;/code&gt; 정책에 따라 무료/Go 접근 종료에 대비해, 프로젝트에서 모델 ID를 구성하여 유료 API로 손쉽게 전환할 수 있도록 준비하세요.&lt;/p&gt;

&lt;h2&gt;
  
  
  경로 2: 새 API 계정을 위한 OpenAI 평가판 크레딧
&lt;/h2&gt;

&lt;p&gt;새 OpenAI 개발자 계정은 소액의 평가판 크레딧으로 시작합니다(과거엔 90일간 $5 제공). 정식 API 출시 시 &lt;code&gt;gpt-5.5&lt;/code&gt;를 평가판 크레딧으로 호출할 수 있습니다.&lt;/p&gt;

&lt;h3&gt;
  
  
  평가판 얻는 방법
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://platform.openai.com/" rel="noopener noreferrer"&gt;platform.openai.com&lt;/a&gt;에서 신규 개발자 계정 생성 (이전에 등록하지 않은 이메일 사용)&lt;/li&gt;
&lt;li&gt;전화번호 인증 필수&lt;/li&gt;
&lt;li&gt;평가판 조직에서 API 키 생성&lt;/li&gt;
&lt;li&gt;사용량 대시보드에서 크레딧 및 만료일 확인&lt;/li&gt;
&lt;/ol&gt;

&lt;h3&gt;
  
  
  실습 예시
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;$5 크레딧 기준, 현재 가격(입력 M당 $5, 출력 M당 $30)으로 약 1M 입력/16만 출력 토큰 사용 가능&lt;/li&gt;
&lt;li&gt;프로토타입 테스트, 벤치마킹, 소규모 에이전트 검증에 적합&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;strong&gt;비용 절약 팁:&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;배치 모드 사용:&lt;/strong&gt; 비실시간 워크플로우는 API 배치로 50% 요금 할인 가능 (&lt;a href="https://openai.com/api/pricing/" rel="noopener noreferrer"&gt;가격 설명&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;&lt;code&gt;reasoning.effort&lt;/code&gt;를 &lt;code&gt;low&lt;/code&gt;로:&lt;/strong&gt; 복잡한 추론 요청은 토큰 소모가 큽니다. 기본값(&lt;code&gt;low&lt;/code&gt;)을 유지하세요.&lt;/li&gt;
&lt;/ul&gt;

&lt;h3&gt;
  
  
  주의사항
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;평가판 크레딧 소진 시 자동 갱신 없음. 추가 평가판 발급 불가.&lt;/li&gt;
&lt;li&gt;크레딧 만료/소진 시 402 오류 반환.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  경로 3: 통합 서비스 무료 티어
&lt;/h2&gt;

&lt;p&gt;OpenRouter, Together, Groq 등 서드파티 모델 게이트웨이는 신규 모델에 대해 일시적으로 무료 할당량을 제공합니다. 다음 패턴으로 연동하세요.&lt;/p&gt;

&lt;h3&gt;
  
  
  연동 절차
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;계정/이메일 인증&lt;/li&gt;
&lt;li&gt;통합 서비스 API 키 발급&lt;/li&gt;
&lt;li&gt;SDK에서 base URL을 해당 서비스로 교체&lt;/li&gt;
&lt;li&gt;모델 문자열을 별칭(예: &lt;code&gt;openai/gpt-5.5&lt;/code&gt;)으로 설정&lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  예시 (Python)
&lt;/h4&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;openai&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;OpenAI&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://openrouter.ai/api/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;sk-or-v1-...&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;openai/gpt-5.5&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Explain the Responses API in two paragraphs.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;blockquote&gt;
&lt;p&gt;통합 서비스 무료 티어는 자체 속도 제한, 할당량 소진, 모델 제외 시 402/429 오류 발생 등 제약이 크므로, 프로토타입 용도로만 사용하세요.&lt;/p&gt;
&lt;/blockquote&gt;

&lt;h2&gt;
  
  
  어떤 무료 경로를 선택해야 할까요?
&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;사용 사례&lt;/th&gt;
&lt;th&gt;최적의 무료 경로&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;터미널 기반 코딩 도우미&lt;/td&gt;
&lt;td&gt;Codex CLI (경로 1)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;빠른 Python 또는 Node 실험&lt;/td&gt;
&lt;td&gt;평가판 크레딧 (경로 2)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;호스팅된 앱에서 테스트&lt;/td&gt;
&lt;td&gt;통합 서비스 (경로 3)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;실제 프롬프트에서 GPT-5.5와 GPT-5.4 비교&lt;/td&gt;
&lt;td&gt;평가판 크레딧 + Apidog 컬렉션&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;일회성 '내 질문에 답할 수 있을까' 연구&lt;/td&gt;
&lt;td&gt;ChatGPT Plus (무료는 아니나 시간당 가장 저렴)&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;프로토타입 이상에서는 무료 경로 모두 빠르게 제한에 도달합니다. 진정한 가치는 유료로 전환 전, 요청 형태와 프롬프트를 최적화하는 데 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  Apidog에서 요청 형태 미리 구축하기
&lt;/h2&gt;

&lt;p&gt;재작성 없이 '무료 평가판'에서 '프로덕션 키'로 전환하려면, 요청을 한 번만 만들고 컬렉션을 버전 관리하세요.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-213.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-213.png" alt="이미지" width="3674" height="2436"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;실전 단계:&lt;/strong&gt;&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;새 컬렉션 생성, &lt;code&gt;POST https://api.openai.com/v1/responses&lt;/code&gt; 요청 추가&lt;/li&gt;
&lt;li&gt;인증 헤더를 환경 변수로 분리하여 키 교체만으로 운영 가능&lt;/li&gt;
&lt;li&gt;예시 응답 저장 → 실제 키 없는 개발자가 모의 응답으로 작업 가능&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;baseUrl&lt;/code&gt;을 OpenRouter 등으로 변경해 통합 서비스 경로용 컬렉션 복제&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;평가판 소진/유료 전환 시 환경 변수만 변경하면 동일 컬렉션을 계속 사용할 수 있습니다. VS Code 등에서 컬렉션 활용법은 &lt;a href="http://apidog.com/blog/how-to-use-apidog-inside-vscode?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;VS Code에서 Apidog 사용법 가이드&lt;/a&gt; 참고.&lt;/p&gt;

&lt;h2&gt;
  
  
  무료 경로 한계 체크리스트
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;속도 제한:&lt;/strong&gt; Codex 무료/Go 티어는 부하에 따라 속도가 느려집니다.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;평가판 중복 불가:&lt;/strong&gt; 카드/전화/IP 중복 시 추가 평가판 발급 불가&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;GPT-5.5 Pro는 무조건 유료:&lt;/strong&gt; Pro는 무료 서비스 미제공&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;사고 모드는 예산 소모:&lt;/strong&gt; 무료 티어에서는 &lt;code&gt;reasoning.effort&lt;/code&gt;를 &lt;code&gt;low&lt;/code&gt;로 유지&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;무료 기간은 임시:&lt;/strong&gt; Codex 무료/Go 액세스는 &lt;a href="https://openai.com/index/introducing-gpt-5-5/" rel="noopener noreferrer"&gt;OpenAI 공식 발표&lt;/a&gt; 기준 '제한된 기간' 제공&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  현실적인 무료 티어 프로토타입 전략
&lt;/h2&gt;

&lt;p&gt;무료 할당량 내에서 최대 신호를 얻는 실전 워크플로우:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;팀이 실제로 수행하는 작업(보고서, 코드 리뷰, 연구 요약 등) 선정&lt;/li&gt;
&lt;li&gt;기존 도구로 GPT-5.4에 예시 10개 실행, 출력 품질 기록&lt;/li&gt;
&lt;li&gt;Codex CLI 또는 평가판 크레딧으로 동일 예시를 GPT-5.5로 실행&lt;/li&gt;
&lt;li&gt;토큰당 출력, 오류율 비교&lt;/li&gt;
&lt;li&gt;실제 업무에서 업그레이드가 추가 비용 가치가 있는지 판단&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;반나절 투자로, 첫 달 프로덕션 운영에 필요한 실제 데이터를 확보할 수 있습니다.&lt;/p&gt;

&lt;h2&gt;
  
  
  자주 묻는 질문
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Codex 무료 및 Go 평가판은 영구적인가요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
아니요. &lt;a href="https://openai.com/index/introducing-gpt-5-5/" rel="noopener noreferrer"&gt;OpenAI 공식 발표&lt;/a&gt; 기준 '제한된 기간'만 제공됩니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;ChatGPT 무료 버전에서 브라우저로 GPT-5.5 사용 가능?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
불가. 무료 요금제 기본 모델은 GPT-5.3이며, 5.5 사용엔 Plus 이상 요금제가 필요합니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Hugging Face나 Ollama에서 GPT-5.5 무료 실행 가능?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
불가. GPT-5.5는 비공개 가중치 모델로, OpenAI 인프라 또는 Codex 로그인 경로에서만 실행됩니다.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;학생 할인 있나요?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
과거에는 .edu 이메일로 할인/더 많은 평가판 크레딧이 제공된 적 있습니다. 최신 정보는 &lt;a href="https://openai.com/education/" rel="noopener noreferrer"&gt;OpenAI 교육 페이지&lt;/a&gt; 참고.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;코드 재작성 없이 무료→유료로 전환하려면?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
환경 변수 기반 API 키와 base URL을 사용하세요. &lt;code&gt;OPENAI_API_KEY&lt;/code&gt;, &lt;code&gt;OPENAI_BASE_URL&lt;/code&gt; 값만 바꾸면 됩니다. &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 가이드&lt;/a&gt;에서 프로젝트 범위 키 사용법을 확인할 수 있습니다.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>GPT-5.5 API 사용법</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 02:02:03 +0000</pubDate>
      <link>https://dev.to/rihpig/gpt-55-api-sayongbeob-2lfn</link>
      <guid>https://dev.to/rihpig/gpt-55-api-sayongbeob-2lfn</guid>
      <description>&lt;p&gt;GPT-5.5는 2026년 4월 23일 출시되었으며, OpenAI는 ChatGPT와 Codex에 모델을 공개하고 같은 날 응답(Responses) 및 채팅 완성(Chat Completions) API의 빠른 제공을 약속했습니다. 이 글에서는 GPT-5.5 API를 즉시 호출하는 방법과 Codex 경로를 통한 실사용 방법을 구체적으로 안내합니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Apidog를 지금 사용해보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;반복 작업 비용 절감, 엔드포인트 정의, 인증, Python/Node 예시, 전체 매개변수 표, 사고 모드 가격 계산, 오류 처리, 테스트 워크플로우는 &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;에서 바로 활용할 수 있습니다.&lt;/p&gt;

&lt;p&gt;모델 개요는 &lt;a href="http://apidog.com/blog/what-is-gpt-5-5?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5란 무엇인가&lt;/a&gt;에서, 무료 계층 경로는 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API를 무료로 사용하는 방법&lt;/a&gt;에서 확인하세요.&lt;/p&gt;

&lt;h2 id="%EC%9A%94%EC%95%BD-tldr"&gt;요약 (TL;DR)&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;GPT-5.5는 &lt;strong&gt;응답(Responses)&lt;/strong&gt; 및 &lt;strong&gt;채팅 완성(Chat Completions)&lt;/strong&gt; 엔드포인트에서 제공되며, 모델 ID는 &lt;code&gt;gpt-5.5&lt;/code&gt;입니다. Pro 버전은 &lt;code&gt;gpt-5.5-pro&lt;/code&gt;입니다.&lt;/li&gt;
&lt;li&gt;API 가격: &lt;strong&gt;입력 $5 / M&lt;/strong&gt;, &lt;strong&gt;출력 $30 / M&lt;/strong&gt; (Pro: &lt;strong&gt;입력 $30 / M&lt;/strong&gt;, &lt;strong&gt;출력 $180 / M&lt;/strong&gt;)&lt;/li&gt;
&lt;li&gt;컨텍스트 창: API 1M 토큰, Codex CLI 400K 토큰&lt;/li&gt;
&lt;li&gt;API GA 전까지는 Codex+ChatGPT 로그인으로 사용 가능&lt;/li&gt;
&lt;li&gt;새 모델 ID 및 확장된 &lt;code&gt;reasoning&lt;/code&gt; 블록 기반 컬렉션 구축은 &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; 추천&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="%EC%82%AC%EC%A0%84-%EC%A4%80%EB%B9%84-%EC%82%AC%ED%95%AD"&gt;사전 준비 사항&lt;/h2&gt;

&lt;p&gt;API를 바로 사용하려면 아래 네 가지를 준비하세요.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;청구 가능한 &lt;strong&gt;OpenAI 개발자 계정&lt;/strong&gt; (ChatGPT Plus/Pro는 API와 별도)&lt;/li&gt;
&lt;li&gt;GPT-5 모델군 &lt;strong&gt;API 키&lt;/strong&gt; (프로덕션은 프로젝트 범위 키 권장)&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;gpt-5.5&lt;/code&gt; 지원 &lt;strong&gt;SDK 버전&lt;/strong&gt; (Python: &lt;code&gt;openai&amp;gt;=2.1.0&lt;/code&gt;, Node: &lt;code&gt;openai@5.1.0&lt;/code&gt; 이상)&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;API 클라이언트&lt;/strong&gt; (curl은 1회성, 반복은 Apidog 등 사용)&lt;/li&gt;
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;export OPENAI_API_KEY="sk-proj-..."
&lt;/code&gt;&lt;/pre&gt;

&lt;h2 id="%EC%97%94%EB%93%9C%ED%8F%AC%EC%9D%B8%ED%8A%B8-%EB%B0%8F-%EC%9D%B8%EC%A6%9D"&gt;엔드포인트 및 인증&lt;/h2&gt;

&lt;p&gt;두 엔드포인트 모두 지원합니다.&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;POST https://api.openai.com/v1/responses
POST https://api.openai.com/v1/chat/completions
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;인증은 Bearer 토큰. 요청은 모델 ID, 프롬프트 또는 메시지 배열, 옵션 매개변수 포함 JSON 본문을 사용합니다.&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;curl https://api.openai.com/v1/responses \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5.5",
    "input": "openai/codex 저장소의 지난 10개 릴리스를 세 가지 요점으로 요약해 주세요.",
    "reasoning": { "effort": "medium" }
  }'
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;성공시 &lt;code&gt;output&lt;/code&gt; 배열, &lt;code&gt;usage&lt;/code&gt; 블록(JSON) 반환. 실패시 &lt;code&gt;code&lt;/code&gt;, &lt;code&gt;message&lt;/code&gt; 포함 에러.&lt;/p&gt;

&lt;h2 id="%EC%9A%94%EC%B2%AD-%EB%A7%A4%EA%B0%9C%EB%B3%80%EC%88%98"&gt;요청 매개변수&lt;/h2&gt;

&lt;p&gt;주요 비용/동작 결정 파라미터 전체 표:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;매개변수&lt;/th&gt;
&lt;th&gt;유형&lt;/th&gt;
&lt;th&gt;값&lt;/th&gt;
&lt;th&gt;참고&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;model&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;문자열&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;gpt-5.5&lt;/code&gt;, &lt;code&gt;gpt-5.5-pro&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;필수. Pro는 입력 6배, 출력 6배 비용.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;
&lt;code&gt;input&lt;/code&gt; / &lt;code&gt;messages&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;문자열 또는 배열&lt;/td&gt;
&lt;td&gt;프롬프트 또는 채팅 배열&lt;/td&gt;
&lt;td&gt;필수. 응답(Responses)은 &lt;code&gt;input&lt;/code&gt;, 채팅 완성은 &lt;code&gt;messages&lt;/code&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;reasoning.effort&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;문자열&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;none&lt;/code&gt;, &lt;code&gt;low&lt;/code&gt;, &lt;code&gt;medium&lt;/code&gt;, &lt;code&gt;high&lt;/code&gt;, &lt;code&gt;xhigh&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;기본값 &lt;code&gt;low&lt;/code&gt;. &lt;code&gt;xhigh&lt;/code&gt;는 깊은 사고, 토큰 많이 소모&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;max_output_tokens&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;정수&lt;/td&gt;
&lt;td&gt;1 – 128000&lt;/td&gt;
&lt;td&gt;출력 최대치(추론 제외)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;tools&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;배열&lt;/td&gt;
&lt;td&gt;Function, web_search, file_search, computer_use, code_interpreter&lt;/td&gt;
&lt;td&gt;도구 정의&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;tool_choice&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;문자열/객체&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;auto&lt;/code&gt;, &lt;code&gt;none&lt;/code&gt;, 도구 명시&lt;/td&gt;
&lt;td&gt;특정 도구 강제 호출&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;response_format&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;객체&lt;/td&gt;
&lt;td&gt;&lt;code&gt;{ "type": "json_schema", "schema": {...} }&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;엄격한 JSON 등 구조화 출력&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;stream&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;부울&lt;/td&gt;
&lt;td&gt;true / false&lt;/td&gt;
&lt;td&gt;SSE. 추론 토큰 별도 도착&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;user&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;문자열&lt;/td&gt;
&lt;td&gt;자유 형식&lt;/td&gt;
&lt;td&gt;남용 감지용, 해시된 사용자 ID&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;metadata&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;객체&lt;/td&gt;
&lt;td&gt;최대 16 key-value&lt;/td&gt;
&lt;td&gt;OpenAI 로그에 표시&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;seed&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;정수&lt;/td&gt;
&lt;td&gt;모든 int32&lt;/td&gt;
&lt;td&gt;소프트 결정론, 동일 프롬프트+시드 → 유사 응답&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;temperature&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;숫자&lt;/td&gt;
&lt;td&gt;0 – 2&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;reasoning.effort &amp;gt;= medium&lt;/code&gt;이면 무시&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;비용 영향이 큰 필드: &lt;code&gt;reasoning.effort&lt;/code&gt;, &lt;code&gt;max_output_tokens&lt;/code&gt;, &lt;code&gt;tools&lt;/code&gt;. &lt;code&gt;reasoning.effort: "high"&lt;/code&gt; 이상은 출력 토큰 급증(최대 8배) 가능.&lt;/p&gt;

&lt;h2 id="python-%EC%98%88%EC%8B%9C"&gt;Python 예시&lt;/h2&gt;

&lt;pre&gt;&lt;code&gt;from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="gpt-5.5",
    input=[
        {
            "role": "system",
            "content": "당신은 시니어 Go 엔지니어입니다. 간결하고 실행 가능한 코드로 답변하세요.",
        },
        {
            "role": "user",
            "content": (
                "제한된 동시성과 컨텍스트 취소 경로를 가진 워커 풀을 작성하세요. "
                "서드 파티 종속성은 없습니다."
            ),
        },
    ],
    reasoning={"effort": "medium"},
    max_output_tokens=4000,
)

print(response.output_text)
print(response.usage.model_dump())
&lt;/code&gt;&lt;/pre&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;code&gt;response.output_text&lt;/code&gt;는 &lt;code&gt;output&lt;/code&gt; 배열을 평면화. 구조화 이벤트 필요시 &lt;code&gt;response.output&lt;/code&gt; 직접 사용&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;usage&lt;/code&gt;: &lt;code&gt;input_tokens&lt;/code&gt;, &lt;code&gt;output_tokens&lt;/code&gt;, &lt;code&gt;reasoning_tokens&lt;/code&gt; 분리 반환(모두 과금)&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="node-%EC%98%88%EC%8B%9C"&gt;Node 예시&lt;/h2&gt;

&lt;pre&gt;&lt;code&gt;import OpenAI from "openai";

const client = new OpenAI();

const response = await client.responses.create({
  model: "gpt-5.5",
  input: [
    { role: "system", content: "당신은 신중한 검토자입니다." },
    {
      role: "user",
      content:
        "이 마이그레이션을 검토하고 쓰기 집약적인 테이블을 200ms 이상 잠글 수 있는 모든 작업을 표시하십시오.",
    },
  ],
  reasoning: { effort: "high" },
  tools: [{ type: "file_search" }],
  max_output_tokens: 6000,
});

console.log(response.output_text);
console.log(response.usage);
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;정확성이 중요한 검토/분석 작업엔 &lt;code&gt;reasoning.effort: "high"&lt;/code&gt; 이상 권장.&lt;/p&gt;

&lt;h2 id="%EC%82%AC%EA%B3%A0-%EB%AA%A8%EB%93%9C-thinking-mode"&gt;사고 모드 (Thinking mode)&lt;/h2&gt;

&lt;p&gt;&lt;code&gt;reasoning.effort&lt;/code&gt;를 &lt;code&gt;high&lt;/code&gt; 또는 &lt;code&gt;xhigh&lt;/code&gt;로 설정하면 사고 모드가 활성화됩니다. 별도 모델 ID 없음. API에서 요청별 세밀 제어 가능.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;&lt;code&gt;medium&lt;/code&gt; 기본값 사용&lt;/strong&gt;: 에이전트, 다중 파일 디버깅, 문서 생성 등은 충분. 5.4와 비용 유사&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;연구/정밀 검토/긴 도구 체인엔 &lt;code&gt;high&lt;/code&gt;, &lt;code&gt;xhigh&lt;/code&gt;&lt;/strong&gt;: 출력 토큰 3~8배 증가, 응답 시간 측정 권장&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;특히 &lt;code&gt;computer_use&lt;/code&gt;나 웹 검색 체인 작업에서 &lt;code&gt;reasoning.effort&lt;/code&gt; 투자 효과 큼. OpenAI의 &lt;a href="https://openai.com/index/introducing-gpt-5-5/" rel="noopener noreferrer"&gt;공식 발표&lt;/a&gt;에서 환각 감소 효과 확인 가능.&lt;/p&gt;

&lt;h2 id="%EA%B5%AC%EC%A1%B0%ED%99%94%EB%90%9C-%EC%B6%9C%EB%A0%A5"&gt;구조화된 출력&lt;/h2&gt;

&lt;p&gt;기본 출력은 엄격한 JSON. 스키마 명시시 잘못된 JSON 방지, 다운스트림 재시도 로직 불필요.&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;response = client.responses.create(
    model="gpt-5.5",
    input="이 스크립트 청크에서 제목, 발표자 및 시작 시간을 추출하십시오.",
    response_format={
        "type": "json_schema",
        "json_schema": {
            "name": "session_extract",
            "strict": True,
            "schema": {
                "type": "object",
                "required": ["title", "speaker", "start_time"],
                "properties": {
                    "title": {"type": "string"},
                    "speaker": {"type": "string"},
                    "start_time": {"type": "string", "format": "date-time"},
                },
            },
        },
    },
)
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;API 자동화, 파이프라인 연동시엔 항상 스키마 사용. 비용 추가 없음.&lt;/p&gt;

&lt;h2 id="%EB%8F%84%EA%B5%AC-%EC%82%AC%EC%9A%A9-%EB%B0%8F-%EC%97%90%EC%9D%B4%EC%A0%84%ED%8A%B8"&gt;도구 사용 및 에이전트&lt;/h2&gt;

&lt;p&gt;응답 API 지원 도구:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;code&gt;web_search&lt;/code&gt;: 실시간 검색, 인용 지원&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;file_search&lt;/code&gt;: 업로드 파일 벡터 검색&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;code_interpreter&lt;/code&gt;: Python 샌드박스&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;computer_use&lt;/code&gt;: 마우스/키보드/브라우저 자동화&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;function&lt;/code&gt;: 사용자 정의 콜백&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;5.5는 도구 연결력 및 자동화가 5.4 대비 향상. &lt;a href="https://the-decoder.com/openai-unveils-gpt-5-5-claims-a-new-class-of-intelligence-at-double-the-api-price/" rel="noopener noreferrer"&gt;The Decoder&lt;/a&gt; 실험 기준, 다단계 툴체인 자동 완성률 11%p ↑.&lt;/p&gt;

&lt;h2 id="%EC%98%A4%EB%A5%98-%EC%B2%98%EB%A6%AC-%EB%B0%8F-%EC%9E%AC%EC%8B%9C%EB%8F%84"&gt;오류 처리 및 재시도&lt;/h2&gt;

&lt;p&gt;자주 발생하는 네 가지 에러 및 대응:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;코드&lt;/th&gt;
&lt;th&gt;의미&lt;/th&gt;
&lt;th&gt;재시도?&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;429 rate_limit_exceeded&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;쿼터 초과&lt;/td&gt;
&lt;td&gt;예, 지수 백오프+지터&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;400 context_length_exceeded&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;컨텍스트(입력+출력+추론) 1M 토큰 초과&lt;/td&gt;
&lt;td&gt;아니요, 입력 축소 필요&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;500 server_error&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;OpenAI 서버 오류&lt;/td&gt;
&lt;td&gt;예, 최대 3회 재시도&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;403 policy_violation&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;안전 정책 위반&lt;/td&gt;
&lt;td&gt;아니요, 프롬프트 수정&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;추론 토큰도 컨텍스트에 포함. &lt;code&gt;reasoning.effort: "xhigh"&lt;/code&gt;는 오버플로우 주의.&lt;/p&gt;

&lt;h2 id="apidog%EB%A5%BC-%EC%82%AC%EC%9A%A9%ED%95%9C-%ED%85%8C%EC%8A%A4%ED%8A%B8-%EC%9B%8C%ED%81%AC%ED%94%8C%EB%A1%9C%EC%9A%B0"&gt;Apidog를 사용한 테스트 워크플로우&lt;/h2&gt;

&lt;p&gt;스키마 오류 등으로 토큰 낭비하지 않으려면 다음 워크플로우 권장:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;에서 요청 생성, 컬렉션 저장, 환경(개발/스테이징/프로덕션 키) 태깅&lt;/li&gt;
&lt;li&gt;내장 모의 서버로 실제 응답 재생하며 다운스트림 코드 반복 개발&lt;/li&gt;
&lt;li&gt;스키마 안정화 후에만 실키로 전환&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Apidog는 Claude Code, Cursor 등 편집기 에이전트와도 연동. 전체 사용법은 &lt;a href="http://apidog.com/blog/how-to-use-apidog-inside-vscode?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;VS Code에서 Apidog 사용 안내&lt;/a&gt;, &lt;a href="http://apidog.com/blog/api-testing-without-postman-2026?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog 대 Postman 비교&lt;/a&gt; 참고.&lt;/p&gt;

&lt;h2 id="api%EA%B0%80-%EC%9D%BC%EB%B0%98-%EC%B6%9C%EC%8B%9C%EB%90%98%EA%B8%B0-%EC%A0%84%EC%97%90-gpt-55-%ED%98%B8%EC%B6%9C%ED%95%98%EA%B8%B0"&gt;API가 일반 출시되기 전에 GPT-5.5 호출하기&lt;/h2&gt;

&lt;p&gt;정식 API GA 전까지는 Codex 로그인 흐름이 실질적 사용 경로. &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-free-codex?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Codex 무료 가이드&lt;/a&gt; 참고: CLI 설치, ChatGPT 계정 인증, 모델 선택 등 실습 안내.&lt;/p&gt;

&lt;h2 id="faq"&gt;FAQ&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;&lt;code&gt;gpt-5.5-mini&lt;/code&gt;가 있나요?&lt;/strong&gt; 출시 시점엔 없음. &lt;code&gt;gpt-5.4-mini&lt;/code&gt;만 비용 최적화 SKU로 유지.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;컨텍스트 창은?&lt;/strong&gt; API: 1M 토큰, Codex CLI: 400K 토큰(추론 포함)&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;GPT-5.4 코드 변경 필수?&lt;/strong&gt; 아니요. 모델 ID 교체, &lt;code&gt;max_output_tokens&lt;/code&gt;, &lt;code&gt;reasoning.effort&lt;/code&gt;만 조정&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;비용 절감법?&lt;/strong&gt; 배치(50% 할인), 플렉스(50% 할인/느린 대기열), 엄격 스키마(재시도 루프 제거). 상세 분석: &lt;a href="http://apidog.com/blog/gpt-5-5-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 가격 분석&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;API GA 발표는 어디서?&lt;/strong&gt; &lt;a href="https://community.openai.com/" rel="noopener noreferrer"&gt;OpenAI 개발자 커뮤니티&lt;/a&gt;, &lt;a href="https://openai.com/api/pricing/" rel="noopener noreferrer"&gt;OpenAI API 가격 책정 페이지&lt;/a&gt;&lt;/p&gt;

</description>
    </item>
    <item>
      <title>GPT-5.5란? OpenAI의 새로운 프론티어 모델 설명</title>
      <dc:creator>Rihpig</dc:creator>
      <pubDate>Fri, 24 Apr 2026 01:47:37 +0000</pubDate>
      <link>https://dev.to/rihpig/gpt-55ran-openaiyi-saeroun-peurontieo-model-seolmyeong-b5b</link>
      <guid>https://dev.to/rihpig/gpt-55ran-openaiyi-saeroun-peurontieo-model-seolmyeong-b5b</guid>
      <description>&lt;p&gt;OpenAI는 GPT-5.4 출시 6주 만인 2026년 4월 23일 GPT-5.5를 발표했습니다. 이 글에서는 GPT-5.5의 실제 변화, 주요 벤치마크, 실무 적용 방법, 그리고 실전 도입 전에 반드시 알아야 할 세부 사항을 빠르게 정리합니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;지금 Apidog을 사용해보세요&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;관련 개발자 문서: &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 가이드&lt;/a&gt;, &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;무료 액세스 가이드&lt;/a&gt;, &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-free-codex?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Codex 무료 경로&lt;/a&gt;, &lt;a href="http://apidog.com/blog/gpt-5-5-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 가격 분석 자료&lt;/a&gt;. 공개 API에 즉시 대응하려면, &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;에서 컬렉션을 미리 구축하세요.&lt;/p&gt;

&lt;h2 id="%EC%9A%94%EC%95%BD"&gt;요약&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;GPT-5.5&lt;/strong&gt;는 2026년 4월 23일 출시된 OpenAI의 최신 코딩/추론 모델입니다.&lt;/li&gt;
&lt;li&gt;GPT-5.4 대비 환각 현상 &lt;strong&gt;60% 감소&lt;/strong&gt;, &lt;strong&gt;SWE-bench 88.7%&lt;/strong&gt;, &lt;strong&gt;MMLU 92.4%&lt;/strong&gt; 달성.&lt;/li&gt;
&lt;li&gt;세 가지 모델: &lt;strong&gt;GPT-5.5 표준&lt;/strong&gt;, &lt;strong&gt;Thinking&lt;/strong&gt; (확장 추론), &lt;strong&gt;Pro&lt;/strong&gt; (최고 정확도).&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;ChatGPT 모든 유료 플랜&lt;/strong&gt; 및 &lt;strong&gt;Codex&lt;/strong&gt;에서 즉시 사용 가능(무료/Go는 임시 무료).&lt;/li&gt;
&lt;li&gt;API는 단계적 개방. 현재는 Codex 로그인 경로를 통한 사용만 가능.&lt;/li&gt;
&lt;li&gt;API 가격: &lt;strong&gt;입력 100만 토큰당 $5, 출력 100만 토큰당 $30&lt;/strong&gt;. 5.4 대비 2배지만 토큰 효율성은 향상.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="gpt-55%EC%9D%98-%EC%8B%A4%EC%A0%9C-%EB%AA%A8%EC%8A%B5"&gt;GPT-5.5의 실제 모습&lt;/h2&gt;

&lt;p&gt;GPT-5.5는 GPT-5.4, 5.4-mini, 5.3을 상위하는 최상위 모델로, 내부 코드명 "Spud"로 불립니다.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-209.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-209.png" alt="" width="800" height="450"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;세 가지 변형:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;GPT-5.5&lt;/strong&gt; — 기본형, 속도 및 사고력 최적화. 대부분의 작업에 적합.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;GPT-5.5 Thinking&lt;/strong&gt; — 추론 능력 확장, 복잡한 논리·연구·다중 파일 디버깅에 적합. ChatGPT 기준 주 3,000회 제한.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;GPT-5.5 Pro&lt;/strong&gt; — 고정확도, Pro/Business/Enterprise 플랜에서만 제공.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;실제 적용시: 프롬프트 수 감소, 잘못된 생성물 감소, 명확한 추가 질문 빈도 증가 등 실무 효율이 개선됩니다.&lt;/p&gt;

&lt;h2 id="gpt-54%EC%97%90%EC%84%9C-%EB%AC%B4%EC%97%87%EC%9D%B4-%EB%B3%80%EA%B2%BD%EB%90%98%EC%97%88%EB%82%98"&gt;GPT-5.4에서 무엇이 달라졌나&lt;/h2&gt;

&lt;p&gt;6주 만의 빠른 업그레이드지만, 실질 변화가 큽니다.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;기능&lt;/th&gt;
&lt;th&gt;GPT-5.4&lt;/th&gt;
&lt;th&gt;GPT-5.5&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;SWE-bench&lt;/td&gt;
&lt;td&gt;~74 %&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;88.7 %&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;MMLU&lt;/td&gt;
&lt;td&gt;91.1 %&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;92.4 %&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;환각 현상 비율&lt;/td&gt;
&lt;td&gt;기본&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;−60 %&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;컨텍스트 창 (API)&lt;/td&gt;
&lt;td&gt;1.05 M&lt;/td&gt;
&lt;td&gt;
&lt;strong&gt;1 M&lt;/strong&gt; (Codex: 400 K)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;API 입력 가격&lt;/td&gt;
&lt;td&gt;$2.50 / M&lt;/td&gt;
&lt;td&gt;$5.00 / M&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;API 출력 가격&lt;/td&gt;
&lt;td&gt;$15.00 / M&lt;/td&gt;
&lt;td&gt;$30.00 / M&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;컴퓨터 사용&lt;/td&gt;
&lt;td&gt;개선 중&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;프로덕션 등급&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;다단계 도구 체인&lt;/td&gt;
&lt;td&gt;단일 실행 선호&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;완전 자율 루프&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;SWE-bench 점수 상승이 핵심입니다. 실제 GitHub 이슈 자동화에 근접한 성능을 보이며, 토큰 효율성도 향상. 단, API 가격은 2배 상승(입력 $5, 출력 $30/100만 토큰)이므로, 실제 작업별 토큰 소모량을 검증하고 전환 여부를 결정하세요.&lt;/p&gt;

&lt;p&gt;자세한 비용-효율 분석은 &lt;a href="https://the-decoder.com/openai-unveils-gpt-5-5-claims-a-new-class-of-intelligence-at-double-the-api-price/" rel="noopener noreferrer"&gt;The Decoder&lt;/a&gt; 참고.&lt;/p&gt;

&lt;h2 id="%EA%B0%95%EC%A0%90"&gt;강점&lt;/h2&gt;

&lt;p&gt;GPT-5.5의 실전 적용 분야:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;에이전트형 코딩&lt;/strong&gt; — 리포지토리 분석, 파일 조작, 테스트 실행 등 반복 개발 작업 자동화.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;컴퓨터 사용&lt;/strong&gt; — 브라우저/셸 자동화, 데이터 스크래핑, 오류 복구 등.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;심층 연구&lt;/strong&gt; — 긴 추론, 웹 검색, 다중 출처 요약. Thinking 모드 활용.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;문서/스프레드시트 생성&lt;/strong&gt; — 레이아웃·수식 오류 감소, 슬라이드 자동화. Plus/Business에서 기본 제공.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;단, 대량 분류·임베딩·요약 등 저비용 작업은 여전히 GPT-5.4-mini/5.3이 유리합니다.&lt;/p&gt;

&lt;h2 id="%ED%98%84%EC%9E%AC-%EC%82%AC%EC%9A%A9-%EA%B0%80%EB%8A%A5-%EC%97%AC%EB%B6%80"&gt;현재 사용 가능 여부&lt;/h2&gt;

&lt;p&gt;2026년 4월 23일 기준, 접근 경로별 현황은 다음과 같습니다.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;서비스&lt;/th&gt;
&lt;th&gt;플랜&lt;/th&gt;
&lt;th&gt;접근&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;무료&lt;/td&gt;
&lt;td&gt;GPT-5.3 기본, GPT-5.5 없음&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Go&lt;/td&gt;
&lt;td&gt;GPT-5.3 기본, GPT-5.5 없음&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Plus&lt;/td&gt;
&lt;td&gt;GPT-5.5 표준 + Thinking (주 3,000회)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Pro&lt;/td&gt;
&lt;td&gt;표준 + Thinking + Pro&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Business&lt;/td&gt;
&lt;td&gt;표준 + Thinking + Pro&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Enterprise / 교육&lt;/td&gt;
&lt;td&gt;표준 + Thinking + Pro&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Codex&lt;/td&gt;
&lt;td&gt;모든 플랜 (무료, Go, Plus, Pro, Business, Enterprise, 교육)&lt;/td&gt;
&lt;td&gt;400K 컨텍스트의 GPT-5.5, 무료/Go는 한정 무료&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;API&lt;/td&gt;
&lt;td&gt;응답 / 채팅 완료&lt;/td&gt;
&lt;td&gt;“매우 곧” 오픈, 현재는 일반 출시 전&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;개발자라면 Codex 경로를 적극 활용하세요. &lt;strong&gt;Codex CLI에서 ChatGPT 계정 로그인만으로 GPT-5.5 활용이 가능합니다.&lt;/strong&gt;&lt;/p&gt;

&lt;h2 id="%ED%95%9C-%EC%A4%84-%EC%9A%94%EC%95%BD-%EA%B0%80%EA%B2%A9"&gt;한 줄 요약 가격&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;GPT-5.5 API: 입력 100만 토큰당 $5, 출력 100만 토큰당 $30&lt;/li&gt;
&lt;li&gt;GPT-5.5 Pro API: 입력 $30, 출력 $180 (5.4 Pro와 동일)&lt;/li&gt;
&lt;li&gt;배치/플렉스: 표준 요율의 50%&lt;/li&gt;
&lt;li&gt;우선순위: 표준 요율의 2.5배&lt;/li&gt;
&lt;li&gt;Codex CLI: 거의 모든 플랜에서 무료(일시적), 주간 제한 적용&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;작업별 상세 비용 계산은 &lt;a href="http://apidog.com/blog/gpt-5-5-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 가격 책정 기사&lt;/a&gt; 참고.&lt;/p&gt;

&lt;h2 id="%EC%98%A4%EB%8A%98-%EC%82%AC%EC%9A%A9%ED%95%B4-%EB%B3%B4%EB%8A%94-%EB%B0%A9%EB%B2%95"&gt;오늘 바로 적용하는 방법&lt;/h2&gt;

&lt;p&gt;즉시 실무에 적용하려면 다음을 수행하세요.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;ChatGPT 유료 플랜에서 모델 선택&lt;/strong&gt;
    &lt;ul&gt;
        &lt;li&gt;ChatGPT Plus/Pro/Business/Enterprise에서 GPT-5.5 선택 후 바로 사용.&lt;/li&gt;
    &lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Codex CLI 설치 및 활용&lt;/strong&gt;
    &lt;ul&gt;
        &lt;li&gt;
&lt;code&gt;npm install -g @openai/codex&lt;/code&gt; 또는 &lt;code&gt;brew install codex&lt;/code&gt; 실행&lt;/li&gt;
        &lt;li&gt;
&lt;code&gt;codex&lt;/code&gt; 실행 후 ChatGPT 계정 로그인&lt;/li&gt;
        &lt;li&gt;
&lt;code&gt;/model gpt-5.5&lt;/code&gt;로 모델 변경&lt;/li&gt;
        &lt;li&gt;무료/Go 플랜도 임시 무료 제공, 자세한 방법은 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-free-codex?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Codex 무료 가이드&lt;/a&gt; 참고&lt;/li&gt;
    &lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;API 출시 전 미리 컬렉션 구축&lt;/strong&gt;
    &lt;ul&gt;
        &lt;li&gt;API는 곧 출시 예정. 모델 ID 공개 즉시 &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;에서 요청 컬렉션을 미리 준비&lt;/li&gt;
        &lt;li&gt;엔드포인트 예시는 &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;GPT-5.5 API 가이드&lt;/a&gt;에서 확인&lt;/li&gt;
    &lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;

&lt;h2 id="%EC%95%88%EC%A0%84-%EB%B0%8F-%EB%A0%88%EB%93%9C%ED%8C%80-%ED%85%8C%EC%8A%A4%ED%8A%B8"&gt;안전 및 레드팀 테스트&lt;/h2&gt;

&lt;p&gt;OpenAI는 5.5에 대해 출시 전 사이버·생물학적 위험에 대한 타사 보호 조치 검증을 거쳤습니다. 5.5에서는 이중 용도 코드 거부 정책 강화와, API 공개 일정이 보안 정책과 연동됨을 명확히 했으니, 브라우저 자동화 등 소비자용 에이전트 구축시 정책 검토가 필수입니다.&lt;/p&gt;

&lt;h2 id="%EC%A0%84%ED%99%98%ED%95%B4%EC%95%BC-%ED%95%A0%EA%B9%8C%EC%9A%94"&gt;전환 체크리스트&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;코딩 에이전트 운영&lt;/strong&gt; — 즉시 전환 추천. SWE-bench 점수 상승+Codex 접근으로 실전 효과 큼.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;대규모 추론&lt;/strong&gt; — GPT-5.4-mini 기본, 난이도 높은 작업만 5.5 사용.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;소비자 서비스&lt;/strong&gt; — API 출시 후 A/B 테스트 필수. 가격 2배 인상은 실제.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;전체 결정 플로우는 &lt;a href="http://apidog.com/blog/gpt-5-5-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;가격 분석 자료&lt;/a&gt; 참고. 프로덕션 모델 변경 전 반드시 검토하세요.&lt;/p&gt;

&lt;h2 id="%EC%9E%90%EC%A3%BC-%EB%AC%BB%EB%8A%94-%EC%A7%88%EB%AC%B8"&gt;자주 묻는 질문&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;GPT-5.5는 API에서 이미 쓸 수 있나요?&lt;/strong&gt; 2026년 4월 23일 현재, 직접 API 키 호출은 불가. Codex CLI 경유 ChatGPT 로그인 방식만 지원.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;컨텍스트 창은?&lt;/strong&gt; ChatGPT/출시 API: 100만 토큰, Codex CLI: 40만 토큰.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Thinking과 Pro 차이는?&lt;/strong&gt; Thinking은 표준 대비 추론 예산 확장, Pro는 별도 고정확도 변형 (Pro/Business/Enterprise 한정).&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;GPT-5.5 무료 사용 가능?&lt;/strong&gt; ChatGPT는 유료 플랜 한정, Codex는 무료/Go도 한정 기간 무료(제한 있음). &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;무료 가이드&lt;/a&gt; 참고.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;GPT-5.4 계속 사용 가능?&lt;/strong&gt; 네, 5.4는 여전히 활성화(100만 토큰당 $2.50/$15). 비용 민감 작업은 5.4/5.4-mini 권장.&lt;/p&gt;

</description>
    </item>
  </channel>
</rss>
