<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>DEV Community: Walse</title>
    <description>The latest articles on DEV Community by Walse (@walse).</description>
    <link>https://dev.to/walse</link>
    <image>
      <url>https://media2.dev.to/dynamic/image/width=90,height=90,fit=cover,gravity=auto,format=auto/https:%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Fuser%2Fprofile_image%2F2112661%2Fe62db7e6-764e-4e09-ade6-b75346d4aa5b.jpeg</url>
      <title>DEV Community: Walse</title>
      <link>https://dev.to/walse</link>
    </image>
    <atom:link rel="self" type="application/rss+xml" href="https://dev.to/feed/walse"/>
    <language>en</language>
    <item>
      <title>Cara Menggunakan DeepSeek V4 Gratis</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 05:21:12 +0000</pubDate>
      <link>https://dev.to/walse/cara-menggunakan-deepseek-v4-gratis-10oh</link>
      <guid>https://dev.to/walse/cara-menggunakan-deepseek-v4-gratis-10oh</guid>
      <description>&lt;p&gt;DeepSeek V4 dirilis pada 23 April 2026 dengan jalur gratis yang benar-benar tersedia. Obrolan web resmi menjalankan V4-Pro tanpa kartu kredit, dan bobotnya berlisensi MIT bisa langsung diunduh. Agregator seperti OpenRouter serta Chutes biasanya menawarkan tingkatan gratis dalam hitungan hari setelah rilis. Dengan kombinasi ini, Anda dapat menjalankan beban kerja V4 secara gratis hingga siap beralih ke penagihan berbayar.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Panduan ini membahas jalur gratis yang bisa diverifikasi, skenario penggunaan yang cocok, serta langkah menyiapkan koleksi siap produksi di &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; agar transisi ke penagihan lebih mudah saat penggunaan meningkat.&lt;/p&gt;

&lt;p&gt;Untuk overview produk, lihat &lt;a href="http://apidog.com/blog/what-is-deepseek-v4" rel="noopener noreferrer"&gt;apa itu DeepSeek V4&lt;/a&gt;. Untuk panduan API lengkap, lihat &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api" rel="noopener noreferrer"&gt;cara menggunakan DeepSeek V4 API&lt;/a&gt;.&lt;/p&gt;

&lt;h2&gt;
  
  
  TL;DR
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;&lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;&lt;/strong&gt; — Obrolan web gratis di V4-Pro. Terdapat mode Think High &amp;amp; Think Max, tanpa kartu kredit.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Bobot Hugging Face + GPU sendiri&lt;/strong&gt; — Lisensi MIT; V4-Flash berjalan di 2–4 H100, V4-Pro butuh cluster.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Tingkatan gratis OpenRouter &amp;amp; Chutes&lt;/strong&gt; — Gateway pihak ketiga, biasanya buka kuota gratis seminggu setelah peluncuran.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Penyedia Inferensi Hugging Face&lt;/strong&gt; — Endpoint bersama, gratis tapi dibatasi laju.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Kredit uji coba Kaggle, Colab, RunPod&lt;/strong&gt; — Komputasi gratis untuk eksperimen hosting mandiri.&lt;/li&gt;
&lt;li&gt;Semua jalur gratis membatasi penggunaan. Untuk produksi, segera beralih ke penagihan sebelum kena limit.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F1pwj8dblm7dbxk7xooey.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F1pwj8dblm7dbxk7xooey.png" alt="DeepSeek V4 Overview" width="800" height="550"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  Jalur 1: chat.deepseek.com (jalur gratis default)
&lt;/h2&gt;

&lt;p&gt;Jalur gratis paling cepat dan stabil adalah antarmuka obrolan resmi. V4-Pro sebagai default; tombol di bagian atas memungkinkan switching antara Non-Think, Think High, dan Think Max.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fod1zc2ye1qsto7o0xxbc.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fod1zc2ye1qsto7o0xxbc.png" alt="chat.deepseek.com UI" width="800" height="434"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h3&gt;
  
  
  Pengaturan
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;Buka &lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;Login dengan email, Google, atau WeChat.&lt;/li&gt;
&lt;li&gt;Pastikan model aktif adalah V4-Pro.&lt;/li&gt;
&lt;li&gt;Mulai gunakan fitur chat.&lt;/li&gt;
&lt;/ol&gt;

&lt;h3&gt;
  
  
  Fitur utama
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;Jendela konteks 1M-token penuh.&lt;/li&gt;
&lt;li&gt;Upload file (PDF, gambar, bundel kode).&lt;/li&gt;
&lt;li&gt;Pencarian web on-demand.&lt;/li&gt;
&lt;li&gt;Tiga mode penalaran (termasuk Think Max).&lt;/li&gt;
&lt;li&gt;Riwayat percakapan &amp;amp; folder.&lt;/li&gt;
&lt;/ul&gt;

&lt;h3&gt;
  
  
  Batasan
&lt;/h3&gt;

&lt;p&gt;DeepSeek tidak menetapkan batas pesan harian yang ketat; pembatasan bersifat lunak saat trafik tinggi. Penggunaan berat bisa memperlambat respons atau mengantre permintaan, tapi jarang blokir keras. Jika sering terblokir laju, kurangi frekuensi atau pindah ke API.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Cocok untuk:&lt;/strong&gt; Benchmark prompt sulit, review kode, analisis kontrak.&lt;br&gt;&lt;br&gt;
&lt;strong&gt;Tidak cocok untuk:&lt;/strong&gt; Otomatisasi atau workflow yang perlu reproduktif.&lt;/p&gt;
&lt;h2&gt;
  
  
  Jalur 2: Hosting Mandiri V4-Flash di GPU Sendiri
&lt;/h2&gt;

&lt;p&gt;V4-Flash (lisensi MIT) sangat cocok untuk self-hosting. Dengan 284B total, 13B aktif, bisa jalan di multi-H100 (FP8) atau single 80GB (INT4).&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Biaya utama:&lt;/strong&gt; Perangkat keras, bukan lisensi. Jika sudah punya GPU, jalur ini paling tahan lama dan tidak dapat dibatasi laju atau ditarik.&lt;/p&gt;
&lt;h3&gt;
  
  
  Download Bobot
&lt;/h3&gt;


&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="nt"&gt;-U&lt;/span&gt; &lt;span class="s2"&gt;"huggingface_hub[cli]"&lt;/span&gt;
huggingface-cli login
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--local-dir&lt;/span&gt; ./models/deepseek-v4-flash
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;


&lt;blockquote&gt;
&lt;p&gt;Ukuran ~500GB (FP8). Pastikan ruang disk memadai.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h3&gt;
  
  
  Jalankan dengan vLLM
&lt;/h3&gt;


&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="s2"&gt;"vllm&amp;gt;=0.9.0"&lt;/span&gt;

vllm serve deepseek-ai/DeepSeek-V4-Flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--tensor-parallel-size&lt;/span&gt; 4 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--max-model-len&lt;/span&gt; 1048576 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--dtype&lt;/span&gt; auto &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--port&lt;/span&gt; 8000
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;


&lt;p&gt;Setelah running, arahkan klien OpenAI-compatible ke &lt;code&gt;http://localhost:8000/v1&lt;/code&gt;. Endpoint ini kompatibel dengan DeepSeek API berbayar; &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; bisa langsung memakainya sebagai base URL baru, koleksi tetap berjalan tanpa perubahan.&lt;/p&gt;
&lt;h3&gt;
  
  
  Kebutuhan Hardware
&lt;/h3&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Varian&lt;/th&gt;
&lt;th&gt;Kartu min (FP8)&lt;/th&gt;
&lt;th&gt;Kartu min (INT4)&lt;/th&gt;
&lt;th&gt;Throughput&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;V4-Flash&lt;/td&gt;
&lt;td&gt;2 × H100 80GB&lt;/td&gt;
&lt;td&gt;1 × H100 80GB&lt;/td&gt;
&lt;td&gt;50–150 tok/s&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;V4-Pro&lt;/td&gt;
&lt;td&gt;16 × H100 80GB&lt;/td&gt;
&lt;td&gt;8 × H100 80GB&lt;/td&gt;
&lt;td&gt;tergantung klaster&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Jika tidak punya GPU idle, sewa GPU biasanya kalah murah dibanding API. Jalur ini cocok untuk tim dengan GPU sendiri atau kebutuhan kepatuhan khusus.&lt;/p&gt;
&lt;h2&gt;
  
  
  Jalur 3: Tingkatan Gratis OpenRouter
&lt;/h2&gt;

&lt;p&gt;OpenRouter adalah gateway API yang agregasi banyak model open dan closed. Biasanya cepat membuka tingkatan gratis setelah DeepSeek rilis.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fbir19t7193o5qk1c978b.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fbir19t7193o5qk1c978b.png" alt="OpenRouter" width="800" height="293"&gt;&lt;/a&gt;&lt;/p&gt;
&lt;h3&gt;
  
  
  Pengaturan
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;Daftar di &lt;a href="https://openrouter.ai/" rel="noopener noreferrer"&gt;openrouter.ai&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;Buat API key.&lt;/li&gt;
&lt;li&gt;Cek katalog model: &lt;code&gt;deepseek/deepseek-v4-pro&lt;/code&gt; atau &lt;code&gt;deepseek/deepseek-v4-flash&lt;/code&gt; (versi gratis biasanya berakhiran &lt;code&gt;:free&lt;/code&gt;).&lt;/li&gt;
&lt;li&gt;Panggil via SDK OpenAI-compatible.
&lt;/li&gt;
&lt;/ol&gt;
&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;openai&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;OpenAI&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;OPENROUTER_KEY&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://openrouter.ai/api/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek/deepseek-v4-flash:free&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Write a Python CLI for semver bumping.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;

&lt;h3&gt;
  
  
  Batasan
&lt;/h3&gt;

&lt;p&gt;Kuota gratis biasanya dibatasi ratusan permintaan/hari/API key dan prioritas rendah saat beban tinggi. Cocok untuk prototipe, bukan produksi.&lt;/p&gt;
&lt;h2&gt;
  
  
  Jalur 4: Penyedia Inferensi Hugging Face
&lt;/h2&gt;

&lt;p&gt;Hugging Face menyediakan endpoint inferensi gratis setelah rilis model. Laju dan latensi dibatasi, tapi bisa langsung dipakai untuk eksperimen.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;huggingface_hub&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;InferenceClient&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;InferenceClient&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-ai/DeepSeek-V4-Flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;chat_completion&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Summarize the V4 technical report in 5 bullets.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
    &lt;span class="n"&gt;max_tokens&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mi"&gt;512&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Token HF gratis. Untuk penggunaan berat, upgrade ke akun Pro agar limit lebih longgar (masih lebih murah dari API resmi untuk beban sejenis).&lt;/p&gt;

&lt;h2&gt;
  
  
  Jalur 5: Kredit Uji Coba Colab, Kaggle, RunPod, Lambda
&lt;/h2&gt;

&lt;p&gt;Penyedia GPU besar menawarkan kredit uji coba yang cukup untuk eksperimen V4-Flash skala kecil.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Google Colab:&lt;/strong&gt; T4 gratis terlalu kecil, tapi Colab Pro+ (500 unit/bulan) cukup untuk beberapa eksperimen di A100.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Kaggle:&lt;/strong&gt; GPU mingguan gratis (T4, P100). Cukup untuk V4-Flash terkuantisasi, tidak untuk V4-Pro.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;RunPod:&lt;/strong&gt; $10 kredit uji coba, bisa beberapa jam di H100 (jalankan vLLM, benchmarking, lalu shutdown).&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Lambda:&lt;/strong&gt; Promo jam gratis di H100/H200, cek halaman pendaftaran.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Bukan jalur gratis jangka panjang—hanya untuk eksperimen terbatas.&lt;/p&gt;

&lt;h2&gt;
  
  
  Build Koleksi Apidog Agnostik Penyedia
&lt;/h2&gt;

&lt;p&gt;Satu koleksi di &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; bisa menguji prompt yang sama di semua backend tanpa duplikasi script.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Alur implementasi:&lt;/strong&gt;&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Install Apidog.&lt;/li&gt;
&lt;li&gt;Buat koleksi dengan 4 environment: &lt;code&gt;chat&lt;/code&gt; (placeholder), &lt;code&gt;deepseek&lt;/code&gt; (&lt;code&gt;https://api.deepseek.com/v1&lt;/code&gt;), &lt;code&gt;openrouter&lt;/code&gt; (&lt;code&gt;https://openrouter.ai/api/v1&lt;/code&gt;), &lt;code&gt;self-hosted&lt;/code&gt; (&lt;code&gt;http://localhost:8000/v1&lt;/code&gt;).&lt;/li&gt;
&lt;li&gt;Simpan satu permintaan POST ke &lt;code&gt;{{BASE_URL}}/chat/completions&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Simpan API key tiap penyedia sebagai secret variable.&lt;/li&gt;
&lt;li&gt;Swap environment untuk A/B testing prompt di backend berbeda.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Pola ini juga digunakan untuk &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free" rel="noopener noreferrer"&gt;koleksi GPT-5.5 gratis&lt;/a&gt;; satu alat, semua penyedia, tanpa replikasi pekerjaan.&lt;/p&gt;

&lt;h2&gt;
  
  
  Jalur Gratis Mana yang Paling Cocok?
&lt;/h2&gt;

&lt;p&gt;Empat heuristik praktis:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Ingin coba cepat:&lt;/strong&gt; Pakai &lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Prototipe produk:&lt;/strong&gt; Pakai tingkatan gratis OpenRouter, lanjut ke DeepSeek setelah limit.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Punya GPU dan kebutuhan compliance:&lt;/strong&gt; Hosting mandiri V4-Flash via vLLM.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Butuh gratis jangka panjang:&lt;/strong&gt; Tidak ada. Semua jalur gratis dibatasi; gabungkan &lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt; untuk interaktif dan API berbayar untuk otomasi.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Kapan Harus Berhenti Gratis?
&lt;/h2&gt;

&lt;p&gt;Tiga indikator Anda perlu upgrade ke berbayar:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Sering terblokir laju (&amp;gt;1x/hari):&lt;/strong&gt; Beban kerja layak dialokasikan budget.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Butuh SLA:&lt;/strong&gt; Hanya API resmi yang menyediakan.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Perlu pencatatan/audit/compliance:&lt;/strong&gt; API berbayar punya billing records, tingkatan gratis agregator tidak.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Jika menemui hal di atas, segera beralih ke &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api" rel="noopener noreferrer"&gt;API resmi&lt;/a&gt;. Minimal top-up $2 dengan harga per-token terendah.&lt;/p&gt;

&lt;h2&gt;
  
  
  FAQ
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Apakah &lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt; benar-benar gratis?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Ya, tanpa kartu kredit, tanpa trial. Pembatasan hanya lunak, tidak berbayar.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Perlu akun Hugging Face untuk unduh bobot?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Secara teknis tidak (repo publik). Praktisnya, login dapat limit download lebih besar.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Jalur gratis mana yang benar-benar V4-Pro?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
&lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt; menjalankan V4-Pro penuh. OpenRouter biasanya hanya V4-Flash gratis. Jika butuh V4-Pro tanpa bayar, web chat paling andal.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bisakah tingkatan gratis dipakai produk?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tidak disarankan. Batas laju, ketentuan bisa berubah, kadang hilang. Untuk produk, gunakan API berbayar/hosting mandiri.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Hosting mandiri benar-benar gratis?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Lisensi gratis, hardware tidak. Jika sudah punya GPU, biaya hanya listrik. Sewa GPU sering kalah dengan API berbayar.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Apakah akan ada tingkatan gratis Apidog untuk testing?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; gratis untuk desain &amp;amp; pengujian API; biaya hanya saat akses API berbayar. Jadi, workspace Apidog gratis bisa digabung dengan &lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt; atau OpenRouter untuk workflow yang sepenuhnya gratis.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>Cara Menjalankan DeepSeek V4 Secara Lokal</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:48:22 +0000</pubDate>
      <link>https://dev.to/walse/cara-menjalankan-deepseek-v4-secara-lokal-13m0</link>
      <guid>https://dev.to/walse/cara-menjalankan-deepseek-v4-secara-lokal-13m0</guid>
      <description>&lt;p&gt;DeepSeek V4 dirilis pada 23 April 2026 dengan bobot berlisensi MIT di Hugging Face. Pilihan lisensi tunggal ini sangat menguntungkan tim yang ingin menjalankan AI canggih di perangkat keras sendiri. V4-Flash (total 284B, aktif 13B) bisa berjalan di sepasang H100 pada FP8. V4-Pro (total 1.6T, aktif 49B) butuh klaster, namun performanya kompetitif dengan GPT-5.5 dan Claude Opus 4.6 dalam kode dan penalaran.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Panduan ini fokus pada penerapan lokal DeepSeek V4. Anda akan belajar persyaratan hardware, opsi kuantisasi, setup vLLM dan SGLang, konfigurasi alat, serta workflow pengujian di Apidog untuk validasi server sebelum digunakan secara produksi.&lt;/p&gt;

&lt;p&gt;Untuk gambaran umum produk, lihat &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;apa itu DeepSeek V4&lt;/a&gt;. Untuk jalur API yang dihosting, lihat &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menggunakan DeepSeek V4 API&lt;/a&gt;. Untuk perbandingan biaya, lihat &lt;a href="http://apidog.com/blog/deepseek-v4-api-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;harga DeepSeek V4 API&lt;/a&gt;.&lt;/p&gt;

&lt;h2&gt;
  
  
  TL;DR
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;V4-Flash&lt;/strong&gt; berjalan pada 2 × H100 80GB di FP8, atau 1 × H100 di INT4. Bobot sekitar ~500GB di FP8.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;V4-Pro&lt;/strong&gt; membutuhkan 16+ H100 di FP8 untuk throughput produksi; bukan model laptop.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;vLLM&lt;/strong&gt; adalah cara tercepat ke server kompatibel OpenAI. &lt;code&gt;vllm&amp;gt;=0.9.0&lt;/code&gt; sudah support V4.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;SGLang&lt;/strong&gt; alternatif untuk kebutuhan penggunaan alat &amp;amp; output terstruktur.&lt;/li&gt;
&lt;li&gt;Kuantisasi &lt;strong&gt;AWQ INT4&lt;/strong&gt; atau &lt;strong&gt;GPTQ INT4&lt;/strong&gt; memungkinkan V4-Flash jalan di 1 kartu 80GB, kualitas turun ~5%.&lt;/li&gt;
&lt;li&gt;Gunakan &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; untuk mengarah ke &lt;code&gt;http://localhost:8000/v1&lt;/code&gt; dan reuse koleksi API hosted.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Siapa yang Harus Self-Hosting
&lt;/h2&gt;

&lt;p&gt;Self-hosting V4 cocok untuk:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Tim terikat kepatuhan&lt;/strong&gt;: Data tetap lokal, lisensi MIT tanpa perjanjian khusus.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Beban kerja besar &amp;amp; stabil&lt;/strong&gt;: Di atas 200 miliar token/bulan, self-hosting lebih ekonomis.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Fine-tuning &amp;amp; riset&lt;/strong&gt;: Checkpoint dasar siap untuk pretraining lanjutan dan adaptasi domain.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Tidak disarankan untuk: prototipe, tim tanpa pengalaman operasional GPU, workload kecil (API hosted &amp;lt; $200/bulan).&lt;/p&gt;

&lt;h2&gt;
  
  
  Persyaratan Hardware
&lt;/h2&gt;

&lt;p&gt;DeepSeek V4 native di mixed precision FP4 + FP8, sehingga requirement memori lebih efisien.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Varian&lt;/th&gt;
&lt;th&gt;Total parameter&lt;/th&gt;
&lt;th&gt;Parameter aktif&lt;/th&gt;
&lt;th&gt;VRAM FP8&lt;/th&gt;
&lt;th&gt;VRAM INT4&lt;/th&gt;
&lt;th&gt;Kartu minimum&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;V4-Flash&lt;/td&gt;
&lt;td&gt;284B&lt;/td&gt;
&lt;td&gt;13B&lt;/td&gt;
&lt;td&gt;~500GB&lt;/td&gt;
&lt;td&gt;~140GB&lt;/td&gt;
&lt;td&gt;2 × H100 80GB (FP8) / 1 × H100 INT4&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;V4-Pro&lt;/td&gt;
&lt;td&gt;1.6T&lt;/td&gt;
&lt;td&gt;49B&lt;/td&gt;
&lt;td&gt;~2.4TB&lt;/td&gt;
&lt;td&gt;~700GB&lt;/td&gt;
&lt;td&gt;16 × H100 80GB (FP8) / 8 × H100 INT4&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;&lt;strong&gt;Catatan:&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Memori MoE&lt;/strong&gt;: VRAM harus muat semua pakar, bukan hanya yang aktif per token.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;H200/MI300X&lt;/strong&gt;: Dengan 141GB/192GB, butuh lebih sedikit kartu.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;GPU Konsumer&lt;/strong&gt;: Tidak cukup, bahkan untuk V4-Flash INT4 di RTX 5090 24GB.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Apple Silicon&lt;/strong&gt;: Bisa dengan M3 Max/M4 Max 128GB, tapi lambat.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Langkah 1: Unduh Bobot
&lt;/h2&gt;

&lt;p&gt;Repo resmi:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;&lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash" rel="noopener noreferrer"&gt;deepseek-ai/DeepSeek-V4-Flash&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro" rel="noopener noreferrer"&gt;deepseek-ai/DeepSeek-V4-Pro&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Untuk fine-tuning: &lt;code&gt;deepseek-ai/DeepSeek-V4-Flash-Base&lt;/code&gt; &amp;amp; &lt;code&gt;DeepSeek-V4-Pro-Base&lt;/code&gt;
&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Unduh bobot:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="nt"&gt;-U&lt;/span&gt; &lt;span class="s2"&gt;"huggingface_hub[cli]"&lt;/span&gt;
huggingface-cli login

huggingface-cli download deepseek-ai/DeepSeek-V4-Flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--local-dir&lt;/span&gt; ./models/deepseek-v4-flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--local-dir-use-symlinks&lt;/span&gt; False
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Sediakan ~500GB disk untuk V4-Flash, beberapa TB untuk V4-Pro. Pengguna di Tiongkok: &lt;a href="https://modelscope.cn/models/deepseek-ai/DeepSeek-V4-Flash" rel="noopener noreferrer"&gt;ModelScope&lt;/a&gt; biasanya lebih cepat.&lt;/p&gt;

&lt;h2&gt;
  
  
  Langkah 2: Pilih Mesin Penyaji
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;vLLM&lt;/strong&gt;: Throughput tertinggi, API sangat kompatibel OpenAI. Pilihan default.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;SGLang&lt;/strong&gt;: Dukungan penggunaan alat &amp;amp; output terstruktur lebih baik, konteks panjang lebih baik. Pakai jika beban kerja banyak fungsi.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Keduanya sudah support V4 pada rilis terbaru.&lt;/p&gt;

&lt;h2&gt;
  
  
  Langkah 3: Sajikan V4-Flash dengan vLLM
&lt;/h2&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="s2"&gt;"vllm&amp;gt;=0.9.0"&lt;/span&gt;

vllm serve deepseek-ai/DeepSeek-V4-Flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--tensor-parallel-size&lt;/span&gt; 2 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--max-model-len&lt;/span&gt; 1048576 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--dtype&lt;/span&gt; auto &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--enable-prefix-caching&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--port&lt;/span&gt; 8000
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;&lt;strong&gt;Penjelasan flag:&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;code&gt;--tensor-parallel-size 2&lt;/code&gt;: Model dibagi di 2 H100. Sesuaikan sesuai jumlah GPU.&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;--max-model-len 1048576&lt;/code&gt;: 1 juta token. Turunkan ke 131072 jika butuh VRAM lebih lega.&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;--enable-prefix-caching&lt;/code&gt;: Mempercepat awalan prompt yang sama.&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;--dtype auto&lt;/code&gt;: Mengikuti presisi model.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Setelah server aktif, klien OpenAI compatible bisa gunakan endpoint &lt;code&gt;http://localhost:8000/v1&lt;/code&gt;.&lt;/p&gt;

&lt;h2&gt;
  
  
  Langkah 4: Sajikan V4-Pro dengan vLLM
&lt;/h2&gt;

&lt;p&gt;Butuh klaster, hanya paralelismenya yang berbeda:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;vllm serve deepseek-ai/DeepSeek-V4-Pro &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--tensor-parallel-size&lt;/span&gt; 8 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--pipeline-parallel-size&lt;/span&gt; 2 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--max-model-len&lt;/span&gt; 524288 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--enable-prefix-caching&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--port&lt;/span&gt; 8000
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;&lt;code&gt;--max-model-len&lt;/code&gt; 512K agar muat di 16 × H100. Bisa dinaikkan jika VRAM cukup. Kombinasi paralelisme pipeline dan tensor cocok deployment multi-node.&lt;/p&gt;

&lt;h2&gt;
  
  
  Langkah 5: Alternatif SGLang (Penggunaan Alat)
&lt;/h2&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="s2"&gt;"sglang[all]&amp;gt;=0.4.0"&lt;/span&gt;

python &lt;span class="nt"&gt;-m&lt;/span&gt; sglang.launch_server &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--model-path&lt;/span&gt; deepseek-ai/DeepSeek-V4-Flash &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--tp&lt;/span&gt; 2 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--context-length&lt;/span&gt; 1048576 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--port&lt;/span&gt; 30000
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;SGLang expose endpoint OpenAI compatible di &lt;code&gt;http://localhost:30000/v1&lt;/code&gt;. DSL &lt;code&gt;lang&lt;/code&gt;-nya lebih baik untuk function-calling &amp;amp; output JSON.&lt;/p&gt;

&lt;h2&gt;
  
  
  Langkah 6: Kuantisasi untuk GPU Tunggal
&lt;/h2&gt;

&lt;p&gt;INT4 memungkinkan V4-Flash jalan di H100 80GB dengan minimal penurunan kualitas. Ada dua opsi:&lt;/p&gt;

&lt;h3&gt;
  
  
  AWQ (Direkomendasikan)
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install &lt;/span&gt;autoawq

python &lt;span class="nt"&gt;-c&lt;/span&gt; &lt;span class="s2"&gt;"
from awq import AutoAWQForCausalLM
from transformers import AutoTokenizer

model_path = './models/deepseek-v4-flash'
out_path = './models/deepseek-v4-flash-awq'
model = AutoAWQForCausalLM.from_pretrained(model_path)
tokenizer = AutoTokenizer.from_pretrained(model_path)
model.quantize(tokenizer, quant_config={'w_bit': 4, 'q_group_size': 128})
model.save_quantized(out_path)
tokenizer.save_pretrained(out_path)
"&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h3&gt;
  
  
  GPTQ
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install &lt;/span&gt;auto-gptq
&lt;span class="c"&gt;# Ikuti resep kuantisasi GPTQ; mirip dengan AWQ.&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Saat serve, gunakan flag &lt;code&gt;--quantization awq&lt;/code&gt; atau &lt;code&gt;--quantization gptq&lt;/code&gt; di vLLM.&lt;/p&gt;

&lt;h2&gt;
  
  
  Langkah 7: Uji dengan Apidog
&lt;/h2&gt;

&lt;p&gt;Jangan langsung gunakan server lokal untuk produksi. Validasi dulu.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fyhlube65mg8kn9sbhwv0.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fyhlube65mg8kn9sbhwv0.png" alt="Apidog menguji server lokal DeepSeek V4" width="800" height="530"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Unduh Apidog.&lt;/li&gt;
&lt;li&gt;Buat koleksi dengan base URL: &lt;code&gt;http://localhost:8000/v1/chat/completions&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Tempel prompt uji yang sama seperti API hosting. Bandingkan hasilnya.&lt;/li&gt;
&lt;li&gt;Tes endpoint dengan prompt 500K-token untuk check cache KV.&lt;/li&gt;
&lt;li&gt;Jalankan workflow function-calling end-to-end sebelum masuk ke loop agen.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Koleksi yang sama untuk &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;DeepSeek V4 API hosted&lt;/a&gt; bisa langsung dipakai di server lokal, hanya ganti base URL.&lt;/p&gt;

&lt;h2&gt;
  
  
  Observabilitas &amp;amp; Pemantauan
&lt;/h2&gt;

&lt;p&gt;Pantau 4 metrik berikut sejak awal:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Token per detik&lt;/strong&gt;: prompt &amp;amp; output. vLLM expose di &lt;code&gt;/metrics&lt;/code&gt; format Prometheus.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Utilisasi GPU&lt;/strong&gt;: &lt;code&gt;nvidia-smi&lt;/code&gt; / DCGM. &amp;lt;70% berarti batch size kurang optimal.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Tingkat hit cache KV&lt;/strong&gt;: Dengan &lt;code&gt;--enable-prefix-caching&lt;/code&gt;, vLLM laporkan ini.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Latensi request p50/p95/p99&lt;/strong&gt;: Pantau outlier; p99 naik, p50 stabil = bottleneck spesifik.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Kirim semua data ke Grafana atau sistem observabilitas andalan.&lt;/p&gt;

&lt;h2&gt;
  
  
  Fine-tuning Checkpoint Dasar V4
&lt;/h2&gt;

&lt;p&gt;Checkpoint dasar untuk pretraining lanjutan &amp;amp; SFT. Pipeline:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;pip &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="s2"&gt;"torch&amp;gt;=2.6"&lt;/span&gt; transformers accelerate peft trl

&lt;span class="c"&gt;# SFT Standar dengan LoRA pada V4-Flash-Base&lt;/span&gt;
python &lt;span class="nt"&gt;-m&lt;/span&gt; trl sft &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--model_name_or_path&lt;/span&gt; deepseek-ai/DeepSeek-V4-Flash-Base &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--dataset_name&lt;/span&gt; your-org/your-sft-set &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--output_dir&lt;/span&gt; ./models/v4-flash-custom &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--per_device_train_batch_size&lt;/span&gt; 1 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--gradient_accumulation_steps&lt;/span&gt; 16 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--learning_rate&lt;/span&gt; 2e-5 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--bf16&lt;/span&gt; &lt;span class="nb"&gt;true&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--use_peft&lt;/span&gt; &lt;span class="nb"&gt;true&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--lora_r&lt;/span&gt; 64 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--lora_alpha&lt;/span&gt; 128
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Full fine-tuning di V4-Pro = tugas riset berat. LoRA adapter di V4-Flash-Base jauh lebih realistis untuk kebanyakan tim.&lt;/p&gt;

&lt;h2&gt;
  
  
  Kesalahan Umum
&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;OOM saat startup&lt;/strong&gt;: Biasanya &lt;code&gt;--max-model-len&lt;/code&gt; terlalu tinggi atau &lt;code&gt;--tensor-parallel-size&lt;/code&gt; terlalu kecil. Kurangi konteks atau tambah paralelisme.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Permintaan pertama lambat&lt;/strong&gt;: vLLM compile kernel secara lazy. Hangatkan dengan dummy request.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Error penggunaan alat&lt;/strong&gt;: Skema DeepSeek sedikit berbeda dari OpenAI. Pastikan SDK support V4.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Error FP8 di kartu lama&lt;/strong&gt;: A100 tidak support FP8. Gunakan BF16 di arsitektur sebelum Hopper, VRAM akan naik ~2x.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Kapan Self-Hosting Menguntungkan
&lt;/h2&gt;

&lt;p&gt;Break-even kasar, berdasarkan &lt;a href="http://apidog.com/blog/deepseek-v4-api-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;harga DeepSeek V4 hosted&lt;/a&gt;:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;V4-Flash, 200B input + 20B output/bulan&lt;/strong&gt;: ~$33.6K API hosted, sewa 8 × H100 ~$20K/bulan. Self-hosting lebih hemat ~40%.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;V4-Pro, 500B input + 50B output/bulan&lt;/strong&gt;: ~$1.04M API hosted, sewa 16 × H100 ~$35K/bulan. Self-hosting hemat &amp;gt;95%.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Break-even V4-Flash sekitar 100B token/bulan. Di bawah itu, API hosted lebih murah dan operasional lebih ringan.&lt;/p&gt;

&lt;h2&gt;
  
  
  FAQ
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Bisakah V4-Flash jalan di A100 tunggal?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Bisa (INT4, konteks pendek), tapi lambat (5–15 tok/dtk). H100 jauh lebih ideal.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Apakah V4 support fine-tuning LoRA?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Ya. Pakai checkpoint dasar &amp;amp; pipeline TRL/Axolotl standar. MoE routing tidak mempengaruhi LoRA.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Server lokal kompatibel OpenAI?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Ya. vLLM &amp;amp; SGLang expose &lt;code&gt;/v1/chat/completions&lt;/code&gt; &amp;amp; &lt;code&gt;/v1/completions&lt;/code&gt; dengan request format OpenAI. &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Panduan API hosted&lt;/a&gt; bisa langsung dipakai ke localhost.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bagaimana aktifkan mode thinking secara lokal?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tambahkan &lt;code&gt;thinking_mode: "thinking"&lt;/code&gt; atau &lt;code&gt;"thinking_max"&lt;/code&gt; di body request. vLLM &amp;amp; SGLang meneruskan ke model.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bisakah streaming dari server V4 lokal?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Bisa. Set &lt;code&gt;stream: true&lt;/code&gt; seperti di OpenAI/DeepSeek API hosted.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Cara termurah eksperimen sebelum beli hardware?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Sewa 1 H100 di RunPod/Lambda beberapa jam, jalankan V4-Flash INT4, ukur throughput ke prompt nyata. Cukup $10–$30 untuk jawab kebutuhan hardware.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>Cara Menggunakan DeepSeek V4 API Gratis</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:26:39 +0000</pubDate>
      <link>https://dev.to/walse/cara-menggunakan-deepseek-v4-api-gratis-4n45</link>
      <guid>https://dev.to/walse/cara-menggunakan-deepseek-v4-api-gratis-4n45</guid>
      <description>&lt;p&gt;DeepSeek V4 dirilis pada 23 April 2026, menawarkan harga API sangat rendah sehingga kebanyakan tim tidak perlu mencari jalur gratis. Namun, tersedia beberapa opsi gratis bagi developer yang ingin mengakses V4 secara terprogram sebelum memasukkan kartu pembayaran. Anda bisa memanfaatkan gateway agregator varian &lt;code&gt;:free&lt;/code&gt;, endpoint inferensi Hugging Face, dan kredit uji coba API resmi. Gabungkan semuanya, buat fallback chain di Apidog, dan Anda bisa membuat prototipe produk bertenaga V4 tanpa biaya sama sekali.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Panduan ini fokus pada jalur gratis API. Untuk panduan yang mencakup chat web dan self-hosting, cek &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menggunakan DeepSeek V4 secara gratis&lt;/a&gt;. Untuk panduan berbayar, lihat &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menggunakan API DeepSeek V4&lt;/a&gt;. Untuk ikhtisar produk, baca &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;apa itu DeepSeek V4&lt;/a&gt;.&lt;/p&gt;

&lt;h2&gt;
  
  
  TL;DR
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;OpenRouter tingkat gratis&lt;/strong&gt; — &lt;code&gt;deepseek/deepseek-v4-flash:free&lt;/code&gt; dan kadang &lt;code&gt;deepseek-v4-pro:free&lt;/code&gt;. Kompatibel OpenAI, ratusan request/hari/kunci.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Inferensi Hugging Face&lt;/strong&gt; — endpoint public gratis di &lt;code&gt;&lt;a href="https://router.huggingface.co/hf-inference" rel="noopener noreferrer"&gt;https://router.huggingface.co/hf-inference&lt;/a&gt;&lt;/code&gt;; dibatasi, sangat cocok prototyping.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Chutes tingkat gratis&lt;/strong&gt; — jaringan GPU komunitas sering menawarkan endpoint DeepSeek gratis dalam minggu peluncuran.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Kredit uji coba DeepSeek&lt;/strong&gt; — akun baru di &lt;code&gt;platform.deepseek.com&lt;/code&gt; kadang dapat saldo awal kecil.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Self-hosted V4-Flash&lt;/strong&gt; — gratis pada level lisensi jika punya GPU sendiri; cek &lt;a href="http://apidog.com/blog/how-to-run-deepseek-v4-locally?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menjalankan DeepSeek V4 secara lokal&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Fallback chain di &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;&lt;/strong&gt; — pastikan format permintaan konsisten di semua penyedia.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-227.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-227.png" alt="" width="800" height="550"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  Mengapa Jalur API Gratis Ada
&lt;/h2&gt;

&lt;p&gt;Tarif DeepSeek sudah sangat murah. Tapi jalur gratis tetap penting untuk:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Prototyping sebelum bayar:&lt;/strong&gt; Uji dari kode tanpa komitmen payment.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Proyek mahasiswa/penelitian/open source:&lt;/strong&gt; Kualitas top tanpa biaya.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Bandingkan penyedia:&lt;/strong&gt; Uji prompt yang sama di beberapa endpoint gratis; lihat beda latensi, kualitas, dan reliabilitas.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Kalau salah satu alasan di atas sesuai, gunakan panduan ini. Kalau butuh produk siap produksi, lanjut ke &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API berbayar&lt;/a&gt;.&lt;/p&gt;

&lt;h2&gt;
  
  
  Jalur 1: OpenRouter Gratis
&lt;/h2&gt;

&lt;p&gt;OpenRouter adalah gateway API kompatibel OpenAI yang mengagregasi model terbaik, dan selalu menyediakan varian &lt;code&gt;:free&lt;/code&gt; untuk DeepSeek (termasuk V4).&lt;/p&gt;

&lt;h3&gt;
  
  
  Langkah Implementasi
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;Daftar di &lt;a href="https://openrouter.ai/" rel="noopener noreferrer"&gt;openrouter.ai&lt;/a&gt;
&lt;/li&gt;
&lt;li&gt;Buat API key di &lt;strong&gt;Settings → Keys&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;Lihat katalog model yang ada &lt;code&gt;:free&lt;/code&gt; (misal &lt;code&gt;deepseek/deepseek-v4-flash:free&lt;/code&gt;)&lt;/li&gt;
&lt;li&gt;Panggil endpoint dengan SDK OpenAI&lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  Python
&lt;/h4&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;openai&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;OpenAI&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;OPENROUTER_API_KEY&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://openrouter.ai/api/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek/deepseek-v4-flash:free&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Refactor this Go function to use channels.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h3&gt;
  
  
  Batasan
&lt;/h3&gt;

&lt;p&gt;Permintaan gratis di OpenRouter mengantri di belakang user berbayar. Limit sekitar 50-200 permintaan/hari/kunci, concurrency ketat, varian bisa berubah/hilang sewaktu-waktu. Cocok hanya untuk prototipe.&lt;/p&gt;

&lt;h4&gt;
  
  
  Node.js
&lt;/h4&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight javascript"&gt;&lt;code&gt;&lt;span class="k"&gt;import&lt;/span&gt; &lt;span class="nx"&gt;OpenAI&lt;/span&gt; &lt;span class="k"&gt;from&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;openai&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;;&lt;/span&gt;

&lt;span class="kd"&gt;const&lt;/span&gt; &lt;span class="nx"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="k"&gt;new&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;({&lt;/span&gt;
  &lt;span class="na"&gt;apiKey&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="nx"&gt;process&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;env&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;OPENROUTER_API_KEY&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;baseURL&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;https://openrouter.ai/api/v1&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;});&lt;/span&gt;

&lt;span class="kd"&gt;const&lt;/span&gt; &lt;span class="nx"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="k"&gt;await&lt;/span&gt; &lt;span class="nx"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;({&lt;/span&gt;
  &lt;span class="na"&gt;model&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;deepseek/deepseek-v4-flash:free&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;messages&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;[{&lt;/span&gt; &lt;span class="na"&gt;role&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;user&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="na"&gt;content&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;Explain MoE routing like I'm 12.&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt; &lt;span class="p"&gt;}],&lt;/span&gt;
&lt;span class="p"&gt;});&lt;/span&gt;

&lt;span class="nx"&gt;console&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;log&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="nx"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="nx"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;content&lt;/span&gt;&lt;span class="p"&gt;);&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h2&gt;
  
  
  Jalur 2: Inferensi Hugging Face
&lt;/h2&gt;

&lt;p&gt;Hugging Face menyediakan endpoint inferensi public gratis untuk DeepSeek V4 segera setelah rilis. Cukup pakai HF token; pembatasan tarif sangat ketat.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;
&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;huggingface_hub&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;InferenceClient&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;InferenceClient&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-ai/DeepSeek-V4-Flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;token&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;os&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;environ&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;HF_TOKEN&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;chat_completion&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;
        &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Write a Python decorator that retries with jitter.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}&lt;/span&gt;
    &lt;span class="p"&gt;],&lt;/span&gt;
    &lt;span class="n"&gt;max_tokens&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mi"&gt;512&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Token bisa diambil dari &lt;a href="https://huggingface.co/settings/tokens" rel="noopener noreferrer"&gt;huggingface.co/settings/tokens&lt;/a&gt;. Latensi dan limit mengikuti trafik global. Upgrade ke HF Pro untuk limit lebih longgar jika perlu.&lt;/p&gt;

&lt;h2&gt;
  
  
  Jalur 3: Chutes dan Gateway Komunitas
&lt;/h2&gt;

&lt;p&gt;Chutes adalah jaringan GPU terdesentralisasi yang sering meng-host model DeepSeek secara gratis/hampir gratis. Endpoint OpenAI-compatible: &lt;code&gt;&lt;a href="https://llm.chutes.ai/v1" rel="noopener noreferrer"&gt;https://llm.chutes.ai/v1&lt;/a&gt;&lt;/code&gt;.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;CHUTES_API_KEY&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://llm.chutes.ai/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-ai/DeepSeek-V4-Flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Compare CSA and HCA attention in two sentences.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Ketersediaan dan model ID bisa berubah cepat, jadi cek dashboard penyedia sebelum membuat dependency.&lt;/p&gt;

&lt;h2&gt;
  
  
  Jalur 4: Kredit Uji Coba DeepSeek
&lt;/h2&gt;

&lt;p&gt;DeepSeek kadang memberi kredit uji coba untuk akun baru (misal, $1 setelah verifikasi email). Cek dashboard billing di &lt;a href="https://platform.deepseek.com/" rel="noopener noreferrer"&gt;platform.deepseek.com&lt;/a&gt; setelah daftar.&lt;/p&gt;

&lt;p&gt;Kredit $1 bisa dipakai untuk sekitar 7 juta token input di V4-Flash, atau 570K token input di V4-Pro—cukup untuk ratusan prototipe.&lt;/p&gt;

&lt;h2&gt;
  
  
  Membangun Rantai Gratis Agnostik Penyedia di Apidog
&lt;/h2&gt;

&lt;p&gt;Manfaatkan banyak jalur gratis dengan fallback chain agar prototipe tetap jalan meski satu penyedia rate limit.&lt;/p&gt;

&lt;h3&gt;
  
  
  Langkah Praktis
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Unduh Apidog&lt;/a&gt; &amp;amp; buat project baru.&lt;/li&gt;
&lt;li&gt;Buat 4 environment: &lt;code&gt;openrouter&lt;/code&gt;, &lt;code&gt;huggingface&lt;/code&gt;, &lt;code&gt;chutes&lt;/code&gt;, &lt;code&gt;deepseek-trial&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Simpan API key di masing-masing environment sebagai secret, set &lt;code&gt;BASE_URL&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Simpan 1 POST request ke &lt;code&gt;{{BASE_URL}}/chat/completions&lt;/code&gt; dan parameterkan &lt;code&gt;model&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Switch environment untuk testing prompt di semua penyedia.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Metode ini juga bisa untuk &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;jalur gratis GPT-5.5&lt;/a&gt;—cukup copy collection, ganti provider.&lt;/p&gt;

&lt;h3&gt;
  
  
  Fallback Chain dalam Kode
&lt;/h3&gt;

&lt;p&gt;Fallback otomatis bisa dibuat dengan OpenAI SDK:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;
&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;openai&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;RateLimitError&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;APIError&lt;/span&gt;

&lt;span class="n"&gt;PROVIDERS&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="p"&gt;[&lt;/span&gt;
    &lt;span class="p"&gt;{&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;base_url&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://openrouter.ai/api/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;api_key&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;environ&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;OPENROUTER_API_KEY&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;model&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek/deepseek-v4-flash:free&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="p"&gt;{&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;base_url&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://llm.chutes.ai/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;api_key&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;environ&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;CHUTES_API_KEY&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;model&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-ai/DeepSeek-V4-Flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="p"&gt;{&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;base_url&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://api.deepseek.com/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;api_key&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;environ&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;DEEPSEEK_API_KEY&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;model&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-v4-flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="p"&gt;},&lt;/span&gt;
&lt;span class="p"&gt;]&lt;/span&gt;

&lt;span class="k"&gt;def&lt;/span&gt; &lt;span class="nf"&gt;call_v4&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="p"&gt;):&lt;/span&gt;
    &lt;span class="k"&gt;for&lt;/span&gt; &lt;span class="n"&gt;provider&lt;/span&gt; &lt;span class="ow"&gt;in&lt;/span&gt; &lt;span class="n"&gt;PROVIDERS&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
        &lt;span class="k"&gt;try&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
            &lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
                &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;provider&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;api_key&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
                &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;provider&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;base_url&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
            &lt;span class="p"&gt;)&lt;/span&gt;
            &lt;span class="k"&gt;return&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
                &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;provider&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;model&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
                &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
            &lt;span class="p"&gt;)&lt;/span&gt;
        &lt;span class="nf"&gt;except &lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;RateLimitError&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;APIError&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt; &lt;span class="k"&gt;as&lt;/span&gt; &lt;span class="n"&gt;e&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
            &lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="sa"&gt;f&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="si"&gt;{&lt;/span&gt;&lt;span class="n"&gt;provider&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;'&lt;/span&gt;&lt;span class="s"&gt;base_url&lt;/span&gt;&lt;span class="sh"&gt;'&lt;/span&gt;&lt;span class="p"&gt;]&lt;/span&gt;&lt;span class="si"&gt;}&lt;/span&gt;&lt;span class="s"&gt; failed: &lt;/span&gt;&lt;span class="si"&gt;{&lt;/span&gt;&lt;span class="n"&gt;e&lt;/span&gt;&lt;span class="si"&gt;}&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
            &lt;span class="k"&gt;continue&lt;/span&gt;
    &lt;span class="k"&gt;raise&lt;/span&gt; &lt;span class="nc"&gt;RuntimeError&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;all providers exhausted&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h2&gt;
  
  
  Untuk Apa Setiap Jalur Gratis Berguna
&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Jalur&lt;/th&gt;
&lt;th&gt;Terbaik untuk&lt;/th&gt;
&lt;th&gt;Terburuk untuk&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;OpenRouter gratis&lt;/td&gt;
&lt;td&gt;Prototyping, dev harian&lt;/td&gt;
&lt;td&gt;SLA ketat&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Inferensi HF&lt;/td&gt;
&lt;td&gt;Eksplorasi, notebook&lt;/td&gt;
&lt;td&gt;Beban latency rendah&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Chutes&lt;/td&gt;
&lt;td&gt;Komunitas, eksperimen&lt;/td&gt;
&lt;td&gt;Ketergantungan jangka panjang&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Uji coba DeepSeek&lt;/td&gt;
&lt;td&gt;Pengujian fidelitas penuh&lt;/td&gt;
&lt;td&gt;Produksi berkelanjutan&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;V4-Flash self-hosted&lt;/td&gt;
&lt;td&gt;Kepatuhan, kontrol penuh&lt;/td&gt;
&lt;td&gt;Tanpa GPU&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;h2&gt;
  
  
  Perhitungan Kuota Penting
&lt;/h2&gt;

&lt;p&gt;Estimasi throughput harian tiap jalur gratis:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;OpenRouter gratis:&lt;/strong&gt; ~100 request/hari/kunci (~50K token). Cukup untuk 30–50 call development per hari.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Inferensi HF gratis:&lt;/strong&gt; ~1K request/hari/akun, rate limit global.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Chutes:&lt;/strong&gt; bervariasi, treat as best effort.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek trial ($1):&lt;/strong&gt; ~700 call × 10K token input di V4-Flash.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Self-hosted:&lt;/strong&gt; tergantung hardware. 4×H100 bisa 50–150 tok/detik.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Jika kebutuhan prototipe &amp;gt; limit di atas, biaya API resmi sangat terjangkau: 10.000 call × 2K context + 500 output token hanya sekitar $2.80 di V4-Flash.&lt;/p&gt;

&lt;h2&gt;
  
  
  Kapan Harus Pindah ke API Berbayar
&lt;/h2&gt;

&lt;p&gt;Tiga tanda Anda perlu upgrade:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Kena rate limit lebih dari sekali sehari.&lt;/li&gt;
&lt;li&gt;Harus combine beberapa jalur gratis untuk satu workload.&lt;/li&gt;
&lt;li&gt;Butuh latency/SLA stabil.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Minimal top-up di &lt;code&gt;platform.deepseek.com&lt;/code&gt; hanya $2. Seringkali lebih hemat waktu dengan API berbayar. Cek &lt;a href="http://apidog.com/blog/deepseek-v4-api-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan harga DeepSeek V4&lt;/a&gt; untuk detail tarif.&lt;/p&gt;

&lt;h2&gt;
  
  
  FAQ
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Ada jalur gratis yang permanen?&lt;/strong&gt; Tidak. Semua bisa berubah sewaktu-waktu. Cocok hanya untuk prototipe.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;OpenRouter &lt;code&gt;:free&lt;/code&gt; benar-benar jalanin V4?&lt;/strong&gt; Ya, di infrastruktur shared dengan limit rate ketat.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Boleh pakai output jalur gratis untuk produk komersial?&lt;/strong&gt; Cek terms penyedia. OpenRouter dan HF umumnya izinkan (dengan batasan), DeepSeek trial ikuti T&amp;amp;C resmi.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Jalur gratis mana paling rendah latency?&lt;/strong&gt; DeepSeek trial &amp;gt; OpenRouter &amp;gt; HF/Chutes.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Bisa self-host V4 gratis?&lt;/strong&gt; Lisensi MIT, jadi iya—hardware jadi biaya. Lihat &lt;a href="http://apidog.com/blog/how-to-run-deepseek-v4-locally?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menjalankan DeepSeek V4 secara lokal&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Cara track jalur gratis yang dipakai?&lt;/strong&gt; Gunakan &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;, embed &lt;code&gt;usage&lt;/code&gt; di response viewer. Mayoritas agregator punya dashboard usage.&lt;/li&gt;
&lt;/ul&gt;

</description>
    </item>
    <item>
      <title>Harga API DeepSeek V4</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:25:25 +0000</pubDate>
      <link>https://dev.to/walse/harga-api-deepseek-v4-2p8m</link>
      <guid>https://dev.to/walse/harga-api-deepseek-v4-2p8m</guid>
      <description>&lt;p&gt;DeepSeek merilis harga V4 pada hari peluncuran model, 23 April 2026. V4-Flash dikenakan biaya &lt;strong&gt;$0,14 per juta token input dan $0,28 per juta token output&lt;/strong&gt;. V4-Pro dikenakan biaya &lt;strong&gt;$1,74 input dan $3,48 output&lt;/strong&gt;, keduanya dengan jendela konteks 1 juta token dan output hingga 384 ribu token. Diskon cache-hit yang agresif memangkas biaya input hingga 80-90% pada prompt berulang.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Panduan ini memuat daftar harga lengkap, dampak caching konteks pada biaya riil, perbandingan langsung dengan GPT-5.5 dan Claude Opus, serta 4 tips agar biaya tetap terkontrol di Apidog.&lt;/p&gt;

&lt;p&gt;Untuk gambaran produk, cek &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;apa itu DeepSeek V4&lt;/a&gt;. Untuk panduan dev, baca &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menggunakan DeepSeek V4 API&lt;/a&gt;. Ingin akses gratis? Lihat &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menggunakan DeepSeek V4 secara gratis&lt;/a&gt;.&lt;/p&gt;

&lt;h2&gt;
  
  
  TL;DR
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;V4-Flash:&lt;/strong&gt; $0,14 / Juta input (cache miss), $0,028 / Juta input (cache hit), $0,28 / Juta output.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;V4-Pro:&lt;/strong&gt; $1,74 / Juta input (cache miss), $0,145 / Juta input (cache hit), $3,48 / Juta output.&lt;/li&gt;
&lt;li&gt;Jendela konteks: &lt;strong&gt;1 juta token&lt;/strong&gt; input, &lt;strong&gt;384 ribu token&lt;/strong&gt; output.&lt;/li&gt;
&lt;li&gt;Diskon cache-hit: sekitar &lt;strong&gt;80% untuk Flash&lt;/strong&gt;, &lt;strong&gt;92% untuk Pro&lt;/strong&gt; pada awalan berulang.&lt;/li&gt;
&lt;li&gt;
&lt;code&gt;deepseek-chat&lt;/code&gt; dan &lt;code&gt;deepseek-reasoner&lt;/code&gt; akan dihentikan &lt;strong&gt;24 Juli 2026&lt;/strong&gt;; penagihan dialihkan ke V4-Flash.&lt;/li&gt;
&lt;li&gt;Pada cache-miss, V4-Pro &lt;strong&gt;~2,9x lebih murah dari GPT-5.5&lt;/strong&gt; (input) dan &lt;strong&gt;~8,6x lebih murah&lt;/strong&gt; (output).&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Daftar Harga Lengkap
&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Model&lt;/th&gt;
&lt;th&gt;Input (cache miss)&lt;/th&gt;
&lt;th&gt;Input (cache hit)&lt;/th&gt;
&lt;th&gt;Output&lt;/th&gt;
&lt;th&gt;Konteks&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;deepseek-v4-flash&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;$0,14 / Juta&lt;/td&gt;
&lt;td&gt;$0,028 / Juta&lt;/td&gt;
&lt;td&gt;$0,28 / Juta&lt;/td&gt;
&lt;td&gt;1 Juta / 384 Ribu&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;deepseek-v4-pro&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;$1,74 / Juta&lt;/td&gt;
&lt;td&gt;$0,145 / Juta&lt;/td&gt;
&lt;td&gt;$3,48 / Juta&lt;/td&gt;
&lt;td&gt;1 Juta / 384 Ribu&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;
&lt;code&gt;deepseek-chat&lt;/code&gt; (dihentikan 2026-07-24)&lt;/td&gt;
&lt;td&gt;dipetakan ke V4-Flash non-thinking&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;
&lt;code&gt;deepseek-reasoner&lt;/code&gt; (dihentikan 2026-07-24)&lt;/td&gt;
&lt;td&gt;dipetakan ke V4-Flash thinking&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Tiga poin penting:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Tarif tetap per ID model&lt;/strong&gt;, tidak tergantung mode (berpikir/non-berpikir). Mode hanya mempengaruhi jumlah token, bukan harga per token.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Cache-hit otomatis:&lt;/strong&gt; Awalan sama (≥1024 token, byte-per-byte) di akun yang sama otomatis didiskon. Tidak perlu konfigurasi manual.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Alih tagihan ID lama:&lt;/strong&gt; &lt;code&gt;deepseek-chat&lt;/code&gt; dan &lt;code&gt;deepseek-reasoner&lt;/code&gt; dialihkan ke V4-Flash. Migrasi tidak wajib; penagihan otomatis berubah sebelum 24 Juli 2026.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Context Caching Sederhana
&lt;/h2&gt;

&lt;p&gt;Context caching adalah kunci efisiensi biaya di DeepSeek V4. Setiap bagian prompt yang identik dan berulang (misal: sistem prompt panjang, tools schema, atau RAG context) hanya dikenakan tarif penuh sekali; selanjutnya hanya membayar tarif cache-hit.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Contoh:&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Prompt sistem 20.000 token (tetap), 100 pertanyaan user (masing-masing 200 token).&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Tanpa caching:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Input: 100 x 20.200 x $1,74 / Juta = $3,52&lt;/li&gt;
&lt;li&gt;Output: 100 x 500 x $3,48 / Juta = $0,17&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Total: $3,69&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Dengan caching (1 miss + 99 hit):&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Input panggilan pertama: 20.200 x $1,74 / Juta = $0,035&lt;/li&gt;
&lt;li&gt;99 cache-hit awalan: 99 x 20.000 x $0,145 / Juta = $0,287&lt;/li&gt;
&lt;li&gt;99 token user (cache-miss): 99 x 200 x $1,74 / Juta = $0,034&lt;/li&gt;
&lt;li&gt;Output: 100 x 500 x $3,48 / Juta = $0,174&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Total: $0,53&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;strong&gt;Hemat ~7x&lt;/strong&gt; pada workload identik. Efek ini makin besar di V4-Flash.&lt;/p&gt;

&lt;h2&gt;
  
  
  Perbandingan dengan GPT-5.5 &amp;amp; Claude
&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Model&lt;/th&gt;
&lt;th&gt;Input (standar)&lt;/th&gt;
&lt;th&gt;Input (cached)&lt;/th&gt;
&lt;th&gt;Output&lt;/th&gt;
&lt;th&gt;Konteks&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;DeepSeek V4-Flash&lt;/td&gt;
&lt;td&gt;$0,14 / Juta&lt;/td&gt;
&lt;td&gt;$0,028 / Juta&lt;/td&gt;
&lt;td&gt;$0,28 / Juta&lt;/td&gt;
&lt;td&gt;1 Juta&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;DeepSeek V4-Pro&lt;/td&gt;
&lt;td&gt;$1,74 / Juta&lt;/td&gt;
&lt;td&gt;$0,145 / Juta&lt;/td&gt;
&lt;td&gt;$3,48 / Juta&lt;/td&gt;
&lt;td&gt;1 Juta&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5&lt;/td&gt;
&lt;td&gt;$5 / Juta&lt;/td&gt;
&lt;td&gt;$1,25 / Juta&lt;/td&gt;
&lt;td&gt;$30 / Juta&lt;/td&gt;
&lt;td&gt;1 Juta&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 Pro&lt;/td&gt;
&lt;td&gt;$30 / Juta&lt;/td&gt;
&lt;td&gt;—&lt;/td&gt;
&lt;td&gt;$180 / Juta&lt;/td&gt;
&lt;td&gt;1 Juta&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Claude Opus 4.6&lt;/td&gt;
&lt;td&gt;$15 / Juta&lt;/td&gt;
&lt;td&gt;$1,50 / Juta&lt;/td&gt;
&lt;td&gt;$75 / Juta&lt;/td&gt;
&lt;td&gt;200 Ribu&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Analisis:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Token output:&lt;/strong&gt; V4-Pro ~8,6x lebih murah dari GPT-5.5, ~21x dari Claude Opus 4.6. Output seringkali konsumsi biaya terbesar.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Input cached:&lt;/strong&gt; V4-Pro ~10x lebih murah dari GPT-5.5/Claude saat cache-hit.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Benchmark:&lt;/strong&gt; V4-Pro setara/unggul vs GPT-5.5 di LiveCodeBench dan Codeforces dengan biaya jauh lebih kecil. Detail di &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;apa itu DeepSeek V4&lt;/a&gt;.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;strong&gt;Catatan:&lt;/strong&gt; Claude unggul untuk retrieval konteks panjang; Gemini 3.1 Pro unggul MMLU-Pro. Jika beban kerja Anda spesifik pada penarikan informasi di jutaan token, selisih harga bisa kalah oleh kualitas.&lt;/p&gt;

&lt;h2&gt;
  
  
  Pemodelan Biaya untuk Use Case Umum
&lt;/h2&gt;

&lt;p&gt;Empat pola workload produksi dan estimasi biaya (V4-Pro, cache-miss; cache-hit lebih murah):&lt;/p&gt;

&lt;h3&gt;
  
  
  1. Coding Agentik Iteratif (konteks 50K, output 2K, 20 panggilan per tugas)
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;Input: 50.000 x 20 x $1,74 / Juta = $1,74&lt;/li&gt;
&lt;li&gt;Output: 2.000 x 20 x $3,48 / Juta = $0,14&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Total per tugas: ~$1,88&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;GPT-5.5: ±$6,20/tugas serupa.&lt;/p&gt;

&lt;h3&gt;
  
  
  2. Q&amp;amp;A Dokumen Panjang (konteks 500K, output 1K)
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;Input: 500.000 x $1,74 / Juta = $0,87&lt;/li&gt;
&lt;li&gt;Output: 1.000 x $3,48 / Juta = $0,003&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Total per panggilan: ~$0,87&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;GPT-5.5: ±$2,53/panggilan.&lt;/p&gt;

&lt;h3&gt;
  
  
  3. Klasifikasi Volume Tinggi (konteks 2K, output 200, 10.000 panggilan)
&lt;/h3&gt;

&lt;p&gt;&lt;strong&gt;Gunakan V4-Flash, V4-Pro overkill.&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Input: 2.000 x 10.000 x $0,14 / Juta = $2,80&lt;/li&gt;
&lt;li&gt;Output: 200 x 10.000 x $0,28 / Juta = $0,56&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Eksekusi: ~$3,36&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;GPT-5.5: ±$110.&lt;/p&gt;

&lt;h3&gt;
  
  
  4. Chatbot dengan Prompt Berulang (prompt 10K, 500 token user, 1K output, 1.000 sesi)
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;Input pertama: 10.500 x $1,74 / Juta = $0,018&lt;/li&gt;
&lt;li&gt;Input cache-hit: 999 x 10.000 x $0,145 / Juta = $1,45&lt;/li&gt;
&lt;li&gt;User (cache-miss): 999 x 500 x $1,74 / Juta = $0,87&lt;/li&gt;
&lt;li&gt;Output: 1.000 x 1.000 x $3,48 / Juta = $3,48&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Total sesi: ~$5,82&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;GPT-5.5 + caching: ±$26,35.&lt;/p&gt;

&lt;h2&gt;
  
  
  Biaya Tersembunyi yang Sering Terjadi
&lt;/h2&gt;

&lt;p&gt;Empat jebakan biaya yang sering terjadi:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Inflasi token mode berpikir:&lt;/strong&gt; &lt;code&gt;thinking_max&lt;/code&gt; bisa 3-10x lebih boros output token. Batasi dengan flag.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Pertumbuhan konteks diam-diam:&lt;/strong&gt; Loop agent sering mengirim ulang seluruh riwayat. Potong/rangkum agresif.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Badai retry:&lt;/strong&gt; Retry otomatis setiap error 500 bisa menggandakan tagihan. Tambahkan exponential backoff &amp;amp; limit retry.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Perubahan dev:&lt;/strong&gt; Ulang prompt via curl = context penuh dikirim ulang. Gunakan &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; &amp;amp; variabel agar pengujian prompt hemat biaya.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Melacak Biaya di Apidog
&lt;/h2&gt;

&lt;p&gt;Cara kontrol biaya dengan workflow Apidog:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Unduh Apidog&lt;/a&gt; dan simpan &lt;code&gt;DEEPSEEK_API_KEY&lt;/code&gt; sebagai variabel rahasia.&lt;/li&gt;
&lt;li&gt;Simpan satu permintaan POST ke &lt;code&gt;https://api.deepseek.com/v1/chat/completions&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Di panel respons, tampilkan &lt;code&gt;usage.prompt_tokens&lt;/code&gt;, &lt;code&gt;usage.completion_tokens&lt;/code&gt;, dan &lt;code&gt;usage.reasoning_tokens&lt;/code&gt;. Biaya tiap panggilan langsung terlihat.&lt;/li&gt;
&lt;li&gt;Parameterisasi &lt;code&gt;model&lt;/code&gt; dan &lt;code&gt;thinking_mode&lt;/code&gt; untuk A/B test V4-Flash vs V4-Pro, Non-Think vs Think Max—tanpa duplikasi request.&lt;/li&gt;
&lt;li&gt;Buat koleksi sama untuk GPT-5.5 (lihat &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API GPT-5.5&lt;/a&gt;). Satu jendela, dua provider, biaya transparan.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Cara ini menangkal ~80% jebakan biaya tak terduga di akhir bulan.&lt;/p&gt;

&lt;h2&gt;
  
  
  Empat Aturan Agar Biaya Tetap Terkontrol
&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Default ke V4-Flash.&lt;/strong&gt; Upgrade ke V4-Pro hanya jika gap kualitas terbukti berdampak pada hasil bisnis.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Default ke Non-Think.&lt;/strong&gt; Pakai Think High untuk task sulit; Think Max hanya untuk kebutuhan kritis.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Batasi &lt;code&gt;max_tokens&lt;/code&gt;.&lt;/strong&gt; Output 384K adalah limit, bukan target. Sebagian besar jawaban &amp;lt;2K token.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Log penggunaan.&lt;/strong&gt; Catat &lt;code&gt;prompt_tokens&lt;/code&gt;, &lt;code&gt;completion_tokens&lt;/code&gt;, &lt;code&gt;reasoning_tokens&lt;/code&gt; di tiap panggilan. Waspadai lonjakan reasoning-token: bisa menandakan prompt tidak sengaja masuk Think Max.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  FAQ
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Ada tier gratis?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tidak ada tier API gratis. Akun baru kadang mendapat kredit trial. Untuk alternatif gratis, cek &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menggunakan DeepSeek V4 secara gratis&lt;/a&gt;.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bagaimana cache-hit dihitung?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Awalan ≥1.024 token dan identik di akun yang sama otomatis dapat diskon. Panggilan pertama bayar normal, berikutnya diskon. Caching otomatis.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Mode berpikir lebih mahal?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tarif per token sama, tapi mode berpikir menghasilkan lebih banyak token output (jejak reasoning). Pantau &lt;code&gt;reasoning_tokens&lt;/code&gt; di objek &lt;code&gt;usage&lt;/code&gt;.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Harga stabil?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Harga DeepSeek bisa berubah. Tarif V3.2 berlaku sepanjang 2025; harga V4 belum ada tanggal akhir. Selalu cek &lt;a href="https://api-docs.deepseek.com/quick_start/pricing" rel="noopener noreferrer"&gt;halaman harga resmi&lt;/a&gt; sebelum budgeting.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;V4-Pro dan V4-Flash output tarif sama?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tidak. V4-Pro: $3,48 / Juta, V4-Flash: $0,28 / Juta. Selisih 12,4x, gunakan V4-Flash secara default.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Apakah endpoint format Anthropic mempengaruhi harga?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tidak. Endpoint &lt;code&gt;https://api.deepseek.com/anthropic&lt;/code&gt; tarifnya sama dengan OpenAI format. Format tidak mempengaruhi billing.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>Cara Menggunakan DeepSeek V4 API</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:17:50 +0000</pubDate>
      <link>https://dev.to/walse/cara-menggunakan-deepseek-v4-api-33c</link>
      <guid>https://dev.to/walse/cara-menggunakan-deepseek-v4-api-33c</guid>
      <description>&lt;p&gt;DeepSeek V4 hadir dengan API yang siap pakai sejak hari pertama. ID model yang digunakan adalah &lt;code&gt;deepseek-v4-pro&lt;/code&gt; dan &lt;code&gt;deepseek-v4-flash&lt;/code&gt;, endpoint-nya kompatibel dengan OpenAI, dan URL dasar yang digunakan adalah &lt;code&gt;https://api.deepseek.com&lt;/code&gt;. Artinya, klien yang sudah digunakan untuk GPT-5.5 atau API OpenAI dapat langsung digunakan dengan DeepSeek V4 cukup dengan mengganti URL dasar.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-222.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-222.png" alt="Ilustrasi DeepSeek V4 dan Apidog." width="1200" height="825"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;Artikel ini membahas autentikasi, parameter penting, contoh kode Python dan Node, mode penalaran matematika, tool calling, streaming, dan workflow berbasis &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; agar Anda dapat mengontrol biaya saat melakukan iterasi.&lt;/p&gt;

&lt;p&gt;&amp;lt;!--kg-card-begin: html--&amp;gt;&lt;/p&gt;
&lt;br&gt;
        &lt;br&gt;
        &lt;br&gt;
    &amp;lt;!--kg-card-end: html--&amp;gt;

&lt;p&gt;Untuk ikhtisar produk, lihat &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;apa itu DeepSeek V4&lt;/a&gt;. Untuk jalur tanpa biaya, cek &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menggunakan DeepSeek V4 secara gratis&lt;/a&gt;.&lt;/p&gt;
&lt;h2&gt;
  
  
  TL;DR (Ringkasan Cepat)
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;DeepSeek V4 tersedia di endpoint &lt;strong&gt;kompatibel OpenAI&lt;/strong&gt;: &lt;code&gt;&lt;a href="https://api.deepseek.com/v1/chat/completions" rel="noopener noreferrer"&gt;https://api.deepseek.com/v1/chat/completions&lt;/a&gt;&lt;/code&gt; dan endpoint &lt;strong&gt;kompatibel Anthropic&lt;/strong&gt;: &lt;code&gt;&lt;a href="https://api.deepseek.com/anthropic" rel="noopener noreferrer"&gt;https://api.deepseek.com/anthropic&lt;/a&gt;&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;ID Model: &lt;code&gt;deepseek-v4-pro&lt;/code&gt; (1.6T, aktif 49B) dan &lt;code&gt;deepseek-v4-flash&lt;/code&gt; (284B, aktif 13B).&lt;/li&gt;
&lt;li&gt;Mendukung &lt;strong&gt;konteks 1M-token&lt;/strong&gt; dan tiga mode reasoning: &lt;code&gt;non-thinking&lt;/code&gt;, &lt;code&gt;thinking&lt;/code&gt;, &lt;code&gt;thinking_max&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Gunakan &lt;code&gt;temperature=1.0, top_p=1.0&lt;/code&gt; sesuai rekomendasi DeepSeek.&lt;/li&gt;
&lt;li&gt;ID lama &lt;code&gt;deepseek-chat&lt;/code&gt; dan &lt;code&gt;deepseek-reasoner&lt;/code&gt; tidak berlaku mulai &lt;strong&gt;24 Juli 2026&lt;/strong&gt;; lakukan migrasi segera.&lt;/li&gt;
&lt;li&gt;
&lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Unduh Apidog&lt;/a&gt; untuk replay permintaan, bandingkan mode, serta menjaga keamanan kunci API Anda.&lt;/li&gt;
&lt;/ul&gt;

&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-223.png" alt="Tangkapan layar antarmuka Apidog yang menunjukkan permintaan API DeepSeek V4." width="1200" height="887"&gt;
&lt;h2&gt;
  
  
  Prasyarat
&lt;/h2&gt;

&lt;p&gt;Sebelum mengirim permintaan ke API DeepSeek V4, siapkan hal berikut:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Akun developer DeepSeek di &lt;a href="https://platform.deepseek.com/" rel="noopener noreferrer"&gt;platform.deepseek.com&lt;/a&gt; dengan saldo minimal $2. Tanpa saldo, permintaan akan gagal dengan &lt;code&gt;402 Insufficient Balance&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;API key dengan scope pada proyek, bukan akun, untuk keamanan produksi.&lt;/li&gt;
&lt;li&gt;SDK yang mendukung OpenAI base URL. Python &lt;code&gt;openai&amp;gt;=1.30.0&lt;/code&gt; dan Node &lt;code&gt;&lt;a href="mailto:openai@4.x"&gt;openai@4.x&lt;/a&gt;&lt;/code&gt; bisa digunakan tanpa modifikasi.&lt;/li&gt;
&lt;li&gt;API client yang dapat me-replay permintaan, seperti &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;, agar tidak tercecer di terminal.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Ekspor API key Anda:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;&lt;span class="nb"&gt;export &lt;/span&gt;&lt;span class="nv"&gt;DEEPSEEK_API_KEY&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="s2"&gt;"sk-..."&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h2&gt;
  
  
  Endpoint dan Autentikasi
&lt;/h2&gt;

&lt;p&gt;Ada dua endpoint utama:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight http"&gt;&lt;code&gt;&lt;span class="err"&gt;POST https://api.deepseek.com/v1/chat/completions    # format OpenAI
POST https://api.deepseek.com/anthropic/v1/messages  # format Anthropic
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Gunakan endpoint OpenAI jika tidak ada kebutuhan khusus untuk format Anthropic. Autentikasi menggunakan Bearer token di header &lt;code&gt;Authorization&lt;/code&gt;.&lt;/p&gt;

&lt;p&gt;Contoh permintaan minimal dengan curl:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;curl https://api.deepseek.com/v1/chat/completions &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;-H&lt;/span&gt; &lt;span class="s2"&gt;"Authorization: Bearer &lt;/span&gt;&lt;span class="nv"&gt;$DEEPSEEK_API_KEY&lt;/span&gt;&lt;span class="s2"&gt;"&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;-H&lt;/span&gt; &lt;span class="s2"&gt;"Content-Type: application/json"&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;-d&lt;/span&gt; &lt;span class="s1"&gt;'{
    "model": "deepseek-v4-pro",
    "messages": [
      {"role": "user", "content": "Jelaskan perutean MoE dalam dua kalimat."}
    ]
  }'&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Response sukses berisi array &lt;code&gt;choices&lt;/code&gt;, blok &lt;code&gt;usage&lt;/code&gt; (input, output, dan &lt;code&gt;reasoning_tokens&lt;/code&gt; jika mode thinking aktif), serta &lt;code&gt;id&lt;/code&gt; untuk pelacakan. Error menggunakan struktur standar OpenAI.&lt;/p&gt;

&lt;h2&gt;
  
  
  Parameter Permintaan
&lt;/h2&gt;

&lt;p&gt;Setiap parameter API memengaruhi biaya atau perilaku:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Parameter&lt;/th&gt;
&lt;th&gt;Tipe&lt;/th&gt;
&lt;th&gt;Nilai&lt;/th&gt;
&lt;th&gt;Catatan&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;model&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;string&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;deepseek-v4-pro&lt;/code&gt;, &lt;code&gt;deepseek-v4-flash&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;Wajib.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;messages&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;array&lt;/td&gt;
&lt;td&gt;pasangan peran/konten&lt;/td&gt;
&lt;td&gt;Wajib. Skema sama dengan OpenAI.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;thinking_mode&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;string&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;non-thinking&lt;/code&gt;, &lt;code&gt;thinking&lt;/code&gt;, &lt;code&gt;thinking_max&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;Default adalah &lt;code&gt;non-thinking&lt;/code&gt;.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;temperature&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;float&lt;/td&gt;
&lt;td&gt;0 hingga 2&lt;/td&gt;
&lt;td&gt;DeepSeek merekomendasikan 1.0.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;top_p&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;float&lt;/td&gt;
&lt;td&gt;0 hingga 1&lt;/td&gt;
&lt;td&gt;DeepSeek merekomendasikan 1.0.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;max_tokens&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;int&lt;/td&gt;
&lt;td&gt;1 hingga 131.072&lt;/td&gt;
&lt;td&gt;Membatasi panjang output.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;stream&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;boolean&lt;/td&gt;
&lt;td&gt;true atau false&lt;/td&gt;
&lt;td&gt;Mengaktifkan streaming SSE.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;tools&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;array&lt;/td&gt;
&lt;td&gt;spesifikasi alat OpenAI&lt;/td&gt;
&lt;td&gt;Untuk panggilan fungsi.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;tool_choice&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;string atau objek&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;auto&lt;/code&gt;, &lt;code&gt;required&lt;/code&gt;, &lt;code&gt;none&lt;/code&gt;, atau alat tertentu&lt;/td&gt;
&lt;td&gt;Mengontrol penggunaan alat.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;response_format&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;objek&lt;/td&gt;
&lt;td&gt;&lt;code&gt;{"type": "json_object"}&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;Output mode JSON.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;seed&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;int&lt;/td&gt;
&lt;td&gt;integer apa pun&lt;/td&gt;
&lt;td&gt;Untuk reproduktibilitas.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;presence_penalty&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;float&lt;/td&gt;
&lt;td&gt;-2 hingga 2&lt;/td&gt;
&lt;td&gt;Menghukum topik yang berulang.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;frequency_penalty&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;float&lt;/td&gt;
&lt;td&gt;-2 hingga 2&lt;/td&gt;
&lt;td&gt;Menghukum token yang berulang.&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;&lt;code&gt;thinking_mode&lt;/code&gt; memengaruhi biaya paling besar. &lt;code&gt;non-thinking&lt;/code&gt; untuk kecepatan, &lt;code&gt;thinking&lt;/code&gt; untuk akurasi kode/matematika, &lt;code&gt;thinking_max&lt;/code&gt; untuk benchmark DeepSeek (paling mahal, butuh konteks besar).&lt;/p&gt;

&lt;h2&gt;
  
  
  Klien Python
&lt;/h2&gt;

&lt;p&gt;Gunakan SDK &lt;code&gt;openai&lt;/code&gt; dengan base URL yang diganti. Kompatibel dengan wrapper seperti LangChain, LlamaIndex, dan DSPy.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;os&lt;/span&gt;
&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;openai&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;OpenAI&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;os&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;environ&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;DEEPSEEK_API_KEY&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
    &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://api.deepseek.com/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-v4-pro&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;
        &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;system&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Balas hanya dalam kode.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
        &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Tulis fungsi Rust yang melakukan debouncing event.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="p"&gt;],&lt;/span&gt;
    &lt;span class="n"&gt;extra_body&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking_mode&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="n"&gt;temperature&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mf"&gt;1.0&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;top_p&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mf"&gt;1.0&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;max_tokens&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="mi"&gt;2048&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;choice&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;]&lt;/span&gt;
&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Konten:&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;choice&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Token penalaran:&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;usage&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;reasoning_tokens&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Total token:&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;usage&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;total_tokens&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Gunakan &lt;code&gt;extra_body&lt;/code&gt; untuk parameter khusus DeepSeek tanpa patch SDK.&lt;/p&gt;

&lt;h2&gt;
  
  
  Klien Node
&lt;/h2&gt;

&lt;p&gt;Struktur hampir identik di Node:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight javascript"&gt;&lt;code&gt;&lt;span class="k"&gt;import&lt;/span&gt; &lt;span class="nx"&gt;OpenAI&lt;/span&gt; &lt;span class="k"&gt;from&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;openai&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;;&lt;/span&gt;

&lt;span class="kd"&gt;const&lt;/span&gt; &lt;span class="nx"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="k"&gt;new&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;({&lt;/span&gt;
  &lt;span class="na"&gt;apiKey&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="nx"&gt;process&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;env&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;DEEPSEEK_API_KEY&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;baseURL&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;https://api.deepseek.com/v1&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;});&lt;/span&gt;

&lt;span class="kd"&gt;const&lt;/span&gt; &lt;span class="nx"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="k"&gt;await&lt;/span&gt; &lt;span class="nx"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;({&lt;/span&gt;
  &lt;span class="na"&gt;model&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;deepseek-v4-flash&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;messages&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;[&lt;/span&gt;
    &lt;span class="p"&gt;{&lt;/span&gt; &lt;span class="na"&gt;role&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;user&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="na"&gt;content&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;Jelaskan optimizer Muon dalam bahasa Inggris sederhana.&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt; &lt;span class="p"&gt;},&lt;/span&gt;
  &lt;span class="p"&gt;],&lt;/span&gt;
  &lt;span class="na"&gt;thinking_mode&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;thinking&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;temperature&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="mf"&gt;1.0&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
  &lt;span class="na"&gt;top_p&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="mf"&gt;1.0&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;});&lt;/span&gt;

&lt;span class="nx"&gt;console&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;log&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="nx"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="nx"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;content&lt;/span&gt;&lt;span class="p"&gt;);&lt;/span&gt;
&lt;span class="nx"&gt;console&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;log&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="s2"&gt;Penggunaan:&lt;/span&gt;&lt;span class="dl"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="nx"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nx"&gt;usage&lt;/span&gt;&lt;span class="p"&gt;);&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Bidang non-standar seperti &lt;code&gt;thinking_mode&lt;/code&gt; bisa langsung di-request body.&lt;/p&gt;

&lt;h2&gt;
  
  
  Streaming Respons
&lt;/h2&gt;

&lt;p&gt;Aktifkan &lt;code&gt;stream: true&lt;/code&gt; untuk menerima hasil potongan demi potongan (SSE):&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="n"&gt;stream&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-v4-pro&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Streaming esai 300 kata tentang MoE.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
    &lt;span class="n"&gt;stream&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="bp"&gt;True&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;extra_body&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking_mode&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;non-thinking&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="k"&gt;for&lt;/span&gt; &lt;span class="n"&gt;chunk&lt;/span&gt; &lt;span class="ow"&gt;in&lt;/span&gt; &lt;span class="n"&gt;stream&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;
    &lt;span class="n"&gt;delta&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;chunk&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;delta&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt; &lt;span class="ow"&gt;or&lt;/span&gt; &lt;span class="sh"&gt;""&lt;/span&gt;
    &lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;delta&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;end&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;""&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;flush&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="bp"&gt;True&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Jika mode thinking aktif, &lt;code&gt;delta.reasoning_content&lt;/code&gt; berisi reasoning trace — bisa ditampilkan atau diabaikan.&lt;/p&gt;

&lt;h2&gt;
  
  
  Panggilan Alat (Tool Calling)
&lt;/h2&gt;

&lt;p&gt;DeepSeek V4 mendukung tool calling OpenAI. Definisikan fungsi di &lt;code&gt;tools&lt;/code&gt;:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="n"&gt;tools&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="p"&gt;[{&lt;/span&gt;
    &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;type&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;function&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;function&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;name&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;get_weather&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;description&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Mengembalikan cuaca saat ini untuk suatu kota.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
        &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;parameters&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;
            &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;type&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;object&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
            &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;properties&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;
                &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;city&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;type&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;string&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
                &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;unit&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;type&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;string&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;enum&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;c&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;f&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;]},&lt;/span&gt;
            &lt;span class="p"&gt;},&lt;/span&gt;
            &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;required&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;city&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;
        &lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="p"&gt;},&lt;/span&gt;
&lt;span class="p"&gt;}]&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-v4-pro&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Cuaca di Lagos dalam Celcius?&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
    &lt;span class="n"&gt;tools&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="n"&gt;tools&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;tool_choice&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;auto&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;extra_body&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking_mode&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;tool_call&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;tool_calls&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;]&lt;/span&gt;
&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;tool_call&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;function&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;name&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="n"&gt;tool_call&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;function&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;arguments&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Setelah fungsi dipanggil, tambahkan hasil sebagai pesan &lt;code&gt;role: "tool"&lt;/code&gt; dan kirim ulang ke API untuk melanjutkan loop. Prosesnya identik dengan OpenAI dan Anthropic.&lt;/p&gt;

&lt;h2&gt;
  
  
  Mode JSON
&lt;/h2&gt;

&lt;p&gt;Untuk output terstruktur, gunakan &lt;code&gt;response_format&lt;/code&gt;:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;deepseek-v4-flash&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;
        &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;system&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Balas dengan satu objek JSON.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
        &lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Ringkas catatan rilis ini sebagai {judul, tanggal, poin-poin}: ...&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="p"&gt;],&lt;/span&gt;
    &lt;span class="n"&gt;response_format&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;type&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;json_object&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
    &lt;span class="n"&gt;extra_body&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;thinking_mode&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;non-thinking&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;},&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Mode JSON memastikan output valid JSON, tetapi tidak memaksa skema tertentu. Validasi skema sebaiknya dilakukan di sisi klien (misal, Pydantic, Zod).&lt;/p&gt;

&lt;h2&gt;
  
  
  Bangun Koleksi di Apidog
&lt;/h2&gt;

&lt;p&gt;Replay permintaan dari terminal boros kredit dan tidak rapi. Workflow nyata:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Unduh Apidog&lt;/a&gt; dan buat proyek.&lt;/li&gt;
&lt;li&gt;Tambahkan environment dengan &lt;code&gt;{{DEEPSEEK_API_KEY}}&lt;/code&gt; sebagai variabel rahasia.&lt;/li&gt;
&lt;li&gt;Simpan permintaan POST ke &lt;code&gt;{{BASE_URL}}/chat/completions&lt;/code&gt; dengan header &lt;code&gt;Authorization: Bearer {{DEEPSEEK_API_KEY}}&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Parameterisasi &lt;code&gt;model&lt;/code&gt; dan &lt;code&gt;thinking_mode&lt;/code&gt; untuk A/B testing varian tanpa duplikasi request.&lt;/li&gt;
&lt;li&gt;Gunakan response viewer untuk cek &lt;code&gt;usage.reasoning_tokens&lt;/code&gt; setiap proses — ini indikator utama cost reasoning.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Jika sudah punya koleksi &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;API GPT-5.5 di Apidog&lt;/a&gt;, duplikat saja, ubah base URL ke &lt;code&gt;&lt;a href="https://api.deepseek.com/v1" rel="noopener noreferrer"&gt;https://api.deepseek.com/v1&lt;/a&gt;&lt;/code&gt;, ganti model ID, dan bisa langsung membandingkan hasil kedua provider.&lt;/p&gt;

&lt;h2&gt;
  
  
  Penanganan Kesalahan
&lt;/h2&gt;

&lt;p&gt;Error response mengikuti standar OpenAI:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Kode&lt;/th&gt;
&lt;th&gt;Arti&lt;/th&gt;
&lt;th&gt;Perbaikan&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;400&lt;/td&gt;
&lt;td&gt;Permintaan buruk&lt;/td&gt;
&lt;td&gt;Periksa skema JSON, terutama &lt;code&gt;messages&lt;/code&gt; dan &lt;code&gt;tools&lt;/code&gt;.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;401&lt;/td&gt;
&lt;td&gt;Kunci tidak valid&lt;/td&gt;
&lt;td&gt;Buat ulang di &lt;a href="https://platform.deepseek.com/" rel="noopener noreferrer"&gt;platform.deepseek.com&lt;/a&gt;.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;402&lt;/td&gt;
&lt;td&gt;Saldo tidak mencukupi&lt;/td&gt;
&lt;td&gt;Isi ulang akun.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;403&lt;/td&gt;
&lt;td&gt;Model tidak diizinkan&lt;/td&gt;
&lt;td&gt;Periksa cakupan kunci dan ejaan ID model.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;422&lt;/td&gt;
&lt;td&gt;Parameter di luar jangkauan&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;max_tokens&lt;/code&gt; atau &lt;code&gt;thinking_mode&lt;/code&gt; mungkin tidak cocok.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;429&lt;/td&gt;
&lt;td&gt;Batas tarif&lt;/td&gt;
&lt;td&gt;Berhenti sebentar, lalu coba lagi dengan jitter eksponensial.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;500&lt;/td&gt;
&lt;td&gt;Kesalahan server&lt;/td&gt;
&lt;td&gt;Coba lagi sekali; jika terulang, periksa halaman status.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;503&lt;/td&gt;
&lt;td&gt;Kelebihan beban&lt;/td&gt;
&lt;td&gt;Beralih ke V4-Flash atau coba lagi dalam 30 detik.&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Gunakan helper retry dengan backoff eksponensial untuk 429 dan 5xx. Jangan retry otomatis untuk 4xx — itu bug logika.&lt;/p&gt;

&lt;h2&gt;
  
  
  Pola Kontrol Biaya
&lt;/h2&gt;

&lt;p&gt;Empat strategi agar pengeluaran tetap aman:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Default ke V4-Flash&lt;/strong&gt;; naik ke V4-Pro hanya jika kualitas terbukti lebih baik.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Batasi &lt;code&gt;thinking_max&lt;/code&gt; dengan flag&lt;/strong&gt;; gunakan hanya jika akurasi sangat dibutuhkan.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Batasi &lt;code&gt;max_tokens&lt;/code&gt;&lt;/strong&gt;. Jawaban rata-rata cukup 2.000 token.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Log &lt;code&gt;usage&lt;/code&gt; setiap panggilan&lt;/strong&gt;. Pantau input, output, dan reasoning tokens; set alert jika reasoning spike mendadak.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Migrasi dari Model DeepSeek Lama
&lt;/h2&gt;

&lt;p&gt;ID &lt;code&gt;deepseek-chat&lt;/code&gt; dan &lt;code&gt;deepseek-reasoner&lt;/code&gt; deprecated mulai 24 Juli 2026. Migrasi hanya ganti satu baris ID model; bentuk permintaan dan respons tidak berubah.&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight diff"&gt;&lt;code&gt;&lt;span class="gd"&gt;-  model="deepseek-chat"
&lt;/span&gt;&lt;span class="gi"&gt;+  model="deepseek-v4-pro"
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Sebelum produksi, lakukan A/B testing di Apidog. Kualitas respons umumnya meningkat; deadline migrasi akan memaksa update.&lt;/p&gt;

&lt;h2&gt;
  
  
  FAQ
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Apakah API DeepSeek V4 siap produksi?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Ya, API sudah production-ready sejak 23 April 2026. Infrastruktur sama dengan V3/V3.2.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Apakah V4 mendukung format pesan Anthropic?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Ya. Gunakan &lt;code&gt;&lt;a href="https://api.deepseek.com/anthropic/v1/messages" rel="noopener noreferrer"&gt;https://api.deepseek.com/anthropic/v1/messages&lt;/a&gt;&lt;/code&gt; dan payload Anthropic.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Berapa jendela konteksnya?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
1 juta token untuk V4-Pro dan V4-Flash. Mode Think Max rekomendasi minimal 384K token.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bagaimana cek jumlah token input sebelum request?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Gunakan tokenizer OpenAI untuk estimasi. Jumlah pasti diberikan di blok &lt;code&gt;usage&lt;/code&gt; response.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bisakah fine-tune via API?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Saat ini belum tersedia. Fine-tune hanya via checkpoint Base di Hugging Face.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Apakah ada tier gratis?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tidak ada free tier, tapi pendaftar baru kadang dapat kredit percobaan.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>Cara Menggunakan DeepSeek V4: Web Chat, API, dan Self-Hosted</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:17:04 +0000</pubDate>
      <link>https://dev.to/walse/cara-menggunakan-deepseek-v4-web-chat-api-dan-self-hosted-3n4p</link>
      <guid>https://dev.to/walse/cara-menggunakan-deepseek-v4-web-chat-api-dan-self-hosted-3n4p</guid>
      <description>&lt;p&gt;DeepSeek V4 dirilis pada 23 April 2026 dengan empat checkpoint, API langsung, dan bobot berlisensi MIT di Hugging Face. Tidak ada satu cara baku untuk mengimplementasikannya—pilihan terbaik tergantung pada kebutuhan: akses instan, integrasi API produksi, atau deployment on-prem. Artikel ini membahas ketiga jalur tersebut beserta langkah konkret, pro-kontra, dan workflow prompt siap produksi yang bisa langsung Anda gunakan ulang.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Ingin gambaran produk? Baca dulu &lt;a href="http://apidog.com/blog/what-is-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;apa itu DeepSeek V4&lt;/a&gt;. Panduan API lengkap tersedia di &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API DeepSeek V4&lt;/a&gt;. Untuk opsi gratis, cek &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menggunakan DeepSeek V4 secara gratis&lt;/a&gt;. Siap tes request nyata? &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Unduh Apidog&lt;/a&gt; dan mulai bangun koleksi API.&lt;/p&gt;

&lt;h2 id="tldr"&gt;TL;DR&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;Jalur tercepat: &lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt; (obrolan web gratis; V4-Pro default; tiga mode reasoning).&lt;/li&gt;
&lt;li&gt;Jalur produksi: &lt;code&gt;https://api.deepseek.com/v1/chat/completions&lt;/code&gt; dengan model &lt;code&gt;deepseek-v4-pro&lt;/code&gt; atau &lt;code&gt;deepseek-v4-flash&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Self-host: Ambil bobot dari &lt;a href="https://huggingface.co/collections/deepseek-ai/deepseek-v4" rel="noopener noreferrer"&gt;Hugging Face&lt;/a&gt;, jalankan skrip &lt;code&gt;/inference&lt;/code&gt; di repo.&lt;/li&gt;
&lt;li&gt;Pilih &lt;strong&gt;Non-Think&lt;/strong&gt; untuk routing &amp;amp; klasifikasi, &lt;strong&gt;Think High&lt;/strong&gt; untuk kode/analisis, &lt;strong&gt;Think Max&lt;/strong&gt; hanya jika akurasi sangat penting.&lt;/li&gt;
&lt;li&gt;Sampling: &lt;code&gt;temperature=1.0, top_p=1.0&lt;/code&gt; (saran DeepSeek).&lt;/li&gt;
&lt;li&gt;Gunakan &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; sebagai API client. Format kompatibel OpenAI: replay request di DeepSeek, OpenAI, Anthropic.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-220.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-220.png" alt="DeepSeek V4 - Apa itu dan bagaimana cara menggunakannya" width="800" height="550"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2 id="pilih-jalur-yang-tepat-untuk-beban-kerja-anda"&gt;Pilih Jalur Sesuai Beban Kerja&lt;/h2&gt;

&lt;p&gt;Empat jalur utama, pilih sesuai kebutuhan:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Jalur&lt;/th&gt;
&lt;th&gt;Biaya&lt;/th&gt;
&lt;th&gt;Waktu persiapan&lt;/th&gt;
&lt;th&gt;Terbaik untuk&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;a href="http://chat.deepseek.com" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;Gratis&lt;/td&gt;
&lt;td&gt;30 detik&lt;/td&gt;
&lt;td&gt;Tes cepat, ad-hoc&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;DeepSeek API&lt;/td&gt;
&lt;td&gt;Per token&lt;/td&gt;
&lt;td&gt;5 menit&lt;/td&gt;
&lt;td&gt;Produksi, agent, batch&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;V4-Flash self-hosted&lt;/td&gt;
&lt;td&gt;Biaya hardware&lt;/td&gt;
&lt;td&gt;Beberapa jam&lt;/td&gt;
&lt;td&gt;On-prem, inferensi offline&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;V4-Pro self-hosted&lt;/td&gt;
&lt;td&gt;Biaya cluster&lt;/td&gt;
&lt;td&gt;Satu hari&lt;/td&gt;
&lt;td&gt;Riset, fine-tune&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;OpenRouter / agregator&lt;/td&gt;
&lt;td&gt;Per token&lt;/td&gt;
&lt;td&gt;2 menit&lt;/td&gt;
&lt;td&gt;Backup multi-provider&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;h2 id="jalur-1-gunakan-v4-di-obrolan-web"&gt;Jalur 1: Coba V4 via Web Chat&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;Buka &lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;
&lt;/li&gt;
&lt;li&gt;Login (email, Google, atau WeChat)&lt;/li&gt;
&lt;li&gt;Model default: V4-Pro. Switch di composer untuk Non-Think, Think High, Think Max.&lt;/li&gt;
&lt;li&gt;Langsung kirim prompt.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-221.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-221.png" alt="DeepSeek V4 - Antarmuka obrolan web" width="800" height="434"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;Fitur: upload file, web search, dukungan 1M-token context. Rate limit berlaku per akun; heavy use bisa melambat tapi jarang diblok total.&lt;/p&gt;

&lt;p&gt;Cocok untuk: debugging stacktrace, ringkas PDF ~200 halaman, bandingkan output prompt dengan GPT-5.5/Claude.&lt;br&gt;
Tidak cocok: otomatisasi atau batch replay.&lt;/p&gt;

&lt;h2 id="jalur-2-gunakan-api-deepseek"&gt;Jalur 2: Integrasi API DeepSeek&lt;/h2&gt;

&lt;p&gt;Jalur produksi utama. Bentuk request kompatibel OpenAI, mudah migrasi dan scaling.&lt;/p&gt;

&lt;h3 id="dapatkan-kunci"&gt;Langkah 1: Dapatkan API Key&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;Daftar di &lt;a href="https://platform.deepseek.com/" rel="noopener noreferrer"&gt;platform.deepseek.com&lt;/a&gt;
&lt;/li&gt;
&lt;li&gt;Tambah metode pembayaran (minimal topup $2)&lt;/li&gt;
&lt;li&gt;Buat API Key di menu &lt;strong&gt;API Keys&lt;/strong&gt;. Salin dan simpan, hanya tampil sekali.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Set variabel lingkungan untuk digunakan di CLI/SDK:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;export DEEPSEEK_API_KEY="sk-..."
&lt;/code&gt;&lt;/pre&gt;

&lt;h3 id="permintaan-minimum-yang-layak"&gt;Langkah 2: Kirim Permintaan Minimum&lt;/h3&gt;

&lt;p&gt;Gunakan endpoint OpenAI-compatible sebagai default.&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;curl https://api.deepseek.com/v1/chat/completions \
  -H "Authorization: Bearer $DEEPSEEK_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v4-pro",
    "messages": [
      {"role": "user", "content": "Refactor this Python function to async. Reply with code only."}
    ],
    "thinking_mode": "thinking"
  }'
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Pilih &lt;code&gt;deepseek-v4-flash&lt;/code&gt; untuk varian lebih ekonomis. &lt;code&gt;thinking_mode&lt;/code&gt;: &lt;code&gt;thinking&lt;/code&gt; (default), &lt;code&gt;non-thinking&lt;/code&gt; (cepat).&lt;/p&gt;

&lt;h3 id="klien-python"&gt;Contoh Klien Python&lt;/h3&gt;

&lt;pre&gt;&lt;code&gt;import os
from openai import OpenAI

client = OpenAI(
    api_key=os.environ["DEEPSEEK_API_KEY"],
    base_url="https://api.deepseek.com/v1",
)

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "You are a concise senior engineer."},
        {"role": "user", "content": "Explain the CSA+HCA hybrid attention stack."},
    ],
    extra_body={"thinking_mode": "thinking_max"},
    temperature=1.0,
    top_p=1.0,
)

print(response.choices[0].message.content)
&lt;/code&gt;&lt;/pre&gt;

&lt;h3 id="klien-node"&gt;Contoh Klien Node.js&lt;/h3&gt;

&lt;pre&gt;&lt;code&gt;import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DEEPSEEK_API_KEY,
  baseURL: "https://api.deepseek.com/v1",
});

const response = await client.chat.completions.create({
  model: "deepseek-v4-flash",
  messages: [{ role: "user", content: "Write a fizzbuzz in Rust." }],
  temperature: 1.0,
  top_p: 1.0,
});

console.log(response.choices[0].message.content);
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Referensi parameter/response detail di &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API DeepSeek V4&lt;/a&gt;.&lt;/p&gt;

&lt;h2 id="jalur-3-berulang-dengan-apidog"&gt;Jalur 3: Iterasi Cepat dengan Apidog&lt;/h2&gt;

&lt;p&gt;Curl bagus untuk uji satu kali, namun iterasi berulang lebih efisien dengan API client seperti Apidog.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Unduh Apidog untuk Mac, Windows, atau Linux dari &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;sini&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;Buat project API baru, tambah request POST ke &lt;code&gt;https://api.deepseek.com/v1/chat/completions&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Header: &lt;code&gt;Authorization: Bearer {{DEEPSEEK_API_KEY}}&lt;/code&gt;. Simpan API key di env variable, bukan di request body.&lt;/li&gt;
&lt;li&gt;Paste JSON payload, simpan, dan replay dengan sekali klik setiap kali ingin uji perubahan.&lt;/li&gt;
&lt;li&gt;Bandingkan output antara Non-Think &amp;amp; Think Max via response viewer bawaan.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Satu koleksi Apidog bisa memuat request GPT-5.5, Claude, dan DeepSeek V4 sekaligus—A/B test dan monitoring biaya jadi transparan.&lt;br&gt;
Sudah pakai Apidog untuk API AI lain? Cukup ganti base URL ke endpoint DeepSeek, koleksi tetap bisa dipakai ulang. Lihat &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API GPT-5.5&lt;/a&gt; untuk referensi paralel.&lt;/p&gt;

&lt;h2 id="jalur-4-self-host-v4-flash"&gt;Jalur 4: Self-Host V4-Flash&lt;/h2&gt;

&lt;p&gt;Untuk kebutuhan compliance, air-gap, atau efisiensi biaya (unit economics), manfaatkan lisensi MIT dengan menjalankan model sendiri.&lt;/p&gt;

&lt;h3 id="perangkat-keras"&gt;Perangkat Keras Minimum&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;V4-Flash:&lt;/strong&gt; 2–4 GPU H100/H200/MI300X (FP8) atau 1 GPU 80GB (INT4 tight batch)&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;V4-Pro:&lt;/strong&gt; 16–32 H100 (cluster production inference)&lt;/li&gt;
&lt;/ul&gt;

&lt;h3 id="dapatkan-bobotnya"&gt;Download Bobot Model&lt;/h3&gt;

&lt;pre&gt;&lt;code&gt;pip install -U "huggingface_hub[cli]"
huggingface-cli login  # optional, helps with rate limit

huggingface-cli download deepseek-ai/DeepSeek-V4-Flash \
  --local-dir ./models/deepseek-v4-flash \
  --local-dir-use-symlinks False
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;V4-Flash: ~500GB (FP8), V4-Pro: multi-terabyte.&lt;/p&gt;

&lt;h3 id="jalankan-inferensi"&gt;Jalankan Inferensi Lokal&lt;/h3&gt;

&lt;pre&gt;&lt;code&gt;pip install "vllm&amp;gt;=0.9.0"

vllm serve deepseek-ai/DeepSeek-V4-Flash \
  --tensor-parallel-size 4 \
  --max-model-len 1048576 \
  --dtype auto
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Setelah aktif, arahkan klien OpenAI ke &lt;code&gt;http://localhost:8000/v1&lt;/code&gt;. Koleksi Apidog sama, base URL berbeda.&lt;/p&gt;

&lt;h2 id="memprompt-v4-secara-efektif"&gt;Tips Prompting DeepSeek V4&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Setel mode reasoning eksplisit.&lt;/strong&gt; Tentukan &lt;code&gt;thinking_mode&lt;/code&gt; pada setiap request.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Prompt sistem untuk persona saja.&lt;/strong&gt; Tempatkan instruksi tugas di pesan user, bukan system.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Tugas kode: beri test harness.&lt;/strong&gt; Sertakan test case; model lebih reliable untuk menghasilkan kode yang lolos tes.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Untuk long-context (ratusan ribu token), taruh data relevan di dekat awal &amp;amp; akhir prompt window. V4 punya hybrid attention yang efisien, tapi recency &amp;amp; primacy bias tetap ada.&lt;/p&gt;

&lt;h2 id="kontrol-biaya"&gt;Kontrol Biaya&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Default ke V4-Flash.&lt;/strong&gt; Upgrade ke V4-Pro hanya jika gap kualitas signifikan.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Default ke Non-Think.&lt;/strong&gt; Naik ke Think High jika butuh reasoning lebih, Think Max untuk pekerjaan kritikal.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Set batas &lt;code&gt;max_tokens&lt;/code&gt;.&lt;/strong&gt; Limit output, hindari waste context. Sebagian besar jawaban cukup di 2.000 token.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Di Apidog, set env var &lt;code&gt;DEEPSEEK_API_KEY&lt;/code&gt; untuk memisahkan uji coba vs produksi. &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; melacak jumlah token per response—cepat deteksi prompt yang kelewat panjang.&lt;/p&gt;

&lt;h2 id="bermigrasi-dari-deepseek-v3-atau-model-lain"&gt;Migrasi dari DeepSeek V3/GPT/Claude&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Dari &lt;code&gt;deepseek-chat&lt;/code&gt;/&lt;code&gt;deepseek-reasoner&lt;/code&gt;:&lt;/strong&gt; Ganti ID model ke &lt;code&gt;deepseek-v4-pro&lt;/code&gt; atau &lt;code&gt;deepseek-v4-flash&lt;/code&gt;. Deadline: 24 Juli 2026.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Dari OpenAI GPT-5.x:&lt;/strong&gt; Ganti base URL ke &lt;code&gt;https://api.deepseek.com/v1&lt;/code&gt;, ubah model ID. Format request kompatibel. &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Referensi di sini&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Dari Anthropic Claude:&lt;/strong&gt; Endpoint &lt;code&gt;https://api.deepseek.com/anthropic&lt;/code&gt; (format pesan Anthropic) atau konversi ke OpenAI-format.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="faq"&gt;FAQ&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Apakah perlu akun berbayar untuk V4?&lt;/strong&gt; Web chat gratis. API butuh topup minimal $2. Lihat &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menggunakan DeepSeek V4 gratis&lt;/a&gt; untuk opsi free tier.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Model default terbaik?&lt;/strong&gt; Mulai dari V4-Flash Non-Think. Naik level hanya jika perlu.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bisa run V4 di MacBook?&lt;/strong&gt; V4-Flash jalan di M3 Max/M4 Max (128GB unified mem, INT4), tapi lambat. V4-Pro tidak didukung. Untuk eksperimen ringan, pakai API/web chat.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Dukungan tools &amp;amp; function call?&lt;/strong&gt; Ya. Endpoint OpenAI-compatible support &lt;code&gt;tools&lt;/code&gt; array; respons &lt;code&gt;tool_calls&lt;/code&gt; sama seperti OpenAI. Endpoint Anthropic-format juga tersedia.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Cara streaming response?&lt;/strong&gt; Set &lt;code&gt;stream: true&lt;/code&gt; di JSON body. Response: SSE stream, kompatibel klien OpenAI streaming.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Ada rate limit?&lt;/strong&gt; API hosted: rate per tier, cek di &lt;a href="https://api-docs.deepseek.com/" rel="noopener noreferrer"&gt;api-docs.deepseek.com&lt;/a&gt;. Self-host: limit = hardware.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>DeepSeek V4: Apa Itu dan Kegunaannya?</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 04:15:13 +0000</pubDate>
      <link>https://dev.to/walse/deepseek-v4-apa-itu-dan-kegunaannya-4npo</link>
      <guid>https://dev.to/walse/deepseek-v4-apa-itu-dan-kegunaannya-4npo</guid>
      <description>&lt;p&gt;DeepSeek merilis V4 pada 23 April 2026—ini bukan sekadar pembaruan minor. Laboratorium Hangzhou merilis empat checkpoint sekaligus, dipimpin oleh DeepSeek-V4-Pro (1,6 triliun parameter, lisensi MIT, jendela konteks 1 juta token). Varian lebih ringan, DeepSeek-V4-Flash, hadir dengan 284 miliar parameter dan jendela konteks identik. Benchmark menempatkan Pro di atas Claude Opus 4.6 pada LiveCodeBench dan Codeforces, serta hampir setara dengan GPT-5.4 xHigh pada MMLU-Pro.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Jika Anda mempertimbangkan untuk migrasi dari Claude, GPT-5.5, atau Qwen ke DeepSeek V4, artikel ini membahas model, perubahan dari V3.2, arsitektur yang melandasi benchmark, serta cara implementasi langsung hari ini.&lt;/p&gt;
&lt;p&gt;Untuk implementasi developer, cek &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API DeepSeek V4&lt;/a&gt;, &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan akses gratis&lt;/a&gt;, dan &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan penggunaan DeepSeek V4&lt;/a&gt; lengkap. Format permintaan kompatibel OpenAI, sehingga Anda dapat langsung membuat koleksi di &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; sebelum API key Anda aktif.&lt;/p&gt;

&lt;h2&gt;
  
  
  Intinya
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek V4&lt;/strong&gt; adalah keluarga Mixture-of-Experts (MoE) dirilis 23 April 2026 di bawah &lt;strong&gt;lisensi MIT&lt;/strong&gt;.&lt;/li&gt;
&lt;li&gt;Empat checkpoint: &lt;strong&gt;V4-Pro&lt;/strong&gt;, &lt;strong&gt;V4-Pro-Base&lt;/strong&gt;, &lt;strong&gt;V4-Flash&lt;/strong&gt;, dan &lt;strong&gt;V4-Flash-Base&lt;/strong&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;V4-Pro&lt;/strong&gt;: total 1.6T parameter, 49B aktif; &lt;strong&gt;V4-Flash&lt;/strong&gt;: total 284B, 13B aktif.&lt;/li&gt;
&lt;li&gt;Keduanya menawarkan &lt;strong&gt;jendela konteks 1M token&lt;/strong&gt; dan tiga mode penalaran: Non-Think, Think High, Think Max.&lt;/li&gt;
&lt;li&gt;Skor utama: &lt;strong&gt;LiveCodeBench 93.5&lt;/strong&gt;, &lt;strong&gt;Codeforces 3206&lt;/strong&gt;, &lt;strong&gt;MMLU-Pro 87.5&lt;/strong&gt; (varian Pro).&lt;/li&gt;
&lt;li&gt;API tersedia di &lt;code&gt;api.deepseek.com&lt;/code&gt; dengan model ID &lt;code&gt;deepseek-v4-pro&lt;/code&gt; dan &lt;code&gt;deepseek-v4-flash&lt;/code&gt;; bobot ada di Hugging Face &amp;amp; ModelScope.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Apa sebenarnya DeepSeek V4 itu
&lt;/h2&gt;

&lt;p&gt;DeepSeek V4 adalah penerus V3/V3.2. Arsitektur tetap MoE, namun dengan skema aktivasi parameter yang lebih efisien: V4-Pro hanya mengaktifkan 49 miliar dari 1.6T parameternya per token, mendekati biaya model dense 50B. Lihat detail teknis di &lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro" rel="noopener noreferrer"&gt;kartu model DeepSeek V4&lt;/a&gt;.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fpejjjliky55psxexo3l2.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fpejjjliky55psxexo3l2.png" alt="DeepSeek V4 Architecture" width="800" height="158"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;Empat checkpoint peluncuran:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek-V4-Pro&lt;/strong&gt; — andalan utama. 1.6T total, 49B aktif, konteks 1M. API utama.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek-V4-Pro-Base&lt;/strong&gt; — basis pretrain, tanpa post-train. Untuk eksperimen fine-tune.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek-V4-Flash&lt;/strong&gt; — varian efisien. 284B total, 13B aktif, 1M konteks. Untuk latency-sensitif &amp;amp; deployment lokal (2-3x H100).&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;DeepSeek-V4-Flash-Base&lt;/strong&gt; — basis untuk Flash.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Semua checkpoint berlisensi MIT. Bobot terbuka: unduh, modifikasi, deploy di hardware sendiri tanpa biaya lisensi. GPT-5.5 dan Claude Opus 4.6 tetap tertutup dan berbayar.&lt;/p&gt;

&lt;h2&gt;
  
  
  Apa yang berubah dari V3.2
&lt;/h2&gt;

&lt;p&gt;V3 sudah kompetitif dalam reasoning &amp;amp; coding. V4 menyempurnakan attention stack dan jalur train, mendorong efisiensi serta konteks panjang.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Kapabilitas&lt;/th&gt;
&lt;th&gt;V3.2&lt;/th&gt;
&lt;th&gt;V4-Pro&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Total parameter&lt;/td&gt;
&lt;td&gt;685B&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;1.6T&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Parameter aktif&lt;/td&gt;
&lt;td&gt;37B&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;49B&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Jendela konteks&lt;/td&gt;
&lt;td&gt;128K&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;1M&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;FLOP inferensi (konteks 1M)&lt;/td&gt;
&lt;td&gt;baseline&lt;/td&gt;
&lt;td&gt;
&lt;strong&gt;27%&lt;/strong&gt; dari V3.2&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Cache KV (konteks 1M)&lt;/td&gt;
&lt;td&gt;baseline&lt;/td&gt;
&lt;td&gt;
&lt;strong&gt;10%&lt;/strong&gt; dari V3.2&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Presisi&lt;/td&gt;
&lt;td&gt;FP8&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;FP4 + FP8 campuran&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Lisensi&lt;/td&gt;
&lt;td&gt;DeepSeek&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;MIT&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Mode penalaran&lt;/td&gt;
&lt;td&gt;tunggal&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;tiga&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Tiga fitur utama:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Attention stack hybrid: Compressed Sparse Attention + Heavily Compressed Attention → efisiensi cache KV (10% dari V3.2).&lt;/li&gt;
&lt;li&gt;Manifold-Constrained Hyper-Connections: stabilisasi gradien untuk kedalaman tinggi.&lt;/li&gt;
&lt;li&gt;Optimizer Muon: konvergensi lebih cepat dari AdamW.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Korpus training &amp;gt;32 triliun token, post-training dua tahap (domain specialization lalu policy distillation).&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F0ohkm6y7q9i5q2swecu2.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F0ohkm6y7q9i5q2swecu2.png" alt="Detail Arsitektur" width="800" height="550"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  Benchmark yang penting
&lt;/h2&gt;

&lt;p&gt;DeepSeek V4-Pro: terdepan untuk coding &amp;amp; factual recall, masih kalah dalam retrieval 1M token.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fqn2q9hlfiouvipu8z13b.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fqn2q9hlfiouvipu8z13b.png" alt="Benchmark DeepSeek" width="800" height="591"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;V4-Flash (13B aktif): &lt;strong&gt;MMLU-Pro 86.2&lt;/strong&gt;, &lt;strong&gt;GPQA Diamond 88.1&lt;/strong&gt;, &lt;strong&gt;LiveCodeBench 91.6&lt;/strong&gt;, &lt;strong&gt;Codeforces 3052&lt;/strong&gt;, &lt;strong&gt;SWE Verified 79.0&lt;/strong&gt;. Ini menjadikan Flash sangat menarik untuk deployment hardware mandiri. Lihat &lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash" rel="noopener noreferrer"&gt;kartu DeepSeek V4-Flash&lt;/a&gt; untuk detail.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;V4-Pro unggul pada coding &amp;amp; factual recall.&lt;/li&gt;
&lt;li&gt;Tertinggal dari Gemini 3.1 Pro (pengetahuan umum) dan Claude Opus (retrieval 1M token).&lt;/li&gt;
&lt;li&gt;Untuk agentic coding/analitik berat reasoning, V4-Pro sangat relevan.&lt;/li&gt;
&lt;li&gt;Untuk retrieval ekstrim (1M token), Claude masih unggul.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Tiga mode penalaran
&lt;/h2&gt;

&lt;p&gt;Setiap checkpoint V4 mendukung tiga mode reasoning, bisa dipilih via parameter API/flag:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Non-Think&lt;/strong&gt;: inference cepat, tanpa chain-of-thought. Untuk klasifikasi, routing, summarization singkat.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Think High&lt;/strong&gt;: default untuk tugas berat. Chain-of-thought, planning, output check.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Think Max&lt;/strong&gt;: reasoning panjang, kritik diri maksimal, disarankan min 384K konteks. Mode untuk benchmark maksimal (misal LiveCodeBench).&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Parameter API: &lt;code&gt;thinking_mode&lt;/code&gt;. Rekomendasi sampling: &lt;code&gt;temperature=1.0, top_p=1.0&lt;/code&gt; untuk ketiganya.&lt;/p&gt;

&lt;h2&gt;
  
  
  Arsitektur dalam bahasa sederhana
&lt;/h2&gt;

&lt;p&gt;Tiga hal utama yang membedakan V4:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Attention hybrid&lt;/strong&gt;: Compressed Sparse &amp;amp; Heavily Compressed Attention di layer transformer → 27% FLOP &amp;amp; 10% cache KV pada 1M token.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Manifold-Constrained Hyper-Connections&lt;/strong&gt;: residual connection dibatasi manifold, memungkinkan stacking lebih dalam tanpa gradient collapse.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Optimizer Muon&lt;/strong&gt;: lebih cepat dari AdamW, lebih stabil untuk model MoE besar.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Kombinasi ini membuat training triliunan parameter tetap stabil dan efisien.&lt;/p&gt;

&lt;h2&gt;
  
  
  Ketersediaan hari ini
&lt;/h2&gt;

&lt;p&gt;Semua checkpoint &amp;amp; API tersedia sejak peluncuran.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Platform&lt;/th&gt;
&lt;th&gt;Akses&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;Web chat gratis, default V4-Pro, login wajib&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;DeepSeek API&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;api.deepseek.com&lt;/code&gt; dengan model ID &lt;code&gt;deepseek-v4-pro&lt;/code&gt; &amp;amp; &lt;code&gt;deepseek-v4-flash&lt;/code&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Bobot Hugging Face&lt;/td&gt;
&lt;td&gt;
&lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro" rel="noopener noreferrer"&gt;V4-Pro&lt;/a&gt;, &lt;a href="https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash" rel="noopener noreferrer"&gt;V4-Flash&lt;/a&gt;, lisensi MIT&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ModelScope&lt;/td&gt;
&lt;td&gt;Bobot mirrored untuk pengguna Tiongkok&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;OpenRouter &amp;amp; agregator&lt;/td&gt;
&lt;td&gt;Segera hadir, pola rilis biasa DeepSeek&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;
&lt;code&gt;deepseek-chat&lt;/code&gt; / &lt;code&gt;deepseek-reasoner&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;Dihentikan per 24 Juli 2026&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Jika Anda masih gunakan &lt;code&gt;deepseek-chat&lt;/code&gt; di produksi, migrasi ke &lt;code&gt;deepseek-v4-pro&lt;/code&gt; atau &lt;code&gt;deepseek-v4-flash&lt;/code&gt; dalam 3 bulan.&lt;/p&gt;

&lt;h2&gt;
  
  
  Perbandingan dengan GPT-5.5 dan Claude
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Biaya&lt;/strong&gt;: V4-Pro &amp;amp; V4-Flash open weight. GPT-5.5/Claude Opus tertutup. Hosting sendiri → V4 unggul secara ekonomi.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Coding&lt;/strong&gt;: V4-Pro (LiveCodeBench 93.5, Codeforces 3206) mengungguli GPT-5.5 &amp;amp; Claude Opus.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Pengetahuan&lt;/strong&gt;: Gemini 3.1 Pro unggul MMLU-Pro (91.0); GPT-5.5 &amp;amp; V4-Pro seri (87.5). V4 menang pada SimpleQA-Verified.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Retrieval konteks panjang&lt;/strong&gt;: Claude Opus unggul (MRCR 1M).&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Lisensi&lt;/strong&gt;: MIT, bisa dipakai di produk komersial tanpa persetujuan tambahan.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Apa yang bisa dibangun dengannya
&lt;/h2&gt;

&lt;p&gt;Empat use case utama:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Agentic coding loop&lt;/strong&gt;: SWE Verified &amp;amp; Codeforces tinggi → debugging multi-file, refactoring sadar repo, auto-fix. Gunakan &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; untuk testing permintaan/respons API.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Long-context reasoning&lt;/strong&gt;: 1M token cukup untuk monorepo, kontrak, korpus riset. Gunakan mode Think High.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Produk AI self-hosted&lt;/strong&gt;: V4-Flash = model open weight pertama yang bersaing dengan API komersial kualitas tinggi.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Research &amp;amp; fine-tuning&lt;/strong&gt;: Checkpoint Base untuk fine-tune custom, tinggal pairing dengan data domain Anda.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Tidak cocok untuk: klasifikasi volume tinggi, embedding retrieval, chat singkat—model lama DeepSeek lebih hemat.&lt;/p&gt;

&lt;h2&gt;
  
  
  Harga dalam satu baris
&lt;/h2&gt;

&lt;p&gt;Harga V4 belum final. V3.2: ~$0.28/juta token input, ~$0.42/juta token output. Prediksi: V4-Flash di kisaran sama, V4-Pro sedikit lebih mahal. Kompetitor tertutup $5–15/juta input. Update harga di &lt;a href="https://api-docs.deepseek.com/" rel="noopener noreferrer"&gt;halaman harga DeepSeek&lt;/a&gt;.&lt;/p&gt;

&lt;h2&gt;
  
  
  Cara menguji V4 hari ini
&lt;/h2&gt;

&lt;p&gt;Tiga cara utama, urut tercepat:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Web chat&lt;/strong&gt;: Buka &lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;, login, default V4-Pro. Ubah mode ke Think High di UI. Gratis, langsung pakai.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;API&lt;/strong&gt;: Dapatkan API key, endpoint: &lt;code&gt;https://api.deepseek.com&lt;/code&gt;, set &lt;code&gt;"model": "deepseek-v4-pro"&lt;/code&gt;. Format request kompatibel OpenAI, bisa pakai klien OpenAI dengan mengganti base URL. Panduan lengkap di &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API DeepSeek V4&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Bobot lokal&lt;/strong&gt;: Download dari Hugging Face/ModelScope. V4-Flash: 2-4 H100, V4-Pro: butuh cluster besar. Kode inferensi di folder &lt;code&gt;/inference&lt;/code&gt; repo model.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Untuk iterasi prompt berbasis Apidog, cek &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan penggunaan DeepSeek V4&lt;/a&gt;. Untuk akses gratis, cek &lt;a href="http://apidog.com/blog/how-to-use-deepseek-v4-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara menggunakan DeepSeek V4 secara gratis&lt;/a&gt;. &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Unduh Apidog&lt;/a&gt; dan buat koleksi Anda—format OpenAI-compatible, satu request jalan di DeepSeek, OpenAI, dan API lain.&lt;/p&gt;

&lt;h2&gt;
  
  
  FAQ
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;Apakah DeepSeek V4 benar-benar open source?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Ya. Semua checkpoint berlisensi MIT—boleh digunakan, dimodifikasi, didistribusikan ulang, termasuk komersial.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;Apakah butuh cluster GPU untuk V4-Flash?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Minimal 2–4 H100/H200 untuk full precision, bisa dikurangi dengan quantization. V4-Pro butuh cluster serius. Untuk uji coba tanpa hardware, pakai API atau &lt;a href="https://chat.deepseek.com/" rel="noopener noreferrer"&gt;chat.deepseek.com&lt;/a&gt;.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;Kapan V4 tersedia di DeepSeek API?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Sejak 23 April 2026. Model ID: &lt;code&gt;deepseek-v4-pro&lt;/code&gt;, &lt;code&gt;deepseek-v4-flash&lt;/code&gt;. &lt;code&gt;deepseek-chat&lt;/code&gt; dan &lt;code&gt;deepseek-reasoner&lt;/code&gt; dihentikan 24 Juli 2026.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;Bagaimana V4 dibandingkan dengan Kimi dan Qwen?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
V4-Pro mengungguli Kimi K2 dan Qwen 3 Max pada LiveCodeBench &amp;amp; Codeforces (berdasarkan data DeepSeek). Semua MoE open weight, pilih berdasarkan benchmark sesuai workload Anda.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;Bisakah saya fine-tune V4 pada data saya sendiri?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Bisa. Gunakan Checkpoint Base + data domain + pipeline SFT standar. MIT license mencakup redistribusi komersial.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;Apakah V4 kompatibel dengan tools OpenAI?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Ya. API menerima format OpenAI &amp;amp; Anthropic (&lt;code&gt;https://api.deepseek.com&lt;/code&gt; dan &lt;code&gt;https://api.deepseek.com/anthropic&lt;/code&gt;). Sebagian besar klien OpenAI bisa langsung dipakai dengan ganti base URL. Lihat juga &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API GPT-5.5&lt;/a&gt; untuk pola paralel.&lt;/p&gt;&lt;/li&gt;
&lt;/ul&gt;

</description>
    </item>
    <item>
      <title>Harga GPT-5.5: Rincian Lengkap Biaya API, Codex, dan ChatGPT (April 2026)</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 02:31:11 +0000</pubDate>
      <link>https://dev.to/walse/harga-gpt-55-rincian-lengkap-biaya-api-codex-dan-chatgpt-april-2026-4m0o</link>
      <guid>https://dev.to/walse/harga-gpt-55-rincian-lengkap-biaya-api-codex-dan-chatgpt-april-2026-4m0o</guid>
      <description>&lt;p&gt;OpenAI telah menggandakan harga per-token pada lini GPT-5 dengan perilisan GPT-5.5 pada 23 April 2026. Harga input naik dari $2.50 menjadi $5.00 per juta token, dan output dari $15.00 menjadi $30.00 per juta. Harga Pro tetap $30 / $180. Panduan ini membahas detail permukaan harga, perhitungan workload, dan langkah-langkah praktis untuk mengoptimalkan biaya sebelum migrasi model.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Untuk review model, lihat &lt;a href="http://apidog.com/blog/what-is-gpt-5-5?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apa itu GPT-5.5&lt;/a&gt;. Untuk panduan developer, kunjungi &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Cara menggunakan API GPT-5.5&lt;/a&gt;.&lt;/p&gt;

&lt;h2 id="tldr"&gt;TL;DR&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Permukaan&lt;/th&gt;
&lt;th&gt;Input / Juta&lt;/th&gt;
&lt;th&gt;Output / Juta&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;API standar GPT-5.5&lt;/td&gt;
&lt;td&gt;$5.00&lt;/td&gt;
&lt;td&gt;$30.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;API Pro GPT-5.5&lt;/td&gt;
&lt;td&gt;$30.00&lt;/td&gt;
&lt;td&gt;$180.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 Batch (diskon 50%)&lt;/td&gt;
&lt;td&gt;$2.50&lt;/td&gt;
&lt;td&gt;$15.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 Flex (diskon 50%)&lt;/td&gt;
&lt;td&gt;$2.50&lt;/td&gt;
&lt;td&gt;$15.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Prioritas GPT-5.5 (2.5×)&lt;/td&gt;
&lt;td&gt;$12.50&lt;/td&gt;
&lt;td&gt;$75.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;API standar GPT-5.4&lt;/td&gt;
&lt;td&gt;$2.50&lt;/td&gt;
&lt;td&gt;$15.00&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;API GPT-5.4-mini&lt;/td&gt;
&lt;td&gt;$0.25&lt;/td&gt;
&lt;td&gt;$2.00&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Efek utama: GPT-5.5 dua kali lipat lebih mahal dari GPT-5.4 per token, namun OpenAI mengklaim peningkatan efisiensi token sekitar 20% (Indeks Kecerdasan).&lt;/p&gt;

&lt;h2 id="angka-angka-utama"&gt;Angka-angka Utama&lt;/h2&gt;

&lt;p&gt;Harga resmi dapat dilihat di &lt;a href="https://openai.com/api/pricing/" rel="noopener noreferrer"&gt;halaman harga API&lt;/a&gt;.&lt;/p&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;strong&gt;GPT-5.5:&lt;/strong&gt; $5.00/juta token input, $30.00/juta token output&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;GPT-5.5 Pro:&lt;/strong&gt; $30.00/juta token input, $180.00/juta token output&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Jendela Konteks:&lt;/strong&gt; 1 juta token di tiap varian; token penalaran dihitung ke jendela &amp;amp; tagihan output&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="batch-flex-dan-prioritas"&gt;Batch, Flex, dan Prioritas&lt;/h2&gt;

&lt;p&gt;Pilih permukaan API yang sesuai dengan kebutuhan workload:&lt;/p&gt;

&lt;h3 id="api-batch"&gt;API Batch&lt;/h3&gt;

&lt;ul&gt;
  &lt;li&gt;Diskon 50% dari harga standar&lt;/li&gt;
  &lt;li&gt;Permintaan dijalankan kurang dari 24 jam&lt;/li&gt;
  &lt;li&gt;Cocok untuk evaluasi dataset besar, backfill, dan workflow offline&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Harga Batch setara dengan GPT-5.4. Untuk workload offline, gunakan endpoint Batch untuk menghindari lonjakan biaya.&lt;/p&gt;

&lt;h3 id="pemrosesan-flex"&gt;Pemrosesan Flex&lt;/h3&gt;

&lt;ul&gt;
  &lt;li&gt;Juga 50% diskon&lt;/li&gt;
  &lt;li&gt;Latency bervariasi: detik hingga menit&lt;/li&gt;
  &lt;li&gt;Cocok jika toleran terhadap latency, ingin harga batch tapi tetap sinkron&lt;/li&gt;
&lt;/ul&gt;

&lt;h3 id="pemrosesan-prioritas"&gt;Pemrosesan Prioritas&lt;/h3&gt;

&lt;ul&gt;
  &lt;li&gt;Biaya 2.5x standar ($12.50/$75.00 per juta token)&lt;/li&gt;
  &lt;li&gt;Throughput tinggi, rate limit lebih besar, antrean hampir nol&lt;/li&gt;
  &lt;li&gt;Pilih untuk kasus real-time dengan kebutuhan latensi rendah&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="perhitungan-biaya-mode-berpikir"&gt;Perhitungan Biaya Mode Berpikir&lt;/h2&gt;

&lt;p&gt;Pada GPT-5.5, model &lt;code&gt;reasoning.effort&lt;/code&gt; meningkatkan jumlah token, bukan harga per-token.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Upaya&lt;/th&gt;
&lt;th&gt;Pengali Token Output&lt;/th&gt;
&lt;th&gt;Kapan Digunakan&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;
&lt;code&gt;rendah&lt;/code&gt; (default)&lt;/td&gt;
&lt;td&gt;1×&lt;/td&gt;
&lt;td&gt;Rutin&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;sedang&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;1.3–2×&lt;/td&gt;
&lt;td&gt;Multi-step coding, generasi terstruktur&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;tinggi&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;2–4×&lt;/td&gt;
&lt;td&gt;Riset mendalam, critical review&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;sangat tinggi&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;3–8×&lt;/td&gt;
&lt;td&gt;Agent loop, perencanaan padat&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Satu permintaan &lt;code&gt;sangat tinggi&lt;/code&gt; pada prompt panjang bisa menghabiskan 20.000 token reasoning; ini berarti $0.60 hanya untuk reasoning, belum termasuk output.&lt;/p&gt;

&lt;p&gt;Selalu rencanakan anggaran per workload, bukan per permintaan.&lt;/p&gt;

&lt;h2 id="harga-codex"&gt;Harga Codex&lt;/h2&gt;

&lt;p&gt;Akses Codex berdasarkan paket ChatGPT, bukan per-token. Struktur harga per 23 April 2026:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Paket&lt;/th&gt;
&lt;th&gt;Akses Codex&lt;/th&gt;
&lt;th&gt;GPT-5.5&lt;/th&gt;
&lt;th&gt;Catatan&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Gratis&lt;/td&gt;
&lt;td&gt;Ya (waktu terbatas)&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;Batas mingguan ketat&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Go&lt;/td&gt;
&lt;td&gt;Ya (waktu terbatas)&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;2× batas Gratis&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Plus ($20 / bln)&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;Batas standar&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Pro ($200 / bln)&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;Ya + Thinking + Pro (di ChatGPT)&lt;/td&gt;
&lt;td&gt;Batas tertinggi&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Bisnis&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;Berbasis kursi&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Perusahaan / Edu&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;Kontrak&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Untuk heavy user di workflow terminal, paket Plus atau Pro biasanya lebih hemat daripada pay-as-you-go API, apalagi setelah melewati ratusan ribu token per hari. Untuk jalur gratis, lihat &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-free-codex?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan jalur gratis&lt;/a&gt;.&lt;/p&gt;

&lt;h2 id="perbandingan-gpt-55-vs-model-lainnya"&gt;Perbandingan: GPT-5.5 vs Model Lainnya&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Model&lt;/th&gt;
&lt;th&gt;Input / Juta&lt;/th&gt;
&lt;th&gt;Output / Juta&lt;/th&gt;
&lt;th&gt;Biaya per 1 Ribu token output&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.4-mini&lt;/td&gt;
&lt;td&gt;$0.25&lt;/td&gt;
&lt;td&gt;$2.00&lt;/td&gt;
&lt;td&gt;$0.0020&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.4&lt;/td&gt;
&lt;td&gt;$2.50&lt;/td&gt;
&lt;td&gt;$15.00&lt;/td&gt;
&lt;td&gt;$0.0150&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5&lt;/td&gt;
&lt;td&gt;$5.00&lt;/td&gt;
&lt;td&gt;$30.00&lt;/td&gt;
&lt;td&gt;$0.0300&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;GPT-5.5 Pro&lt;/td&gt;
&lt;td&gt;$30.00&lt;/td&gt;
&lt;td&gt;$180.00&lt;/td&gt;
&lt;td&gt;$0.1800&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;ul&gt;
  &lt;li&gt;Output besar, risiko rendah: &lt;strong&gt;GPT-5.4-mini&lt;/strong&gt;
&lt;/li&gt;
  &lt;li&gt;Produksi umum, kualitas cukup: &lt;strong&gt;GPT-5.4&lt;/strong&gt;
&lt;/li&gt;
  &lt;li&gt;Multi-step coding, agent chain: &lt;strong&gt;GPT-5.5&lt;/strong&gt;
&lt;/li&gt;
  &lt;li&gt;Output high-stakes: &lt;strong&gt;GPT-5.5 Pro&lt;/strong&gt;
&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="contoh-praktis-biaya-agen-pengkodean-per-tugas"&gt;Contoh Praktis: Biaya Agen Pengkodean per Tugas&lt;/h2&gt;

&lt;p&gt;Simulasi biaya satu tugas pengkodean pada API GPT-5.5 dengan &lt;code&gt;reasoning.effort: "medium"&lt;/code&gt;:&lt;/p&gt;

&lt;ul&gt;
  &lt;li&gt;Token input per tugas: ~15.000&lt;/li&gt;
  &lt;li&gt;Token output per tugas: ~3.000&lt;/li&gt;
  &lt;li&gt;Token reasoning per tugas (medium): ~6.000&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;strong&gt;Perhitungan biaya:&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
  &lt;li&gt;Input: 15K × $5.00 / 1M = $0.075&lt;/li&gt;
  &lt;li&gt;Output: (3K + 6K) × $30.00 / 1M = $0.27&lt;/li&gt;
  &lt;li&gt;&lt;strong&gt;Total: $0.345 per tugas&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Jika pakai GPT-5.4:&lt;/p&gt;

&lt;ul&gt;
  &lt;li&gt;Input: 15K × $2.50 / 1M = $0.0375&lt;/li&gt;
  &lt;li&gt;Output: 9K × $15.00 / 1M = $0.135&lt;/li&gt;
  &lt;li&gt;&lt;strong&gt;Total: $0.1725 per tugas&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Peningkatan biaya 2× pada GPT-5.5 bisa diimbangi jika performa menyelesaikan tugas lebih tinggi sehingga mengurangi revisi manual.&lt;/p&gt;

&lt;h2 id="kontrol-biaya-yang-layak-dibangun-sejak-hari-pertama"&gt;Kontrol Biaya Sejak Awal&lt;/h2&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;strong&gt;Batas keras &lt;code&gt;max_output_tokens&lt;/code&gt;:&lt;/strong&gt; Terapkan di semua call; default ke 2000 kecuali perlu lebih panjang.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Skema JSON ketat:&lt;/strong&gt; Output salah format berarti retry penuh biaya.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Router model berdasarkan kesulitan:&lt;/strong&gt; Route request mudah ke GPT-5.4-mini, kasus sulit ke GPT-5.5.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Gunakan Batch untuk workload offline:&lt;/strong&gt; Evaluasi, backfill, report malam, selalu pakai Batch (diskon 50%).&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Lacak &lt;code&gt;usage.reasoning_tokens&lt;/code&gt;:&lt;/strong&gt; Tagihan meledak biasanya karena reasoning token di upaya tinggi. Set peringatan.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="estimasi-biaya-bulanan-per-paket"&gt;Estimasi Biaya Bulanan Per Paket&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Paket&lt;/th&gt;
&lt;th&gt;Harga bulanan&lt;/th&gt;
&lt;th&gt;Paling cocok untuk&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Gratis&lt;/td&gt;
&lt;td&gt;$0&lt;/td&gt;
&lt;td&gt;Coba GPT-5.5 via Codex tanpa komitmen&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Go&lt;/td&gt;
&lt;td&gt;$4 / bln&lt;/td&gt;
&lt;td&gt;Pelajar/pengguna ringan, 2× limit Gratis&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Plus&lt;/td&gt;
&lt;td&gt;$20 / bln&lt;/td&gt;
&lt;td&gt;Developer individu dengan kebutuhan harian Codex + ChatGPT&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Pro&lt;/td&gt;
&lt;td&gt;$200 / bln&lt;/td&gt;
&lt;td&gt;Advanced user, perlu Thinking/Pro di ChatGPT&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Bisnis&lt;/td&gt;
&lt;td&gt;$25 / kursi / bln&lt;/td&gt;
&lt;td&gt;Tim, workspace bersama&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Perusahaan / Edu&lt;/td&gt;
&lt;td&gt;Kustom&lt;/td&gt;
&lt;td&gt;Kontrak SLA&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Jika konsumsi &amp;gt;4 juta token output/bulan via API, Pro ChatGPT + Codex CLI lebih murah dibanding pay-as-you-go, selama workload muat di jendela konteks 400K CLI.&lt;/p&gt;

&lt;h2 id="sinyal-perubahan-harga-yang-perlu-diperhatikan"&gt;Sinyal Perubahan Harga&lt;/h2&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;strong&gt;GA API GPT-5.5:&lt;/strong&gt; Harga bisa turun jika muncul tekanan kompetitif dari model lain seperti Claude Mythos, Gemini, dsb.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Penurunan harga Pro:&lt;/strong&gt; Biasanya terjadi 3–6 bulan setelah rilis. Jangan anggap harga saat ini permanen.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="faq"&gt;FAQ&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Apakah caching mengurangi biaya input?&lt;/strong&gt; Ya. Token input yang di-cache ditagih sebagian kecil tarif standar. Cache sistem prompt, skema alat, atau repo context untuk efisiensi.&lt;br&gt;
&lt;br&gt;&lt;br&gt;
&lt;strong&gt;Apakah ada diskon volume?&lt;/strong&gt; Tidak dipublikasikan. Paket enterprise bisa negosiasi harga khusus. Hubungi sales untuk penggunaan &amp;gt;$1M/tahun.&lt;br&gt;
&lt;br&gt;&lt;br&gt;
&lt;strong&gt;Apakah reasoning mode ada biaya tambahan di luar harga per-token?&lt;/strong&gt; Tidak. Biaya naik karena token usage, bukan tarif token.&lt;br&gt;
&lt;br&gt;&lt;br&gt;
&lt;strong&gt;Apakah penggunaan Codex CLI ditagih terpisah dari API?&lt;/strong&gt; Hanya jika login dengan API key. Login via ChatGPT menagih via paket.&lt;br&gt;
&lt;br&gt;&lt;br&gt;
&lt;strong&gt;Apa cara termurah mencoba GPT-5.5?&lt;/strong&gt; Paket Gratis/Go + Codex CLI. Lihat &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan jalur gratis&lt;/a&gt; untuk opsi tanpa biaya.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>Cara Menggunakan API GPT-5.5 Gratis</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 02:16:32 +0000</pubDate>
      <link>https://dev.to/walse/cara-menggunakan-api-gpt-55-gratis-4p34</link>
      <guid>https://dev.to/walse/cara-menggunakan-api-gpt-55-gratis-4p34</guid>
      <description>&lt;p&gt;GPT-5.5 dirilis pada 23 April 2026 dengan paywall untuk hampir semua layanan utama—Plus, Pro, Business, dan Enterprise di ChatGPT, serta token API berbayar untuk integrasi. Namun, ada tiga jalur gratis yang masih berfungsi hari ini. Jika Anda bersedia menerima batasan rate dan kemungkinan expired, Anda bisa menjalankan GPT-5.5 tanpa memasukkan metode pembayaran apa pun.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Panduan ini membahas jalur gratis yang sudah diverifikasi, mana yang cocok untuk use case tertentu, dan cara membangun koleksi request siap produksi di &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; agar transisi dari mode gratis ke berbayar bisa seamless saat kebutuhan meningkat.&lt;/p&gt;

&lt;h2&gt;
  
  
  TL;DR
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Codex CLI di ChatGPT Free atau Go&lt;/strong&gt; — akses gratis sementara ke GPT-5.5 via CLI Codex, tanpa kartu kredit. Masih aktif hari ini.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Kredit percobaan OpenAI untuk akun API baru&lt;/strong&gt; — saldo gratis awal pada akun baru yang memungkinkan akses GPT-5.5 via API setelah Responses API dibuka.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Tingkatan gratis OpenRouter dan agregator&lt;/strong&gt; — gateway pihak ketiga kadang menawarkan kuota gratis pada model frontier beberapa hari setelah peluncuran.&lt;/li&gt;
&lt;li&gt;Semua jalur ini punya limitasi. Untuk workload produksi, segera migrasikan ke billing berbayar sebelum masa percobaan habis.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Jalur 1: Codex CLI (paling praktis untuk gratis)
&lt;/h2&gt;

&lt;p&gt;OpenAI menyertakan Codex di semua paket ChatGPT saat peluncuran, termasuk Free dan Go, untuk waktu terbatas. Codex memungkinkan akses GPT-5.5 lewat login ChatGPT, bukan API key. Anda tinggal login dengan akun gratis, jalankan CLI, dan model siap digunakan dengan window 400K token.&lt;/p&gt;

&lt;h3&gt;
  
  
  Instalasi
&lt;/h3&gt;



&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;npm &lt;span class="nb"&gt;install&lt;/span&gt; &lt;span class="nt"&gt;-g&lt;/span&gt; @openai/codex
&lt;span class="c"&gt;# atau&lt;/span&gt;
brew &lt;span class="nb"&gt;install &lt;/span&gt;codex
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Verifikasi instalasi:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;codex &lt;span class="nt"&gt;--version&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h3&gt;
  
  
  Otentikasi
&lt;/h3&gt;

&lt;p&gt;Jalankan &lt;code&gt;codex&lt;/code&gt; pertama kali, browser akan terbuka untuk login OAuth ChatGPT. Untuk server/headless:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;codex login &lt;span class="nt"&gt;--device-auth&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Anda akan menerima URL pendek dan kode untuk login via device lain. Tidak butuh API key.&lt;/p&gt;

&lt;h3&gt;
  
  
  Pilih Model
&lt;/h3&gt;

&lt;p&gt;Di CLI Codex aktif:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight plaintext"&gt;&lt;code&gt;/model gpt-5.5
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Atau langsung dari awal:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;codex &lt;span class="nt"&gt;--model&lt;/span&gt; gpt-5.5
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;Cek sisa kuota: &lt;code&gt;/status&lt;/code&gt;. Free dan Go punya limitasi rate, tapi cukup untuk prototyping tools kecil.&lt;/p&gt;

&lt;h3&gt;
  
  
  Fitur &amp;amp; Keterbatasan
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Fitur:&lt;/strong&gt; Model GPT-5.5 asli, konteks 400K, akses file, perintah terminal, edit repo via CLI.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Limitasi:&lt;/strong&gt; Tidak ada akses API langsung, hanya via CLI saat login.&lt;/li&gt;
&lt;li&gt;Lihat panduan lengkap: &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-free-codex?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Panduan GPT-5.5 Gratis dengan Codex&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Akses gratis Codex bisa dicabut sewaktu-waktu. Pastikan project Anda bisa ganti model ID dengan mudah agar transisi ke paket berbayar atau API lebih smooth.&lt;/p&gt;

&lt;h2&gt;
  
  
  Jalur 2: Kredit Percobaan OpenAI untuk Akun API Baru
&lt;/h2&gt;

&lt;p&gt;Akun developer OpenAI baru biasanya mendapatkan kredit percobaan (misal: $5 untuk 90 hari pertama, kadang lebih tinggi jika email .edu). Setelah API GPT-5.5 tersedia, saldo ini bisa digunakan untuk &lt;code&gt;gpt-5.5&lt;/code&gt;.&lt;/p&gt;

&lt;h3&gt;
  
  
  Cara Klaim
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;Daftar akun developer baru di &lt;code&gt;platform.openai.com&lt;/code&gt; (harus email baru, bukan bekas billing).&lt;/li&gt;
&lt;li&gt;Verifikasi nomor telepon (wajib untuk kredit percobaan).&lt;/li&gt;
&lt;li&gt;Buat API key di project baru.&lt;/li&gt;
&lt;li&gt;Cek dashboard untuk saldo dan expiry.&lt;/li&gt;
&lt;/ol&gt;

&lt;h3&gt;
  
  
  Potensi Penggunaan
&lt;/h3&gt;

&lt;p&gt;Dengan $5 dan tarif $5/Juta input, $30/Juta output, Anda dapat:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Input ~1 juta token ke GPT-5.5 sebelum kredit habis (~160 ribu output token).&lt;/li&gt;
&lt;li&gt;Cukup untuk testing, riset, atau validasi agent loop kecil.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;strong&gt;Tips hemat:&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Mode Batch:&lt;/strong&gt; Permintaan via Batch API dikenakan 50% dari tarif normal. Cocok untuk proses tidak real-time. &lt;a href="https://openai.com/api/pricing/" rel="noopener noreferrer"&gt;Dokumentasi Batch&lt;/a&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Gunakan &lt;code&gt;reasoning.effort&lt;/code&gt; low:&lt;/strong&gt; Mode thinking menguras token lebih banyak. Untuk proses rutin, gunakan &lt;code&gt;low&lt;/code&gt; (setara GPT-5.4).&lt;/li&gt;
&lt;/ul&gt;

&lt;h3&gt;
  
  
  Limitasi
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;Kredit hanya sekali, tidak bisa diulang.&lt;/li&gt;
&lt;li&gt;Setelah habis, akses ke GPT-5.5 via API langsung di-reject (HTTP 402).&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Jalur 3: Tingkatan Gratis Agregator
&lt;/h2&gt;

&lt;p&gt;Agregator model seperti OpenRouter, Together, Groq kadang menawarkan kuota gratis untuk model frontier baru. Ketersediaan bisa berubah-ubah, cek status saat Anda daftar.&lt;/p&gt;

&lt;p&gt;Pola penggunaan:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Daftar akun, verifikasi email.&lt;/li&gt;
&lt;li&gt;Dapatkan API key agregator.&lt;/li&gt;
&lt;li&gt;Ganti baseURL SDK ke URL agregator.&lt;/li&gt;
&lt;li&gt;Ganti model string ke alias agregator, misal: &lt;code&gt;openai/gpt-5.5&lt;/code&gt;.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Contoh kode (Python):&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight python"&gt;&lt;code&gt;&lt;span class="kn"&gt;from&lt;/span&gt; &lt;span class="n"&gt;openai&lt;/span&gt; &lt;span class="kn"&gt;import&lt;/span&gt; &lt;span class="n"&gt;OpenAI&lt;/span&gt;

&lt;span class="n"&gt;client&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="nc"&gt;OpenAI&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;base_url&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;https://openrouter.ai/api/v1&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;api_key&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;sk-or-v1-...&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="n"&gt;response&lt;/span&gt; &lt;span class="o"&gt;=&lt;/span&gt; &lt;span class="n"&gt;client&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;chat&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;completions&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="nf"&gt;create&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;
    &lt;span class="n"&gt;model&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;openai/gpt-5.5&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;
    &lt;span class="n"&gt;messages&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="p"&gt;[{&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;role&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;user&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;content&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt; &lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="s"&gt;Explain the Responses API in two paragraphs.&lt;/span&gt;&lt;span class="sh"&gt;"&lt;/span&gt;&lt;span class="p"&gt;}],&lt;/span&gt;
&lt;span class="p"&gt;)&lt;/span&gt;

&lt;span class="nf"&gt;print&lt;/span&gt;&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="n"&gt;response&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;choices&lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="mi"&gt;0&lt;/span&gt;&lt;span class="p"&gt;].&lt;/span&gt;&lt;span class="n"&gt;message&lt;/span&gt;&lt;span class="p"&gt;.&lt;/span&gt;&lt;span class="n"&gt;content&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;&lt;strong&gt;Limitasi:&lt;/strong&gt; Rate limit agregator, kuota gratis terbatas, model bisa dicabut sewaktu-waktu (respon 402/429 jika limit habis). Ideal hanya untuk prototyping.&lt;/p&gt;

&lt;h2&gt;
  
  
  Jalur Gratis Mana yang Paling Cocok?
&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Kasus penggunaan&lt;/th&gt;
&lt;th&gt;Jalur gratis terbaik&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Asisten coding via terminal&lt;/td&gt;
&lt;td&gt;Codex CLI (Jalur 1)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Eksperimen Python/Node cepat&lt;/td&gt;
&lt;td&gt;Kredit percobaan (Jalur 2)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Testing aplikasi hosted&lt;/td&gt;
&lt;td&gt;Agregator (Jalur 3)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Perbandingan GPT-5.5 vs GPT-5.4 di prompt nyata&lt;/td&gt;
&lt;td&gt;Kredit percobaan + koleksi Apidog&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Riset satu kali "apakah ini bisa menjawab pertanyaan saya"&lt;/td&gt;
&lt;td&gt;ChatGPT Plus (berbayar, tapi termurah per jam)&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Untuk non-prototype, semua jalur gratis cepat mencapai batasnya. Manfaat utamanya adalah menyusun request dan fine-tuning prompt sebelum mengeluarkan biaya.&lt;/p&gt;

&lt;h2&gt;
  
  
  Bangun Request Sekali, Pakai Terus di Apidog
&lt;/h2&gt;

&lt;p&gt;Cara paling efisien migrasi dari trial ke production key tanpa rewrite kode:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Buat koleksi baru di Apidog, tambahkan request &lt;code&gt;POST https://api.openai.com/v1/responses&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Header otentikasi pakai variabel environment sehingga API key bisa diganti tanpa ubah request.&lt;/li&gt;
&lt;li&gt;Simpan response contoh agar downstream dev tetap bisa mock walau key kosong.&lt;/li&gt;
&lt;li&gt;Clone koleksi untuk jalur agregator, cukup ubah &lt;code&gt;baseUrl&lt;/code&gt; ke OpenRouter dan string model.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-213.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-213.png" alt="" width="3674" height="2436"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;Ketika trial habis atau upgrade paket, cukup flip variabel environment—koleksi tetap jalan. Lihat &lt;a href="http://apidog.com/blog/how-to-use-apidog-inside-vscode?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Panduan Apidog di VS Code&lt;/a&gt; jika ingin koleksi bisa diakses dari dalam Cursor atau Claude Code.&lt;/p&gt;

&lt;h2&gt;
  
  
  Batasan Jalur Gratis yang Perlu Diantisipasi
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Rate limit dinamis.&lt;/strong&gt; Codex Free &amp;amp; Go bisa melambat saat traffic tinggi.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Kredit trial tidak dobel.&lt;/strong&gt; Daftar dengan data duplikat (kartu, telepon, IP) tidak dapat kredit trial lagi.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;GPT-5.5 Pro tidak tersedia gratis.&lt;/strong&gt; Hanya paket berbayar.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Mode thinking boros token.&lt;/strong&gt; Di jalur gratis, set &lt;code&gt;reasoning.effort&lt;/code&gt; ke &lt;code&gt;low&lt;/code&gt; kecuali benar-benar butuh akurasi tinggi.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Jendela gratis sementara.&lt;/strong&gt; Codex Free &amp;amp; Go ada deadline ("for a limited time"—lihat &lt;a href="https://openai.com/index/introducing-gpt-5-5/" rel="noopener noreferrer"&gt;pengumuman resmi OpenAI&lt;/a&gt;).&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Prototipe Gratis yang Realistis
&lt;/h2&gt;

&lt;p&gt;Workflow untuk validasi model secara efisien:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Pilih task nyata (report, code review, riset).&lt;/li&gt;
&lt;li&gt;Jalankan 10 contoh nyata di GPT-5.4 perangkat Anda, evaluasi output.&lt;/li&gt;
&lt;li&gt;Ulangi 10 contoh yang sama di GPT-5.5 via Codex CLI atau API trial.&lt;/li&gt;
&lt;li&gt;Bandingkan kualitas output/token dan error rate.&lt;/li&gt;
&lt;li&gt;Putuskan apakah benefit GPT-5.5 sepadan dengan biaya lebih tinggi untuk workload Anda.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Latihan ini hanya butuh satu sore, tapi bisa sangat menghemat cost di bulan-bulan awal produksi.&lt;/p&gt;

&lt;h2&gt;
  
  
  FAQ
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Apakah trial Codex Free &amp;amp; Go permanen?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tidak. &lt;a href="https://openai.com/index/introducing-gpt-5-5/" rel="noopener noreferrer"&gt;Pengumuman OpenAI&lt;/a&gt; menyebut “waktu terbatas”. Asumsikan akan berakhir dalam beberapa bulan.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Apakah ChatGPT Free sudah gunakan GPT-5.5 di browser?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tidak. Default ChatGPT Free tetap GPT-5.3. Butuh Plus atau lebih tinggi untuk GPT-5.5 di web.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bisakah saya jalankan GPT-5.5 gratis di Hugging Face/Ollama?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tidak. GPT-5.5 adalah model closed-weight, hanya bisa diakses via OpenAI infra atau Codex.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Ada diskon pelajar?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
OpenAI kadang beri diskon .edu dan kredit trial lebih tinggi. Cek &lt;a href="https://openai.com/education/" rel="noopener noreferrer"&gt;halaman edukasi OpenAI&lt;/a&gt; untuk info terbaru.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bagaimana transisi dari gratis ke berbayar tanpa rewrite kode?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Gunakan API key &amp;amp; baseURL didorong environment variable. Set &lt;code&gt;OPENAI_API_KEY&lt;/code&gt; dan &lt;code&gt;OPENAI_BASE_URL&lt;/code&gt; sekali, ganti saat trial habis. Lihat &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API GPT-5.5&lt;/a&gt; untuk best practice project-scoped key.&lt;/p&gt;

</description>
    </item>
    <item>
      <title>Cara Menggunakan API GPT-5.5</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 02:13:46 +0000</pubDate>
      <link>https://dev.to/walse/cara-menggunakan-api-gpt-55-apj</link>
      <guid>https://dev.to/walse/cara-menggunakan-api-gpt-55-apj</guid>
      <description>&lt;p&gt;GPT-5.5 diluncurkan pada 23 April 2026. OpenAI langsung membuka akses model ini di ChatGPT dan Codex, serta akan menghadirkan API Responses dan Chat Completions dalam waktu dekat. Panduan ini fokus pada implementasi langsung: cara memanggil GPT-5.5 melalui API setelah kunci aktif, dan cara menjalankan model ini hari ini via Codex.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog sekarang&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Anda akan menemukan detail endpoint, autentikasi, contoh kode Python dan Node, tabel parameter, perhitungan harga mode berpikir, penanganan error, serta cara menguji workflow di &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; agar hemat kredit saat eksperimen berulang.&lt;/p&gt;

&lt;p&gt;Untuk overview produk, cek &lt;a href="http://apidog.com/blog/what-is-gpt-5-5?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apa itu GPT-5.5&lt;/a&gt;. Ingin gratisan? Lihat &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Cara menggunakan API GPT-5.5 secara gratis&lt;/a&gt;.&lt;/p&gt;

&lt;h2 id="ringkasan"&gt;Ringkasan&lt;/h2&gt;

&lt;ul&gt;
  &lt;li&gt;GPT-5.5 tersedia di endpoint &lt;strong&gt;Responses&lt;/strong&gt; dan &lt;strong&gt;Chat Completions&lt;/strong&gt; dengan model ID &lt;code&gt;gpt-5.5&lt;/code&gt;, versi Pro: &lt;code&gt;gpt-5.5-pro&lt;/code&gt;.&lt;/li&gt;
  &lt;li&gt;Harga: &lt;strong&gt;$5 / Juta input&lt;/strong&gt; dan &lt;strong&gt;$30 / Juta output&lt;/strong&gt;. Pro: &lt;strong&gt;$30 / Juta input&lt;/strong&gt;, &lt;strong&gt;$180 / Juta output&lt;/strong&gt;.&lt;/li&gt;
  &lt;li&gt;Jendela konteks: &lt;strong&gt;1 Juta token&lt;/strong&gt; di API, &lt;strong&gt;400 Ribu&lt;/strong&gt; di Codex CLI.&lt;/li&gt;
  &lt;li&gt;Sebelum GA API, akses GPT-5.5 bisa via Codex dengan login ChatGPT.&lt;/li&gt;
  &lt;li&gt;Gunakan &lt;a href="https://apidog.com/download?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; untuk membangun koleksi permintaan, cukup ganti ID model dan blok &lt;code&gt;reasoning&lt;/code&gt;.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="prasyarat"&gt;Prasyarat&lt;/h2&gt;

&lt;p&gt;Siapkan sebelum mengirim permintaan pertama:&lt;/p&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;strong&gt;Akun OpenAI&lt;/strong&gt; dengan penagihan aktif. ChatGPT Plus/Pro tidak otomatis unlock API.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Kunci API&lt;/strong&gt; dengan akses model GPT-5. Gunakan kunci proyek untuk produksi.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;SDK yang support &lt;code&gt;gpt-5.5&lt;/code&gt;&lt;/strong&gt;: Python &lt;code&gt;openai&amp;gt;=2.1.0&lt;/code&gt;, Node &lt;code&gt;openai@5.1.0&lt;/code&gt;+&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;API client&lt;/strong&gt; yang bisa replay request (curl oke untuk sekali, untuk iterasi pakai Apidog).&lt;/li&gt;
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;export OPENAI_API_KEY="sk-proj-..."
&lt;/code&gt;&lt;/pre&gt;

&lt;h2 id="endpoint-dan-autentikasi"&gt;Endpoint dan Autentikasi&lt;/h2&gt;

&lt;p&gt;Gunakan endpoint:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;POST https://api.openai.com/v1/responses
POST https://api.openai.com/v1/chat/completions
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;
Otentikasi: Bearer token, body JSON minimal berisi &lt;code&gt;model&lt;/code&gt;, prompt/input/messages, dan parameter lain.
&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;curl https://api.openai.com/v1/responses \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5.5",
    "input": "Summarize the last 10 releases of the openai/codex repo in three bullets.",
    "reasoning": { "effort": "medium" }
  }'
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;
Response sukses: objek JSON dengan array &lt;code&gt;output&lt;/code&gt; dan blok &lt;code&gt;usage&lt;/code&gt; (input/output/reasoning tokens). Error: standar OpenAI (&lt;code&gt;code&lt;/code&gt; dan &lt;code&gt;message&lt;/code&gt;).
&lt;/p&gt;

&lt;h2 id="parameter-permintaan"&gt;Parameter Permintaan&lt;/h2&gt;

&lt;p&gt;
Mapping body → biaya dan perilaku. Berikut tabel parameter utama untuk &lt;code&gt;gpt-5.5&lt;/code&gt;:
&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Parameter&lt;/th&gt;
&lt;th&gt;Tipe&lt;/th&gt;
&lt;th&gt;Nilai&lt;/th&gt;
&lt;th&gt;Catatan&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;model&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;string&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;gpt-5.5&lt;/code&gt;, &lt;code&gt;gpt-5.5-pro&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;Wajib. Pro 6× lebih mahal.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;
&lt;code&gt;input&lt;/code&gt; / &lt;code&gt;messages&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;string/array&lt;/td&gt;
&lt;td&gt;Prompt/array chat&lt;/td&gt;
&lt;td&gt;Wajib. &lt;code&gt;input&lt;/code&gt; untuk Responses, &lt;code&gt;messages&lt;/code&gt; untuk Chat Completions.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;reasoning.effort&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;string&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;none&lt;/code&gt;, &lt;code&gt;low&lt;/code&gt;, &lt;code&gt;medium&lt;/code&gt;, &lt;code&gt;high&lt;/code&gt;, &lt;code&gt;xhigh&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;Default: &lt;code&gt;low&lt;/code&gt;. &lt;code&gt;xhigh&lt;/code&gt; = reasoning lebih dalam, biaya token naik.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;max_output_tokens&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;integer&lt;/td&gt;
&lt;td&gt;1 – 128000&lt;/td&gt;
&lt;td&gt;Batas output, token reasoning terpisah.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;tools&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;array&lt;/td&gt;
&lt;td&gt;Function, web_search, file_search, computer_use, code_interpreter&lt;/td&gt;
&lt;td&gt;Definisi tools; model memilih otomatis.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;tool_choice&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;string/objek&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;auto&lt;/code&gt;, &lt;code&gt;none&lt;/code&gt;, nama alat&lt;/td&gt;
&lt;td&gt;Paksakan tool tertentu jika spesifik.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;response_format&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;objek&lt;/td&gt;
&lt;td&gt;&lt;code&gt;{ "type": "json_schema", "schema": {...} }&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;Structured output; default sekarang strict.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;stream&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;boolean&lt;/td&gt;
&lt;td&gt;true / false&lt;/td&gt;
&lt;td&gt;Server-sent events, reasoning token sebagai event terpisah.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;user&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;string&lt;/td&gt;
&lt;td&gt;Bebas&lt;/td&gt;
&lt;td&gt;Untuk abuse detection; gunakan user ID hash.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;metadata&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;objek&lt;/td&gt;
&lt;td&gt;Maks 16 pasang key-value&lt;/td&gt;
&lt;td&gt;Muncul di dashboard/log OpenAI.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;seed&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;integer&lt;/td&gt;
&lt;td&gt;Int32&lt;/td&gt;
&lt;td&gt;Soft deterministic; seed sama → hasil mirip.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;temperature&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;number&lt;/td&gt;
&lt;td&gt;0 – 2&lt;/td&gt;
&lt;td&gt;Diabaikan saat &lt;code&gt;reasoning.effort &amp;gt;= medium&lt;/code&gt;.&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;
Parameter yang paling pengaruh biaya: &lt;code&gt;reasoning.effort&lt;/code&gt;, &lt;code&gt;max_output_tokens&lt;/code&gt;, &lt;code&gt;tools&lt;/code&gt;. Setting ke &lt;code&gt;high&lt;/code&gt; atau &lt;code&gt;xhigh&lt;/code&gt; bisa 3–8× token output dari &lt;code&gt;low&lt;/code&gt;.
&lt;/p&gt;

&lt;h2 id="contoh-python"&gt;Contoh Python&lt;/h2&gt;

&lt;p&gt;Contoh implementasi menggunakan SDK OpenAI Python:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="gpt-5.5",
    input=[
        {
            "role": "system",
            "content": "You are a senior Go engineer. Answer in terse, runnable code.",
        },
        {
            "role": "user",
            "content": (
                "Write a worker pool with bounded concurrency and a context "
                "cancellation path. No third-party deps."
            ),
        },
    ],
    reasoning={"effort": "medium"},
    max_output_tokens=4000,
)

print(response.output_text)
print(response.usage.model_dump())
&lt;/code&gt;&lt;/pre&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;code&gt;response.output_text&lt;/code&gt;: menggabungkan array &lt;code&gt;output&lt;/code&gt;. Untuk event terstruktur, baca &lt;code&gt;response.output&lt;/code&gt; langsung.&lt;/li&gt;
  &lt;li&gt;
&lt;code&gt;usage&lt;/code&gt;: kembalikan &lt;code&gt;input_tokens&lt;/code&gt;, &lt;code&gt;output_tokens&lt;/code&gt;, &lt;code&gt;reasoning_tokens&lt;/code&gt;. Semua dihitung ke biaya.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="contoh-node"&gt;Contoh Node&lt;/h2&gt;

&lt;pre&gt;&lt;code&gt;import OpenAI from "openai";

const client = new OpenAI();

const response = await client.responses.create({
  model: "gpt-5.5",
  input: [
    { role: "system", content: "You are a careful reviewer." },
    {
      role: "user",
      content:
        "Review this migration and flag any operation that would lock a write-heavy table for more than 200 ms.",
    },
  ],
  reasoning: { effort: "high" },
  tools: [{ type: "file_search" }],
  max_output_tokens: 6000,
});

console.log(response.output_text);
console.log(response.usage);
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;
Gunakan &lt;code&gt;reasoning.effort: "high"&lt;/code&gt; untuk task review kritis, terutama jika biaya error lebih besar dari sekadar token reasoning.
&lt;/p&gt;

&lt;h2 id="mode-berpikir"&gt;Mode Berpikir&lt;/h2&gt;

&lt;p&gt;
Mode Berpikir bukan ID model khusus. Aktifkan dengan &lt;code&gt;reasoning.effort&lt;/code&gt;: &lt;code&gt;high&lt;/code&gt; atau &lt;code&gt;xhigh&lt;/code&gt;, plus &lt;code&gt;max_output_tokens&lt;/code&gt; tinggi. Di API, kontrol penuh di tangan Anda.
&lt;/p&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;strong&gt;Pakai &lt;code&gt;medium&lt;/code&gt; untuk default&lt;/strong&gt;: cukup untuk agent, debug multi-file, dokumen, biaya hampir sama dengan 5.4.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Cadangkan &lt;code&gt;high&lt;/code&gt;/&lt;code&gt;xhigh&lt;/code&gt; untuk riset, review faktual, atau chain panjang.&lt;/strong&gt; Siapkan 3–8× token output dan waktu response lebih lama.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;
Jika permintaan menggunakan &lt;code&gt;computer_use&lt;/code&gt; atau web search chain panjang, mode Berpikir penting. OpenAI menyebut penurunan halusinasi signifikan di workflow ini (lihat &lt;a href="https://openai.com/index/introducing-gpt-5-5/" rel="noopener noreferrer"&gt;rilis resmi&lt;/a&gt;).
&lt;/p&gt;

&lt;h2 id="output-terstruktur"&gt;Output Terstruktur&lt;/h2&gt;

&lt;p&gt;
Output JSON strict jadi default. Berikan &lt;code&gt;schema&lt;/code&gt;, SDK akan menolak JSON yang salah format.
&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;response = client.responses.create(
    model="gpt-5.5",
    input="Extract the title, speaker, and start time from this transcript chunk.",
    response_format={
        "type": "json_schema",
        "json_schema": {
            "name": "session_extract",
            "strict": True,
            "schema": {
                "type": "object",
                "required": ["title", "speaker", "start_time"],
                "properties": {
                    "title": {"type": "string"},
                    "speaker": {"type": "string"},
                    "start_time": {"type": "string", "format": "date-time"},
                },
            },
        },
    },
)
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;
Setiap pipeline downstream code: selalu tetapkan schema. Tidak menambah biaya token, dan menghindari retry loop karena format error.
&lt;/p&gt;

&lt;h2 id="penggunaan-alat-dan-agen"&gt;Penggunaan Alat dan Agen&lt;/h2&gt;

&lt;p&gt;
API Responses expose 5 alat built-in:
&lt;/p&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;code&gt;web_search&lt;/code&gt; — pencarian real-time, dengan kutipan.&lt;/li&gt;
  &lt;li&gt;
&lt;code&gt;file_search&lt;/code&gt; — vektor search file upload.&lt;/li&gt;
  &lt;li&gt;
&lt;code&gt;code_interpreter&lt;/code&gt; — Python sandbox.&lt;/li&gt;
  &lt;li&gt;
&lt;code&gt;computer_use&lt;/code&gt; — mouse/keyboard/browser via Operator stack.&lt;/li&gt;
  &lt;li&gt;
&lt;code&gt;function&lt;/code&gt; — callback custom.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;
Peningkatan utama 5.5: model lebih agresif auto-mengaitkan tools tanpa intervensi. Di uji &lt;a href="https://the-decoder.com/openai-unveils-gpt-5-5-claims-a-new-class-of-intelligence-at-double-the-api-price/" rel="noopener noreferrer"&gt;The Decoder&lt;/a&gt;, GPT-5.5 menyelesaikan 11% lebih banyak tool-chain tanpa user input dibanding 5.4.
&lt;/p&gt;

&lt;h2 id="penanganan-kesalahan-dan-percobaan-ulang"&gt;Penanganan Error &amp;amp; Retry&lt;/h2&gt;

&lt;p&gt;
Empat kode error yang perlu di-handle:
&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Kode&lt;/th&gt;
&lt;th&gt;Arti&lt;/th&gt;
&lt;th&gt;Coba Lagi?&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;429 rate_limit_exceeded&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;Rate limit per menit/hari tercapai.&lt;/td&gt;
&lt;td&gt;Ya (backoff eksponensial + jitter).&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;400 context_length_exceeded&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;Input+output+reasoning &amp;gt; 1 Juta token.&lt;/td&gt;
&lt;td&gt;Tidak, ringkas input.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;500 server_error&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;OpenAI error sementara.&lt;/td&gt;
&lt;td&gt;Ya, maksimal 3x retry.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;code&gt;403 policy_violation&lt;/code&gt;&lt;/td&gt;
&lt;td&gt;Ditolak sistem keamanan.&lt;/td&gt;
&lt;td&gt;Tidak, rewrite prompt.&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;
Token reasoning masuk hitungan konteks. &lt;code&gt;reasoning.effort: "xhigh"&lt;/code&gt; + input besar cepat overload, meskipun prompt user pendek.
&lt;/p&gt;

&lt;h2 id="alur-kerja-pengujian-dengan-apidog"&gt;Alur Kerja Pengujian dengan Apidog&lt;/h2&gt;

&lt;p&gt;
Untuk menghindari pemborosan token karena bug schema:
&lt;/p&gt;

&lt;ol&gt;
  &lt;li&gt;Buat request sekali di &lt;a href="https://apidog.com?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;, simpan di koleksi, tandai env (dev/staging/prod).&lt;/li&gt;
  &lt;li&gt;Pakai mock server untuk replay response nyata saat iterasi downstream code.&lt;/li&gt;
  &lt;li&gt;Switch ke live key hanya saat schema sudah stabil.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;
Apidog support integrasi Claude Code dan Cursor, koleksi dapat diakses dari editor/agent mana pun. Cek &lt;a href="http://apidog.com/blog/how-to-use-apidog-inside-vscode?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;guide Apidog di VS Code&lt;/a&gt; dan &lt;a href="http://apidog.com/blog/api-testing-without-postman-2026?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;perbandingan Apidog vs Postman&lt;/a&gt; untuk setup lengkap.
&lt;/p&gt;

&lt;h2 id="memanggil-gpt-55-sebelum-api-bersifat-umum"&gt;Memanggil GPT-5.5 Sebelum API Umum&lt;/h2&gt;

&lt;p&gt;
Sebelum API Responses GA, cara langsung mencoba GPT-5.5: login via Codex. Lihat &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-free-codex?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan Codex gratis&lt;/a&gt; untuk instalasi CLI, autentikasi ChatGPT, dan pemilihan model.
&lt;/p&gt;

&lt;h2 id="faq"&gt;FAQ&lt;/h2&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;strong&gt;Apakah ada &lt;code&gt;gpt-5.5-mini&lt;/code&gt;?&lt;/strong&gt; Tidak, masih gunakan &lt;code&gt;gpt-5.4-mini&lt;/code&gt; untuk hemat biaya.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Apa itu jendela konteks?&lt;/strong&gt; 1 Juta token di API, 400 Ribu di Codex CLI (semua termasuk reasoning token).&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Perlu rewrite kode GPT-5.4?&lt;/strong&gt; Tidak. Ganti ID model, naikkan &lt;code&gt;max_output_tokens&lt;/code&gt; jika mau output lebih panjang, adjust &lt;code&gt;reasoning.effort&lt;/code&gt; sesuai workload.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Tips menghemat biaya?&lt;/strong&gt; Batch (diskon 50%), Flex (diskon 50%, antrean lebih lambat), schema strict biar tidak retry terus. Detail biaya ada di &lt;a href="http://apidog.com/blog/gpt-5-5-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;rincian harga GPT-5.5&lt;/a&gt;.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Info pengumuman API GA?&lt;/strong&gt; Cek &lt;a href="https://community.openai.com/" rel="noopener noreferrer"&gt;Komunitas OpenAI&lt;/a&gt; dan &lt;a href="https://openai.com/api/pricing/" rel="noopener noreferrer"&gt;halaman harga API OpenAI&lt;/a&gt; untuk update resmi.&lt;/li&gt;
&lt;/ul&gt;

</description>
    </item>
    <item>
      <title>Apa Itu GPT-5.5? Model Frontier Terbaru OpenAI Dijelaskan</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Fri, 24 Apr 2026 01:51:08 +0000</pubDate>
      <link>https://dev.to/walse/apa-itu-gpt-55-model-frontier-terbaru-openai-dijelaskan-3lig</link>
      <guid>https://dev.to/walse/apa-itu-gpt-55-model-frontier-terbaru-openai-dijelaskan-3lig</guid>
      <description>&lt;p&gt;OpenAI meluncurkan GPT-5.5 pada 23 April 2026, hanya enam minggu setelah versi 5.4. Model ini ditujukan untuk pengodean multi-langkah, automasi penggunaan komputer, dan riset mendalam. GPT-5.5 kini tersedia di ChatGPT dan Codex, dengan API yang akan dirilis dalam waktu dekat.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Panduan ini membahas detail teknis GPT-5.5, perubahan dari 5.4, tolok ukur performa, cara implementasi langsung, dan peringatan yang perlu diperhatikan developer.&lt;/p&gt;

&lt;p&gt;Bagi developer, berikut referensi implementasi cepat:&lt;/p&gt;

&lt;ul&gt;
  &lt;li&gt;&lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Panduan API GPT-5.5&lt;/a&gt;&lt;/li&gt;
  &lt;li&gt;&lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Panduan akses gratis&lt;/a&gt;&lt;/li&gt;
  &lt;li&gt;&lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-free-codex?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Jalur gratis Codex&lt;/a&gt;&lt;/li&gt;
  &lt;li&gt;&lt;a href="http://apidog.com/blog/gpt-5-5-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Rincian harga GPT-5.5&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Untuk uji coba koleksi pra-rilis saat API publik dibuka, gunakan &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;.&lt;/p&gt;

&lt;h2 id="ringkasan"&gt;Ringkasan&lt;/h2&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;strong&gt;GPT-5.5&lt;/strong&gt; adalah model coding dan penalaran terbaru dari OpenAI, rilis 23 April 2026.&lt;/li&gt;
  &lt;li&gt;Skor &lt;strong&gt;88.7% pada SWE-bench&lt;/strong&gt; dan &lt;strong&gt;92.4% pada MMLU&lt;/strong&gt;, dengan &lt;strong&gt;penurunan 60% halusinasi&lt;/strong&gt; dibanding GPT-5.4.&lt;/li&gt;
  &lt;li&gt;Tiga varian: &lt;strong&gt;GPT-5.5 standar&lt;/strong&gt;, &lt;strong&gt;GPT-5.5 Thinking&lt;/strong&gt; (penalaran diperpanjang), &lt;strong&gt;GPT-5.5 Pro&lt;/strong&gt; (akurasi tertinggi).&lt;/li&gt;
  &lt;li&gt;Tersedia di &lt;strong&gt;ChatGPT Plus, Pro, Business, Enterprise, Edu&lt;/strong&gt;, dan &lt;strong&gt;Codex semua paket&lt;/strong&gt; (termasuk jendela gratis sementara di Free dan Go).&lt;/li&gt;
  &lt;li&gt;API masih bertahap; jalur Codex bisa digunakan developer sambil menunggu API Responses/Chat Completions.&lt;/li&gt;
  &lt;li&gt;Harga API: &lt;strong&gt;$5 per juta token input&lt;/strong&gt; dan &lt;strong&gt;$30 per juta token output&lt;/strong&gt;; dua kali lipat dari GPT-5.4, tapi lebih efisien token.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2 id="apa-sebenarnya-gpt-55-itu"&gt;Apa itu GPT-5.5&lt;/h2&gt;

&lt;p&gt;GPT-5.5 adalah model teratas dari lini GPT-5 OpenAI, di atas GPT-5.4, 5.4-mini, dan seri 5.3. Nama internalnya “Spud”.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-209.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fassets.apidog.com%2Fblog-next%2F2026%2F04%2Fimage-209.png" alt="" width="800" height="450"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;Tiga varian utama:&lt;/p&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;strong&gt;GPT-5.5&lt;/strong&gt; — default, lebih cepat &amp;amp; efisien (token lebih sedikit per tugas).&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;GPT-5.5 Thinking&lt;/strong&gt; — anggaran penalaran lebih besar, cocok untuk spreadsheet logika berat, ringkasan riset, debugging multi-file. Limit 3.000 pesan/minggu di ChatGPT.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;GPT-5.5 Pro&lt;/strong&gt; — akurasi tinggi untuk kebutuhan kritis, hanya untuk Pro, Business, dan Enterprise.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Model ini mampu merencanakan, memilih alat, dan memeriksa output sebelum dikembalikan. Praktisnya, prompt lebih sedikit untuk laporan, objek di tabel lebih akurat, dan lebih sering meminta klarifikasi daripada asal menebak.&lt;/p&gt;

&lt;h2 id="apa-yang-berubah-dari-gpt-54"&gt;Apa yang berubah dari GPT-5.4&lt;/h2&gt;

&lt;p&gt;Peningkatan ini bukan lompatan generasi, tapi upgrade terarah. Berikut perbandingan teknis:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Kemampuan&lt;/th&gt;
&lt;th&gt;GPT-5.4&lt;/th&gt;
&lt;th&gt;GPT-5.5&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;SWE-bench&lt;/td&gt;
&lt;td&gt;~74 %&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;88.7 %&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;MMLU&lt;/td&gt;
&lt;td&gt;91.1 %&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;92.4 %&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Tingkat halusinasi&lt;/td&gt;
&lt;td&gt;dasar&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;−60 %&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Jendela konteks (API)&lt;/td&gt;
&lt;td&gt;1.05 Juta&lt;/td&gt;
&lt;td&gt;
&lt;strong&gt;1 Juta&lt;/strong&gt; (Codex: 400 Ribu)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Harga input API&lt;/td&gt;
&lt;td&gt;$2.50 / Juta&lt;/td&gt;
&lt;td&gt;$5.00 / Juta&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Harga output API&lt;/td&gt;
&lt;td&gt;$15.00 / Juta&lt;/td&gt;
&lt;td&gt;$30.00 / Juta&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Penggunaan komputer&lt;/td&gt;
&lt;td&gt;Meningkat&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;Tingkat produksi&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Rantai alat multi-langkah&lt;/td&gt;
&lt;td&gt;Prioritas satu kali&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;Loop otonom penuh&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Peningkatan utama: SWE-bench 88.7%. Ini menandingi produktivitas engineer senior (berdasarkan tolok ukur OpenAI), namun sebaiknya diuji di basis kode Anda sendiri sebelum migrasi besar.&lt;/p&gt;

&lt;p&gt;Harga naik 2x lipat, namun token lebih efisien. Pengujian independen (&lt;a href="https://the-decoder.com/openai-unveils-gpt-5-5-claims-a-new-class-of-intelligence-at-double-the-api-price/" rel="noopener noreferrer"&gt;The Decoder&lt;/a&gt;) menunjukkan kenaikan biaya riil sekitar 20% setelah efisiensi token diperhitungkan.&lt;/p&gt;

&lt;h2 id="apa-keunggulannya"&gt;Keunggulan Utama&lt;/h2&gt;

&lt;p&gt;GPT-5.5 dioptimalkan untuk:&lt;/p&gt;

&lt;ol&gt;
  &lt;li&gt;
&lt;strong&gt;Pengodean agen:&lt;/strong&gt; Buka repo, jalankan pengujian, iterasi kode (skor SWE-bench tinggi).&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Automasi komputer:&lt;/strong&gt; Kontrol browser/shell, isi form, ekstrak data terstruktur, recovery error.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Penelitian mendalam:&lt;/strong&gt; Rantai penalaran panjang, web search agresif, ringkasan sumber bertentangan (gunakan mode Thinking).&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Dokumen &amp;amp; spreadsheet:&lt;/strong&gt; Layout lebih rapi, formula lebih akurat, struktur presentasi lebih baik.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Tidak optimal untuk: klasifikasi volume besar, retrieval berbasis embedding, atau ringkasan massal — gunakan GPT-5.4-mini atau 5.3 untuk efisiensi biaya. GPT-5.5 unggul saat butuh akurasi setara engineer senior.&lt;/p&gt;

&lt;h2 id="ketersediaan-hari-ini"&gt;Ketersediaan Hari Ini&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Platform&lt;/th&gt;
&lt;th&gt;Paket&lt;/th&gt;
&lt;th&gt;Akses&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Gratis&lt;/td&gt;
&lt;td&gt;Default GPT-5.3, tanpa GPT-5.5&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Go&lt;/td&gt;
&lt;td&gt;Default GPT-5.3, tanpa GPT-5.5&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Plus&lt;/td&gt;
&lt;td&gt;GPT-5.5 standar + Thinking (3.000/minggu)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Pro&lt;/td&gt;
&lt;td&gt;Standar + Thinking + Pro&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Business&lt;/td&gt;
&lt;td&gt;Standar + Thinking + Pro&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ChatGPT&lt;/td&gt;
&lt;td&gt;Enterprise / Edu&lt;/td&gt;
&lt;td&gt;Standar + Thinking + Pro&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Codex&lt;/td&gt;
&lt;td&gt;Semua paket (Gratis, Go, Plus, Pro, Business, Enterprise, Edu)&lt;/td&gt;
&lt;td&gt;GPT-5.5 dengan konteks 400 Ribu; Gratis dan Go dalam uji coba waktu terbatas&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;API&lt;/td&gt;
&lt;td&gt;Responses / Chat Completions&lt;/td&gt;
&lt;td&gt;“Segera hadir”; belum GA saat peluncuran&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Jalur Codex memungkinkan developer akses GPT-5.5 via CLI hari ini, tanpa API key.&lt;/p&gt;

&lt;h2 id="harga-dalam-satu-baris"&gt;Harga (Singkat)&lt;/h2&gt;

&lt;ul&gt;
  &lt;li&gt;API GPT-5.5: $5 / Juta input, $30 / Juta output.&lt;/li&gt;
  &lt;li&gt;API GPT-5.5 Pro: $30 / Juta input, $180 / Juta output.&lt;/li&gt;
  &lt;li&gt;Batch &amp;amp; Flex: setengah tarif standar.&lt;/li&gt;
  &lt;li&gt;Prioritas: 2.5× tarif standar.&lt;/li&gt;
  &lt;li&gt;Codex CLI: gratis di Plus, Pro, Business, Enterprise, Edu, Go, dan sementara waktu di Gratis (dengan limit mingguan).&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Rincian dan estimasi biaya per workload ada di &lt;a href="http://apidog.com/blog/gpt-5-5-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;artikel harga GPT-5.5&lt;/a&gt;.&lt;/p&gt;

&lt;h2 id="cara-mencobanya-hari-ini"&gt;Cara Mencoba GPT-5.5 Sekarang&lt;/h2&gt;

&lt;ol&gt;
  &lt;li&gt;
    &lt;strong&gt;Buka ChatGPT (berbayar):&lt;/strong&gt; Pilih GPT-5.5 pada pemilih model.
  &lt;/li&gt;
  &lt;li&gt;
    &lt;strong&gt;Instal Codex CLI:&lt;/strong&gt;
    &lt;pre&gt;
npm install -g @openai/codex
# atau
brew install codex
    &lt;/pre&gt;
    &lt;p&gt;Jalankan &lt;code&gt;codex&lt;/code&gt; lalu login dengan akun ChatGPT. Beralih ke model GPT-5.5 dengan &lt;code&gt;/model gpt-5.5&lt;/code&gt;. Paket Gratis/Go dapat mencoba untuk waktu terbatas.&lt;br&gt;
    Lihat &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-free-codex?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Panduan penggunaan Codex gratis&lt;/a&gt;.&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;strong&gt;Siapkan koleksi API pra-rilis:&lt;/strong&gt; API akan dibuka “segera”. Siapkan permintaan di &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; agar siap pakai saat model ID aktif.
    Bentuk endpoint sesuai &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API GPT-5.5&lt;/a&gt; (mirip kontrak 5.4).
  &lt;/li&gt;
&lt;/ol&gt;

&lt;h2 id="keamanan-dan-uji-coba-keamanan"&gt;Keamanan &amp;amp; Pengujian&lt;/h2&gt;

&lt;p&gt;GPT-5.5 diuji pihak ketiga untuk risiko siber dan bio. Perlindungan kode penggunaan ganda lebih ketat dari 5.4. API publik ditunda hingga proteksi skala besar siap. Untuk aplikasi konsumen yang mengakses browser, gunakan kebijakan default lebih ketat daripada 5.4.&lt;/p&gt;

&lt;h2 id="haruskah-anda-beralih"&gt;Haruskah Beralih?&lt;/h2&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;strong&gt;Agen pengodean:&lt;/strong&gt; Ya, migrasi sekarang. Efek SWE-bench langsung terasa, Codex CLI sudah aktif.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Inferensi volume besar:&lt;/strong&gt; Tetap gunakan GPT-5.4-mini untuk default, gunakan GPT-5.5 hanya untuk tugas kompleks.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Aplikasi konsumen:&lt;/strong&gt; Tunggu API rilis, lakukan A/B test. Harga naik signifikan; penurunan halusinasi hanya kritis jika user sering terdampak.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Gunakan &lt;a href="http://apidog.com/blog/gpt-5-5-pricing?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;alur keputusan lengkap&lt;/a&gt; sebelum mengubah model di produksi.&lt;/p&gt;

&lt;h2 id="faq"&gt;FAQ&lt;/h2&gt;

&lt;ul&gt;
  &lt;li&gt;
&lt;strong&gt;Apakah GPT-5.5 sudah tersedia di API?&lt;/strong&gt;
    Belum untuk direct API key per 23 April 2026. Saat ini hanya via Codex setelah login ChatGPT.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Berapa kapasitas konteksnya?&lt;/strong&gt;
    1 juta token di ChatGPT/API (yang akan datang); 400 ribu token di Codex CLI.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Bedanya GPT-5.5 Thinking vs Pro?&lt;/strong&gt;
    Thinking: budget penalaran lebih besar. Pro: model terpisah, akurasi lebih tinggi, untuk Pro/Business/Enterprise.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Apakah GPT-5.5 gratis?&lt;/strong&gt;
    Tidak di ChatGPT, hanya paket berbayar. Di Codex, sementara gratis untuk Free/Go (ada limit). Lihat &lt;a href="http://apidog.com/blog/how-to-use-gpt-5-5-api-for-free?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan gratis&lt;/a&gt;.&lt;/li&gt;
  &lt;li&gt;
&lt;strong&gt;Bisakah tetap pakai GPT-5.4?&lt;/strong&gt;
    Bisa. Belum deprecated. Harga tetap $2.50/$15 per juta token, cocok untuk pipeline sensitif biaya.&lt;/li&gt;
&lt;/ul&gt;

</description>
    </item>
    <item>
      <title>Cara Menggunakan Hy3 Preview API Gratis?</title>
      <dc:creator>Walse</dc:creator>
      <pubDate>Thu, 23 Apr 2026 10:46:26 +0000</pubDate>
      <link>https://dev.to/walse/cara-menggunakan-hy3-preview-api-gratis-1a4i</link>
      <guid>https://dev.to/walse/cara-menggunakan-hy3-preview-api-gratis-1a4i</guid>
      <description>&lt;p&gt;Tencent merilis sumber terbuka Hy3 Preview pada 22 April 2026, dan OpenRouter langsung menyediakan endpoint gratis: tanpa kartu kredit, tanpa perhitungan token, tanpa masa uji coba. Anda bisa memanggil model Mixture-of-Experts 295B-parameter yang sama dengan aplikasi Yuanbao dan asisten CodeBuddy Tencent, langsung dari kode Anda sendiri secara gratis.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation" class="crayons-btn crayons-btn--primary"&gt;Coba Apidog hari ini&lt;/a&gt;
&lt;/p&gt;

&lt;p&gt;Panduan ini berfokus pada langkah konkret menggunakan API Hy3 Preview gratis melalui OpenRouter, Hugging Face Space, serta opsi self-hosting. Juga dibahas mode penalaran unik Hy3 dan cara cepat uji API di Apidog tanpa scripting manual.&lt;/p&gt;

&lt;p&gt;Jika ingin langsung eksekusi, lompat ke bagian “Langkah demi langkah: memanggil Hy3 Preview gratis di OpenRouter.”&lt;/p&gt;

&lt;h2&gt;
  
  
  TL;DR
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Hy3 Preview gratis di OpenRouter&lt;/strong&gt;: model ID &lt;code&gt;tencent/hy3-preview:free&lt;/code&gt;, input dan output $0.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Mixture-of-Experts&lt;/strong&gt;: 295B total parameter, 21B aktif, 192 expert, top-8 routing, &lt;strong&gt;konteks 256K-token&lt;/strong&gt;.&lt;/li&gt;
&lt;li&gt;Termasuk &lt;strong&gt;tiga mode penalaran&lt;/strong&gt;: &lt;code&gt;no_think&lt;/code&gt; (default), &lt;code&gt;low&lt;/code&gt;, &lt;code&gt;high&lt;/code&gt; untuk reasoning berantai.&lt;/li&gt;
&lt;li&gt;Benchmark kuat: &lt;strong&gt;SWE-bench Verified 74.4&lt;/strong&gt;, &lt;strong&gt;Terminal-Bench 2.0 54.4&lt;/strong&gt;, &lt;strong&gt;GPQA Diamond 87.2&lt;/strong&gt;, &lt;strong&gt;MMLU 87.42&lt;/strong&gt;.&lt;/li&gt;
&lt;li&gt;Tiga jalur gratis: OpenRouter (API), &lt;a href="https://huggingface.co/spaces/tencent/Hy3-preview" rel="noopener noreferrer"&gt;Hy3-preview Space&lt;/a&gt; Hugging Face (UI), atau inferensi lokal via vLLM dan bobot terbuka.&lt;/li&gt;
&lt;li&gt;Apidog sangat kompatibel dengan endpoint OpenRouter (skema OpenAI Chat Completions).&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Apa itu Hy3 Preview?
&lt;/h2&gt;

&lt;p&gt;Hy3 Preview adalah rilis flagship pertama dari tim model dasar Hunyuan Tencent, kini dipimpin Yao Shunyu (eks OpenAI). Model ini menjadi jawaban Tencent terhadap DeepSeek, Alibaba, dan Zhipu. &lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Ft3okmwbravxkkwnbywfk.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Ft3okmwbravxkkwnbywfk.png" alt="Profil teknis Hy3 Preview" width="800" height="535"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Spesifikasi utama&lt;/strong&gt; (&lt;a href="https://huggingface.co/tencent/Hy3-preview" rel="noopener noreferrer"&gt;Kartu model resmi&lt;/a&gt;):&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Arsitektur&lt;/strong&gt;: Mixture-of-Experts, 80 layer + 1 MTP, 64 attention head (grouped query).&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Parameter&lt;/strong&gt;: 295B total, 21B aktif per forward.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Expert&lt;/strong&gt;: 192, top-8 routing.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Konteks&lt;/strong&gt;: 256K token.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Tokenizer&lt;/strong&gt;: 120.832 vocab, presisi BF16.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Lisensi&lt;/strong&gt;: Tencent Hy Community License, komersial diizinkan sesuai syarat.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Model ini menonjol pada pelatihan agensi dan penggunaan alat multi-turn. Skor SWE-bench, Terminal-Bench, dan WildClawBench menempatkannya hampir setara model closed-source top untuk tugas kode dan shell.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fr9r1k4hiwnqmxfzcxkrv.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fr9r1k4hiwnqmxfzcxkrv.png" alt="Benchmark Hy3 Preview" width="800" height="823"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  Tiga Cara Gratis Menggunakan Hy3 Preview
&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Jalur&lt;/th&gt;
&lt;th&gt;Keterangan&lt;/th&gt;
&lt;th&gt;Gratis?&lt;/th&gt;
&lt;th&gt;Cocok Untuk&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;OpenRouter &lt;code&gt;tencent/hy3-preview:free&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;API hosted kompatibel OpenAI&lt;/td&gt;
&lt;td&gt;Ya, $0 in/out&lt;/td&gt;
&lt;td&gt;Agen, scripting, backend&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Hugging Face Space&lt;/td&gt;
&lt;td&gt;Demo chat via browser&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;Prompting, testing cepat&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Self-hosted weights (vLLM/SGLang)&lt;/td&gt;
&lt;td&gt;Jalankan bobot sendiri di GPU&lt;/td&gt;
&lt;td&gt;Software gratis, bayar hardware&lt;/td&gt;
&lt;td&gt;Privasi, volume tinggi&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Untuk developer, jalur OpenRouter adalah yang tercepat dari registrasi ke API call. Rate limit pada tier gratis cukup untuk prototyping.&lt;/p&gt;

&lt;h2&gt;
  
  
  Langkah demi langkah: Memanggil Hy3 Preview Gratis di OpenRouter
&lt;/h2&gt;

&lt;p&gt;Minimal setup agar Anda bisa cek respons dari model &lt;code&gt;tencent/hy3-preview:free&lt;/code&gt;:&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fa447qs4ksvaydcv2u7nb.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fa447qs4ksvaydcv2u7nb.png" alt="Langkah OpenRouter" width="800" height="493"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;Buat akun OpenRouter.&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Daftar di &lt;a href="https://openrouter.ai" rel="noopener noreferrer"&gt;openrouter.ai&lt;/a&gt;. Email cukup, tidak perlu kartu kredit.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;Buat API key.&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Di dashboard OpenRouter, buka menu “Kunci” dan generate API key baru. Simpan, misal:&lt;br&gt;
&lt;/p&gt;&lt;/li&gt;
&lt;/ol&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;   &lt;span class="nb"&gt;export &lt;/span&gt;&lt;span class="nv"&gt;OPENROUTER_API_KEY&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;sk-or-...
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Konfirmasi endpoint gratis.&lt;/strong&gt;
Kunjungi &lt;a href="https://openrouter.ai/tencent/hy3-preview:free" rel="noopener noreferrer"&gt;daftar gratis Hy3 Preview&lt;/a&gt; dan pastikan status “Gratis”. Anda bisa cek statistik penggunaan live di sana.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F4z8fvz17rlpo92tt34x4.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F4z8fvz17rlpo92tt34x4.png" alt="Status model OpenRouter" width="800" height="208"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Kirim permintaan pertama via curl.&lt;/strong&gt;
OpenRouter pakai skema OpenAI Chat Completions, sehingga bisa pakai SDK OpenAI atau curl:
&lt;/li&gt;
&lt;/ol&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;   curl https://openrouter.ai/api/v1/chat/completions &lt;span class="se"&gt;\&lt;/span&gt;
     &lt;span class="nt"&gt;-H&lt;/span&gt; &lt;span class="s2"&gt;"Authorization: Bearer &lt;/span&gt;&lt;span class="nv"&gt;$OPENROUTER_API_KEY&lt;/span&gt;&lt;span class="s2"&gt;"&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
     &lt;span class="nt"&gt;-H&lt;/span&gt; &lt;span class="s2"&gt;"Content-Type: application/json"&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
     &lt;span class="nt"&gt;-d&lt;/span&gt; &lt;span class="s1"&gt;'{
       "model": "tencent/hy3-preview:free",
       "messages": [
         {"role": "user", "content": "Jelaskan keputusan perutean MoE dalam pengaturan top-8 dari 192 dalam 3 kalimat."}
       ],
       "temperature": 0.9,
       "top_p": 1.0
     }'&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Aktifkan reasoning jika perlu.&lt;/strong&gt;
Hy3 menerima parameter &lt;code&gt;reasoning&lt;/code&gt; dengan &lt;code&gt;effort&lt;/code&gt; (&lt;code&gt;low&lt;/code&gt;/&lt;code&gt;high&lt;/code&gt;). OpenRouter akan mengembalikan trace reasoning di &lt;code&gt;reasoning_details&lt;/code&gt;.
&lt;/li&gt;
&lt;/ol&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight json"&gt;&lt;code&gt;&lt;span class="w"&gt;   &lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="w"&gt;
     &lt;/span&gt;&lt;span class="nl"&gt;"model"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="s2"&gt;"tencent/hy3-preview:free"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;&lt;span class="w"&gt;
     &lt;/span&gt;&lt;span class="nl"&gt;"messages"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="w"&gt;
       &lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="nl"&gt;"role"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="s2"&gt;"user"&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="nl"&gt;"content"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="s2"&gt;"Rencanakan, lalu tulis skrip Bash yang merotasi file log harian yang lebih tua dari 30 hari ke folder arsip tanggal."&lt;/span&gt;&lt;span class="p"&gt;}&lt;/span&gt;&lt;span class="w"&gt;
     &lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;&lt;span class="w"&gt;
     &lt;/span&gt;&lt;span class="nl"&gt;"reasoning"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="p"&gt;{&lt;/span&gt;&lt;span class="nl"&gt;"effort"&lt;/span&gt;&lt;span class="p"&gt;:&lt;/span&gt;&lt;span class="w"&gt; &lt;/span&gt;&lt;span class="s2"&gt;"high"&lt;/span&gt;&lt;span class="p"&gt;}&lt;/span&gt;&lt;span class="w"&gt;
   &lt;/span&gt;&lt;span class="p"&gt;}&lt;/span&gt;&lt;span class="w"&gt;
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Ulangi / jaga sesi.&lt;/strong&gt;
Untuk konteks berkelanjutan, tetap gunakan thread yang sama. Jendela 256K Hy3 bisa handle basis kode besar.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Respons dari endpoint ini identik dengan model yang dipublikasikan di Hugging Face dan setara kualitasnya dengan rute berbayar di provider lain.&lt;/p&gt;

&lt;h2&gt;
  
  
  Gratis, Berbayar, dan Self-hosted: Apa Bedanya?
&lt;/h2&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Kemampuan&lt;/th&gt;
&lt;th&gt;OpenRouter Gratis&lt;/th&gt;
&lt;th&gt;OpenRouter Berbayar&lt;/th&gt;
&lt;th&gt;Self-hosted (vLLM/SGLang)&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Biaya/token&lt;/td&gt;
&lt;td&gt;$0&lt;/td&gt;
&lt;td&gt;Sesuai provider&lt;/td&gt;
&lt;td&gt;Listrik + GPU&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Mode reasoning&lt;/td&gt;
&lt;td&gt;
&lt;code&gt;no_think&lt;/code&gt;/&lt;code&gt;low&lt;/code&gt;/&lt;code&gt;high&lt;/code&gt;
&lt;/td&gt;
&lt;td&gt;Sama&lt;/td&gt;
&lt;td&gt;Sama&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Panjang konteks&lt;/td&gt;
&lt;td&gt;256K&lt;/td&gt;
&lt;td&gt;256K&lt;/td&gt;
&lt;td&gt;256K (jika RAM cukup)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Throughput&lt;/td&gt;
&lt;td&gt;Pool shared, prioritas rendah saat load tinggi&lt;/td&gt;
&lt;td&gt;Dedicated&lt;/td&gt;
&lt;td&gt;Bebas, sesuai cluster&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Rate limit&lt;/td&gt;
&lt;td&gt;Tier gratis, fleksibel&lt;/td&gt;
&lt;td&gt;Sesuai provider&lt;/td&gt;
&lt;td&gt;Tidak ada&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Data retention&lt;/td&gt;
&lt;td&gt;Kebijakan OpenRouter&lt;/td&gt;
&lt;td&gt;Sesuai provider&lt;/td&gt;
&lt;td&gt;Hanya di hardware Anda&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Token reasoning&lt;/td&gt;
&lt;td&gt;Ya (&lt;code&gt;reasoning_details&lt;/code&gt;)&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;td&gt;Ya&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Tier gratis ideal untuk prototipe, side project, evaluasi, dan agen trafik rendah. Upgrade ke berbayar/self-host jika perlu throughput tinggi atau latency rendah.&lt;/p&gt;

&lt;h2&gt;
  
  
  Tips Prompt dan Parameter untuk Maksimalkan Hy3
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Atur suhu sesuai mode.&lt;/strong&gt;
Default: &lt;code&gt;temperature=0.9&lt;/code&gt;, &lt;code&gt;top_p=1.0&lt;/code&gt;. Untuk output terstruktur, set ke &lt;code&gt;0.3&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Gunakan &lt;code&gt;no_think&lt;/code&gt; untuk chat biasa.&lt;/strong&gt;
Reasoning default non-aktif; &lt;code&gt;low&lt;/code&gt;/&lt;code&gt;high&lt;/code&gt; hanya untuk reasoning multi-step atau planning.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Jelaskan alat di prompt sistem.&lt;/strong&gt;
Model lebih akurat jika tools dijelaskan di prompt sistem, bukan hanya lewat schema.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Tempel kode, jangan minta rangkuman.&lt;/strong&gt;
Jendela 256K memungkinkan paste file penuh.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Edit multi-file sekaligus.&lt;/strong&gt;
Sertakan semua file terkait dalam satu pesan.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Minta plan dulu.&lt;/strong&gt;
Step-by-step (“buat rencana, konfirmasi, lalu jalankan”) lebih stabil daripada prompt langsung.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Batasan Hy3 Preview yang Wajib Diantisipasi
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Rate limit fleksibel, tergantung load.&lt;/strong&gt;
Volume prompt harian tinggi, saat peak bisa 429. Siapkan retry &amp;amp; exponential backoff.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Token reasoning dihitung output.&lt;/strong&gt;
Tier gratis: reasoning gratis, berbayar: dihitung output.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Lisensi bukan Apache 2.0.&lt;/strong&gt;
Komersial diizinkan, tapi ada syarat &amp;amp; atribusi. &lt;a href="https://github.com/Tencent-Hunyuan/Hy3-preview" rel="noopener noreferrer"&gt;Baca lisensi lengkap di GitHub&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Parser alat wajib benar.&lt;/strong&gt;
Self-host: vLLM pakai &lt;code&gt;--tool-call-parser hy_v3&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Bahasa utama: Inggris &amp;amp; Mandarin.&lt;/strong&gt;
Bahasa lain didukung, tapi kualitas turun.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Tertinggal dari flagship Barat di reasoning tersulit.&lt;/strong&gt;
HLE ~30, masih di bawah OpenAI/Google terbaru untuk benchmark reasoning tingkat lanjut.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Jalur Kilat Developer: Hy3 Preview + Apidog
&lt;/h2&gt;

&lt;p&gt;CLI (curl) bagus untuk quick-test, tapi untuk iterasi cepat, pakai klien API visual seperti &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt;.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Buka Apidog&lt;/strong&gt; dan buat project baru. Import spesifikasi OpenAPI OpenAI Chat Completions.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Set URL dasar&lt;/strong&gt; ke &lt;code&gt;https://openrouter.ai/api/v1&lt;/code&gt; dan masukkan variabel environment untuk &lt;code&gt;OPENROUTER_API_KEY&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Buat permintaan&lt;/strong&gt; ke &lt;code&gt;/chat/completions&lt;/code&gt; dengan model &lt;code&gt;tencent/hy3-preview:free&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Fork permintaan&lt;/strong&gt; untuk bandingkan reasoning mode (&lt;code&gt;no_think&lt;/code&gt;, &lt;code&gt;low&lt;/code&gt;, &lt;code&gt;high&lt;/code&gt;), cek latency &amp;amp; output berdampingan.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Simpan template prompt&lt;/strong&gt;. Gunakan fitur environment &amp;amp; variabel Apidog untuk prompt panjang, tools schemas, dsb.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Migrasi dari Postman sangat mudah. &lt;a href="http://apidog.com/blog/api-testing-without-postman-2026?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Panduan pengujian API tanpa Postman&lt;/a&gt; dan &lt;a href="http://apidog.com/blog/how-to-use-apidog-inside-vscode?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;cara pakai Apidog di dalam VS Code&lt;/a&gt; tersedia untuk workflow lebih efisien.&lt;/p&gt;

&lt;h2&gt;
  
  
  Alternatif Gratis Saat Rate Limit Tercapai
&lt;/h2&gt;

&lt;p&gt;Jika pool gratis OpenRouter overload, coba dua jalur ini:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Hugging Face Space.&lt;/strong&gt;
&lt;a href="https://huggingface.co/spaces/tencent/Hy3-preview" rel="noopener noreferrer"&gt;Hy3-preview Space&lt;/a&gt;: demo chat browser, tidak bisa di-script, tapi gratis.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Model open-weights Tiongkok lain.&lt;/strong&gt;

&lt;ul&gt;
&lt;li&gt;Qwen 3.5 Omni (Alibaba): &lt;a href="http://apidog.com/blog/qwen-3-5-omni-announcement?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;pengumuman&lt;/a&gt;, &lt;a href="http://apidog.com/blog/how-to-use-qwen-3-5-omni?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;setup&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;Zhipu GLM 5V Turbo: &lt;a href="http://apidog.com/blog/glm-5v-turbo-api-guide?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;panduan API&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;


&lt;/li&gt;

&lt;/ul&gt;

&lt;p&gt;Model-model ini tidak setara Hy3 untuk agent-coding, tapi kuat untuk chat, multibahasa, multimodal. Untuk produksi, buat satu koleksi per model di Apidog; benchmark berdampingan pada prompt real-world lebih akurat daripada leaderboard.&lt;/p&gt;

&lt;h2&gt;
  
  
  Menghosting Sendiri Hy3 Preview dengan vLLM
&lt;/h2&gt;

&lt;p&gt;Punya GPU? Inferensi lokal = kontrol penuh, tanpa rate limit.&lt;/p&gt;

&lt;p&gt;Model card merekomendasikan vLLM dengan tensor parallel 8 &amp;amp; speculative decoding aktif:&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight shell"&gt;&lt;code&gt;vllm serve tencent/Hy3-preview &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--tensor-parallel-size&lt;/span&gt; 8 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--speculative-config&lt;/span&gt;.method mtp &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--speculative-config&lt;/span&gt;.num_speculative_tokens 1 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--tool-call-parser&lt;/span&gt; hy_v3 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--reasoning-parser&lt;/span&gt; hy_v3 &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--enable-auto-tool-choice&lt;/span&gt; &lt;span class="se"&gt;\&lt;/span&gt;
  &lt;span class="nt"&gt;--served-model-name&lt;/span&gt; hy3-preview
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;p&gt;SGLang: gunakan &lt;code&gt;--tool-call-parser hunyuan&lt;/code&gt; dan &lt;code&gt;--reasoning-parser hunyuan&lt;/code&gt;. Endpoint default: &lt;code&gt;http://localhost:8000/v1&lt;/code&gt;. OpenAI SDK tinggal ganti URL &amp;amp; key.&lt;/p&gt;

&lt;p&gt;Minimal 8x H100 BF16 untuk full model. Build terkuantisasi akan muncul, namun saat launch hanya full precision.&lt;/p&gt;

&lt;h2&gt;
  
  
  FAQ
&lt;/h2&gt;

&lt;p&gt;&lt;strong&gt;Apakah Hy3 Preview gratis?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Ya. OpenRouter listing &lt;code&gt;tencent/hy3-preview:free&lt;/code&gt; dengan $0 per juta token input/output. Token reasoning juga gratis di tier gratis, tapi tetap kena rate limit. Konfirmasi status &lt;a href="https://openrouter.ai/tencent/hy3-preview:free" rel="noopener noreferrer"&gt;di halaman model OpenRouter&lt;/a&gt; sebelum dipakai produksi.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bagaimana perbandingan Hy3 Preview dengan DeepSeek V3 dan Qwen 3?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Skor SWE-bench Verified (74.4) dan Terminal-Bench 2.0 (54.4) bersaing dengan model Tiongkok teratas. Untuk chat, Qwen 3 &amp;amp; DeepSeek V3 kompetitif; untuk agent-coding, Hy3 unggul di tool usage dan RL training.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Apa saja mode penalaran Hy3?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Tiga: &lt;code&gt;no_think&lt;/code&gt; (default), &lt;code&gt;low&lt;/code&gt;, &lt;code&gt;high&lt;/code&gt;. Ubah via parameter &lt;code&gt;reasoning&lt;/code&gt; di OpenRouter atau &lt;code&gt;chat_template_kwargs={"reasoning_effort": "high"}&lt;/code&gt; jika self-hosting. Gunakan &lt;code&gt;high&lt;/code&gt; untuk kode multi-step, planning, atau math.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Bisa dipakai komersial?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Ya, di bawah Tencent Hy Community License. Komersial diizinkan dengan atribusi &amp;amp; compliance. &lt;a href="https://github.com/Tencent-Hunyuan/Hy3-preview" rel="noopener noreferrer"&gt;Baca syarat di repo GitHub Hy3&lt;/a&gt;.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Panjang konteks di tier gratis?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
256K token (OpenRouter: 262.144). Bisa paste satu basis kode menengah + tools schema dan riwayat chat.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Cara uji Hy3 Preview tanpa kode?&lt;/strong&gt;&lt;br&gt;&lt;br&gt;
Gunakan &lt;a href="https://huggingface.co/spaces/tencent/Hy3-preview" rel="noopener noreferrer"&gt;Hugging Face Space&lt;/a&gt; untuk demo chat, atau arahkan &lt;a href="https://apidog.com/?utm_source=dev.to&amp;amp;utm_medium=wanda&amp;amp;utm_content=n8n-post-automation"&gt;Apidog&lt;/a&gt; ke endpoint OpenRouter. Konfigurasi hanya butuh base URL, API key, dan nama model.&lt;/p&gt;

</description>
    </item>
  </channel>
</rss>
