DEV Community

Cover image for # Belajar AI: Apa Itu RAG (Retrieval-Augmented Generation)? | OCI Generative AI Professional Course #2
Mohammad Ezzeddin Pratama
Mohammad Ezzeddin Pratama

Posted on • Edited on

# Belajar AI: Apa Itu RAG (Retrieval-Augmented Generation)? | OCI Generative AI Professional Course #2

Ini salah satu teknik penting di aplikasi LLM (Large Language Model) yang bikin AI bisa jawab pertanyaan lebih akurat dengan nyari info dari data eksternal. Yuk, kita bedah apa itu RAG, cara kerjanya, dan apakah bener metode yang gue denger (input dokumen → nyari di corpus → LLM jawab) itu cara kerja RAG.


Belajar AI: Apa Itu RAG (Retrieval-Augmented Generation)?

1. Definisi Simpel: Apa Itu RAG?

RAG adalah teknik yang ngegabungin dua dunia: pencarian informasi (retrieval) dan *generasi teks (generation)
*
.

Tanpa RAG: LLM kayak temen yang jawab pertanyaan berdasarkan ingetan doang—kadang bener, kadang ngarang (hallucination).

Dengan RAG: LLM kayak temen yang googling dulu di perpustakaan sebelum jawab, jadi lebih akurat.

Contoh:

Kamu tanya, "Apa kebijakan terbaru soal AI di Indonesia tahun 2025?"

  • Tanpa RAG: mungkin ngasal berdasarkan data lama.
  • Dengan RAG: model nyari dokumen terbaru (misalnya laporan atau artikel) terus bikin jawaban dari situ.

2. Cara Kerja RAG

Metode yang sering disebut (input → corpus → LLM) bener banget sebagai gambaran umum. Lebih detailnya:

  1. Input (dokumen atau pertanyaan)

    • Kamu kasih input berupa pertanyaan/perintah.
    • Input diubah jadi vektor embedding.
  2. Query ke Corpus (pencarian di database)

    • Corpus = kumpulan dokumen yang sudah diubah jadi vektor embedding.
    • Vektor input dibandingin dengan vektor dokumen di corpus (pakai cosine similarity atau FAISS).
    • Hasilnya: dokumen yang paling relevan.

Contoh:

Input: "Kebijakan AI Indonesia 2025"

Dokumen relevan: "Laporan Kominfo 2025: Regulasi AI di Indonesia"

  1. LLM menjawab berdasarkan corpus
    • Dokumen relevan + input dimasukin ke LLM.
    • LLM bikin jawaban pakai konteks tambahan ini.

Contoh output:

"Berdasarkan laporan Kominfo 2025, kebijakan AI di Indonesia fokus pada etika penggunaan data dan pengembangan talenta lokal."

  1. Komponen utama RAG
    • Retriever → nyari dokumen relevan (pakai embedding model).
    • Generator → LLM itu sendiri (DeepSeek, GPT-4, LLaMA, dll).

Corpus biasanya disimpen di database vektor (contoh: FAISS, Pinecone) biar pencarian cepat.


3. Kenapa RAG Penting?

Kelebihan:

  • Lebih akurat → kurangi hallucination.
  • Up-to-date → bisa pake dokumen terbaru tanpa retrain LLM.
  • Fleksibel → cocok buat chatbot perusahaan, Q&A ilmiah, asisten programmer.

Kelemahan:

  • Butuh corpus yang relevan dan berkualitas.
  • Bisa lambat kalau corpus gede dan database nggak dioptimasi.

4. Kaitan dengan DeepSeek 1.5B

Bisa nggak bikin RAG dengan DeepSeek 1.5B di lokal? Bisa.

  • DeepSeek jadi bagian generator.
  • Tambahin retriever (misalnya pakai Hugging Face Transformers) dan corpus (file teks atau database vektor).
  • Karena DeepSeek 1.5B fokus ke penalaran, RAG bisa melengkapi dia dengan pengetahuan umum dari corpus.

Tantangan:

  • Hardware terbatas bikin lambat kalau corpus terlalu besar.
  • Lebih aman mulai dari corpus kecil (contoh: 10 artikel).

5. Catatan Belajar dan Langkah Selanjutnya

Progres: gue sekarang ngerti RAG = retriever + generator. Flow kerjanya: input → cari di corpus → LLM jawab.

Rencana:

  • Bikin aplikasi RAG sederhana pakai DeepSeek 1.5B.
  • Eksperimen dengan 5 artikel AI sebagai corpus.
  • Tes pertanyaan spesifik dan bandingin jawaban dengan/ tanpa RAG.
  • Dalemin database vektor (FAISS, Pinecone) biar performa lebih cepat.

Motivasi: RAG itu kayak nambah superpower ke LLM. Dengan ini, AI bisa jawab pertanyaan berdasarkan dokumen spesifik tanpa perlu model raksasa.


Top comments (0)