DEV Community

Cover image for "Attention Is All You Need" Paper tahun 2017 yang mengubah dunia kecerdasan buatan, dijelaskan tanpa perlu latar belakang teknis.
Nugroho Ardi Sutrisno
Nugroho Ardi Sutrisno

Posted on

"Attention Is All You Need" Paper tahun 2017 yang mengubah dunia kecerdasan buatan, dijelaskan tanpa perlu latar belakang teknis.

🌍 Mengapa paper ini begitu penting?

Sebelum 2017, komputer sangat kesulitan memahami dan menghasilkan bahasa manusia. Para peneliti sudah mencoba berbagai pendekatan, tapi semuanya punya masalah mendasar.

Lalu delapan peneliti Google menulis sebuah paper berjudul "Attention Is All You Need" β€” dan dunia AI tidak pernah sama lagi. Paper ini memperkenalkan arsitektur bernama Transformer, yang menjadi fondasi dari hampir semua AI bahasa modern:

  • ChatGPT dan semua model GPT dari OpenAI
  • Claude
  • Gemini dari Google
  • Google Translate versi modern
  • Dan ratusan aplikasi AI lainnya

Analogi : Bayangkan sebelumnya orang mencoba membangun gedung pencakar langit menggunakan bata satu per satu dari bawah. Paper ini seperti menemukan baja dan beton bertulang β€” material baru yang jauh lebih kuat dan efisien.

πŸ˜“ Masalah sebelum Transformer

Untuk memahami solusinya, kita perlu tahu dulu apa masalahnya. Sebelum Transformer, model bahasa menggunakan arsitektur yang disebut RNNRecurrent Neural Network β€” jaringan saraf yang memproses kata satu per satu secara berurutan (Recurrent Neural Network).

Bayangkan kamu membaca kalimat ini kata per kata, dan kamu hanya diizinkan mengingat satu catatan kecil yang terus kamu perbarui setiap membaca kata baru. Di akhir kalimat, kamu harus menjawab pertanyaan tentang kata yang ada di awal β€” tapi catatan kamu sudah berubah berkali-kali!

πŸ” Apa itu "Attention"?

Konsep paling kunci dalam paper ini adalah mekanisme attention. Idenya intuitif: ketika kamu membaca sebuah kata, kamu secara alami memperhatikan kata-kata lain yang relevan untuk memahaminya.

Contoh Nyata : Dalam kalimat "Kucing itu duduk di atas matras karena ia lelah" β€” untuk memahami kata "ia", kamu secara otomatis melirik ke belakang dan menghubungkannya dengan "Kucing". Itulah persis yang dilakukan attention!

Mekanisme attention memungkinkan model untuk melihat semua kata sekaligus dan menentukan kata mana yang paling relevan untuk memahami sebuah kata tertentu.

Rumus Attention (tidak perlu panik!)
Secara matematis, attention dihitung dengan rumus sederhana:

Terjemahannya dalam bahasa manusia:

  1. Q (Query) = "Apa yang sedang aku cari?"
  2. K (Key) = "Apa yang dimiliki setiap kata?"
  3. V (Value) = "Informasi apa yang ingin kubawa jika relevan?"
  4. Hitung seberapa cocok Query dengan setiap Key β†’ dapat skor
  5. Gunakan skor itu untuk mengambil Value yang proporsional

🎯 Multi-Head Attention

Satu mekanisme attention saja tidak cukup, karena setiap kata punya banyak aspek yang perlu diperhatikan secara bersamaan. Transformer menggunakan Multi-Head Attention β€” beberapa "kepala" attention yang bekerja paralel, masing-masing fokus pada aspek yang berbeda.

  1. Kepala Sintaksis : Kepala ini fokus pada hubungan tata bahasa, subjek-predikat, kata sifat-kata benda. Seperti seorang ahli tata bahasa yang menganalisis struktur kalimat.
  2. Kepala Referensi : Kepala ini ahli mencari referensi kata ganti, menemukan bahwa "ia", "mereka", atau "itu" merujuk ke entitas mana. Sangat penting untuk pemahaman konteks.
  3. Kepala Kedekatan : Kepala ini memperhatikan kata-kata yang berdekatan secara posisi, frasa seperti "di atas", "sangat cepat", atau "meja kayu". Tangkap hubungan lokal.
  4. Kepala Semantik : Kepala ini fokus pada makna, menghubungkan kata-kata yang memiliki hubungan semantik seperti tindakan dengan pelakunya atau benda dengan sifatnya.
  5. Kepala Temporal : Kepala ini sensitif terhadap hubungan waktu dan urutan kejadian dalam teks kata kerja, kata keterangan waktu, dan kausalitas.
  6. Kepala Konteks : Kepala ini punya jangkauan luas, menghubungkan tema utama paragraph atau dokumen, menjaga koherensi global teks.

πŸ—οΈ Arsitektur Transformer

Transformer terdiri dari dua bagian besar: Encoder (pemahaman) dan Decoder (pembuatan). Untuk tugas terjemahan misalnya, encoder membaca bahasa sumber dan decoder menghasilkan terjemahannya.

A. ENCODER

  1. Encoder Self-Attention Setiap kata dalam input memperhatikan semua kata lain di kalimat yang sama. Ini membangun pemahaman konteks yang kaya β€” "bank" dalam "bank sungai" vs "bank uang" akan berbeda representasinya.
  2. Feed-Forward Proses tiap kata
  3. Layer Normalization Normalisasi memastikan nilai tidak meledak atau mengecil saat data melewati banyak lapisan. Tanpa ini, training bisa tidak stabil. Juga ada "residual connections" (skip connections) yang membantu gradient mengalir.
  4. Output Encoder Encoder menghasilkan representasi kontekstual yang kaya untuk setiap kata input. Bukan lagi sekadar "embeddings" statis, tapi representasi yang sudah memahami konteks penuh kalimat.

B. DECODER

  1. Masked Self-Attention Kata yang sudah ada
  2. Cross-Attention β€” Jembatan Encoder↔Decoder Bagian paling krusial! Decoder menggunakan output yang sedang dihasilkan sebagai Query dan seluruh output encoder sebagai Key+Value. Model secara eksplisit memilih bagian mana dari input yang relevan untuk setiap langkah decoding.
  3. Decoder Feed-Forward Sama seperti encoder, lapisan ini memproses setiap posisi secara independen setelah informasi dari kedua attention layers digabungkan.
  4. Feed-forward Proses gabungan info
  5. Softmax Output Output akhir adalah distribusi probabilitas atas seluruh kosakata (bisa ratusan ribu kata!). Kata dengan probabilitas tertinggi dipilih, atau kita bisa "sampling" untuk variasi. Proses ini berulang sampai kalimat selesai.

πŸ“ Positional Encoding

Ada satu masalah kecil: karena Transformer memproses semua kata secara paralel (bukan berurutan), model tidak tahu kata mana yang datang pertama, kedua, atau ketiga. Ini seperti dikasih kartu yang sudah diacak β€” kamu tidak tahu urutannya!

Solusinya: tambahkan informasi posisi ke setiap kata sebelum diproses. Paper ini menggunakan fungsi sinus dan cosinus untuk mengkodekan posisi ini.

Intuisi Sederhana Setiap posisi mendapat "cap" numerik yang unik, seperti nomor kursi di bioskop. Model belajar menggunakan cap ini untuk memahami urutan dan jarak antar kata.

πŸ“Š Hasil yang Menakjubkan

Ketika paper ini pertama dirilis, hasilnya membuat komunitas riset terkejut. Transformer tidak hanya lebih baik β€” ia jauh lebih baik, dengan waktu training yang lebih singkat.

πŸŽ“ Apa yang sudah kita pelajari?

πŸ“š Mau belajar lebih lanjut?

Paper asli "Attention Is All You Need" (arXiv)
The Illustrated Transformer β€” Jay Alammar (visualisasi cantik, bahasa Inggris)
Andrej Karpathy: Let's build GPT from scratch (YouTube)

Top comments (0)