TL;DR
GitHub akan mulai menggunakan data interaksi Copilot Anda untuk pelatihan model AI pada 24 April 2026. Cuplikan kode, percakapan chat, dan keputusan penerimaan Anda akan dijadikan data pelatihan kecuali Anda memilih keluar secara manual. Segera ubah pengaturan di github.com/settings/copilot sebelum tenggat waktu untuk menjaga kode tetap privat.
Pendahuluan
Alur kerja pengembangan Anda akan segera menjadi data pelatihan untuk pihak lain.
Pada 24 April 2026, kebijakan Copilot terbaru GitHub mulai berlaku. Perubahan ini memungkinkan Microsoft dan GitHub menggunakan semua yang Anda masukkan ke Copilot: cuplikan kode, pertanyaan debugging, permintaan refaktorisasi, hingga kode kepemilikan dari repo privat perusahaan Anda.
Mayoritas developer tidak akan menerima pemberitahuan langsung. Mereka tetap bekerja, tanpa sadar bahwa kekayaan intelektual mereka menjadi bagian korpus pelatihan GitHub setiap menggunakan Copilot.
Jika Anda mengelola tim developer atau bekerja dengan basis kode sensitif, tandai halaman ini dan bagikan dengan pimpinan teknik Anda. Waktu untuk memilih keluar sangat terbatas.
Apa yang Berubah dalam Kebijakan Copilot GitHub
Pengumuman GitHub menyebut pembaruan ini sebagai peningkatan untuk "mempersonalisasi dan meningkatkan" pengalaman Copilot. Faktanya, penggunaan data melampaui sekadar personalisasi.
Linimasa Kebijakan
24 April 2026 adalah tanggal efektif. Setelah itu, GitHub menganggap Anda setuju (opt-in) kecuali telah memilih keluar secara manual di pengaturan akun.
Pengumuman awal menyebut "data interaksi" akan digunakan untuk melatih AI masa depan. Istilah ini mencakup lebih dari sekadar kode.
Apa yang Dikumpulkan GitHub
Data interaksi Copilot meliputi:
| Jenis Data | Apa yang Termasuk | Risiko Privasi |
|---|---|---|
| Cuplikan kode | Kode yang Anda tulis/modifikasi dengan Copilot | Algoritma kepemilikan, logika bisnis, integrasi API |
| Percakapan chat | Seluruh sesi Copilot Chat | Keputusan arsitektur, debugging, desain sistem |
| Keputusan penerimaan | Saran yang Anda terima/tolak | Sinyal pelatihan kode “baik” |
| Konteks berkas | Kode sekitar saat Copilot memberi saran | Skema DB, alur auth, API internal |
| Pola koreksi | Bagaimana Anda mengedit output Copilot | Standar tim, praktik keamanan |
Data ini akan melatih model generasi berikutnya GitHub. Begitu masuk, pola kode Anda bisa muncul dalam saran ke developer lain, termasuk kompetitor.
Mengapa Pengaturan Default Penting
GitHub menyarankan Anda "meninjau pembaruan dan mengelola preferensi". Beban perlindungan privasi sepenuhnya di tangan pengguna. Setelah 24 April: default adalah ikut (opted in).
Sebagian besar pengguna tidak mengubah pengaturan default, apalagi untuk tool sehari-hari. Riset: hanya 15-20% yang biasanya memilih keluar jika diberikan opsi jelas. GitHub mengasumsikan >80% akan tetap ikut secara default.
Langkah demi Langkah: Cara Memilih Keluar dari Pengumpulan Data Copilot GitHub
Proses memilih keluar kurang dari dua menit. Lakukan sebelum 24 April.
Metode 1: Pengaturan Akun Individu
Akses Pengaturan Copilot
- Login ke github.com
- Klik ikon profil (pojok kanan atas)
- Pilih "Settings" dari dropdown
- Klik "Copilot" di sidebar kiri
Temukan Bagian Penggunaan Data
- Scroll ke bagian "Privacy"
- Cari opsi "Allow GitHub to use my data for AI model training"
- Matikan opsi tersebut
- Pastikan tampil sebagai dinonaktifkan
Konfirmasi Perubahan
- Perubahan bisa butuh waktu sampai 30 menit untuk berlaku
- Restart editor kode Anda agar efeknya langsung aktif
Metode 2: Pengaturan Organisasi (Untuk Admin)
Jika Anda admin organisasi GitHub, atur opt-out untuk seluruh anggota:
Akses Pengaturan Organisasi
- Buka halaman utama organisasi Anda
- Klik "Settings" di navigasi organisasi
- Pilih "Copilot" di menu kiri
Konfigurasi Kebijakan Data
- Temukan bagian "Copilot data usage policies"
- Pilih "Disable interaction data collection for all members"
- Simpan perubahan
Komunikasikan ke Tim
- Dokumentasikan kebijakan baru di wiki internal
- Beritahu melalui Slack/email
- Tambahkan ke checklist onboarding karyawan baru
Langkah Verifikasi
Setelah memilih keluar, pastikan pengaturan sudah berlaku:
# Tidak ada verifikasi via CLI, tetapi bisa:
# 1. Cek di halaman pengaturan: opsi tidak dicentang
# 2. Download data GitHub (Settings > Privacy > Download your data)
# 3. Pantau perilaku Copilot jika ada perubahan
Penting: Memilih keluar hanya mencegah pengumpulan data ke depan, tidak menghapus data yang sudah dikumpulkan.
Pertimbangan Perusahaan dan Kepatuhan
Jika Anda bekerja di industri regulasi atau mengelola data sensitif, perubahan ini menambah risiko.
Industri yang Membutuhkan Pengawasan Ekstra
| Industri | Regulasi | Kekhawatiran |
|---|---|---|
| Kesehatan | HIPAA | PHI di komentar/nama variabel |
| Keuangan | SOC 2, GDPR | Logika transaksi, pola penanganan PII |
| Pemerintahan | FedRAMP, ITAR | Arsitektur rahasia, protokol keamanan |
| SaaS Perusahaan | Kontrak pelanggan | Algoritma kepemilikan, keunggulan kompetitif |
Pertanyaan untuk Tim Legal Anda
Sebelum 24 April, tinjau dengan tim kepatuhan/hukum:
- Apakah MSA dengan GitHub membahas penggunaan data pelatihan AI?
- Apakah kontrak pelanggan melarang berbagi kode ke AI pihak ketiga?
- Apa tanggung jawab jika kode tim muncul di saran pesaing?
- Perlukah perjanjian perusahaan dengan batasan data eksplisit?
Opsi GitHub Enterprise
Pelanggan GitHub Enterprise bisa negosiasi lebih lanjut. Diskusikan:
- Jaminan kontrak terkait penggunaan data pelatihan
- Model privat untuk workload tertentu
- Audit log untuk pelaporan kepatuhan
- Kebijakan retensi data khusus
Apidog untuk Privasi Pengembangan API
Untuk tim yang membangun dan menguji API, privasi tak hanya soal kode. Apidog menawarkan alternatif cloud API development yang mengutamakan privasi:
- Arsitektur lokal-first: Spesifikasi API tetap di komputer Anda
- Tidak melatih model dari data Anda: Apidog tidak melatih AI dengan definisi API Anda
- Opsi self-hosted: Kedaulatan data penuh untuk lingkungan regulasi
- Kolaborasi internal tanpa paparan eksternal: Spesifikasi bisa dibagikan di internal tanpa akses pihak ketiga
Saat memilih alat AI development, selalu tanya: "Data saya ke mana dan digunakan untuk apa?" Jawabannya harus jelas, terdokumentasi, dan mengikat secara kontraktual.
Apa yang Terjadi Jika Anda Tidak Memilih Keluar
Setelah 24 April, jika tetap ikut:
Kode Anda masuk ke pipeline pelatihan
- Data interaksi diproses terus-menerus
- Tidak ada notifikasi saat data digunakan
- Tidak ada mekanisme untuk minta penghapusan
Skenario potensi kebocoran
- Pesaing menggunakan Copilot dengan konteks serupa
- Model bisa menyarankan kode mirip milik Anda
- Tidak ada audit trail terkait data pelatihan yang digunakan
Komplikasi kepatuhan
- Audit pelanggan bisa menandai penggunaan AI training data
- Regulator bisa meminta pemetaan data yang tidak tersedia
- Potensi pelanggaran kontrak pelanggan
Bisakah Memilih Keluar Nanti?
Bisa, tapi terbatas:
- Data baru: Pengumpulan dihentikan setelah opt-out
- Data lama: Sudah masuk model, penghapusan tidak dijamin
- Model retraining: Pola yang sudah dipelajari tetap ada di bobot model
Cara teraman: pilih keluar sebelum 24 April.
Kesimpulan
Perubahan kebijakan Copilot GitHub berlaku 24 April. Data interaksi Anda—cuplikan kode, percakapan chat, pola penerimaan—akan jadi bahan pelatihan AI GitHub kecuali Anda memilih keluar secara manual.
Dua menit untuk memilih keluar bisa melindungi IP, kode tim, dan posisi kepatuhan organisasi Anda. Jangan tunggu sampai 25 April untuk sadar bahwa kode Anda menjadi pelatihan AI pesaing.
Untuk tim API yang ingin alat canggih tanpa kompromi privasi, cek Apidog: platform API development all-in-one yang menjaga spesifikasi tetap privat secara default.



Top comments (0)