DEV Community

Cover image for Penting: Cara Menghentikan GitHub Copilot Menggunakan Kode Anda untuk Pelatihan AI (Sebelum 24 April)
Walse
Walse

Posted on • Originally published at apidog.com

Penting: Cara Menghentikan GitHub Copilot Menggunakan Kode Anda untuk Pelatihan AI (Sebelum 24 April)

TL;DR

GitHub akan mulai menggunakan data interaksi Copilot Anda untuk pelatihan model AI pada 24 April 2026. Cuplikan kode, percakapan chat, dan keputusan penerimaan Anda akan dijadikan data pelatihan kecuali Anda memilih keluar secara manual. Segera ubah pengaturan di github.com/settings/copilot sebelum tenggat waktu untuk menjaga kode tetap privat.

Coba Apidog hari ini

Pendahuluan

Alur kerja pengembangan Anda akan segera menjadi data pelatihan untuk pihak lain.

Pada 24 April 2026, kebijakan Copilot terbaru GitHub mulai berlaku. Perubahan ini memungkinkan Microsoft dan GitHub menggunakan semua yang Anda masukkan ke Copilot: cuplikan kode, pertanyaan debugging, permintaan refaktorisasi, hingga kode kepemilikan dari repo privat perusahaan Anda.

Mayoritas developer tidak akan menerima pemberitahuan langsung. Mereka tetap bekerja, tanpa sadar bahwa kekayaan intelektual mereka menjadi bagian korpus pelatihan GitHub setiap menggunakan Copilot.

Jika Anda mengelola tim developer atau bekerja dengan basis kode sensitif, tandai halaman ini dan bagikan dengan pimpinan teknik Anda. Waktu untuk memilih keluar sangat terbatas.

Apa yang Berubah dalam Kebijakan Copilot GitHub

Pengumuman GitHub menyebut pembaruan ini sebagai peningkatan untuk "mempersonalisasi dan meningkatkan" pengalaman Copilot. Faktanya, penggunaan data melampaui sekadar personalisasi.

Linimasa Kebijakan

24 April 2026 adalah tanggal efektif. Setelah itu, GitHub menganggap Anda setuju (opt-in) kecuali telah memilih keluar secara manual di pengaturan akun.

Pengumuman awal menyebut "data interaksi" akan digunakan untuk melatih AI masa depan. Istilah ini mencakup lebih dari sekadar kode.

Apa yang Dikumpulkan GitHub

Data interaksi Copilot meliputi:

Jenis Data Apa yang Termasuk Risiko Privasi
Cuplikan kode Kode yang Anda tulis/modifikasi dengan Copilot Algoritma kepemilikan, logika bisnis, integrasi API
Percakapan chat Seluruh sesi Copilot Chat Keputusan arsitektur, debugging, desain sistem
Keputusan penerimaan Saran yang Anda terima/tolak Sinyal pelatihan kode “baik”
Konteks berkas Kode sekitar saat Copilot memberi saran Skema DB, alur auth, API internal
Pola koreksi Bagaimana Anda mengedit output Copilot Standar tim, praktik keamanan

Data ini akan melatih model generasi berikutnya GitHub. Begitu masuk, pola kode Anda bisa muncul dalam saran ke developer lain, termasuk kompetitor.

Mengapa Pengaturan Default Penting

GitHub menyarankan Anda "meninjau pembaruan dan mengelola preferensi". Beban perlindungan privasi sepenuhnya di tangan pengguna. Setelah 24 April: default adalah ikut (opted in).

Sebagian besar pengguna tidak mengubah pengaturan default, apalagi untuk tool sehari-hari. Riset: hanya 15-20% yang biasanya memilih keluar jika diberikan opsi jelas. GitHub mengasumsikan >80% akan tetap ikut secara default.

Langkah demi Langkah: Cara Memilih Keluar dari Pengumpulan Data Copilot GitHub

Proses memilih keluar kurang dari dua menit. Lakukan sebelum 24 April.

Metode 1: Pengaturan Akun Individu

Akses Pengaturan Copilot

  1. Login ke github.com
  2. Klik ikon profil (pojok kanan atas)
  3. Pilih "Settings" dari dropdown
  4. Klik "Copilot" di sidebar kiri

Navigasi ke pengaturan Copilot

Temukan Bagian Penggunaan Data

  1. Scroll ke bagian "Privacy"
  2. Cari opsi "Allow GitHub to use my data for AI model training"

Pengaturan privasi Copilot

  1. Matikan opsi tersebut
  2. Pastikan tampil sebagai dinonaktifkan

Konfirmasi Perubahan

  • Perubahan bisa butuh waktu sampai 30 menit untuk berlaku
  • Restart editor kode Anda agar efeknya langsung aktif

Metode 2: Pengaturan Organisasi (Untuk Admin)

Jika Anda admin organisasi GitHub, atur opt-out untuk seluruh anggota:

Akses Pengaturan Organisasi

  1. Buka halaman utama organisasi Anda
  2. Klik "Settings" di navigasi organisasi
  3. Pilih "Copilot" di menu kiri

Konfigurasi Kebijakan Data

  1. Temukan bagian "Copilot data usage policies"
  2. Pilih "Disable interaction data collection for all members"
  3. Simpan perubahan

Komunikasikan ke Tim

  • Dokumentasikan kebijakan baru di wiki internal
  • Beritahu melalui Slack/email
  • Tambahkan ke checklist onboarding karyawan baru

Langkah Verifikasi

Setelah memilih keluar, pastikan pengaturan sudah berlaku:

# Tidak ada verifikasi via CLI, tetapi bisa:
# 1. Cek di halaman pengaturan: opsi tidak dicentang
# 2. Download data GitHub (Settings > Privacy > Download your data)
# 3. Pantau perilaku Copilot jika ada perubahan
Enter fullscreen mode Exit fullscreen mode

Penting: Memilih keluar hanya mencegah pengumpulan data ke depan, tidak menghapus data yang sudah dikumpulkan.

Pertimbangan Perusahaan dan Kepatuhan

Jika Anda bekerja di industri regulasi atau mengelola data sensitif, perubahan ini menambah risiko.

Industri yang Membutuhkan Pengawasan Ekstra

Industri Regulasi Kekhawatiran
Kesehatan HIPAA PHI di komentar/nama variabel
Keuangan SOC 2, GDPR Logika transaksi, pola penanganan PII
Pemerintahan FedRAMP, ITAR Arsitektur rahasia, protokol keamanan
SaaS Perusahaan Kontrak pelanggan Algoritma kepemilikan, keunggulan kompetitif

Pertanyaan untuk Tim Legal Anda

Sebelum 24 April, tinjau dengan tim kepatuhan/hukum:

  1. Apakah MSA dengan GitHub membahas penggunaan data pelatihan AI?
  2. Apakah kontrak pelanggan melarang berbagi kode ke AI pihak ketiga?
  3. Apa tanggung jawab jika kode tim muncul di saran pesaing?
  4. Perlukah perjanjian perusahaan dengan batasan data eksplisit?

Opsi GitHub Enterprise

Pelanggan GitHub Enterprise bisa negosiasi lebih lanjut. Diskusikan:

  • Jaminan kontrak terkait penggunaan data pelatihan
  • Model privat untuk workload tertentu
  • Audit log untuk pelaporan kepatuhan
  • Kebijakan retensi data khusus

Apidog untuk Privasi Pengembangan API

Untuk tim yang membangun dan menguji API, privasi tak hanya soal kode. Apidog menawarkan alternatif cloud API development yang mengutamakan privasi:

  • Arsitektur lokal-first: Spesifikasi API tetap di komputer Anda
  • Tidak melatih model dari data Anda: Apidog tidak melatih AI dengan definisi API Anda
  • Opsi self-hosted: Kedaulatan data penuh untuk lingkungan regulasi
  • Kolaborasi internal tanpa paparan eksternal: Spesifikasi bisa dibagikan di internal tanpa akses pihak ketiga

Antarmuka Apidog

Saat memilih alat AI development, selalu tanya: "Data saya ke mana dan digunakan untuk apa?" Jawabannya harus jelas, terdokumentasi, dan mengikat secara kontraktual.

Apa yang Terjadi Jika Anda Tidak Memilih Keluar

Setelah 24 April, jika tetap ikut:

Kode Anda masuk ke pipeline pelatihan

  • Data interaksi diproses terus-menerus
  • Tidak ada notifikasi saat data digunakan
  • Tidak ada mekanisme untuk minta penghapusan

Skenario potensi kebocoran

  • Pesaing menggunakan Copilot dengan konteks serupa
  • Model bisa menyarankan kode mirip milik Anda
  • Tidak ada audit trail terkait data pelatihan yang digunakan

Komplikasi kepatuhan

  • Audit pelanggan bisa menandai penggunaan AI training data
  • Regulator bisa meminta pemetaan data yang tidak tersedia
  • Potensi pelanggaran kontrak pelanggan

Bisakah Memilih Keluar Nanti?

Bisa, tapi terbatas:

  • Data baru: Pengumpulan dihentikan setelah opt-out
  • Data lama: Sudah masuk model, penghapusan tidak dijamin
  • Model retraining: Pola yang sudah dipelajari tetap ada di bobot model

Cara teraman: pilih keluar sebelum 24 April.

Kesimpulan

Perubahan kebijakan Copilot GitHub berlaku 24 April. Data interaksi Anda—cuplikan kode, percakapan chat, pola penerimaan—akan jadi bahan pelatihan AI GitHub kecuali Anda memilih keluar secara manual.

Dua menit untuk memilih keluar bisa melindungi IP, kode tim, dan posisi kepatuhan organisasi Anda. Jangan tunggu sampai 25 April untuk sadar bahwa kode Anda menjadi pelatihan AI pesaing.

Untuk tim API yang ingin alat canggih tanpa kompromi privasi, cek Apidog: platform API development all-in-one yang menjaga spesifikasi tetap privat secara default.

Top comments (0)