DEV Community

Cover image for Acil: GitHub Copilot'un Kodunuzu Yapay Zeka Eğitiminde Kullanmasını Nasıl Durdurursunuz (24 Nisan'dan Önce)
Tobias Hoffmann
Tobias Hoffmann

Posted on • Originally published at apidog.com

Acil: GitHub Copilot'un Kodunuzu Yapay Zeka Eğitiminde Kullanmasını Nasıl Durdurursunuz (24 Nisan'dan Önce)

Özet

GitHub, 24 Nisan 2026'dan itibaren Copilot etkileşim verilerinizi yapay zeka modeli eğitimi için kullanmaya başlayacak. Kod parçacıklarınız, sohbet konuşmalarınız ve kabul kararlarınız, manuel olarak devre dışı bırakmadığınız sürece eğitim verisi haline gelecek. Kodunuzu gizli tutmak için son tarihten önce ayarlarınızı github.com/settings/copilot adresinden değiştirin.

Apidog'u bugün deneyin

Giriş

Geliştirme iş akışınız başkalarının eğitim verisi olmak üzere. 24 Nisan 2026'da GitHub'ın güncellenmiş Copilot politikası yürürlüğe giriyor. Bu değişiklikle, Copilot'a yazdığınız tüm kodlar, sohbetler ve düzenleme istekleri yeni nesil yapay zeka modellerinin eğitim materyali olacak. Buna şirketinizin özel depolarındaki tescilli kodlar da dahil.

Çoğu geliştirici doğrudan bir bildirim almayacak. Copilot ile çalışırken, ürettikleri fikri mülkiyetin GitHub'ın eğitim veri havuzuna aktarıldığının farkında olmayacaklar.

Bir geliştirme ekibini yönetiyorsanız veya hassas kod tabanlarıyla çalışıyorsanız, bu rehberi kaydedin ve ekip liderinizle paylaşın. Devre dışı bırakma için zaman kısıtlı.

GitHub'ın Copilot Politikasında Neler Değişti?

GitHub, politika güncellemesini Copilot deneyimlerini "kişiselleştirmek ve iyileştirmek" için yaptığını belirtiyor. Ancak veri kullanımı sadece kişiselleştirme ile sınırlı değil.

Politika Zaman Çizelgesi

  • Yürürlük Tarihi: 24 Nisan 2026.
  • Bu tarihten sonra, hesap ayarlarınızdan manuel olarak devre dışı bırakmadığınız sürece GitHub, zımni onayınız olduğunu varsayacak.

Orijinal duyuruda, gelecekteki AI modelleri için "etkileşim verileri"nin kullanılacağı belirtiliyor. Ancak "etkileşim verileri" kapsamı oldukça geniş.

GitHub Neleri Topluyor?

GitHub'ın Copilot etkileşim verileri şunları kapsar:

Veri Türü Neleri İçerir Gizlilik Riski
Kod parçacıkları Copilot ile yazdığınız veya değiştirdiğiniz kodlar Tescilli algoritmalar, iş mantığı, API entegrasyonları
Sohbet konuşmaları Copilot Sohbet oturumlarının tam bağlamı Mimari kararlar, hata ayıklama, sistem tasarımı
Kabul kararları Hangi önerileri kabul/reddettiğiniz "İyi" kod sinyali
Dosya bağlamı Copilot öneri oluştururken kullandığı çevresel kod Veritabanı şemaları, kimlik doğrulama, dahili API'ler
Düzeltme kalıpları Copilot çıktısını nasıl değiştirdiğiniz Kodlama standartları, güvenlik uygulamaları

Bu verilerle GitHub, yeni modellerini eğitir. Kodunuz bir kez dahil olduktan sonra, kod kalıplarınız modelin ağırlıklarına yerleşir ve başkalarına öneriler olarak sunulabilir.

Varsayılan Ayar Neden Önemli?

GitHub kullanıcılarına "güncellemeyi gözden geçirin ve tercihlerinizi yönetin" diyor, yani gizlilik koruması için adım atmak size bırakılmış.

  • 24 Nisan sonrası varsayılan: Açık
  • Çoğu kullanıcı varsayılanı değiştirmediği için, verileriniz büyük olasılıkla paylaşılacak.

Adım Adım: GitHub Copilot Veri Toplamadan Nasıl Vazgeçilir?

Devre dışı bırakmak iki dakikadan kısa sürer. 24 Nisan'dan önce aşağıdaki adımları uygulayın.

Yöntem 1: Bireysel Hesap Ayarları

Copilot Ayarlarına Git

  1. github.com adresine gidin.
  2. Sağ üstte profil simgenize tıklayın.
  3. Açılır menüden "Ayarlar"ı seçin.
  4. Sol kenar çubuğunda "Copilot" sekmesine tıklayın.

GitHub Copilot Ayarlarına Gidin

Veri Kullanım Bölümünü Bul

  1. "Gizlilik" bölümüne ilerleyin.
  2. "GitHub'ın verilerimi yapay zeka modeli eğitimi için kullanmasına izin ver" seçeneğini bulun.

GitHub Copilot Veri Kullanımı Ayarlarını Devre Dışı Bırakın

  1. Seçeneği devre dışı bırakın.
  2. Ayarın devre dışı göründüğünü doğrulayın.

Değişikliği Onayla

  • Değişikliklerin etkili olması 30 dakikayı bulabilir.
  • Hemen etkinleştirmek için kod editörünüzü yeniden başlatın.

Yöntem 2: Kuruluş Geneli Ayarları (Yöneticiler için)

Bir GitHub Kuruluşu yönetiyorsanız, tüm üyeler için devre dışı bırakmayı zorunlu kılabilirsiniz:

  1. Kuruluş ana sayfanıza gidin.
  2. "Ayarlar" sekmesine tıklayın.
  3. Sol menüden "Copilot"u seçin.

Veri Politikalarını Yapılandırın

  • "Copilot veri kullanım politikaları" bölümünü bulun.
  • "Tüm üyeler için etkileşim veri toplamayı devre dışı bırak" seçeneğini işaretleyin.
  • Değişiklikleri kaydedin.

Ekibinizi Bilgilendirin

  • Politika değişikliğini dahili wiki'de belgeleyin.
  • Geliştiricilere Slack/e-posta ile bildirin.
  • Yeni işe alımlara kontrol listesine ekleyin.

Doğrulama Adımları

Devre dışı bırakmanın etkinliğini şöyle kontrol edin:

# CLI doğrulaması yok, fakat:
# 1. Ayarlar sayfasında seçeneğin işaretsiz olduğunu kontrol edin
# 2. GitHub'da: Ayarlar > Gizlilik > Verilerinizi İndir ile veri indirme isteği yapın
# 3. Copilot davranışında değişiklik olup olmadığını gözlemleyin
Enter fullscreen mode Exit fullscreen mode

Not: Devre dışı bırakmak, geçmişte toplanan verileri silmez. Sadece bundan sonra veri toplamayı engeller.

Kurumsal ve Uyumluluk Hususları

Düzenlenmiş sektörlerde veya hassas müşteri verileriyle çalışıyorsanız, bu politika değişikliği ek riskler getirir.

Ekstra İnceleme Gerektiren Sektörler

Sektör Düzenleme Endişe
Sağlık Hizmetleri HIPAA PHI'nin kod yorumlarında ifşası
Finans SOC 2, GDPR PII işleme, müşteri işlem mantığı
Devlet FedRAMP, ITAR Gizli sistem mimarileri, güvenlik protokolleri
Kurumsal SaaS Müşteri sözleşmeleri Tescilli algoritmalar, rekabet avantajları

Hukuk Ekibinize Sorulacak Sorular

24 Nisan'dan önce şu konuları hukuk/uyumluluk ekibinizle değerlendirin:

  1. GitHub ile mevcut MSA'mız AI eğitim verisi kullanımını kapsıyor mu?
  2. Müşteri sözleşmeleri, kodun üçüncü parti AI ile paylaşımını yasaklıyor mu?
  3. Tescilli kod rakip önerilerinde çıkarsa sorumluluğumuz nedir?
  4. Açık veri sınırları olan kurumsal bir anlaşmaya ihtiyacımız var mı?

GitHub Enterprise Seçenekleri

Enterprise müşterileri için:

  • Eğitim verisi kullanımına karşı sözleşmesel garantiler
  • Düzenlenmiş iş yükleri için özel model örnekleri
  • Gelişmiş denetim kaydı
  • Özel veri saklama politikaları konularını GitHub temsilcinizle görüşün.

API Geliştirme Gizliliği İçin Apidog

API geliştiren ve test eden ekipler için gizlilik sadece kod tamamlama ile sınırlı değil. Apidog, bulut tabanlı API geliştirme araçlarına gizliliği önceleyen bir alternatif sunar:

  • Yerel öncelikli mimari: API özellikleriniz makinenizde kalır
  • Müşteri verilerinde eğitim yok: Apidog, modelleri eğitmek için API tanımlarınızı kullanmaz
  • Kendi kendine barındırılan seçenekler: Tam veri egemenliği
  • Maruz kalmadan ekip işbirliği: Özellikleri iç ekiple güvenli şekilde paylaşın

API Geliştirme Gizliliği İçin Apidog

Yapay zeka destekli araçları değerlendirirken şu soruyu sorun: "Verilerim nereye gidiyor ve nasıl kullanılıyor?" Cevabın net, belgelenmiş ve sözleşmeye dayalı olması gerekir.

Devre Dışı Bırakmazsanız Ne Olur?

24 Nisan'dan sonra devre dışı bırakmazsanız:

Kodunuz eğitim hattına girer

  • Etkileşim verileri otomatik işlenir
  • Verinizin kullanıldığına dair bildirim almazsınız
  • Silme talebi için bir mekanizma yoktur

Potansiyel maruz kalma senaryoları

  • Bir rakip, Copilot'a benzer bir prompt ile yaklaşır
  • Model, kodunuza benzer öneriler üretir
  • Hangi verinin çıktıyı etkilediğini gösteren denetim izi yoktur

Uyumluluk komplikasyonları

  • Müşteri denetimleri yapay zeka eğitim verisi kullanımını işaretleyebilir
  • Yasal soruşturmalar için veri haritası sunamazsınız
  • Sözleşme ihlalleri bildirim tetikleyebilir

Daha Sonra Vazgeçebilir misiniz?

Evet, ancak bazı sınırlar var:

  • Gelecekteki veriler: Yalnızca ileriye dönük veri toplamayı durdurur
  • Geçmiş veriler: Modelde kalır; silinme garantisi yok
  • Model yeniden eğitimi: Silinse bile, model ağırlıkları öğrenilen kalıpları koruyabilir

En temiz çözüm: 24 Nisan'dan önce devre dışı bırakın.

Sonuç

GitHub'ın Copilot politika değişikliği 24 Nisan'da devreye giriyor. Kod parçacıkları, sohbetler, kabul kalıpları — manuel devre dışı bırakmadığınız sürece, verileriniz GitHub'ın yapay zeka modellerinin eğitim materyali olacak.

İki dakikalık vazgeçme işlemi, fikri mülkiyetinizi, ekibinizin tescilli kodunu ve kuruluşunuzun uyumluluğunu korur. Kodunuzun rakip yapay zeka asistanlarının eğitimine katkı sunmasını istemiyorsanız, 25 Nisan'ı beklemeyin.

API'lar geliştiren ve gizlilikten ödün vermeden güçlü araçlar isteyen ekipler için Apidog'u keşfedin: Özelliklerinizi varsayılan olarak gizli tutan hepsi bir arada API geliştirme platformu.

Top comments (0)