Özet
GitHub, 24 Nisan 2026'dan itibaren Copilot etkileşim verilerinizi yapay zeka modeli eğitimi için kullanmaya başlayacak. Kod parçacıklarınız, sohbet konuşmalarınız ve kabul kararlarınız, manuel olarak devre dışı bırakmadığınız sürece eğitim verisi haline gelecek. Kodunuzu gizli tutmak için son tarihten önce ayarlarınızı github.com/settings/copilot adresinden değiştirin.
Giriş
Geliştirme iş akışınız başkalarının eğitim verisi olmak üzere. 24 Nisan 2026'da GitHub'ın güncellenmiş Copilot politikası yürürlüğe giriyor. Bu değişiklikle, Copilot'a yazdığınız tüm kodlar, sohbetler ve düzenleme istekleri yeni nesil yapay zeka modellerinin eğitim materyali olacak. Buna şirketinizin özel depolarındaki tescilli kodlar da dahil.
Çoğu geliştirici doğrudan bir bildirim almayacak. Copilot ile çalışırken, ürettikleri fikri mülkiyetin GitHub'ın eğitim veri havuzuna aktarıldığının farkında olmayacaklar.
Bir geliştirme ekibini yönetiyorsanız veya hassas kod tabanlarıyla çalışıyorsanız, bu rehberi kaydedin ve ekip liderinizle paylaşın. Devre dışı bırakma için zaman kısıtlı.
GitHub'ın Copilot Politikasında Neler Değişti?
GitHub, politika güncellemesini Copilot deneyimlerini "kişiselleştirmek ve iyileştirmek" için yaptığını belirtiyor. Ancak veri kullanımı sadece kişiselleştirme ile sınırlı değil.
Politika Zaman Çizelgesi
- Yürürlük Tarihi: 24 Nisan 2026.
- Bu tarihten sonra, hesap ayarlarınızdan manuel olarak devre dışı bırakmadığınız sürece GitHub, zımni onayınız olduğunu varsayacak.
Orijinal duyuruda, gelecekteki AI modelleri için "etkileşim verileri"nin kullanılacağı belirtiliyor. Ancak "etkileşim verileri" kapsamı oldukça geniş.
GitHub Neleri Topluyor?
GitHub'ın Copilot etkileşim verileri şunları kapsar:
| Veri Türü | Neleri İçerir | Gizlilik Riski |
|---|---|---|
| Kod parçacıkları | Copilot ile yazdığınız veya değiştirdiğiniz kodlar | Tescilli algoritmalar, iş mantığı, API entegrasyonları |
| Sohbet konuşmaları | Copilot Sohbet oturumlarının tam bağlamı | Mimari kararlar, hata ayıklama, sistem tasarımı |
| Kabul kararları | Hangi önerileri kabul/reddettiğiniz | "İyi" kod sinyali |
| Dosya bağlamı | Copilot öneri oluştururken kullandığı çevresel kod | Veritabanı şemaları, kimlik doğrulama, dahili API'ler |
| Düzeltme kalıpları | Copilot çıktısını nasıl değiştirdiğiniz | Kodlama standartları, güvenlik uygulamaları |
Bu verilerle GitHub, yeni modellerini eğitir. Kodunuz bir kez dahil olduktan sonra, kod kalıplarınız modelin ağırlıklarına yerleşir ve başkalarına öneriler olarak sunulabilir.
Varsayılan Ayar Neden Önemli?
GitHub kullanıcılarına "güncellemeyi gözden geçirin ve tercihlerinizi yönetin" diyor, yani gizlilik koruması için adım atmak size bırakılmış.
- 24 Nisan sonrası varsayılan: Açık
- Çoğu kullanıcı varsayılanı değiştirmediği için, verileriniz büyük olasılıkla paylaşılacak.
Adım Adım: GitHub Copilot Veri Toplamadan Nasıl Vazgeçilir?
Devre dışı bırakmak iki dakikadan kısa sürer. 24 Nisan'dan önce aşağıdaki adımları uygulayın.
Yöntem 1: Bireysel Hesap Ayarları
Copilot Ayarlarına Git
- github.com adresine gidin.
- Sağ üstte profil simgenize tıklayın.
- Açılır menüden "Ayarlar"ı seçin.
- Sol kenar çubuğunda "Copilot" sekmesine tıklayın.
Veri Kullanım Bölümünü Bul
- "Gizlilik" bölümüne ilerleyin.
- "GitHub'ın verilerimi yapay zeka modeli eğitimi için kullanmasına izin ver" seçeneğini bulun.
- Seçeneği devre dışı bırakın.
- Ayarın devre dışı göründüğünü doğrulayın.
Değişikliği Onayla
- Değişikliklerin etkili olması 30 dakikayı bulabilir.
- Hemen etkinleştirmek için kod editörünüzü yeniden başlatın.
Yöntem 2: Kuruluş Geneli Ayarları (Yöneticiler için)
Bir GitHub Kuruluşu yönetiyorsanız, tüm üyeler için devre dışı bırakmayı zorunlu kılabilirsiniz:
- Kuruluş ana sayfanıza gidin.
- "Ayarlar" sekmesine tıklayın.
- Sol menüden "Copilot"u seçin.
Veri Politikalarını Yapılandırın
- "Copilot veri kullanım politikaları" bölümünü bulun.
- "Tüm üyeler için etkileşim veri toplamayı devre dışı bırak" seçeneğini işaretleyin.
- Değişiklikleri kaydedin.
Ekibinizi Bilgilendirin
- Politika değişikliğini dahili wiki'de belgeleyin.
- Geliştiricilere Slack/e-posta ile bildirin.
- Yeni işe alımlara kontrol listesine ekleyin.
Doğrulama Adımları
Devre dışı bırakmanın etkinliğini şöyle kontrol edin:
# CLI doğrulaması yok, fakat:
# 1. Ayarlar sayfasında seçeneğin işaretsiz olduğunu kontrol edin
# 2. GitHub'da: Ayarlar > Gizlilik > Verilerinizi İndir ile veri indirme isteği yapın
# 3. Copilot davranışında değişiklik olup olmadığını gözlemleyin
Not: Devre dışı bırakmak, geçmişte toplanan verileri silmez. Sadece bundan sonra veri toplamayı engeller.
Kurumsal ve Uyumluluk Hususları
Düzenlenmiş sektörlerde veya hassas müşteri verileriyle çalışıyorsanız, bu politika değişikliği ek riskler getirir.
Ekstra İnceleme Gerektiren Sektörler
| Sektör | Düzenleme | Endişe |
|---|---|---|
| Sağlık Hizmetleri | HIPAA | PHI'nin kod yorumlarında ifşası |
| Finans | SOC 2, GDPR | PII işleme, müşteri işlem mantığı |
| Devlet | FedRAMP, ITAR | Gizli sistem mimarileri, güvenlik protokolleri |
| Kurumsal SaaS | Müşteri sözleşmeleri | Tescilli algoritmalar, rekabet avantajları |
Hukuk Ekibinize Sorulacak Sorular
24 Nisan'dan önce şu konuları hukuk/uyumluluk ekibinizle değerlendirin:
- GitHub ile mevcut MSA'mız AI eğitim verisi kullanımını kapsıyor mu?
- Müşteri sözleşmeleri, kodun üçüncü parti AI ile paylaşımını yasaklıyor mu?
- Tescilli kod rakip önerilerinde çıkarsa sorumluluğumuz nedir?
- Açık veri sınırları olan kurumsal bir anlaşmaya ihtiyacımız var mı?
GitHub Enterprise Seçenekleri
Enterprise müşterileri için:
- Eğitim verisi kullanımına karşı sözleşmesel garantiler
- Düzenlenmiş iş yükleri için özel model örnekleri
- Gelişmiş denetim kaydı
- Özel veri saklama politikaları konularını GitHub temsilcinizle görüşün.
API Geliştirme Gizliliği İçin Apidog
API geliştiren ve test eden ekipler için gizlilik sadece kod tamamlama ile sınırlı değil. Apidog, bulut tabanlı API geliştirme araçlarına gizliliği önceleyen bir alternatif sunar:
- Yerel öncelikli mimari: API özellikleriniz makinenizde kalır
- Müşteri verilerinde eğitim yok: Apidog, modelleri eğitmek için API tanımlarınızı kullanmaz
- Kendi kendine barındırılan seçenekler: Tam veri egemenliği
- Maruz kalmadan ekip işbirliği: Özellikleri iç ekiple güvenli şekilde paylaşın
Yapay zeka destekli araçları değerlendirirken şu soruyu sorun: "Verilerim nereye gidiyor ve nasıl kullanılıyor?" Cevabın net, belgelenmiş ve sözleşmeye dayalı olması gerekir.
Devre Dışı Bırakmazsanız Ne Olur?
24 Nisan'dan sonra devre dışı bırakmazsanız:
Kodunuz eğitim hattına girer
- Etkileşim verileri otomatik işlenir
- Verinizin kullanıldığına dair bildirim almazsınız
- Silme talebi için bir mekanizma yoktur
Potansiyel maruz kalma senaryoları
- Bir rakip, Copilot'a benzer bir prompt ile yaklaşır
- Model, kodunuza benzer öneriler üretir
- Hangi verinin çıktıyı etkilediğini gösteren denetim izi yoktur
Uyumluluk komplikasyonları
- Müşteri denetimleri yapay zeka eğitim verisi kullanımını işaretleyebilir
- Yasal soruşturmalar için veri haritası sunamazsınız
- Sözleşme ihlalleri bildirim tetikleyebilir
Daha Sonra Vazgeçebilir misiniz?
Evet, ancak bazı sınırlar var:
- Gelecekteki veriler: Yalnızca ileriye dönük veri toplamayı durdurur
- Geçmiş veriler: Modelde kalır; silinme garantisi yok
- Model yeniden eğitimi: Silinse bile, model ağırlıkları öğrenilen kalıpları koruyabilir
En temiz çözüm: 24 Nisan'dan önce devre dışı bırakın.
Sonuç
GitHub'ın Copilot politika değişikliği 24 Nisan'da devreye giriyor. Kod parçacıkları, sohbetler, kabul kalıpları — manuel devre dışı bırakmadığınız sürece, verileriniz GitHub'ın yapay zeka modellerinin eğitim materyali olacak.
İki dakikalık vazgeçme işlemi, fikri mülkiyetinizi, ekibinizin tescilli kodunu ve kuruluşunuzun uyumluluğunu korur. Kodunuzun rakip yapay zeka asistanlarının eğitimine katkı sunmasını istemiyorsanız, 25 Nisan'ı beklemeyin.
API'lar geliştiren ve gizlilikten ödün vermeden güçlü araçlar isteyen ekipler için Apidog'u keşfedin: Özelliklerinizi varsayılan olarak gizli tutan hepsi bir arada API geliştirme platformu.



Top comments (0)