Kurz gesagt
GitHub wird ab dem 24. April 2026 Ihre Copilot-Interaktionsdaten für das Training von KI-Modellen verwenden. Ihre Code-Snippets, Chat-Konversationen und Akzeptanzentscheidungen werden zu Trainingsdaten, es sei denn, Sie widersprechen manuell. Ändern Sie Ihre Einstellungen unter github.com/settings/copilot vor der Frist, um Ihren Code privat zu halten.
Einleitung
Ihr Entwicklungs-Workflow wird bald zu Trainingsdaten für andere.
Am 24. April 2026 tritt die aktualisierte Copilot-Richtlinie von GitHub in Kraft. Die Änderung erlaubt es Microsoft und GitHub, alles, was Sie in Copilot eingeben – Code-Snippets, Debugging-Fragen, Refactoring-Anfragen – als Trainingsmaterial für ihre KI-Modelle der nächsten Generation zu verwenden. Dies umfasst auch proprietären Code aus den privaten Repositories Ihres Unternehmens.
Die meisten Entwickler werden keine direkte Benachrichtigung erhalten. Sie arbeiten weiter, ohne zu wissen, dass ihr geistiges Eigentum mit jeder Copilot-Interaktion Teil des Trainingskorpus von GitHub wird.
Wenn Sie ein Entwicklungsteam leiten oder mit sensiblen Codebasen arbeiten, markieren Sie diese Seite und informieren Sie Ihr technisches Management. Die Frist für den Widerspruch läuft bald ab.
Was sich an GitHubs Copilot-Richtlinie geändert hat
GitHub stellt die Richtlinienaktualisierung als Verbesserung zur „Personalisierung und Optimierung“ der Copilot-Erfahrung dar. Die Datennutzung geht jedoch weit darüber hinaus.
Der Zeitplan der Richtlinie
Der 24. April 2026 ist das Inkrafttretensdatum. Ab diesem Tag gilt: GitHub nimmt Ihre Zustimmung an, sofern Sie sich nicht explizit in den Kontoeinstellungen abmelden.
GitHub wird dann „Interaktionsdaten“ verwenden, um KI-Modelle zu trainieren. Was hier so harmlos klingt, umfasst weit mehr als nur Nutzungsstatistiken.
Was GitHub sammelt
Die Copilot-Interaktionsdaten umfassen:
| Datentyp | Was es beinhaltet | Datenschutzrisiko |
|---|---|---|
| Code-Snippets | Jeder Code, den Sie mit Copilot schreiben oder ändern | Proprietäre Algorithmen, Geschäftslogik, API-Integrationen |
| Chat-Konversationen | Vollständiger Kontext der Copilot Chat-Sitzungen | Architekturentscheidungen, Debugging-Workflows, Systemdesign |
| Akzeptanzentscheidungen | Welche Vorschläge Sie annehmen oder ablehnen | Trainingssignal für „guten“ Code |
| Dateikontext | Umliegender Code bei Vorschlagserstellung | Datenbankschemata, Authentifizierungsabläufe, interne APIs |
| Korrekturmuster | Wie Sie Copilot-Ausgaben verändern | Codierungsstandards, Sicherheitspraktiken Ihres Teams |
Diese Daten trainieren die nächsten GitHub-Modelle. Ihre Muster können nach Integration in Modellvorschlägen für andere, auch für Konkurrenten, auftauchen.
Warum die Standardeinstellung wichtig ist
GitHub spricht von „Präferenzen verwalten“. Das bedeutet: Nutzer müssen aktiv werden, um Datenschutz-Maßnahmen zu aktivieren.
Die Standardeinstellung ab 24. April: Opt-In (zugestimmt).
Dieses Standardverhalten erschwert datenschutzfreundliche Einstellungen und begünstigt die Datenfreigabe. Die Mehrheit der Nutzer ändert keine Standardeinstellungen – besonders bei täglich genutzten Tools.
Zum Kontext: Nur etwa 15-20 % der Nutzer widersprechen aktiv, wenn sie Wahlmöglichkeiten erhalten. GitHub geht davon aus, dass über 80 % angemeldet bleiben.
Schritt-für-Schritt: So deaktivieren Sie die Datenerfassung von GitHub Copilot
Die Abmeldung dauert weniger als zwei Minuten. Führen Sie diese Schritte vor dem 24. April aus.
Methode 1: Individuelle Kontoeinstellungen
Copilot-Einstellungen öffnen
- Gehen Sie zu github.com
- Klicken Sie auf Ihr Profilsymbol (oben rechts)
- Wählen Sie „Einstellungen“ im Dropdown-Menü
- Klicken Sie in der linken Seitenleiste auf „Copilot“
Abschnitt zur Datennutzung finden
- Scrollen Sie zu „Datenschutz“
- Suchen Sie die Option „GitHub erlauben, meine Daten für das Training von KI-Modellen zu verwenden“
- Deaktivieren Sie die Option
- Prüfen Sie, ob die Einstellung als deaktiviert angezeigt wird
Änderung bestätigen
- Es kann bis zu 30 Minuten dauern, bis Änderungen wirksam werden.
- Starten Sie Ihren Code-Editor neu, um die Einstellung sofort zu übernehmen.
Methode 2: Organisationsweite Einstellungen (für Administratoren)
Wenn Sie eine Organisation verwalten, können Sie Opt-Out global durchsetzen:
Organisationseinstellungen öffnen
- Gehen Sie zur Hauptseite Ihrer Organisation
- Klicken Sie auf „Einstellungen“ in der Org-Navigation
- Wählen Sie „Copilot“ im linken Menü
Datenrichtlinien konfigurieren
- Suchen Sie „Copilot-Datennutzungsrichtlinien“
- Wählen Sie „Interaktionsdatenerfassung für alle Mitglieder deaktivieren“
- Änderungen speichern
Team informieren
- Dokumentieren Sie die Änderung im internen Wiki
- Benachrichtigen Sie Entwickler per Slack oder E-Mail
- Fügen Sie es zu den Onboarding-Checklisten hinzu
Verifizierungsschritte
Prüfen Sie nach der Abmeldung, ob Ihre Einstellungen greifen:
# Es gibt keine CLI-Verifizierung, aber Sie können:
# 1. Prüfen, ob die entsprechende Einstellung deaktiviert ist
# 2. GitHubs Daten-Download nutzen (Einstellungen > Datenschutz > Ihre Daten herunterladen)
# 3. Copilot-Verhalten beobachten
Wichtig: Die Abmeldung verhindert nur zukünftige Datenerfassung. Bereits gesammelte Daten bleiben erhalten.
Überlegungen zu Unternehmen und Compliance
Arbeiten Sie in einer regulierten Branche oder mit sensiblen Kundendaten, führt GitHubs Richtlinienänderung zusätzliche Risiken ein.
Branchen mit besonderem Handlungsbedarf
| Branche | Regulierung | Bedenken |
|---|---|---|
| Gesundheitswesen | HIPAA | Offenlegung von PHI in Code-Kommentaren oder Variablennamen |
| Finanzen | SOC 2, DSGVO | Kunden-Transaktionslogik, PII-Muster |
| Regierung | FedRAMP, ITAR | Klassifizierte Architekturen, Sicherheitsprotokolle |
| Enterprise SaaS | Kundenverträge | Proprietäre Algorithmen, Wettbewerbsvorteile |
Fragen an Ihr Rechtsteam
Vereinbaren Sie vor dem 24. April eine Überprüfung mit Compliance oder Rechtsabteilung:
- Behandelt unser MSA mit GitHub die Nutzung von KI-Trainingsdaten?
- Verbieten Kundenverträge die Weitergabe von Code an KI-Dienste Dritter?
- Welche Haftung besteht, wenn proprietärer Code in KI-Vorschlägen von Mitbewerbern auftaucht?
- Ist ein Unternehmensabkommen mit expliziten Datenbeschränkungen nötig?
GitHub Enterprise Optionen
Als Enterprise-Kunde können Sie mit GitHub verhandeln:
- Vertragliche Garantien gegen Trainingsdatennutzung
- Private Modellinstanzen für regulierte Umgebungen
- Erweiterte Audit-Protokolle für Compliance
- Benutzerdefinierte Datenaufbewahrungsrichtlinien
Apidog für die Privatsphäre bei der API-Entwicklung
Für Teams, die APIs entwickeln und testen, ist Datenschutz mehr als Code-Vervollständigung. Apidog bietet eine datenschutzorientierte Alternative zu Cloud-basierten API-Tools:
- Local-First-Architektur: API-Spezifikationen bleiben auf Ihrem Rechner
- Kein Training mit Kundendaten: Apidog nutzt Ihre Definitionen nicht zum Modelltraining
- Self-Hosted-Optionen: Volle Datenhoheit für regulierte Umgebungen
- Teamzusammenarbeit ohne Offenlegung: Interne Spezifikationsfreigabe ohne Drittzugriff
Fragen Sie sich bei KI-gestützten Tools stets: „Wohin gehen meine Daten und wie werden sie genutzt?“ Die Antwort sollte klar und vertraglich geregelt sein.
Was passiert, wenn Sie sich nicht abmelden
Bleiben Sie nach dem 24. April angemeldet (opt-in):
Ihr Code fließt in die Trainingspipeline
- Interaktionsdaten werden laufend verarbeitet
- Keine Benachrichtigung, wenn Ihre Daten genutzt werden
- Kein Mechanismus zur späteren Löschung
Mögliche Offenlegungsszenarien
- Konkurrent nutzt Copilot mit ähnlichem Kontext
- Modell generiert Vorschläge, die Ihrem Code ähneln
- Keine Audit-Spur, welche Trainingsdaten die Ausgabe beeinflusst haben
Compliance-Probleme
- Kunden-Audits können KI-Datennutzung beanstanden
- Regulatorische Anfragen verlangen Datenbelege, die Sie nicht liefern können
- Vertragsverletzungen können zu Datenschutz-Benachrichtigungen führen
Können Sie sich später abmelden?
Ja, aber:
- Zukünftige Daten: Sammlung wird gestoppt
- Historische Daten: Bereits in Modellen, Löschung nicht garantiert
- Modell-Retraining: Auch nach Löschung kann das Modell Muster behalten
Tipp: Melden Sie sich vor dem 24. April ab.
Fazit
Ab 24. April gilt: Ihre Copilot-Interaktionsdaten (Code, Chats, Akzeptanzen) werden zu Trainingsmaterial für GitHub-KI, sofern Sie nicht aktiv widersprechen.
Nehmen Sie sich zwei Minuten für die Abmeldung – das schützt Ihr geistiges Eigentum, Team-Code und Unternehmens-Compliance. Vermeiden Sie böse Überraschungen am 25. April.
Für API-Teams, die leistungsstarke Tools mit maximalem Datenschutz suchen: Entdecken Sie Apidog – die All-in-One-API-Entwicklungsplattform, die Ihre Spezifikationen standardmäßig privat hält.



Top comments (0)