En bref
GitHub commencera à utiliser vos données d'interaction Copilot pour l'entraînement de modèles d'IA le 24 avril 2026. Vos extraits de code, conversations de chat et décisions d'acceptation deviendront des données d'entraînement à moins que vous ne vous désinscriviez manuellement. Modifiez vos paramètres sur github.com/settings/copilot avant la date limite pour garder votre code privé.
Essayez Apidog dès aujourd'hui
Introduction
Votre flux de travail de développement est sur le point de devenir les données d'entraînement de quelqu'un d'autre.
Le 24 avril 2026, la politique mise à jour de GitHub Copilot entrera en vigueur. Ce changement permet à Microsoft et GitHub d'utiliser tout ce que vous tapez dans Copilot : extraits de code, questions de débogage, demandes de refactorisation, comme matériel d'entraînement pour leurs modèles d'IA de nouvelle génération. Cela inclut le code propriétaire de vos dépôts privés d'entreprise.
La plupart des développeurs ne recevront pas de notification directe. Ils continueront à travailler, ignorant que leur propriété intellectuelle devient une partie du corpus d'entraînement de GitHub à chaque interaction Copilot.
Si vous gérez une équipe de développement ou travaillez avec des bases de code sensibles, mettez cette page en signet et partagez-la avec votre responsable d'ingénierie. La fenêtre de désinscription se ferme bientôt.
Ce qui a changé dans la politique de Copilot de GitHub
L'annonce de GitHub présente la mise à jour de la politique comme une amélioration visant à "personnaliser et améliorer" les expériences Copilot. L'utilisation des données va bien au-delà de la personnalisation.
La chronologie de la politique
Le 24 avril 2026 marque la date d'application. Après cette date, GitHub supposera un consentement implicite à moins que vous ne vous soyez désinscrit manuellement via les paramètres de votre compte.
L'annonce originale stipule que GitHub utilisera des "données d'interaction" pour entraîner les futurs modèles d'IA. Ce langage semble anodin jusqu'à ce que vous examiniez ce que les "données d'interaction" incluent.
Ce que GitHub collecte
Les données d'interaction de Copilot de GitHub comprennent :
| Type de donnée | Ce qu'il inclut | Risque pour la vie privée |
|---|---|---|
| Extraits de code | Tout code que vous écrivez ou modifiez avec l'aide de Copilot | Algorithmes propriétaires, logique métier, intégrations API |
| Conversations de chat | Contexte complet des sessions de Copilot Chat | Décisions d'architecture, flux de travail de débogage, conception de système |
| Décisions d'acceptation | Quelles suggestions vous acceptez ou rejetez | Signal d'entraînement pour ce qui constitue un "bon" code |
| Contexte de fichier | Code environnant lorsque Copilot génère des suggestions | Schémas de base de données, flux d'authentification, API internes |
| Modèles de correction | Comment vous modifiez la sortie de Copilot | Les normes de codage et les pratiques de sécurité de votre équipe |
Ces données entraînent les modèles de nouvelle génération de GitHub. Une fois incorporés, vos modèles de code deviennent une partie des poids du modèle et peuvent apparaître dans les suggestions à d'autres utilisateurs, y compris des concurrents.
Pourquoi la valeur par défaut est importante
L'annonce de GitHub utilise des expressions comme "examiner cette mise à jour et gérer vos préférences". Ce cadrage place le fardeau sur les utilisateurs de découvrir et d'activer les protections de la vie privée.
Le paramètre par défaut après le 24 avril : participation active.
Cette structure crée ce que les chercheurs en confidentialité appellent des "modèles sombres" : des choix de conception qui rendent difficile un comportement de protection de la vie privée tout en facilitant le partage de données. La plupart des utilisateurs ne modifient jamais les valeurs par défaut, surtout pour les outils qu'ils utilisent quotidiennement.
Pour le contexte, environ 15 à 20 % des utilisateurs se désinscrivent généralement de la collecte de données lorsqu'on leur présente des choix clairs. L'approche de GitHub suppose l'inverse : plus de 80 % resteront inscrits par défaut.
Pas à pas : Comment se désinscrire de la collecte de données GitHub Copilot
La désinscription prend moins de deux minutes. Suivez ces étapes avant le 24 avril.
Méthode 1 : Paramètres du compte individuel
Accédez aux paramètres de Copilot
- Allez sur github.com
- Cliquez sur votre icône de profil (en haut à droite)
- Sélectionnez "Settings" (Paramètres) dans le menu déroulant
- Cliquez sur "Copilot" dans la barre latérale gauche
Trouvez la section Utilisation des données
- Faites défiler jusqu'à "Privacy" (Confidentialité)
- Recherchez l'option intitulée "Allow GitHub to use my data for AI model training" (Autoriser GitHub à utiliser mes données pour l'entraînement de modèles d'IA)
- Désactivez l'option
- Vérifiez que le paramètre s'affiche comme désactivé
Confirmez le changement
- Les modifications peuvent prendre jusqu'à 30 minutes pour prendre effet.
- Redémarrez votre éditeur de code pour que les modifications prennent effet immédiatement.
Méthode 2 : Paramètres à l'échelle de l'organisation (pour les administrateurs)
Si vous gérez une organisation GitHub, vous pouvez appliquer les paramètres de désinscription à tous les membres :
Accéder aux paramètres de l'organisation
- Rendez-vous sur la page principale de votre organisation
- Cliquez sur "Settings" (Paramètres) dans la navigation de l'organisation
- Sélectionnez "Copilot" dans le menu de gauche
Configurer les politiques de données
- Trouvez "Copilot data usage policies" (Politiques d'utilisation des données Copilot)
- Sélectionnez "Disable interaction data collection for all members" (Désactiver la collecte de données d'interaction pour tous les membres)
- Enregistrez les modifications
Communiquez à votre équipe
- Documentez le changement de politique dans votre wiki interne
- Informez les développeurs via Slack ou email
- Ajoutez aux listes de contrôle d'intégration pour les nouvelles recrues
Étapes de vérification
Après vous être désinscrit, vérifiez que vos paramètres ont pris effet :
# Aucune vérification par CLI n'existe, mais vous pouvez :
# 1. Vérifier que la page des paramètres affiche l'option décochée
# 2. Examiner le téléchargement de données de GitHub (Settings > Privacy > Download your data)
# 3. Surveiller le comportement de Copilot pour tout changement
Important : La désinscription ne supprime pas les données déjà collectées. Elle empêche seulement la collecte future à partir du moment où vous modifiez le paramètre.
Considérations pour les entreprises et la conformité
Si vous travaillez dans une industrie réglementée ou manipulez des données clients sensibles, le changement de politique de GitHub introduit des vecteurs de risque supplémentaires.
Industries nécessitant une surveillance accrue
| Industrie | Réglementation | Préoccupation |
|---|---|---|
| Santé | HIPAA | Exposition de l'ICS via les commentaires de code ou les noms de variables |
| Finance | SOC 2, RGPD | Logique de transaction client, modèles de traitement des PII |
| Gouvernement | FedRAMP, ITAR | Architectures de systèmes classifiés, protocoles de sécurité |
| SaaS d'entreprise | Contrats clients | Algorithmes propriétaires, avantages concurrentiels |
Questions à poser à votre équipe juridique
Avant le 24 avril, prévoyez un examen avec votre conseiller en conformité ou juridique :
- Notre MSA actuel avec GitHub aborde-t-il l'utilisation des données d'entraînement de l'IA ?
- Les contrats clients interdisent-ils le partage de code avec des services d'IA tiers ?
- Quelle est la responsabilité si du code propriétaire apparaît dans les suggestions d'un concurrent ?
- Devrions-nous chercher un accord d'entreprise avec des restrictions explicites sur les données ?
Options GitHub Enterprise
Les clients de GitHub Enterprise peuvent avoir un pouvoir de négociation supplémentaire. Contactez votre représentant de compte GitHub pour discuter de :
- Garanties contractuelles contre l'utilisation des données d'entraînement
- Instances de modèles privés pour les charges de travail réglementées
- Journalisation d'audit améliorée pour le reporting de conformité
- Politiques de rétention de données personnalisées
Apidog pour la confidentialité du développement d'API
Pour les équipes qui développent et testent des API, la confidentialité s'étend au-delà de l'achèvement du code. Apidog offre une alternative axée sur la confidentialité aux outils de développement d'API basés sur le cloud :
- Architecture "local-first" : Vos spécifications API restent sur votre machine
- Pas d'entraînement sur les données clients : Apidog n'utilise pas vos définitions d'API pour entraîner des modèles
- Options d'hébergement autonome : Souveraineté totale des données pour les environnements réglementés
- Collaboration d'équipe sans exposition : Partagez les spécifications en interne sans accès tiers
Lors de l'évaluation des outils de développement basés sur l'IA, posez-vous la question : "Où vont mes données et comment sont-elles utilisées ?" La réponse doit être claire, documentée et contractuellement contraignante.
Que se passe-t-il si vous ne vous désinscrivez pas ?
Après le 24 avril, si vous restez inscrit :
Votre code entre dans le pipeline d'entraînement
- Les lots de données d'interaction en continu
- Aucune notification lorsque vos données sont utilisées
- Aucun mécanisme pour demander une suppression ultérieure
Scénarios d'exposition potentiels
- Un concurrent interroge Copilot avec un contexte similaire
- Le modèle de GitHub génère des suggestions ressemblant à votre code
- Aucun journal d'audit ne montre quelles données d'entraînement ont influencé les sorties
Complications de conformité
- Les audits clients peuvent signaler l'utilisation de données d'entraînement d'IA
- Les demandes réglementaires exigent une cartographie des données que vous ne pouvez pas fournir
- Les violations contractuelles peuvent déclencher des notifications de violation
Pouvez-vous vous désinscrire plus tard ?
Oui, mais avec des limitations :
- Données futures : Arrête la collecte à partir de maintenant
- Données historiques : Déjà incorporées dans les modèles ; la suppression n'est pas garantie
- Réentraînement du modèle : Même si elles sont supprimées des ensembles de données, les poids du modèle conservent les modèles appris
L'approche la plus propre : se désinscrire avant le 24 avril.
Conclusion
Le changement de politique de GitHub Copilot prend effet le 24 avril. Vos données d'interaction : extraits de code, conversations de chat, modèles d'acceptation, deviennent du matériel d'entraînement pour les modèles d'IA de GitHub à moins que vous ne vous désinscriviez manuellement.
Les deux minutes nécessaires pour vous désinscrire protègent votre propriété intellectuelle, le code propriétaire de votre équipe et la posture de conformité de votre organisation. N'attendez pas le 25 avril pour découvrir que votre code a entraîné l'assistant IA de votre concurrent.
Pour les équipes qui développent des API et qui souhaitent des outils puissants sans compromettre la confidentialité, explorez Apidog : la plateforme de développement d'API tout-en-un qui maintient vos spécifications privées par défaut.



Top comments (0)