En resumen
GitHub empezará a usar tus datos de interacción con Copilot para entrenar modelos de IA a partir del 24 de abril de 2026. Todo lo que escribas, aceptes o converses a través de Copilot será usado como material de entrenamiento, a menos que optes por no participar manualmente. Cambia tu configuración en github.com/settings/copilot antes de la fecha límite para mantener tu código privado.
Introducción
Tu flujo de trabajo de desarrollo puede convertirse en parte del dataset de entrenamiento de otros.
El 24 de abril de 2026, la política actualizada de GitHub Copilot entrará en vigor. GitHub y Microsoft podrán usar todo lo que escribas en Copilot —fragmentos de código, preguntas de depuración, solicitudes de refactorización— para entrenar sus próximos modelos de IA, incluyendo el código propietario de repositorios privados.
La mayoría de los desarrolladores no recibirán una notificación directa. Es probable que sigan trabajando sin saber que su propiedad intelectual se está usando para entrenar los modelos de GitHub.
Si lideras un equipo de desarrollo o trabajas con código sensible, comparte este paso a paso con tu líder de ingeniería. El plazo para optar por no participar es limitado.
Qué cambió en la política de Copilot de GitHub
El anuncio de GitHub describe la actualización como una mejora para "personalizar y mejorar" Copilot, pero el uso de los datos va mucho más allá.
Cronología de la política
- 24 de abril de 2026: entra en vigor la política.
- A partir de esa fecha, GitHub asume que consientes el uso de tus datos, salvo que optes por no participar manualmente.
"Datos de interacción" incluye mucho más de lo que parece. Veamos qué significa.
Qué recopila GitHub
Los datos de interacción de Copilot incluyen:
| Tipo de dato | Qué incluye | Riesgo de privacidad |
|---|---|---|
| Fragmentos de código | Código que escribas o modifiques con Copilot | Algoritmos propietarios, lógica de negocio, integraciones |
| Conversaciones de chat | Contexto completo de sesiones de Copilot Chat | Decisiones de arquitectura, flujos de depuración |
| Decisiones de aceptación | Sugerencias que aceptas o rechazas | Señal de entrenamiento sobre "buen" código |
| Contexto del archivo | Código circundante cuando Copilot genera sugerencias | Esquemas de bases de datos, flujos de autenticación |
| Patrones de corrección | Cómo modificas la salida de Copilot | Estándares de codificación, prácticas de seguridad |
Estos datos entrenan los modelos futuros de GitHub. Una vez incorporados, tus patrones pueden aparecer en sugerencias a otros usuarios, incluso competidores.
Por qué el valor predeterminado es importante
Por defecto, después del 24 de abril: participación activa. GitHub usa un lenguaje que pone la responsabilidad en el usuario para ajustar su configuración, lo que dificulta la protección de privacidad.
La mayoría de los usuarios no cambia las opciones predeterminadas, lo que puede exponer código sensible por omisión.
Paso a paso: Cómo optar por no participar en la recopilación de datos de GitHub Copilot
El proceso lleva menos de dos minutos. Hazlo antes del 24 de abril.
Método 1: Configuración de cuenta individual
-
Accede a la configuración de Copilot:
- Ve a github.com
- Haz clic en el icono de tu perfil (arriba a la derecha)
- Selecciona "Settings" (Configuración)
- Haz clic en "Copilot" en la barra lateral izquierda
-
Ubica la sección de uso de datos:
- Desplázate hasta "Privacy" (Privacidad)
- Busca "Allow GitHub to use my data for AI model training" (Permitir a GitHub usar mis datos para entrenar modelos de IA)
-
Deshabilita la opción
- Desactívala y verifica que quede deshabilitada.
-
Confirma el cambio
- Puede tardar hasta 30 minutos en aplicarse.
- Reinicia tu editor de código para que el cambio surta efecto de inmediato.
Método 2: Configuración a nivel de organización (para administradores)
-
Accede a la configuración de la organización
- Ve a la página principal de tu organización
- Haz clic en "Settings" en la navegación de la organización
- Selecciona "Copilot" en el menú de la izquierda
-
Configura las políticas de datos
- Busca "Copilot data usage policies"
- Selecciona "Disable interaction data collection for all members" (Deshabilitar la recopilación para todos los miembros)
- Guarda los cambios
-
Comunica el cambio a tu equipo
- Documenta el cambio en tu wiki interno
- Notifica a los desarrolladores por Slack o email
- Añádelo a las listas de onboarding
Pasos de verificación
Después de desactivar la opción:
# No existe verificación por CLI, pero puedes:
# 1. Comprobar que la configuración muestre la opción desactivada
# 2. Descargar tus datos en Settings > Privacy > Download your data
# 3. Monitorear el comportamiento de Copilot para cambios inesperados
Importante: Desactivar la opción solo evita la recopilación futura. Los datos ya recopilados no serán eliminados.
Consideraciones empresariales y de cumplimiento
En industrias reguladas o con datos sensibles, la política de GitHub introduce riesgos adicionales.
Industrias que requieren escrutinio extra
| Industria | Regulación | Preocupación |
|---|---|---|
| Salud | HIPAA | Exposición de PHI en código o variables |
| Finanzas | SOC 2, GDPR | Lógica de transacciones, manejo de PII |
| Gobierno | FedRAMP, ITAR | Arquitecturas clasificadas, protocolos de seguridad |
| SaaS Empresarial | Contratos de clientes | Algoritmos propietarios, ventajas competitivas |
Preguntas para tu equipo legal
Antes del 24 de abril, revisa estos puntos con legal/compliance:
- ¿El MSA con GitHub aborda el uso de datos para IA?
- ¿Los contratos de clientes prohíben compartir código con servicios de IA de terceros?
- ¿Qué pasa si el código propietario aparece en sugerencias de la competencia?
- ¿Conviene buscar acuerdos empresariales con restricciones explícitas?
Opciones de GitHub Enterprise
Clientes Enterprise pueden negociar:
- Restricciones contractuales contra uso de datos para entrenamiento
- Instancias de modelos privados
- Auditoría avanzada para compliance
- Políticas personalizadas de retención de datos
Apidog para la privacidad en el desarrollo de API
Si construyes y pruebas APIs, cuida la privacidad más allá del código. Apidog es una alternativa que prioriza la privacidad:
- Arquitectura local-first: tus especificaciones de API permanecen en tu máquina
- No entrena modelos con tus datos: tus definiciones de API no se usan para IA
- Opciones de autoalojamiento: soberanía total en entornos regulados
- Colaboración interna segura: comparte especificaciones sin exponer a terceros
Cuando evalúes herramientas de desarrollo con IA, pregunta: “¿A dónde van mis datos y cómo se usan?”. Exige respuestas claras y documentadas.
Qué sucede si no optas por no participar
Si mantienes la participación activa después del 24 de abril:
Tu código será usado para entrenamiento:
- Los datos de interacción se procesan continuamente
- No recibirás notificaciones cuando se usen tus datos
- No hay mecanismo para solicitar la eliminación después
Posibles escenarios de exposición:
- Un competidor pide ayuda a Copilot con contexto similar
- El modelo sugiere código parecido al tuyo
- No existe rastro de auditoría sobre qué datos influyeron
Complicaciones de cumplimiento:
- Auditorías de clientes pueden detectar uso indebido de datos
- Consultas regulatorias pueden exigir rastreo de datos imposible
- Violaciones contractuales pueden implicar notificaciones de incumplimiento
¿Puedes optar por no participar más tarde?
Sí, pero:
- Datos futuros: detienes nueva recopilación
- Datos históricos: ya están en los modelos, no se garantiza su eliminación
- Reentrenamiento del modelo: los patrones aprendidos persisten en los pesos
La opción más segura: desactiva la participación antes del 24 de abril.
Conclusión
La nueva política de GitHub Copilot entra en vigor el 24 de abril. Tus datos —código, chats, patrones de aceptación— se usarán para entrenar modelos de IA, a menos que desactives la opción manualmente.
Tómate dos minutos para proteger tu propiedad intelectual, el código de tu equipo y la postura de cumplimiento de tu organización. No esperes al 25 de abril para descubrir que tu código entrenó al asistente de IA de tu competencia.
Si construyes APIs y quieres privacidad por defecto, explora Apidog: una plataforma de desarrollo de API que mantiene tus especificaciones privadas.



Top comments (0)