DEV Community

Cover image for Urgente: Cómo Evitar que GitHub Copilot Use Tu Código para Entrenamiento de IA (Antes del 24 de Abril)
Roobia
Roobia

Posted on • Originally published at apidog.com

Urgente: Cómo Evitar que GitHub Copilot Use Tu Código para Entrenamiento de IA (Antes del 24 de Abril)

En resumen

GitHub empezará a usar tus datos de interacción con Copilot para entrenar modelos de IA a partir del 24 de abril de 2026. Todo lo que escribas, aceptes o converses a través de Copilot será usado como material de entrenamiento, a menos que optes por no participar manualmente. Cambia tu configuración en github.com/settings/copilot antes de la fecha límite para mantener tu código privado.

Prueba Apidog hoy

Introducción

Tu flujo de trabajo de desarrollo puede convertirse en parte del dataset de entrenamiento de otros.

El 24 de abril de 2026, la política actualizada de GitHub Copilot entrará en vigor. GitHub y Microsoft podrán usar todo lo que escribas en Copilot —fragmentos de código, preguntas de depuración, solicitudes de refactorización— para entrenar sus próximos modelos de IA, incluyendo el código propietario de repositorios privados.

La mayoría de los desarrolladores no recibirán una notificación directa. Es probable que sigan trabajando sin saber que su propiedad intelectual se está usando para entrenar los modelos de GitHub.

Si lideras un equipo de desarrollo o trabajas con código sensible, comparte este paso a paso con tu líder de ingeniería. El plazo para optar por no participar es limitado.

Qué cambió en la política de Copilot de GitHub

El anuncio de GitHub describe la actualización como una mejora para "personalizar y mejorar" Copilot, pero el uso de los datos va mucho más allá.

Cronología de la política

  • 24 de abril de 2026: entra en vigor la política.
  • A partir de esa fecha, GitHub asume que consientes el uso de tus datos, salvo que optes por no participar manualmente.

"Datos de interacción" incluye mucho más de lo que parece. Veamos qué significa.

Qué recopila GitHub

Los datos de interacción de Copilot incluyen:

Tipo de dato Qué incluye Riesgo de privacidad
Fragmentos de código Código que escribas o modifiques con Copilot Algoritmos propietarios, lógica de negocio, integraciones
Conversaciones de chat Contexto completo de sesiones de Copilot Chat Decisiones de arquitectura, flujos de depuración
Decisiones de aceptación Sugerencias que aceptas o rechazas Señal de entrenamiento sobre "buen" código
Contexto del archivo Código circundante cuando Copilot genera sugerencias Esquemas de bases de datos, flujos de autenticación
Patrones de corrección Cómo modificas la salida de Copilot Estándares de codificación, prácticas de seguridad

Estos datos entrenan los modelos futuros de GitHub. Una vez incorporados, tus patrones pueden aparecer en sugerencias a otros usuarios, incluso competidores.

Por qué el valor predeterminado es importante

Por defecto, después del 24 de abril: participación activa. GitHub usa un lenguaje que pone la responsabilidad en el usuario para ajustar su configuración, lo que dificulta la protección de privacidad.

La mayoría de los usuarios no cambia las opciones predeterminadas, lo que puede exponer código sensible por omisión.

Paso a paso: Cómo optar por no participar en la recopilación de datos de GitHub Copilot

El proceso lleva menos de dos minutos. Hazlo antes del 24 de abril.

Método 1: Configuración de cuenta individual

  1. Accede a la configuración de Copilot:

    • Ve a github.com
    • Haz clic en el icono de tu perfil (arriba a la derecha)
    • Selecciona "Settings" (Configuración)
    • Haz clic en "Copilot" en la barra lateral izquierda

    Configuración Copilot

  2. Ubica la sección de uso de datos:

    • Desplázate hasta "Privacy" (Privacidad)
    • Busca "Allow GitHub to use my data for AI model training" (Permitir a GitHub usar mis datos para entrenar modelos de IA)

    Uso de datos Copilot

  3. Deshabilita la opción

    • Desactívala y verifica que quede deshabilitada.
  4. Confirma el cambio

    • Puede tardar hasta 30 minutos en aplicarse.
    • Reinicia tu editor de código para que el cambio surta efecto de inmediato.

Método 2: Configuración a nivel de organización (para administradores)

  1. Accede a la configuración de la organización

    • Ve a la página principal de tu organización
    • Haz clic en "Settings" en la navegación de la organización
    • Selecciona "Copilot" en el menú de la izquierda
  2. Configura las políticas de datos

    • Busca "Copilot data usage policies"
    • Selecciona "Disable interaction data collection for all members" (Deshabilitar la recopilación para todos los miembros)
    • Guarda los cambios
  3. Comunica el cambio a tu equipo

    • Documenta el cambio en tu wiki interno
    • Notifica a los desarrolladores por Slack o email
    • Añádelo a las listas de onboarding

Pasos de verificación

Después de desactivar la opción:

# No existe verificación por CLI, pero puedes:
# 1. Comprobar que la configuración muestre la opción desactivada
# 2. Descargar tus datos en Settings > Privacy > Download your data
# 3. Monitorear el comportamiento de Copilot para cambios inesperados
Enter fullscreen mode Exit fullscreen mode

Importante: Desactivar la opción solo evita la recopilación futura. Los datos ya recopilados no serán eliminados.

Consideraciones empresariales y de cumplimiento

En industrias reguladas o con datos sensibles, la política de GitHub introduce riesgos adicionales.

Industrias que requieren escrutinio extra

Industria Regulación Preocupación
Salud HIPAA Exposición de PHI en código o variables
Finanzas SOC 2, GDPR Lógica de transacciones, manejo de PII
Gobierno FedRAMP, ITAR Arquitecturas clasificadas, protocolos de seguridad
SaaS Empresarial Contratos de clientes Algoritmos propietarios, ventajas competitivas

Preguntas para tu equipo legal

Antes del 24 de abril, revisa estos puntos con legal/compliance:

  1. ¿El MSA con GitHub aborda el uso de datos para IA?
  2. ¿Los contratos de clientes prohíben compartir código con servicios de IA de terceros?
  3. ¿Qué pasa si el código propietario aparece en sugerencias de la competencia?
  4. ¿Conviene buscar acuerdos empresariales con restricciones explícitas?

Opciones de GitHub Enterprise

Clientes Enterprise pueden negociar:

  • Restricciones contractuales contra uso de datos para entrenamiento
  • Instancias de modelos privados
  • Auditoría avanzada para compliance
  • Políticas personalizadas de retención de datos

Apidog para la privacidad en el desarrollo de API

Si construyes y pruebas APIs, cuida la privacidad más allá del código. Apidog es una alternativa que prioriza la privacidad:

  • Arquitectura local-first: tus especificaciones de API permanecen en tu máquina
  • No entrena modelos con tus datos: tus definiciones de API no se usan para IA
  • Opciones de autoalojamiento: soberanía total en entornos regulados
  • Colaboración interna segura: comparte especificaciones sin exponer a terceros

Apidog privacidad

Cuando evalúes herramientas de desarrollo con IA, pregunta: “¿A dónde van mis datos y cómo se usan?”. Exige respuestas claras y documentadas.

Qué sucede si no optas por no participar

Si mantienes la participación activa después del 24 de abril:

Tu código será usado para entrenamiento:

  • Los datos de interacción se procesan continuamente
  • No recibirás notificaciones cuando se usen tus datos
  • No hay mecanismo para solicitar la eliminación después

Posibles escenarios de exposición:

  • Un competidor pide ayuda a Copilot con contexto similar
  • El modelo sugiere código parecido al tuyo
  • No existe rastro de auditoría sobre qué datos influyeron

Complicaciones de cumplimiento:

  • Auditorías de clientes pueden detectar uso indebido de datos
  • Consultas regulatorias pueden exigir rastreo de datos imposible
  • Violaciones contractuales pueden implicar notificaciones de incumplimiento

¿Puedes optar por no participar más tarde?

Sí, pero:

  • Datos futuros: detienes nueva recopilación
  • Datos históricos: ya están en los modelos, no se garantiza su eliminación
  • Reentrenamiento del modelo: los patrones aprendidos persisten en los pesos

La opción más segura: desactiva la participación antes del 24 de abril.

Conclusión

La nueva política de GitHub Copilot entra en vigor el 24 de abril. Tus datos —código, chats, patrones de aceptación— se usarán para entrenar modelos de IA, a menos que desactives la opción manualmente.

Tómate dos minutos para proteger tu propiedad intelectual, el código de tu equipo y la postura de cumplimiento de tu organización. No esperes al 25 de abril para descubrir que tu código entrenó al asistente de IA de tu competencia.

Si construyes APIs y quieres privacidad por defecto, explora Apidog: una plataforma de desarrollo de API que mantiene tus especificaciones privadas.

Top comments (0)