DEV Community

Cover image for عاجل: كيفية منع GitHub Copilot من استخدام كودك لتدريب الذكاء الاصطناعي (قبل 24 أبريل)
Yusuf Khalidd
Yusuf Khalidd

Posted on • Originally published at apidog.com

عاجل: كيفية منع GitHub Copilot من استخدام كودك لتدريب الذكاء الاصطناعي (قبل 24 أبريل)

ملخص سريع

سيبدأ GitHub في استخدام بيانات تفاعلاتك مع Copilot لتدريب نماذج الذكاء الاصطناعي اعتبارًا من 24 أبريل 2026. ستصبح مقتطفات الشفرة ومحادثات الدردشة وقرارات القبول الخاصة بك بيانات تدريب ما لم تقم بإلغاء الاشتراك يدويًا. غيّر إعداداتك على github.com/settings/copilot قبل الموعد النهائي للحفاظ على خصوصية شفرتك.

جرّب Apidog اليوم

مقدمة

سير عملك في التطوير قد يصبح بيانات تدريب لشخص آخر.

في 24 أبريل 2026، ستدخل سياسة GitHub Copilot المحدّثة حيز التنفيذ. هذا التغيير يسمح لـ Microsoft و GitHub باستخدام كل ما تكتبه في Copilot – مقتطفات الشفرة، استفسارات التصحيح، طلبات إعادة الهيكلة – كمادة تدريب لنماذج الذكاء الاصطناعي القادمة. يتضمن ذلك الشفرة الخاصة بمستودعات شركتك.

لن يتم إبلاغ معظم المطورين مباشرة. سيستمرون في العمل بينما تصبح ملكيتهم الفكرية جزءًا من بيانات تدريب GitHub مع كل تفاعل مع Copilot.

إذا كنت تدير فريق تطوير أو تتعامل مع قواعد شفرة حساسة، نفّذ الخطوات الواردة أدناه وشاركها مع مسؤول الهندسة لديك. نافذة إلغاء الاشتراك محدودة.

ما الذي تغير في سياسة GitHub Copilot؟

أوضح إعلان GitHub أن تحديث السياسة يهدف إلى "تخصيص وتحسين" تجربة Copilot، لكن جمع البيانات يمتد إلى ما هو أبعد من التخصيص.

الجدول الزمني للسياسة

24 أبريل 2026 هو تاريخ إنفاذ السياسة. بعد هذا التاريخ، سيعتبر GitHub موافقتك ضمنية ما لم تقم بإلغاء الاشتراك يدويًا من إعدادات حسابك.

الإعلان الأصلي ينص على استخدام "بيانات التفاعل" لتدريب نماذج الذكاء الاصطناعي المستقبلية – لكن "بيانات التفاعل" تشمل أكثر مما قد تتوقعه.

ما يجمعه GitHub

نوع البيانات ما يتضمنه خطر الخصوصية
مقتطفات الشفرة أي شفرة تكتبها أو تعدلها بمساعدة Copilot خوارزميات مملوكة، منطق عمل، عمليات دمج APIs
محادثات الدردشة السياق الكامل لجلسات Copilot Chat قرارات البنية، سير عمل التصحيح، تصميم النظام
قرارات القبول الاقتراحات التي تقبلها أو ترفضها إشارة تدريب لما يشكل شفرة "جيدة"
سياق الملف الشفرة المحيطة عند اقتراحات Copilot مخططات قواعد البيانات، تدفقات المصادقة، APIs داخلية
أنماط التصحيح كيف تعدل مخرجات Copilot معايير الترميز والممارسات الأمنية لفريقك

تستخدم هذه البيانات في تدريب نماذج GitHub القادمة. بمجرد دمجها، تصبح أنماط شفرتك جزءًا من أوزان النموذج وقد تظهر في اقتراحات لمستخدمين آخرين – حتى المنافسين.

لماذا الوضع الافتراضي مهم؟

يعتمد GitHub على عبارات مثل "راجع هذا التحديث وأدر تفضيلاتك"، مما يضع العبء عليك لاكتشاف وتفعيل الحماية.

الإعداد الافتراضي بعد 24 أبريل: موافق عليه.

هذا النمط من "الأنماط المظلمة" يصعّب حماية الخصوصية. معظم المستخدمين لا يغيرون الإعدادات الافتراضية، خاصة في أدوات التطوير اليومية.

تقريبًا 15-20% فقط يختارون إلغاء الاشتراك عند تقديم الخيار بوضوح؛ GitHub يفترض أن الباقي سيبقون مشتركين افتراضيًا.

خطوة بخطوة: كيفية إلغاء الاشتراك في جمع بيانات GitHub Copilot

إلغاء الاشتراك يستغرق أقل من دقيقتين. نفذ الخطوات التالية قبل 24 أبريل.

الطريقة الأولى: إعدادات الحساب الفردي

الانتقال إلى إعدادات Copilot

  • اذهب إلى github.com
  • انقر على أيقونة ملفك الشخصي (أعلى اليمين)
  • اختر "الإعدادات" (Settings) من القائمة
  • انقر على "Copilot" في الشريط الجانبي الأيسر

إعدادات Copilot

العثور على قسم استخدام البيانات

  • انتقل إلى قسم "الخصوصية" (Privacy)
  • ابحث عن خيار "السماح لـ GitHub باستخدام بياناتي لتدريب نماذج الذكاء الاصطناعي" (Allow GitHub to use my data for AI model training)

قسم استخدام البيانات

  • قم بتعطيل الخيار
  • تأكد أن الإعداد يظهر كـ "معطل" (disabled)

تأكيد التغيير

  • قد يستغرق سريان التغييرات حتى 30 دقيقة
  • أعد تشغيل محرر الشفرة الخاص بك لتفعيل التغييرات فورًا

الطريقة الثانية: إعدادات على مستوى المؤسسة (للمسؤولين)

إذا كنت تدير مؤسسة على GitHub، يمكنك فرض إعدادات إلغاء الاشتراك على جميع الأعضاء:

الوصول إلى إعدادات المؤسسة

  • اذهب إلى الصفحة الرئيسية لمؤسستك
  • انقر على "الإعدادات" (Settings) في قائمة المؤسسة
  • اختر "Copilot" من القائمة اليسرى

تكوين سياسات البيانات

  • ابحث عن "سياسات استخدام بيانات Copilot" (Copilot data usage policies)
  • اختر "تعطيل جمع بيانات التفاعل لجميع الأعضاء" (Disable interaction data collection for all members)
  • احفظ التغييرات

التواصل مع فريقك

  • وثّق التغيير في wiki الداخلي
  • أخبر المطورين عبر Slack أو البريد الإلكتروني
  • أضف التغيير لقوائم التحقق الخاصة بالمنضمين الجدد

خطوات التحقق

بعد إلغاء الاشتراك، تحقق من سريان الإعدادات:

# لا يوجد تحقق عبر CLI، لكن يمكنك:
# 1. التأكد أن صفحة الإعدادات غير محددة (unchecked)
# 2. مراجعة تنزيل بيانات GitHub (الإعدادات > الخصوصية > تنزيل بياناتك)
# 3. مراقبة سلوك Copilot لأي تغييرات
Enter fullscreen mode Exit fullscreen mode

مهم: إلغاء الاشتراك لا يحذف البيانات التي تم جمعها سابقًا. فقط يمنع جمع بيانات جديدة بدءًا من وقت تغيير الإعداد.

اعتبارات المؤسسات والامتثال

إذا كنت تعمل في صناعة منظمة أو تتعامل مع بيانات حساسة، يجب الانتباه لتغيير سياسة GitHub.

الصناعات التي تتطلب تدقيقاً إضافياً

الصناعة اللائحة القلق
الرعاية الصحية HIPAA كشف معلومات الصحة (PHI) عبر الشفرة أو أسماء المتغيرات
المالية SOC 2, GDPR منطق معاملات العملاء، التعامل مع معلومات PII
الحكومة FedRAMP, ITAR معماريات الأنظمة السرية، بروتوكولات الأمان
برمجيات SaaS عقود العملاء خوارزميات مملوكة، ميزات تنافسية

أسئلة لطرحها على فريقك القانوني

قبل 24 أبريل، راجع مع المستشار القانوني أو الامتثال:

  1. هل تعالج اتفاقية الخدمة مع GitHub موضوع استخدام بيانات التدريب؟
  2. هل تحظر عقود العملاء مشاركة الشفرة مع خدمات الذكاء الاصطناعي الخارجية؟
  3. ما مسؤوليتنا إذا ظهرت شفرتنا لدى المنافسين عبر الاقتراحات؟
  4. هل نحتاج لاتفاقية مؤسسية مع قيود على البيانات؟

خيارات GitHub للمؤسسات

عملاء GitHub Enterprise قد يمتلكون قوة تفاوضية أكبر. ناقش مع ممثل الحساب:

  • ضمانات تعاقدية ضد استخدام بيانات التدريب
  • مثيلات نماذج خاصة للبيئات المنظمة
  • تسجيل تدقيق مخصص للامتثال
  • سياسات احتفاظ بيانات مخصصة

Apidog لخصوصية تطوير واجهة برمجة التطبيقات (API)

إذا كنت تبني وتختبر APIs، فحماية الخصوصية لا تقل أهمية عن حماية الشفرة. Apidog يوفر بديلًا يركز على الخصوصية لأدوات تطوير API السحابية:

  • بنية محلية أولاً: تبقى مواصفات API على جهازك.
  • لا تدريب على بيانات العملاء: لا يستخدم Apidog تعريفات API الخاصة بك لتدريب النماذج.
  • خيارات استضافة ذاتية: سيادة كاملة على البيانات للبيئات المنظمة.
  • التعاون الجماعي دون تعرض: مشاركة المواصفات داخليًا دون وصول طرف ثالث.

Apidog API Privacy

عند تقييم أدوات التطوير المدعومة بالذكاء الاصطناعي، اسأل: "أين تذهب بياناتي، وكيف يتم استخدامها؟" يجب أن تكون الإجابة واضحة وموثقة وملزمة تعاقديًا.

ماذا يحدث إذا لم تقم بإلغاء الاشتراك؟

بعد 24 أبريل، إذا بقيت مشتركًا:

تدخل شفرتك مسار التدريب

  • يتم جمع بيانات التفاعل باستمرار
  • لا تصلك إشعارات باستخدام بياناتك
  • لا توجد وسيلة لطلب حذف البيانات لاحقًا

سيناريوهات التعرض المحتمل

  • منافس يستخدم Copilot بسياق مشابه فيحصل على اقتراحات مشابهة لشفرتك
  • نموذج GitHub يقترح شفرات قريبة من شفرتك
  • لا توجد آلية تدقيق تبين كيف أثرت بياناتك على النتائج

تعقيدات الامتثال

  • قد تتطلب عمليات تدقيق العملاء معرفة استخدام بيانات الذكاء الاصطناعي
  • قد تطلب الجهات التنظيمية خرائط بيانات لا يمكنك توفيرها
  • قد تؤدي الانتهاكات التعاقدية إلى إشعارات خرق

هل يمكنك إلغاء الاشتراك لاحقًا؟

نعم، لكن مع القيود التالية:

  • البيانات الجديدة فقط: يمنع جمع البيانات مستقبلًا
  • البيانات السابقة: تم دمجها في النماذج ولا يوجد ضمان لحذفها
  • إعادة تدريب النموذج: حتى مع حذف البيانات، تحتفظ أوزان النماذج بالأنماط المستفادة

الأنسب: قم بإلغاء الاشتراك قبل 24 أبريل.

الخلاصة

تغيير سياسة GitHub Copilot يبدأ في 24 أبريل. بيانات تفاعلك – مقتطفات الشفرة، محادثات الدردشة، قرارات القبول – ستستخدم لتدريب نماذج الذكاء الاصطناعي إذا لم تلغِ الاشتراك بنفسك.

الدقيقتان اللازمتان لإلغاء الاشتراك تحمي ملكيتك الفكرية وشفرة فريقك ووضع الامتثال لمؤسستك. لا تنتظر حتى 25 أبريل لتكتشف أن شفرتك درّبت مساعد الذكاء الاصطناعي لمنافسك.

إذا كنت تبني APIs وتحتاج أدوات قوية دون المساومة على الخصوصية، استكشف Apidog: منصة تطوير API شاملة تحمي خصوصية مواصفاتك افتراضيًا.

Top comments (0)