สรุปเนื้อหา
GitHub จะเริ่มใช้ข้อมูลการโต้ตอบกับ Copilot ของคุณเพื่อฝึกฝนโมเดล AI ในวันที่ 24 เมษายน 2026 ข้อมูลโค้ดของคุณ การสนทนาทางแชท และการตัดสินใจยอมรับจะกลายเป็นข้อมูลการฝึกฝน เว้นแต่คุณจะเลือกไม่ใช้ด้วยตนเอง เปลี่ยนการตั้งค่าของคุณที่ github.com/settings/copilot ก่อนถึงกำหนดเวลาเพื่อรักษาความเป็นส่วนตัวของโค้ดของคุณ
บทนำ
เวิร์กโฟลว์การพัฒนาของคุณกำลังจะกลายเป็นข้อมูลการฝึกฝนของผู้อื่น
ในวันที่ 24 เมษายน 2026 นโยบาย Copilot ที่อัปเดตของ GitHub จะมีผลบังคับใช้ การเปลี่ยนแปลงนี้อนุญาตให้ Microsoft และ GitHub ใช้ทุกสิ่งที่คุณพิมพ์ลงใน Copilot: ข้อมูลโค้ด คำถามเกี่ยวกับการดีบัก คำขอการรีแฟคเตอร์ เป็นข้อมูลการฝึกอบรมสำหรับโมเดล AI รุ่นต่อไปของพวกเขา ซึ่งรวมถึงโค้ดที่เป็นกรรมสิทธิ์จากที่เก็บส่วนตัวของบริษัทคุณ
นักพัฒนาส่วนใหญ่จะไม่ได้รับการแจ้งเตือนโดยตรง พวกเขาจะทำงานต่อไปโดยไม่รู้ว่าทรัพย์สินทางปัญญาของพวกเขากลายเป็นส่วนหนึ่งของข้อมูลการฝึกอบรมของ GitHub ในทุกการโต้ตอบกับ Copilot
หากคุณบริหารทีมพัฒนาหรือทำงานกับโค้ดเบสที่ละเอียดอ่อน ให้บุ๊กมาร์กหน้านี้และแชร์กับหัวหน้าวิศวกรของคุณ หน้าต่างการเลือกไม่ใช้จะปิดลงในไม่ช้า
มีอะไรเปลี่ยนแปลงในนโยบาย Copilot ของ GitHub
GitHub ระบุว่าการอัปเดตนโยบายนี้เป็นการปรับปรุงเพื่อ "ปรับแต่งและปรับปรุง" ประสบการณ์ของ Copilot การใช้ข้อมูลขยายไปไกลกว่าการปรับแต่งส่วนบุคคล
กำหนดเวลาของนโยบาย
วันที่ 24 เมษายน 2026 เป็นวันที่บังคับใช้ หลังจากวันที่นี้ GitHub จะถือว่าคุณยินยอมโดยปริยาย เว้นแต่คุณจะเลือกไม่ใช้ด้วยตนเองผ่านการตั้งค่าบัญชีของคุณ
ประกาศต้นฉบับระบุว่า GitHub จะใช้ "ข้อมูลการโต้ตอบ" เพื่อฝึกฝนโมเดล AI ในอนาคต "ข้อมูลการโต้ตอบ" หมายถึงอะไร?
สิ่งที่ GitHub รวบรวม
ข้อมูลการโต้ตอบกับ Copilot ของ GitHub ประกอบด้วย:
| ประเภทข้อมูล | สิ่งที่รวมอยู่ | ความเสี่ยงด้านความเป็นส่วนตัว |
|---|---|---|
| ข้อมูลโค้ด | โค้ดใดๆ ที่คุณเขียนหรือแก้ไขด้วยความช่วยเหลือจาก Copilot | อัลกอริทึมที่เป็นกรรมสิทธิ์, ตรรกะทางธุรกิจ, การรวม API |
| การสนทนาทางแชท | บริบททั้งหมดของเซสชัน Copilot Chat | การตัดสินใจด้านสถาปัตยกรรม, เวิร์กโฟลว์การดีบัก, การออกแบบระบบ |
| การตัดสินใจยอมรับ | คำแนะนำที่คุณยอมรับหรือปฏิเสธ | สัญญาณการฝึกฝนสำหรับสิ่งที่ถือว่าเป็นโค้ด "ที่ดี" |
| บริบทไฟล์ | โค้ดโดยรอบเมื่อ Copilot สร้างคำแนะนำ | โครงสร้างฐานข้อมูล, โฟลว์การตรวจสอบสิทธิ์, API ภายใน |
| รูปแบบการแก้ไข | วิธีที่คุณแก้ไขผลลัพธ์ของ Copilot | มาตรฐานการเขียนโค้ดและแนวทางปฏิบัติด้านความปลอดภัยของทีมคุณ |
ข้อมูลนี้ใช้ในการฝึกฝนโมเดลรุ่นต่อไปของ GitHub เมื่อรวมเข้าด้วยกัน รูปแบบโค้ดของคุณจะกลายเป็นส่วนหนึ่งของน้ำหนักของโมเดลและอาจปรากฏในคำแนะนำต่อผู้ใช้รายอื่น รวมถึงคู่แข่ง
ทำไมค่าเริ่มต้นจึงสำคัญ
GitHub ใช้ภาษาว่า "ตรวจสอบการอัปเดตนี้และจัดการการตั้งค่าของคุณ" ซึ่งหมายความว่าผู้ใช้ต้องค้นหาและเปิดใช้งานการป้องกันความเป็นส่วนตัวด้วยตนเอง
- การตั้งค่าเริ่มต้นหลังจากวันที่ 24 เมษายน: เลือกใช้
- โครงสร้างนี้ถือว่าเกือบทั้งหมดจะไม่ได้เลือกไม่ใช้
ทีละขั้นตอน: วิธีการเลือกไม่ใช้การรวบรวมข้อมูลของ GitHub Copilot
การเลือกไม่ใช้ใช้เวลาน้อยกว่าสองนาที ทำตามขั้นตอนเหล่านี้ก่อนวันที่ 24 เมษายน
วิธีที่ 1: การตั้งค่าบัญชีส่วนบุคคล
ไปที่การตั้งค่า Copilot
- ไปที่ github.com
- คลิกไอคอนโปรไฟล์ของคุณ (ขวาบน)
- เลือก "Settings" จากเมนูดร็อปดาวน์
- คลิก "Copilot" ในแถบด้านซ้าย
ค้นหาส่วนการใช้ข้อมูล
- เลื่อนไปที่ "Privacy"
- มองหาตัวเลือก "Allow GitHub to use my data for AI model training"
- ปิดใช้งานตัวเลือกนี้
- ยืนยันว่าการตั้งค่าแสดงเป็นปิดใช้งาน
ยืนยันการเปลี่ยนแปลง
- อาจใช้เวลาถึง 30 นาทีเพื่อให้การเปลี่ยนแปลงมีผล
- รีสตาร์ทตัวแก้ไขโค้ดของคุณเพื่อให้การเปลี่ยนแปลงมีผลทันที
วิธีที่ 2: การตั้งค่าทั่วทั้งองค์กร (สำหรับผู้ดูแลระบบ)
หากคุณจัดการ GitHub Organization คุณสามารถบังคับใช้การตั้งค่าการเลือกไม่ใช้กับสมาชิกทุกคนได้:
เข้าถึงการตั้งค่าองค์กร
- ไปที่หน้าหลักขององค์กรของคุณ
- คลิก "Settings" ในการนำทางขององค์กร
- เลือก "Copilot" จากเมนูด้านซ้าย
กำหนดค่านโยบายข้อมูล
- ค้นหา "Copilot data usage policies"
- เลือก "Disable interaction data collection for all members"
- บันทึกการเปลี่ยนแปลง
สื่อสารกับทีมของคุณ
- บันทึกการเปลี่ยนแปลงนโยบายในวิกิภายใน
- แจ้งนักพัฒนาผ่าน Slack หรืออีเมล
- เพิ่มลงในรายการตรวจสอบการรับพนักงานใหม่
ขั้นตอนการตรวจสอบ
หลังจากเลือกไม่ใช้ ให้ตรวจสอบว่าการตั้งค่าของคุณมีผล:
# ไม่มีการตรวจสอบ CLI แต่คุณสามารถ:
# 1. ตรวจสอบว่าหน้าการตั้งค่าแสดงว่าไม่ได้เลือกไว้
# 2. ตรวจสอบการดาวน์โหลดข้อมูลของ GitHub (Settings > Privacy > Download your data)
# 3. ตรวจสอบพฤติกรรมของ Copilot สำหรับการเปลี่ยนแปลงใดๆ
สำคัญ: การเลือกไม่ใช้ไม่ได้ลบข้อมูลที่รวบรวมไปแล้ว แต่จะป้องกันการรวบรวมในอนาคตเท่านั้น นับตั้งแต่เวลาที่คุณเปลี่ยนการตั้งค่า
ข้อควรพิจารณาสำหรับองค์กรและการปฏิบัติตามข้อกำหนด
หากคุณทำงานในอุตสาหกรรมที่มีการควบคุมหรือจัดการข้อมูลลูกค้าที่ละเอียดอ่อน การเปลี่ยนแปลงนโยบายของ GitHub ทำให้เกิดปัจจัยเสี่ยงเพิ่มเติม
อุตสาหกรรมที่ต้องมีการตรวจสอบเป็นพิเศษ
| อุตสาหกรรม | ข้อบังคับ | ข้อกังวล |
|---|---|---|
| การดูแลสุขภาพ | HIPAA | การเปิดเผย PHI ผ่านความคิดเห็นโค้ดหรือชื่อตัวแปร |
| การเงิน | SOC 2, GDPR | ตรรกะการทำธุรกรรมของลูกค้า, รูปแบบการจัดการ PII |
| ภาครัฐ | FedRAMP, ITAR | สถาปัตยกรรมระบบที่จัดประเภท, โปรโตคอลความปลอดภัย |
| Enterprise SaaS | สัญญาของลูกค้า | อัลกอริทึมที่เป็นกรรมสิทธิ์, ความได้เปรียบในการแข่งขัน |
คำถามที่ควรถามทีมกฎหมายของคุณ
ก่อนวันที่ 24 เมษายน ให้กำหนดเวลารีวิวกับที่ปรึกษาด้านการปฏิบัติตามข้อกำหนดหรือกฎหมายของคุณ:
- สัญญา MSA ปัจจุบันของเรากับ GitHub ครอบคลุมการใช้ข้อมูลการฝึกอบรม AI หรือไม่?
- สัญญาของลูกค้าห้ามการแชร์โค้ดกับบริการ AI ของบุคคลที่สามหรือไม่?
- มีความรับผิดชอบใดบ้างหากโค้ดที่เป็นกรรมสิทธิ์ปรากฏในคำแนะนำของคู่แข่ง?
- เราควรทำข้อตกลงระดับองค์กรพร้อมข้อจำกัดข้อมูลที่ชัดเจนหรือไม่?
ตัวเลือก GitHub Enterprise
ลูกค้า GitHub Enterprise อาจมีอำนาจต่อรองเพิ่มเติม ติดต่อ GitHub สำหรับ:
- การรับประกันตามสัญญาต่อการใช้ข้อมูลการฝึกอบรม
- อินสแตนซ์โมเดลส่วนตัวสำหรับปริมาณงานที่มีการควบคุม
- การบันทึกการตรวจสอบที่ปรับปรุงเพื่อการรายงานการปฏิบัติตามข้อกำหนด
- นโยบายการเก็บรักษาข้อมูลแบบกำหนดเอง
Apidog สำหรับความเป็นส่วนตัวในการพัฒนา API
สำหรับทีมที่สร้างและทดสอบ API ความเป็นส่วนตัวขยายไปไกลกว่าการเติมโค้ด Apidog เป็นทางเลือกที่ให้ความเป็นส่วนตัวเป็นอันดับแรกสำหรับเครื่องมือพัฒนา API บนคลาวด์:
- สถาปัตยกรรมที่เน้นการทำงานในเครื่อง: ข้อมูลจำเพาะ API ของคุณจะอยู่ในเครื่องของคุณ
- ไม่มีการฝึกฝนจากข้อมูลลูกค้า: Apidog ไม่ใช้คำจำกัดความ API ของคุณในการฝึกโมเดล
- ตัวเลือกโฮสต์เอง: อธิปไตยของข้อมูลที่สมบูรณ์สำหรับสภาพแวดล้อมที่มีการควบคุม
- การทำงานร่วมกันเป็นทีมโดยไม่มีการเปิดเผย: แชร์ข้อมูลจำเพาะภายในโดยไม่มีการเข้าถึงจากบุคคลที่สาม
เมื่อประเมินเครื่องมือการพัฒนาที่ขับเคลื่อนด้วย AI ให้ถามว่า: "ข้อมูลของฉันไปอยู่ที่ไหน และถูกนำไปใช้อย่างไร?" คำตอบควรจะชัดเจน มีเอกสารประกอบ และมีผลผูกพันตามสัญญา
จะเกิดอะไรขึ้นหากคุณไม่เลือกไม่ใช้
หลังจากวันที่ 24 เมษายน หากคุณยังคงเลือกใช้:
โค้ดของคุณจะเข้าสู่กระบวนการฝึกอบรม
- ข้อมูลการโต้ตอบจะถูกประมวลผลอย่างต่อเนื่อง
- ไม่มีการแจ้งเตือนเมื่อมีการใช้ข้อมูลของคุณ
- ไม่มีกลไกในการขอการลบในภายหลัง
สถานการณ์การเปิดเผยข้อมูลที่เป็นไปได้
- คู่แข่งป้อนบริบทที่คล้ายกันให้กับ Copilot
- โมเดลของ GitHub สร้างคำแนะนำที่คล้ายกับโค้ดของคุณ
- ไม่มีบันทึกการตรวจสอบที่แสดงว่าข้อมูลการฝึกอบรมใดมีอิทธิพลต่อผลลัพธ์
ความยุ่งยากในการปฏิบัติตามข้อกำหนด
- การตรวจสอบลูกค้าอาจระบุการใช้ข้อมูลการฝึกอบรม AI
- การสอบถามด้านกฎระเบียบต้องการการทำแผนที่ข้อมูลที่คุณไม่สามารถจัดหาได้
- การละเมิดสัญญาอาจกระตุ้นการแจ้งเตือนการละเมิด
คุณสามารถเลือกไม่ใช้ในภายหลังได้หรือไม่?
ได้ แต่มีข้อจำกัด:
- ข้อมูลในอนาคต: หยุดการรวบรวมข้อมูลในอนาคต
- ข้อมูลในอดีต: ถูกรวมอยู่ในโมเดลแล้ว ไม่รับประกันการลบ
- การฝึกโมเดลใหม่: แม้ลบออกจากชุดข้อมูลแล้ว แต่น้ำหนักของโมเดลยังคงรักษาแพทเทิร์นที่เรียนรู้ไว้
แนวทางที่ปลอดภัยที่สุด: เลือกไม่ใช้ก่อนวันที่ 24 เมษายน
สรุป
การเปลี่ยนแปลงนโยบาย Copilot ของ GitHub จะมีผลบังคับใช้ในวันที่ 24 เมษายน ข้อมูลการโต้ตอบของคุณ: ข้อมูลโค้ด การสนทนาทางแชท รูปแบบการยอมรับ จะกลายเป็นข้อมูลการฝึกอบรมสำหรับโมเดล AI ของ GitHub เว้นแต่คุณจะเลือกไม่ใช้ด้วยตนเอง
เวลาสองนาทีที่จำเป็นในการเลือกไม่ใช้จะช่วยปกป้องทรัพย์สินทางปัญญาของคุณ โค้ดที่เป็นกรรมสิทธิ์ของทีมคุณ และสถานะการปฏิบัติตามข้อกำหนดขององค์กรของคุณ อย่ารอจนถึงวันที่ 25 เมษายน เพื่อค้นพบว่าโค้ดของคุณได้ฝึกฝนผู้ช่วย AI ของคู่แข่งของคุณไปแล้ว
สำหรับทีมที่สร้าง API ที่ต้องการเครื่องมือที่มีประสิทธิภาพโดยไม่มีการแลกเปลี่ยนด้านความเป็นส่วนตัว ลองสำรวจ Apidog: แพลตฟอร์มการพัฒนา API แบบครบวงจรที่รักษาข้อมูลจำเพาะของคุณให้เป็นส่วนตัวโดยค่าเริ่มต้น



Top comments (0)