Tóm tắt
GitHub sẽ bắt đầu sử dụng dữ liệu tương tác Copilot của bạn để đào tạo mô hình AI vào ngày 24 tháng 4 năm 2026. Các đoạn mã, cuộc trò chuyện và quyết định chấp nhận của bạn sẽ trở thành dữ liệu đào tạo trừ khi bạn tự mình từ chối. Thay đổi cài đặt của bạn tại github.com/settings/copilot trước thời hạn để giữ mã của bạn riêng tư.
Giới thiệu
Quy trình làm việc phát triển của bạn sắp trở thành dữ liệu đào tạo của người khác.
Vào ngày 24 tháng 4 năm 2026, chính sách Copilot cập nhật của GitHub sẽ có hiệu lực. Thay đổi này cho phép Microsoft và GitHub sử dụng mọi thứ bạn nhập vào Copilot: các đoạn mã, câu hỏi gỡ lỗi, yêu cầu tái cấu trúc, làm tài liệu đào tạo cho các mô hình AI thế hệ tiếp theo của họ. Điều này bao gồm cả mã độc quyền từ các kho lưu trữ riêng tư của công ty bạn.
Hầu hết các nhà phát triển sẽ không nhận được thông báo trực tiếp. Họ sẽ tiếp tục làm việc, không hề hay biết rằng tài sản trí tuệ của họ trở thành một phần của kho dữ liệu đào tạo của GitHub với mỗi lần tương tác với Copilot.
Nếu bạn quản lý một nhóm phát triển hoặc làm việc với các cơ sở mã nhạy cảm, hãy đánh dấu trang này và chia sẻ nó với trưởng nhóm kỹ thuật của bạn. Thời hạn từ chối sắp kết thúc.
Điều gì đã thay đổi trong chính sách Copilot của GitHub
GitHub mô tả việc cập nhật chính sách này như một sự cải thiện để "cá nhân hóa và nâng cao" trải nghiệm Copilot, nhưng phạm vi thu thập dữ liệu lớn hơn nhiều.
Lộ trình chính sách
Ngày 24 tháng 4 năm 2026 là ngày chính sách có hiệu lực. Sau mốc này, GitHub mặc định bạn đồng ý trừ khi chủ động từ chối qua cài đặt tài khoản.
Thông báo ban đầu đề cập đến "dữ liệu tương tác", nhưng phạm vi thực tế bao gồm nhiều thông tin nhạy cảm hơn bạn nghĩ.
Những gì GitHub thu thập
Dữ liệu tương tác Copilot của GitHub bao gồm:
| Loại dữ liệu | Nội dung bao gồm | Rủi ro quyền riêng tư |
|---|---|---|
| Đoạn mã | Bất kỳ mã nào bạn viết hoặc sửa đổi với sự hỗ trợ của Copilot | Thuật toán độc quyền, logic nghiệp vụ, tích hợp API |
| Cuộc trò chuyện qua chat | Toàn bộ ngữ cảnh của các phiên Copilot Chat | Các quyết định kiến trúc, quy trình gỡ lỗi, thiết kế hệ thống |
| Quyết định chấp nhận | Gợi ý bạn chấp nhận hoặc từ chối | Tín hiệu đào tạo cho những gì cấu thành mã "tốt" |
| Ngữ cảnh tệp | Mã xung quanh khi Copilot tạo gợi ý | Sơ đồ cơ sở dữ liệu, luồng xác thực, API nội bộ |
| Mẫu sửa lỗi | Cách bạn sửa đổi đầu ra của Copilot | Tiêu chuẩn mã hóa và thực hành bảo mật của nhóm bạn |
Dữ liệu này đào tạo các mô hình mới của GitHub. Sau khi tích hợp, mẫu mã của bạn có thể xuất hiện trong gợi ý cho người dùng khác (kể cả đối thủ cạnh tranh).
Tại sao cài đặt mặc định lại quan trọng
GitHub dùng ngôn ngữ như "xem xét bản cập nhật này và quản lý tùy chọn của bạn", đẩy trách nhiệm về phía người dùng.
- Sau ngày 24/4: Bạn mặc định đã chọn tham gia.
- Đây là một "mẫu tối" (dark pattern): bảo vệ quyền riêng tư trở nên khó khăn hơn, còn chia sẻ dữ liệu thì dễ dàng.
- Thống kê cho thấy 80%+ người dùng sẽ giữ nguyên mặc định, đồng nghĩa với việc dữ liệu tiếp tục bị thu thập.
Từng bước: Cách từ chối thu thập dữ liệu GitHub Copilot
Bạn chỉ mất chưa đầy hai phút để thực hiện – hãy làm ngay trước ngày 24/4.
Phương pháp 1: Cài đặt tài khoản cá nhân
-
Đăng nhập GitHub
- Truy cập github.com
- Nhấp vào biểu tượng hồ sơ (góc trên bên phải)
- Chọn Settings từ menu
- Nhấp vào Copilot ở thanh bên trái
-
Tìm phần sử dụng dữ liệu
- Cuộn đến mục Privacy
- Tìm tùy chọn: Allow GitHub to use my data for AI model training
-
Tắt tùy chọn này
- Chuyển sang trạng thái tắt
- Xác minh trạng thái đã tắt
-
Xác nhận thay đổi
- Thay đổi có thể mất tối đa 30 phút để áp dụng
- Khởi động lại trình soạn thảo mã để áp dụng ngay
Phương pháp 2: Cài đặt toàn tổ chức (cho Quản trị viên)
Nếu bạn quản lý một Organization, hãy áp dụng thiết lập này cho toàn bộ thành viên:
-
Truy cập cài đặt Organization
- Vào trang chính của tổ chức
- Click Settings (Cài đặt) trong điều hướng tổ chức
- Chọn Copilot từ menu bên trái
-
Cấu hình chính sách dữ liệu
- Tìm Copilot data usage policies
- Chọn Disable interaction data collection for all members
- Lưu thay đổi
-
Thông báo cho nhóm
- Ghi chú thay đổi vào tài liệu nội bộ (wiki)
- Thông báo qua Slack/email
- Thêm vào checklist onboarding nhân viên mới
Các bước xác minh
Sau khi tắt thu thập dữ liệu, xác minh lại như sau:
# Không có xác minh CLI, nhưng bạn nên:
# 1. Kiểm tra lại trang cài đặt đã bỏ chọn
# 2. Xem lại dữ liệu tải xuống (Settings > Privacy > Download your data)
# 3. Theo dõi hành vi Copilot để phát hiện thay đổi
Lưu ý: Hành động này chỉ ngăn thu thập dữ liệu mới, không xóa dữ liệu đã thu thập trước đó.
Cân nhắc về Doanh nghiệp và Tuân thủ
Nếu bạn làm việc trong ngành có quy định chặt chẽ hoặc xử lý dữ liệu khách hàng nhạy cảm, hãy đặc biệt lưu ý.
Các ngành yêu cầu xem xét kỹ hơn
| Ngành | Quy định | Mối quan ngại |
|---|---|---|
| Y tế | HIPAA | Lộ PHI qua bình luận mã hoặc tên biến |
| Tài chính | SOC 2, GDPR | Logic giao dịch khách hàng, mẫu xử lý PII |
| Chính phủ | FedRAMP, ITAR | Kiến trúc hệ thống mật, giao thức bảo mật |
| Enterprise SaaS | Hợp đồng khách hàng | Thuật toán độc quyền, lợi thế cạnh tranh |
Những câu hỏi cần đặt ra cho nhóm pháp lý
Trước ngày 24/4, hãy đánh giá với cố vấn pháp lý/tuân thủ:
- Thỏa thuận MSA với GitHub có đề cập đến đào tạo AI không?
- Hợp đồng khách hàng có cấm chia sẻ mã với dịch vụ AI bên thứ ba không?
- Có rủi ro nếu mã độc quyền xuất hiện trong gợi ý đối thủ không?
- Có nên đàm phán hợp đồng rõ hạn chế dữ liệu không?
Các tùy chọn GitHub Enterprise
Khách hàng Enterprise có thể yêu cầu:
- Đảm bảo hợp đồng chống lại sử dụng dữ liệu đào tạo
- Mô hình riêng tư cho workload quy định
- Ghi nhật ký kiểm tra nâng cao
- Chính sách lưu trữ dữ liệu tùy chỉnh
Apidog cho quyền riêng tư trong phát triển API
Với các nhóm xây dựng và kiểm thử API, quyền riêng tư nên được ưu tiên. Apidog là lựa chọn thay thế ưu tiên quyền riêng tư cho các công cụ phát triển API đám mây:
- Kiến trúc ưu tiên cục bộ: Thông số kỹ thuật API vẫn nằm trên máy bạn
- Không đào tạo trên dữ liệu khách hàng: Apidog không dùng định nghĩa API của bạn để train AI
- Tùy chọn tự lưu trữ: Chủ quyền dữ liệu cho các môi trường quy định
- Cộng tác nhóm an toàn: Chia sẻ nội bộ, không cần bên thứ ba truy cập
Khi đánh giá các công cụ phát triển AI, luôn hỏi: "Dữ liệu của tôi đi đâu và được sử dụng như thế nào?" Câu trả lời cần rõ ràng, ghi tài liệu, có tính ràng buộc pháp lý.
Điều gì xảy ra nếu bạn không từ chối
Sau ngày 24/4, nếu bạn không từ chối:
Mã của bạn đi vào quy trình đào tạo
- Dữ liệu được xử lý liên tục
- Không có thông báo khi dữ liệu của bạn bị dùng
- Không có cơ chế yêu cầu xóa về sau
Nguy cơ rò rỉ tiềm ẩn
- Đối thủ cạnh tranh được gợi ý Copilot với ngữ cảnh tương tự
- Mô hình gợi ý lại chính mã của bạn
- Không có dấu vết kiểm toán xác định dữ liệu đào tạo nào ảnh hưởng đầu ra
Vấn đề tuân thủ phức tạp
- Kiểm toán khách hàng có thể gắn cờ sử dụng dữ liệu AI
- Cơ quan quản lý yêu cầu truy vết dữ liệu bạn không thể cung cấp
- Vi phạm hợp đồng có thể kích hoạt thông báo vi phạm
Có thể từ chối sau này không?
Có, nhưng:
- Dữ liệu tương lai: Ngừng thu thập từ thời điểm bạn tắt
- Dữ liệu lịch sử: Có thể vẫn nằm trong mô hình, không cam kết xóa
- Đào tạo lại: Trọng số mô hình vẫn giữ lại mẫu đã học
Khuyến nghị: Hãy từ chối trước ngày 24/4.
Kết luận
Thay đổi chính sách Copilot của GitHub có hiệu lực ngày 24/4. Dữ liệu đoạn mã, trò chuyện, mẫu chấp nhận của bạn sẽ được dùng đào tạo AI trừ khi bạn chủ động từ chối.
Chỉ với hai phút cấu hình, bạn sẽ bảo vệ tài sản trí tuệ, mã độc quyền và tuân thủ của tổ chức. Đừng để đến ngày 25/4 mới phát hiện mã của bạn đã đào tạo cho AI của đối thủ.
Nếu bạn cần nền tảng phát triển API toàn diện mà không đánh đổi quyền riêng tư, hãy khám phá Apidog: giữ thông số kỹ thuật API riêng tư theo mặc định.



Top comments (0)