Anthropic sẽ yêu cầu tất cả người dùng Claude quyết định trước ngày 28/9 về việc cho phép sử dụng dữ liệu hội thoại cá nhân để huấn luyện mô hình AI. Chính sách mới kéo dài thời gian lưu dữ liệu và không áp dụng cho khách hàng doanh nghiệp.
Anthropic cập nhật chính sách dữ liệu cho người dùng Claude
Từ nay đến ngày 28/9, tất cả người dùng Claude, bao gồm phiên bản Free, Pro và Max, phải quyết định có cho phép sử dụng dữ liệu hội thoại và phiên mã lập trình cho mục đích huấn luyện AI hay không. Theo thông báo mới nhất trên blog của Anthropic, đây là thay đổi lớn so với chính sách trước đây, vốn không dùng dữ liệu người dùng cá nhân vào đào tạo mô hình AI.
Chi tiết cập nhật: Cho phép huấn luyện và tăng thời gian lưu trữ
- Nếu không chọn opt-out, dữ liệu của người dùng sẽ được dùng cải thiện Claude và lưu trữ tới 5 năm.
- Trước đây, dữ liệu thường bị xóa khỏi hệ thống sau 30 ngày, hoặc giữ tối đa 2 năm nếu mắc lỗi hay vi phạm chính sách.
- Người dùng Claude Code cũng nằm trong diện này.
- Khách hàng doanh nghiệp sử dụng Claude Gov, Claude for Work, Claude for Education hoặc API sẽ KHÔNG thuộc phạm vi chính sách mới.
Lý do và cách thực hiện cập nhật Opt-out
Anthropic giải thích rằng việc sử dụng dữ liệu giúp đội ngũ nâng cao độ an toàn, khả năng phát hiện nội dung độc hại và cải thiện kỹ năng như coding, phân tích, lập luận cho các mô hình tương lai của Claude. Mỗi người dùng sẽ gặp trang pop-up cập nhật điều khoản với nút "Accept" nổi bật. Tuy nhiên, lựa chọn huấn luyện dữ liệu (training permissions) chỉ là một công tắc nhỏ phía dưới, mặc định bật. Điều này khiến nhiều người dễ nhấp "Accept" mà không biết đang cho phép chia sẻ dữ liệu.
So sánh với các thay đổi chính sách dữ liệu ngành AI
Những điểm tương đồng với OpenAI và xu hướng ngành
Anthropic không phải công ty lớn duy nhất thay đổi chính sách về dữ liệu người dùng. OpenAI cũng từng gặp kiện tụng buộc lưu dữ liệu hội thoại của ChatGPT vô thời hạn, bất chấp thao tác xóa của người dùng. Tuy nhiên, người dùng doanh nghiệp hoặc sử dụng Zero Data Retention tiếp tục được bảo vệ.
Đánh giá về quyền riêng tư và sự minh bạch
Các chuyên gia về quyền riêng tư cảnh báo việc thay đổi chính sách âm thầm hoặc chôn vùi mục opt-out trong giao diện có thể khiến người dùng khó ý thức và đưa ra quyết định đúng đắn. Ủy ban Thương mại Liên bang Mỹ (FTC) cũng từng khuyến cáo các công ty AI cần minh bạch khi thay đổi điều khoản dịch vụ nhằm tránh rủi ro pháp lý, vi phạm quyền lợi khách hàng.
Chính sách mới của Anthropic bắt buộc người dùng Claude quyết định về quyền sử dụng dữ liệu hội thoại cho việc huấn luyện AI trước 28/9. Sự thay đổi này tác động mạnh tới quyền riêng tư người dùng phổ thông, trong khi khách hàng doanh nghiệp được miễn trừ.
