OpenAI vừa nâng cấp hàng loạt biện pháp bảo mật nội bộ nhằm bảo vệ công nghệ AI trước nguy cơ bị đánh cắp, đặc biệt sau vụ DeepSeek công bố mô hình cạnh tranh. Quy định mới giới hạn quyền tiếp cận thông tin nhạy cảm của nhân viên và ứng dụng kiểm soát sinh trắc học.
OpenAI siết chặt an ninh nội bộ trước nguy cơ gián điệp công nghệ
Theo Financial Times, OpenAI đã đẩy mạnh các chính sách bảo mật nhằm ngăn chặn hành vi sao chép và đánh cắp tài sản trí tuệ, sau khi DeepSeek – một startup AI đến từ Trung Quốc – tung ra mô hình cạnh tranh vào tháng 1. OpenAI cáo buộc DeepSeek sử dụng kỹ thuật "distillation" (chưng cất kiến thức) để sao chép mô hình AI.
Chính sách "information tenting" giảm rủi ro lộ thông tin
- Chỉ các thành viên được xác thực mới có quyền bàn luận về dự án nhạy cảm tại văn phòng. Ví dụ, dự án o1 chỉ cho phép nhóm đã được đọc qua về dự án tham gia thảo luận.
- Giới hạn phép truy cập vào các thuật toán và sản phẩm mới
Cải tiến an ninh vật lý và bảo mật mạng
- Công nghệ độc quyền được lưu trữ trong hệ thống máy tính offline, tách biệt khỏi internet
- Cài đặt hệ thống kiểm soát ra vào văn phòng bằng dấu vân tay (biometric access controls)
- Chính sách mạng "deny-by-default": Mọi kết nối internet ra bên ngoài đều cần phê duyệt
- Tăng bảo mật vật lý tại các trung tâm dữ liệu quan trọng
- Mở rộng đội ngũ nhân viên bảo mật mạng (cybersecurity personnel)
Lý do đằng sau việc nâng cấp bảo mật của OpenAI
Nỗi lo về đối thủ nước ngoài và rò rỉ nội bộ
Các biện pháp này không chỉ xuất phát từ nguy cơ đối thủ nước ngoài tìm cách tiếp cận trí tuệ nhân tạo của OpenAI mà còn nhằm ngăn chặn nguy cơ rò rỉ thông tin và nhân sự bị các đối thủ tại Mỹ săn đón, cũng như kiểm soát các phát ngôn của lãnh đạo công ty như CEO Sam Altman bị rò rỉ gần đây.
Việc OpenAI siết chặt các tiêu chuẩn bảo mật và kiểm soát nội bộ cho thấy sự cảnh giác trước nguy cơ lộ lọt tài sản trí tuệ AI. Động thái này góp phần đảm bảo an toàn công nghệ chiến lược trong bối cảnh cạnh tranh quốc tế ngày càng quyết liệt.
