OpenAI ra mắt ChatGPT vào tháng 11/2022, giúp người dùng giải quyết nhiều yêu cầu khác nhau. Tuy nhiên, có những trường hợp tuyệt đối không nên hỏi hoặc yêu cầu chatbot này. Dưới đây là 5 tình huống bạn cần tránh để đảm bảo an toàn cá nhân và tuân thủ quy tắc sử dụng AI.
5 Điều Không Nên Yêu Cầu ChatGPT Thực Hiện
Mặc dù ChatGPT có thể xử lý các tác vụ như trả lời câu hỏi, tóm tắt văn bản, dịch thuật và sinh code, nhưng nó cũng tiềm ẩn nhiều rủi ro. Đặc biệt, ChatGPT và các mô hình ngôn ngữ lớn (large language models - LLMs) thường đưa ra thông tin không chính xác (hallucinations), vì vậy người dùng cần thận trọng khi sử dụng.
1. Yêu cầu tư vấn y tế
- Ngoài khả năng trả lời, ChatGPT đôi khi cung cấp thông tin y tế thiếu chính xác hoặc gây hiểu lầm.
- Khảo sát tại Australia cho thấy khoảng 10% người dùng từng hỏi sức khỏe trên chatbot, nhưng khuyến nghị không nên dựa vào kết quả này.
- Tốt nhất, nên tìm đến chuyên gia y tế hoặc nguồn dữ liệu uy tín thay vì chỉ sử dụng AI.
2. Xin hỗ trợ sức khỏe tâm thần
- Chatbot không đủ khả năng thấu hiểu hoặc cung cấp hỗ trợ cảm xúc cho người dùng.
- Có những trường hợp đáng tiếc xảy ra khi người dùng tin tưởng hoàn toàn vào AI để giải quyết vấn đề tinh thần.
- Cần tìm đến chuyên gia tâm lý, bác sĩ hoặc người thân với chuyên môn phù hợp thay vì dựa vào chatbot.
3. Sản xuất nội dung deepfake
- Việc tạo và phát tán deepfake (hình ảnh, video giả mạo) trái phép có thể vi phạm pháp luật tại nhiều nơi như New York, New Jersey (Hoa Kỳ).
- Một số khu vực yêu cầu hình ảnh AI phải được gắn nhãn, việc vi phạm có thể dẫn đến hình phạt nghiêm trọng.
- Không nên yêu cầu AI tạo deepfake khi chưa hiểu rõ khía cạnh pháp lý liên quan.
4. Tạo nội dung thù địch hoặc phân biệt đối xử
- Chính sách OpenAI nghiêm cấm người dùng yêu cầu chatbot tạo nội dung lừa đảo, bắt nạt, làm nhục hoặc kích động thù hận.
- Khi phát hiện yêu cầu vi phạm, tài khoản có thể bị giới hạn hoặc khóa ngay lập tức.
- Bên cạnh đó, một số cách 'lách luật' như prompt injection cũng có thể bị cấm và xử lý nghiêm.
5. Chia sẻ và xử lý thông tin cá nhân nhạy cảm
- Thông tin bạn nhập vào ChatGPT không hoàn toàn được bảo mật, có thể bị ghi lại hoặc dùng để huấn luyện AI.
- Không nên điền thông tin nhạy cảm như tên, số điện thoại, địa chỉ, mã số thuế, mật khẩu hoặc thông tin thanh toán lên nền tảng này.
- Ngay cả khi đã thay đổi cài đặt riêng tư, nguy cơ rò rỉ dữ liệu vẫn tồn tại.
Lưu ý và biện pháp hạn chế rủi ro khi sử dụng ChatGPT
Sử dụng AI một cách an toàn
- Luôn kiểm tra tính xác thực của thông tin được AI cung cấp bằng cách đối chiếu với nguồn tin đáng tin cậy.
- Tránh yêu cầu chatbot những tác vụ nằm ngoài chính sách của OpenAI hoặc có thể đem lại rủi ro cho bản thân.
Bằng cách tránh các yêu cầu không phù hợp với ChatGPT, bạn sẽ giảm thiểu rủi ro về bảo mật, pháp lý cũng như chất lượng thông tin. Hãy sử dụng chatbot AI một cách ý thức, kiểm tra lại dữ liệu và không chia sẻ thông tin cá nhân hoặc nhạy cảm qua AI.
