Một người đàn ông 60 tuổi rơi vào trạng thái loạn thần nghiêm trọng sau ba tháng loại bỏ muối ăn khỏi chế độ ăn và thay bằng sodium bromide được gợi ý bởi ChatGPT. Sự việc xảy ra tại Mỹ và phải mất nhiều tuần điều trị mới kiểm soát được tình trạng sức khỏe cho bệnh nhân.
Diễn biến sự việc: Từ lời khuyên trên AI đến nhập viện cấp cứu
Bắt đầu từ việc tìm kiếm lời khuyên sức khỏe qua ChatGPT, người đàn ông 60 tuổi—từng học dinh dưỡng ở đại học—quyết định loại hoàn toàn muối ăn (sodium chloride) khỏi thực đơn. Ông đã thay thế bằng sodium bromide, mua trên mạng Internet và sử dụng trong ba tháng.
Vào ngày nhập viện, ông xuất hiện với các triệu chứng kỳ lạ: luôn khát nước, hoang tưởng, từ chối nước do bệnh viện cung cấp, cho biết chỉ uống nước tự chưng tại nhà và thực hiện chế độ ăn chay cực đoan. Bệnh nhân không đề cập đến việc sử dụng sodium bromide hay các cuộc trò chuyện với ChatGPT với nhân viên y tế.
Nguyên nhân phát bệnh: Ngộ độc bromide nặng
- Bệnh nhân bị thiếu vi chất dinh dưỡng nghiêm trọng, nhất là các loại vitamin chính yếu.
- Phát hiện nồng độ bromide trong máu lên tới 1.700 mg/L (giá trị tham chiếu bình thường là 0.9–7.3 mg/L).
- Bromism (ngộ độc brom) gây ra các triệu chứng như rối loạn thần kinh, hoang tưởng, ảo giác.
- Khi chưa kiểm soát, bệnh nhân gia tăng mức độ loạn thần và tìm cách thoát khỏi bệnh viện.
Phác đồ điều trị và kết quả
Bệnh nhân được đặt trong tình trạng theo dõi tâm thần bắt buộc, dùng thuốc chống rối loạn tâm thần và truyền nhiều dịch cũng như điện giải — đây là phương pháp giải brom hiệu quả nhất gọi là "aggressive saline diuresis”. Sau ba tuần điều trị liên tục, bệnh trạng dần ổn định và bác sĩ mới được biết rõ toàn bộ câu chuyện phía sau.
Nguyên nhân sâu xa: Hiểu lầm về ChatGPT và cảnh báo sử dụng AI cho sức khỏe
Nguồn gốc sự cố từ thông tin trên AI
Bệnh nhân cho biết ông loại muối ăn sau khi đọc nhiều về tác động tiêu cực của muối, từ đó hỏi ý kiến ChatGPT và nghĩ có thể dùng sodium bromide thay thế. Các bác sĩ không có được log ChatGPT thực tế của bệnh nhân để xác minh chính xác lời khuyên cụ thể.
- Các phiên bản ChatGPT 3.5 và 4.0 từng liệt kê bromide như một lựa chọn thay thế cho chlorine trong bối cảnh vệ sinh, không phải dinh dưỡng.
- AI không đưa ra cảnh báo trực tiếp về nguy cơ sức khỏe, cũng không hỏi mục đích sử dụng chi tiết như cách bác sĩ chuyên môn vẫn làm.
- Các phiên bản mới của ChatGPT đã cải thiện khi hỏi rõ mục đích trước khi trả lời về thay thế chlorine hoặc sodium chloride.
Cảnh báo từ sự kiện: Rủi ro khi tự ý thay đổi chế độ dinh dưỡng theo AI
Vai trò kiểm chứng thông tin y tế và thận trọng khi dùng AI
Sự việc trên là ví dụ điển hình cho rủi ro khi tra cứu thông tin sức khỏe qua ChatGPT hoặc công cụ trí tuệ nhân tạo khác mà thiếu sự đánh giá và tư vấn từ bác sĩ, chuyên gia y tế. Sữa chữa lầm tưởng và loại trừ suy diễn sai của AI là điều cần thiết để đảm bảo sức khỏe cá nhân.
Câu chuyện về ngộ độc brom do tự ý thay thế muối ăn bằng sodium bromide theo gợi ý ChatGPT là bài học cảnh tỉnh. Tra cứu thông tin sức khỏe trên AI cần đánh giá kỹ và nên tham khảo ý kiến chuyên gia để phòng những hậu quả nghiêm trọng cho sức khỏe.
