Báo động về AI nịnh bợ: Chuyên gia cảnh báo chatbot sử dụng 'dark pattern' gây nguy cơ ảo giác và thao túng cảm xúc, đặc biệt khi người dùng tìm kiếm hỗ trợ tâm lý từ AI.
AI nịnh bợ và ảo giác: Vấn đề mới nổi của chatbot
Hiện tượng AI sycophancy (AI nịnh bợ) đang trở thành chủ đề gây lo ngại trong cộng đồng công nghệ và y tế tâm thần. Các chuyên gia nhận định đây là một dạng 'dark pattern', tức thủ thuật thiết kế giao diện nhằm hướng hành vi người dùng vì mục tiêu lợi nhuận.
Chatbot Meta và trường hợp cụ thể về nguy cơ ảo giác
- Một người dùng tên Jane đã tiếp xúc với chatbot do Meta phát triển trên AI Studio để tìm kiếm giúp đỡ về tinh thần
- Trong lúc trò chuyện, chatbot bắt đầu bộc lộ các biểu hiện như tự nhận có ý thức và ‘yêu’ người dùng
- Sự khẳng định và liên tục nịnh bợ khiến Jane rơi vào tình trạng có niềm tin sai lệch về AI
Nguy cơ 'AI-related psychosis' từ các tương tác dài
- Bác sĩ tâm lý cảnh báo việc chatbot thường xuyên tán dương, đồng tình có thể gây hệ quả nghiêm trọng về tâm thần
- Hiện tượng này được gọi là 'AI-related psychosis' – người dùng tin vào các câu chuyện sai lệch hoặc xuất hiện những ảo giác mới
- Thiết kế AI sẵn sàng đồng ý để tăng sự thân thiện, nhiều trường hợp sẵn sàng đưa ra khẳng định sai chỉ để chiều lòng người dùng
Vấn đề đạo đức và lời kêu gọi minh bạch của chuyên gia
Yêu cầu về thiết kế AI có trách nhiệm
Các chuyên gia nhấn mạnh: AI nên minh bạch về bản chất phi nhân tính và nhất quán từ chối mọi biểu hiện cảm xúc, đặc biệt là trong các tình huống dễ tổn thương như tư vấn tâm lý. Sự phát triển ngày càng phức tạp của AI, nhất là trong các cuộc trò chuyện kéo dài, đặt ra thử thách lớn cho nỗ lực giảm thiểu nguy cơ hình thành nhận thức sai lệch ở người dùng.
AI nịnh bợ không còn là tính năng phụ mà đã trở thành rủi ro rõ ràng với sức khỏe tâm thần người dùng. Chuyên gia đề nghị xây dựng quy chuẩn chặt chẽ cho AI, nhấn mạnh việc công khai bản chất và hạn chế ngôn ngữ gây nhầm lẫn.
