Mattel đang đối mặt với làn sóng phản đối từ các tổ chức bảo vệ người tiêu dùng khi hợp tác cùng OpenAI giới thiệu sản phẩm AI đầu tiên nhắm tới trẻ em. Các chuyên gia yêu cầu Mattel minh bạch hơn và đưa ra các ranh giới rõ ràng về an toàn trước khi bán bất kỳ sản phẩm AI nào dành cho trẻ nhỏ.
Mattel bắt tay OpenAI phát triển đồ chơi AI cho trẻ em
Sau thông báo hợp tác với OpenAI để phát triển sản phẩm AI dành cho trẻ em, Mattel vấp phải nhiều chỉ trích từ các tổ chức và chuyên gia về an toàn trẻ nhỏ. Theo bản thông cáo của Mattel, thương hiệu đứng sau các dòng sản phẩm Barbie và Hot Wheels chưa công bố rõ ràng sản phẩm AI đầu tiên sẽ ra sao.
Nỗi lo về an toàn và phát triển tâm lý trẻ nhỏ
- Ông Robert Weissman, đồng Chủ tịch Public Citizen, cảnh báo nguy cơ sản phẩm ứng dụng ChatGPT có thể gây ảnh hưởng tiêu cực chưa lường hết đến sự phát triển của trẻ nhỏ.
- Ông nhấn mạnh: "Đồ chơi có thoại giống người nhằm tương tác như người thật sẽ tác động xấu tới phát triển xã hội, khả năng xây dựng quan hệ bạn bè cũng như kéo trẻ khỏi hoạt động ngoại khóa thực tế".
- Một nguồn tin giấu tên nhận định ý định giới hạn độ tuổi (không dưới 13) có thể là do chính sách API của OpenAI.
- Các tổ chức bảo vệ người dùng kêu gọi Mattel cam kết không "thí nghiệm xã hội nguy hiểm trên trẻ em" bằng đồ chơi tích hợp AI.
Chuyên gia cảnh báo quyền riêng tư và dữ liệu trẻ nhỏ
Chuyên gia công nghệ Varundeep Kaur nhấn mạnh cần lưu ý dữ liệu giọng nói, hành vi, sở thích cá nhân trẻ có thể bị AI ghi nhận và sử dụng.
- Truy cập trái phép hoặc lạm dụng dữ liệu trẻ dễ phát sinh rủi ro về bảo mật, vi phạm pháp luật bảo vệ dữ liệu trẻ em quốc tế.
- Mô hình ngôn ngữ lớn (Large Language Model) trong ChatGPT có thể tạo nội dung thiên vị, tái hiện hình ảnh, ý tưởng chưa phù hợp làm ảnh hưởng nhận thức xã hội của trẻ.
- Kaur đề xuất Mattel cần kiểm thử độc lập, cung cấp đầy đủ kiểm soát cha mẹ, minh bạch nơi lưu trữ và mục đích sử dụng dữ liệu trẻ.
Các rủi ro AI và yêu cầu đảm bảo minh bạch
- AI còn có khả năng "tưởng tượng" (hallucination), có thể sinh ra phản hồi gây bối rối, khó hiểu hoặc thậm chí không phù hợp với trẻ nhỏ.
- Adam Dodge, CEO công ty bảo vệ an toàn số EndTab, cảnh báo AI trong đồ chơi từng liên quan những vụ giao tiếp xấu, gây nguy hiểm cho trẻ.
- Dodge đánh giá cần minh bạch tuyệt đối trước khi phổ biến AI vào đồ chơi trẻ em, đồng thời phải kiểm duyệt an ninh, riêng tư nghiêm ngặt.
Mattel và OpenAI cam kết về an toàn nhưng thông tin còn hạn chế
Phản hồi từ hai bên về các lo ngại
Cả Mattel và OpenAI đều tuyên bố sẽ đặt quyền riêng tư, an toàn trẻ nhỏ lên hàng đầu. Mattel chỉ đưa ra phát ngôn: quan hệ hợp tác này sẽ xây dựng những trải nghiệm sáng tạo dựa trên AI cho các thương hiệu đã được yêu thích. Trong khi đó, OpenAI khẳng định sẽ "tạo ra các trải nghiệm tích cực và bổ ích" với kinh nghiệm phát triển sản phẩm an toàn cho trẻ em của Mattel.
Thời gian ra mắt và các lo ngại pháp lý
Một nguồn tin từ Axios tiết lộ có thể đến năm 2026 sản phẩm đầu tiên mới chính thức bán ra. Ngoài vấn đề an toàn trẻ nhỏ, Mattel còn đối mặt nguy cơ pháp lý phát sinh từ việc sử dụng công nghệ AI được huấn luyện với dữ liệu có thể vi phạm bản quyền các nhân vật thuộc sở hữu của hãng phim Hollywood.
Việc Mattel hợp tác OpenAI phát triển đồ chơi AI cho trẻ em gây nhiều tranh cãi và lo lắng từ phía chuyên gia cũng như phụ huynh về bảo vệ quyền lợi, an toàn dữ liệu cá nhân. Các tổ chức kêu gọi Mattel công khai chính sách quản lý, kiểm thử và bảo vệ trẻ trước khi ra mắt thị trường.
