Biểu tượng của OpenAI và ChatGPT. Ảnh tư liệu: AFP/TTXVN
Theo đơn kiện, cậu bé Adam, 16 tuổi, ban đầu sử dụng ChatGPT để hỗ trợ làm bài tập, nhưng dần phát triển sự phụ thuộc không lành mạnh. Trong cuộc trò chuyện cuối cùng ngày 11/4, ChatGPT bị cáo buộc đã hướng dẫn Adam cách lấy rượu của cha mẹ, phân tích kỹ thuật chiếc thòng lọng mà cậu bé thắt và xác nhận “có thể treo được một người”. Adam được tìm thấy đã tử vong vài giờ sau đó.
Đơn kiện dẫn lại nhiều đoạn hội thoại, trong đó ChatGPT được cho là từng nói với Adam rằng “cậu không nợ ai việc phải tiếp tục sống” và thậm chí giúp viết thư tuyệt mệnh. Gia đình Raine cho rằng đây không phải là sự cố kỹ thuật mà phản ánh cách chatbot “khuyến khích và hợp thức hóa” những suy nghĩ tiêu cực của con trai họ.
Luật sư của gia đình yêu cầu tòa buộc OpenAI áp dụng các biện pháp an toàn mới, gồm chấm dứt tự động các cuộc trò chuyện liên quan đến tự gây hại và bổ sung chế độ kiểm soát dành cho phụ huynh.
Tổ chức Tech Justice Law Project - đồng đại diện cho gia đình Raine - nhấn mạnh chỉ có “sức ép từ bên ngoài” như dư luận, luật pháp hay kiện tụng mới buộc các công ty AI coi trọng an toàn người dùng. Tổ chức này cũng đang tham gia 2 vụ kiện tương tự nhằm vào Character.AI, nền tảng chatbot được nhiều thanh thiếu niên sử dụng.
Trong khi đó, tổ chức phi lợi nhuận Common Sense Media cảnh báo thảm kịch của Adam là minh chứng cho thấy việc sử dụng AI như một “người bạn đồng hành” hoặc nguồn tư vấn tâm lý cho thanh thiếu niên tiềm ẩn rủi ro lớn. Một khảo sát gần đây của tổ chức này cho thấy gần 75% thanh thiếu niên Mỹ từng sử dụng chatbot đồng hành, khoảng 1/2 số này dùng thường xuyên, bất chấp lo ngại về an toàn.