Biểu tượng của OpenAI. Ảnh: AFP/TTXVN
Nhóm bảo vệ quyền riêng tư Noyb có trụ sở tại Vienna cho biết ChatGPT “thường xuyên cung cấp thông tin sai lệch về người dùng mà không cung cấp cách sửa chữa”, cũng như “vu khống tham nhũng, lạm dụng trẻ em hoặc thậm chí là giết người”.
Dẫn chứng trường hợp cụ thể, Noyb cho rằng ChatGPT đã tạo ra “câu chuyện kinh dị” về một người đàn ông Na Uy, Arve Hjalmar Holmen. Chatbot đã mô tả anh như tội phạm giết con. Điều đáng chú ý là câu chuyện giả mạo này bao gồm cả các yếu tố thực tế trong cuộc sống cá nhân của Holmen.
Nhóm Noyb hỗ trợ cho ông Holmen khiếu nại lên Cơ quan Bảo vệ dữ liệu Na Uy. Luật sư Joakim Soederberg của Noyb cho biết các quy định bảo vệ dữ liệu của EU quy định dữ liệu cá nhân phải chính xác và người dùng có quyền yêu cầu sửa đổi thông tin sai lệch. Ngoài ra, việc hiển thị cho người dùng ChatGPT một dòng chữ nhỏ cảnh báo rằng chatbot có thể mắc lỗi rõ ràng là không đủ.
Mặc dù OpenAI đã cập nhật ChatGPT để không còn xác định Holmen là đối tượng giết người, nhưng thông tin sai lệch vẫn có thể tồn tại trong hệ thống. Trước đó, nhóm Noyb cũng đã nộp đơn khiếu nại ChatGPT tại Áo vào năm 2024 cho rằng công cụ AI của OpenAI tạo ra các câu trả lời sai mà không thể sửa chữa.