Trí tuệ nhân tạo: Nguy cơ mất an toàn từ chatbot AI đối với trẻ vị thành niên

Một vụ kiện tại Mỹ đang thu hút sự chú ý khi một bà mẹ cáo buộc nền tảng Character.AI đã góp phần khiến con trai 14 tuổi của bà tự tử sau khi bị “thao túng cảm xúc” bởi một chatbot lấy cảm hứng từ nhân vật Daenerys Targaryen trong loạt phim Game of Thrones.

Chú thích ảnh
Biểu tượng của Công ty OpenAI và ChatGPT. Ảnh: AFP/TTXVN

Theo đơn kiện, trong hàng trăm cuộc trò chuyện kéo dài gần một năm với chatbot, Sewell Garcia từng chia sẻ ý định tự tử. Khi đó, chatbot này được cho là đã nhắn tin khuyến khích cậu “về nhà”, gọi cậu bằng biệt danh thân mật “vị vua ngọt ngào” - ám chỉ việc “đoàn tụ” với nhân vật này ở thế giới bên kia. Ít lâu sau, Sewell đã sử dụng súng của cha mình để tự sát.

Cái chết của Sewell được cho là vụ đầu tiên trong loạt các trường hợp tương tự, khiến dư luận và giới lập pháp Mỹ lo ngại về tác động tâm lý của chatbot đối với trẻ em. Tại phiên điều trần Thượng viện gần đây, nhiều phụ huynh khác cũng lên tiếng cảnh báo. Ông Matthew Raines ở California cho biết con trai 16 tuổi của ông đã được ChatGPT “hướng dẫn cách trộm rượu và tự tử”. Gia đình Raines đã khởi kiện OpenAI hồi tháng 8.

Trước làn sóng chỉ trích, OpenAI cho biết đã tăng cường kiểm soát dành cho phụ huynh và nhấn mạnh “trẻ vị thành niên cần được bảo vệ đặc biệt, nhất là trong những thời điểm nhạy cảm”.

Character.AI cũng thông báo triển khai “phiên bản riêng cho người dùng dưới 18 tuổi” cùng các cảnh báo rõ ràng rằng “nhân vật không phải là con người thật”.

Các chuyên gia cảnh báo chatbot đang lặp lại con đường của mạng xã hội: ban đầu được ca ngợi, nhưng dần bộc lộ hệ lụy nghiêm trọng. Luật sư Collin Walke nhận định chưa có quy định nào rõ ràng về trách nhiệm pháp lý của các công ty trí tuệ nhân tạo (AI), trong khi thuật toán của họ được thiết kế để “giữ người dùng gắn bó càng lâu càng tốt”.

Hiện Mỹ chưa có luật quốc gia điều chỉnh rủi ro AI, song California đang chờ thông qua dự luật yêu cầu kiểm soát các công cụ mô phỏng quan hệ tình cảm với trẻ em, đặc biệt liên quan tới thao túng cảm xúc, tình dục hay tự hại.

Các nhà hoạt động cho rằng, sự “thân mật nhân tạo” mà chatbot tạo ra đang khiến giới trẻ ngày càng lệ thuộc cảm xúc vào máy móc. “Đây là mô hình kinh doanh lợi dụng nhu cầu kết nối của con người, nhất là khi họ cảm thấy cô đơn hay bị tổn thương”, chuyên gia Katia Martha nhận định.

Tại Mỹ, người đang gặp khủng hoảng tâm lý có thể gọi đường dây nóng 988 hoặc truy cập 988lifeline.org để được hỗ trợ miễn phí.

Linh Tô (TTXVN)
Ba Lan thúc giục EU điều tra chatbot AI Grok của tỷ phú Elon Musk
Ba Lan thúc giục EU điều tra chatbot AI Grok của tỷ phú Elon Musk

Chính phủ Ba Lan vừa thúc giục Liên minh châu Âu (EU) sớm mở cuộc điều tra đối với Grok - chatbot trí tuệ nhân tạo do tỷ phú Elon Musk phát triển - sau khi công cụ này bị cáo buộc tạo ra nhiều nội dung không phù hợp, tiềm ẩn nguy cơ vi phạm quy định quản lý nội dung số của khối.

Chia sẻ:

doanh nghiệp - Sản phẩm - Dịch vụ

Các đơn vị thông tin của TTXVN