Trung tâm hợp tác đổi mới trí tuệ nhân tạo Trung Quốc - ASEAN. Ảnh minh họa: Công Tuyên/PV TTXVN tại Trung Quốc
Một nghiên cứu công bố năm 2021 cho rằng các mô hình ngôn ngữ được ví như “những con vẹt ngẫu nhiên”, do chỉ kết nối từ ngữ dựa trên xác suất, không hiểu được ý nghĩa. Tuy nhiên, với sự phát triển nhanh chóng của công nghệ, các hệ thống AI hiện nay có thể đảm nhiệm nhiều tác vụ phức tạp như tạo nội dung, dịch thuật hoặc hỗ trợ cá nhân, khiến nhiều người tin rằng chúng có thể sở hữu tri giác ở một mức độ nhất định.
ASPI cho biết, nhờ những tiến bộ vượt bậc về thuật toán, sức mạnh tính toán và dữ liệu huấn luyện, các mô hình AI giờ đây đã có thể thực hiện nhiều dạng tác vụ ngôn ngữ khác nhau - từ phân loại hình ảnh, tóm tắt văn bản cho đến giao tiếp hội thoại - với độ chính xác cao. Khi việc sử dụng AI ngày càng trở nên phổ biến, nhiều người bắt đầu tin rằng các hệ thống như ChatGPT, Claude hay Gemini có thể thể hiện hành vi gần giống con người, thậm chí đảm nhiệm vai trò huấn luyện viên, chuyên gia trị liệu hoặc trợ lý cá nhân. Tuy nhiên, ASPI cũng nhấn mạnh các mô hình này vẫn hoạt động trong phạm vi giới hạn, chỉ xử lý tốt những nhiệm vụ được xác định rõ và chưa thể đạt đến mức trí tuệ nhân tạo tổng quát (AGI).
Một số chuyên gia cho rằng cách học của LLM - thông qua việc nhận diện và khớp mẫu từ dữ liệu lớn - không quá khác so với cách con người học hỏi thông qua quan sát và rút ra quy luật ngầm. Tuy nhiên, vẫn chưa có bằng chứng cho thấy mạng nơ-ron nhân tạo có thể hình thành mô hình hay ý thức tương tự như bộ não người.
Theo ASPI, dù mỗi người đều có thể cảm nhận được “tư duy” và “ý thức” qua trải nghiệm cá nhân, song đến nay vẫn chưa có định nghĩa khoa học thống nhất về việc hai khái niệm này bắt nguồn từ đâu hoặc tồn tại dưới dạng vật lý như thế nào. Ở cấp độ sinh học, não người bao gồm hàng tỷ tế bào thần kinh được kết nối linh hoạt và thay đổi liên tục dựa trên trải nghiệm. Lĩnh vực học máy (machine learning) ra đời từ nỗ lực mô phỏng cấu trúc đó bằng các mô hình toán học, nhằm tìm hiểu cách con người tư duy và thể hiện trí thông minh.
Báo cáo cũng dẫn một nghiên cứu do Apple công bố hồi tháng 6 cho thấy, trong quá trình xử lý, một số mô hình AI dường như “tự đánh giá” và quyết định không tiếp tục giải một vấn đề nếu nhận thấy mức độ phức tạp quá cao. Hành vi này được cho là tương đồng với một số phản ứng tâm lý ở con người khi đánh giá rủi ro hoặc khả năng thất bại.
ASPI cho rằng việc đặt câu hỏi liệu AI có khả năng “suy nghĩ” hay không hiện chưa mang lại nhiều ý nghĩa thực tế, bởi chưa tồn tại tiêu chí rõ ràng để phân biệt giữa “suy nghĩ” và “không suy nghĩ”. Quan trọng hơn, các nhà phát triển và người sử dụng cần hiểu rõ giới hạn của công nghệ này, gồm quy trình huấn luyện, nguồn dữ liệu và mục tiêu tối ưu hóa của mô hình để có thể sử dụng an toàn và hiệu quả.
ASPI khuyến nghị, thay vì tuyệt đối tin tưởng, cần xem các mô hình AI như nhân viên mới, được thử nghiệm dần qua các nhiệm vụ nhỏ trước khi giao các công việc quan trọng hơn. Đồng thời, người dùng cũng cần chuẩn bị sẵn phương án ứng phó trong trường hợp hệ thống mắc lỗi hoặc thất bại nghiêm trọng, bởi dù AI ngày càng tiên tiến nhưng chúng vẫn hoạt động dựa trên các nguyên tắc thống kê và không có khả năng nhận thức thực sự như con người.