Người ta nói rằng trong tương lai, "trí tuệ nhân tạo" sẽ thâm nhập vào mọi thứ. Từ các thiết bị trong nhà đến việc quản lý các ngành công nghiệp phức tạp, công nghệ và thậm chí cả cấu trúc xã hội. Nhiều người háo hức chờ đợi một kỷ nguyên mới trong lịch sử loài người.
Gian trưng bày của Kaspersky Lab tại Diễn đàn về AI ở Moskva, tháng 11/2025. Ảnh: Tâm Hằng, phóng viên TTXVN tại LB Nga
Tuy nhiên liệu chúng ta đã hiểu đúng về bản chất của AI hay chưa, một trong những chuyên gia hàng đầu thế giới về an ninh thông tin, doanh nhân, người sáng lập, chủ sở hữu chính và hiện là Giám đốc điều hành của Kaspersky Lab, một công ty quốc tế chuyên phát triển các giải pháp an ninh mạng, ông Evgheni Kaspersky đưa ra câu trả lời.
Thuật ngữ sai làm méo mó sự hiểu biết về AI
Mạng lưới tạo sinh mô phỏng hoạt động của bộ não con người. Và vì lý do này, chúng được gọi là "trí tuệ nhân tạo". Vấn đề cơ bản nằm ở thuật ngữ sai lệch. Trí tuệ thực sự có đạo đức, có ý thức về thiện và ác. Nhưng điều chúng ta đang nói đến là một chương trình máy tính, mặc dù là một chương trình rất phức tạp. Khi chúng ta gọi một chương trình như vậy là trí tuệ, ngay cả khi nó là nhân tạo, vô thức chúng ta đã gán cho nó những phẩm chất của con người, chẳng hạn như hiểu biết theo ngữ cảnh và tư duy linh hoạt, khả năng "nhìn xa trông rộng" — tức là trực giác. Nói cách khác, đó là khả năng nắm bắt sự thật trực tiếp, không cần phân tích khoa học. Con người có khả năng này, dù thế không phải lúc nào cũng có. Đôi khi tiếng nói của trực giác gần như không được lắng nghe, hoặc một người không nghe thấy chính mình, mà nghe những con quỷ trong chính họ. Nhưng "trí tuệ" máy móc chắc chắn không có trực giác.
Evgheni Kaspersky, người đã phản đối thuật ngữ "trí tuệ nhân tạo" trong nhiều năm, cho rằng, trí tuệ là công cụ có thể giải quyết các vấn đề bất ngờ mà không cần đào tạo. Nói một cách chính xác thìAI không tồn tại; chỉ có máy học.
Chắc chắn sự phát triển nhanh chóng của trí tuệ nhân tạo đại diện cho một sự chuyển đổi về mặt nhân học. Quá trình này có thể so sánh với việc phát minh ra chữ viết hoặc máy in, nhưng nó là một hiện tượng hoàn toàn mới. Rủi ro từ trách nhiệm cuối cùng đối với các quyết định cũng tăng lên.
Mọi người đều đã nghe nói về cái gọi là "vấn đề toa xe". Năm 1967, nhà triết học đạo đức người Anh Philippa Foot đã đề xuất một thí nghiệm tư duy làm thay đổi hoàn toàn cách phân tích việc ra quyết định khi phải lựa chọn giữa hai phương án bất lợi. Về cơ bản, người tham gia thí nghiệm phải đánh giá xem trong hai điều xấu được đề xuất, điều nào ít xấu hơn. Khái niệm về "điều xấu ít hơn" và "điều xấu nhiều hơn" vô cùng chủ quan và phụ thuộc vào kinh nghiệm cá nhân và thế giới quan của người tham gia.
"Vấn đề toa xe" mô tả năm người bị trói vào đường ray khi chiếc toa xe nặng nề, không có điều khiển, đang chạy trên đó. Điều may là bạn có thể gạt một cần gạt và toa xe sẽ rẽ sang đường ray bên cạnh. Chỉ có một người bị trói trên đó. Điều không may đó lại là bà của bạn.
Còn nhiều phiên bản khác của thí nghiệm này. Dù ở phiên bản nào vấn đề cốt lõi là sự lựa chọn khó khăn giữa cái chết của năm người lạ hay cái chết của bà bạn.
Áp dụng vào chủ đề trí tuệ nhân tạo "vấn đề toa xe" có nghĩa là có những lựa chọn khó khăn đến mức trách nhiệm cho quyết định cuối cùng chỉ thuộc về cá nhân, với tư cách là người duy nhất mang trong mình đạo đức, bất kể đạo đức đó là gì. Con người có thể giết bà của mình và cứu năm người lạ, rồi sau đó chịu đựng sự giày vò về mặt đạo đức suốt phần đời còn lại. Anh ta có thể làm điều ngược lại, và sau đó nhìn trìu mến vào đôi mắt hiền từ của bà mình để gần như tha thứ cho bản thân, nhưng rồi vẫn khóc thầm trong bếp vào ban đêm.
Và đó là toàn bộ bản chất: dù một người có đau khổ hay không, họ sẽ suy nghĩ và thay đổi ý kiến hàng nghìn lần, và vẫn không hoàn toàn chắc chắn rằng mình đúng. Nhưng "trí tuệ nhân tạo" lại là một vấn đề khác. Nó sẽ hoạt động theo cách tối ưu nhất về mặt kỹ thuật, sau khi đã xem xét vô số các yếu tố thống kê, khoa học và pháp lý.
Niết bàn của AI
Trong Phật giáo, sự vắng mặt của khổ đau được gọi là niết bàn. Theo một nghĩa nào đó, AI luôn tồn tại trong trạng thái này. Bản thân nó không đau khổ, và nó không quan tâm đến sự đau khổ của bất kỳ cá nhân nào. AI không chịu trách nhiệm về sự gia tăng đau khổ của con người do hành động của nó gây ra. Tuy nhiên, AI cũng không đòi hỏi bất kỳ phần thưởng nào nếu nó giúp giảm bớt sự đau khổ đó.
Có lẽ việc tạo ra một AI thực sự là một nhiệm vụ bất khả thi. Bởi vì bất kỳ hệ thống đạo đức chuẩn mực nào cũng luôn có một tình huống mà nó không đưa ra được giải pháp dứt khoát. Nếu trí tuệ là thứ mà con người sở hữu với tư cách là một loài, thì "trí tuệ nhân tạo" để được gọi như vậy phải bao gồm tất cả phẩm chất con người. Ví dụ, biết và hiểu thế nào là "tình yêu" và "lòng thương xót đối với những người đã ngã". Một AI như vậy là không thể.
Những người lạc quan tin rằng sớm muộn gì AI cũng sẽ tự nhận thức và phát triển ý thức. Nhưng chính chúng ta lại hiểu rất ít về ý nghĩa của điều này. Các nhà triết học nói rằng ý thức mang lại ý nghĩa cho các sự kiện xảy ra xung quanh chúng ta. "Trí tuệ nhân tạo" không nhìn thấy ý nghĩa này. Nó "chỉ đơn thuần" chọn một câu trả lời chấp nhận được. Nhưng số phận con người không bị thu hẹp thành một sự lựa chọn đơn giản giữa ưu điểm và nhược điểm. AI chắc chắn không phải là "vị thần cổ đại từ máy".
Khả năng của AI không thể sánh với khả năng của bộ não con người
Dung lượng bộ nhớ của con người, từ đó chúng ta rút ra các ví dụ và hình thành kinh nghiệm sống, chỉ khoảng 2-3 gigabyte. Tất nhiên, con số này là không đáng kể ngay cả so với USB, chưa kể đến các máy tính gia đình cao cấp có sẵn trong các cửa hàng. Bộ xử lý ngày càng mạnh mẽ hơn mỗi năm và rẻ hơn.
Các chuyên gia ước tính sức mạnh tính toán của não bộ chúng ta là 10¹⁴, hay 100 nghìn tỷ phép toán mỗi giây. Rõ ràng, con số này chỉ là gần đúng. Nó được tính bằng cách nhân số lượng tế bào thần kinh, được tính là 100 tỷ, với tần số hoạt động tối đa trong não – 100 Hz, cộng thêm một bậc độ lớn, như người ta vẫn nói, như một phần thưởng. Ước tính này đã bị phóng đại, vì não bộ của chúng ta đơn giản là không có đủ thông tin để xử lý một số lượng phép toán cao như vậy. Tuy nhiên, các siêu máy tính hiện đại thực hiện một triệu nghìn tỷ phép toán mỗi giây – tức là 10¹⁸.
Nhân loại sai nghiêm trọng khi tin rằng mình kiểm soát được thuật toán
Từ góc độ rủi ro, tình huống nguy hiểm nhất là khi sức mạnh củaAI bắt đầu tăng trưởng theo cấp số nhân. Điều này có thể xảy ra không chỉ thông qua nỗ lực của chính con người, mà còn khi chính thuật toán bắt đầu trực tiếp hoặc gián tiếp thúc đẩy sự phát triểncủa mình. Trong trường hợp này, bằng cách này hay cách khác, nó sẽ có được khả năng giải quyết các vấn đề phi tiêu chuẩn bằng các phương pháp không thông thường. Tuy nhiên, về cơ bản, không thể dự đoán được logic của nó sẽ như thế nào; nó phức tạp hơn logic của con người nhiều bậc.
Nhưng hạn chế sự phát triển của trí tuệ nhân tạo chẳng khác nào chống lại sự tiến bộ. Đây là một việc làm vô ích và thậm chí có hại. Ngày nay, trí tuệ nhân tạo được sử dụng trong hầu hết các ngành công nghiệp. Ví dụ, một hệ thống thông minh được xây dựng trên mạng nơ-ron dự đoán khi nào sự kết hợp của một số yếu tố nhất định sẽ vượt quá ngưỡng và dẫn đến sự cố của một tổ máy điện hạt nhân. Chẳng hạn, ngành công nghệ thông tin hiện nay khó có thể tưởng tượng được nếu không có trí tuệ nhân tạo.
Nhân loại sẽ phải cùng tồn tại với trí tuệ nhân tạo. Bài toán đặt ra là làm thế nào cung cấp được cho AI một hệ thống mục tiêu và ràng buộc đúng đắn từ quan điểm của chúng ta để trí tuệ nhân tạo an toàn cho con người.