Đặt con người ở vị trí trung tâm trong quản trị trí tuệ nhân tạo

Luật Trí tuệ nhân tạo (AI) được Quốc hội khóa XV thông qua tại Kỳ họp thứ 10 không chỉ tạo lập hành lang pháp lý cho hoạt động nghiên cứu, phát triển và ứng dụng AI tại Việt Nam, mà còn thể hiện rõ lựa chọn cách tiếp cận quản trị công nghệ theo hướng chủ động và có trách nhiệm.

Chú thích ảnh
Quốc hội biểu quyết thông qua Luật Trí tuệ nhân tạo. Ảnh: Doãn Tấn/TTXVN

Luật AI được xây dựng trên nguyên tắc lấy con người làm trung tâm, coi đạo đức là nền tảng và quản lý AI theo mức độ rủi ro, nhằm cân bằng giữa thúc đẩy đổi mới sáng tạo và kiểm soát các tác động tiêu cực đối với xã hội. Với các cơ chế như phân loại rủi ro, gắn nhãn nội dung do AI tạo ra, bảo vệ trẻ em và nhóm yếu thế, cùng việc đưa yêu cầu đạo đức ngay từ khâu thiết kế, Luật AI được kỳ vọng sẽ trở thành công cụ quan trọng bảo đảm quyền con người, củng cố niềm tin số và định hình sự phát triển bền vững của trí tuệ nhân tạo tại Việt Nam.

Bước tiến trong phát triển, ứng dụng và quản lý AI 

Đánh giá về trí tuệ nhân tạo, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng nhấn mạnh: AI là hạ tầng trí tuệ. AI không chỉ là một công nghệ ứng dụng, nó đang trở thành "một loại hạ tầng" quốc gia, giống như điện, viễn thông hay Internet. Ai làm chủ được AI người đó sẽ có lợi thế vượt trội trong sản xuất, kinh doanh, trong y tế, giáo dục, quản trị quốc gia, và cả quốc phòng an ninh. Việt Nam phải có hạ tầng trí tuệ AI của mình. Việt Nam đang nhanh chóng xây dựng trung tâm siêu tính toán AI quốc gia và dữ liệu AI mở. “Chúng ta sẽ thực hiện AI hóa nhanh hơn, nhanh nhất có thể", Bộ trưởng Nguyễn Mạnh Hùng nhận định.

Bộ trưởng Nguyễn Mạnh Hùng cũng cho rằng, phổ cập AI, bình dân học vụ AI cần giống như phong trào học tiếng Anh trước đây, giống như phong trào xóa mù chữ cách đây 80 năm. Mỗi người Việt Nam sẽ có một trợ lý AI, dân số không tăng nhưng trí tuệ xã hội tăng ít nhất gấp đôi. Trước đây, cấp Bộ trưởng trở lên mới có trợ lý, chi phí hàng nghìn USD nhưng bây giờ, một người dân bình thường cũng có trợ lý, chi phí chỉ 10 USD.

Cho rằng, bước đi đầu tiên về mặt thể chế đối với lĩnh vực AI là việc thông qua Luật Trí tuệ nhân tạo, Bộ trưởng Nguyễn Mạnh Hùng cho biết, Luật Trí tuệ nhân tạo (Luật AI) là luật ngắn, luật khung, tập trung xác định các nguyên tắc và khung quản trị, đảm bảo sự linh hoạt cho Chính phủ trong tổ chức thực hiện. Luật không điều chỉnh mô hình vì mô hình là kết quả sáng tạo của nội bộ doanh nghiệp và thay đổi liên tục. Luật chỉ điều chỉnh đầu ra, tức là hành vi sử dụng AI và các rủi ro phát sinh từ việc AI tác động đến xã hội. Đây là thông lệ quốc tế và bảo đảm không cản trở đổi mới sáng tạo.

Chú thích ảnh
Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng. Ảnh: Doãn Tấn/TTXVN

Theo ông Trần Văn Sơn, Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia (Bộ Khoa học và Công nghệ), Luật Trí tuệ nhân tạo vừa được Quốc hội thông qua là bước tiến quan trọng trong việc xây dựng hành lang pháp lý cho hoạt động nghiên cứu, phát triển, ứng dụng và quản lý AI tại Việt Nam. Trong bối cảnh AI đang phát triển nhanh, tác động sâu rộng tới mọi lĩnh vực của đời sống kinh tế - xã hội, Luật được thiết kế không chỉ để thúc đẩy đổi mới sáng tạo mà còn để chủ động quản trị các rủi ro đạo đức, xã hội và pháp lý do công nghệ này mang lại.

Ông Trần Văn Sơn cho biết, xuyên suốt quá trình xây dựng Luật AI là quan điểm “lấy con người làm trung tâm”. Theo đó, AI được xác định là công cụ hỗ trợ con người, phải phục vụ lợi ích của con người và chịu sự kiểm soát của con người, thay vì phát triển theo hướng tự do, khó kiểm soát. Tinh thần này được cụ thể hóa thông qua ba trụ cột pháp lý lớn: Thể chế hóa đạo đức AI, quản lý dựa trên mức độ rủi ro và thiết lập các cơ chế bảo vệ quyền, lợi ích hợp pháp của công dân.

Trong trụ cột thứ nhất, Luật AI không tiếp cận đạo đức như một khuyến nghị mang tính tự nguyện, mà đưa đạo đức trở thành nguyên tắc pháp lý có giá trị bắt buộc. Trên cơ sở Luật, Bộ Khoa học và Công nghệ đang xây dựng Khung đạo đức AI quốc gia, làm nền tảng để hình thành các tiêu chuẩn, quy chuẩn kỹ thuật và hướng dẫn chuyên ngành. Thông qua đó, các giá trị như minh bạch, công bằng, an toàn, trách nhiệm và khả năng giải thích của hệ thống AI được chuyển hóa thành những yêu cầu cụ thể trong quá trình thiết kế, huấn luyện, kiểm chứng và triển khai mô hình.

Đây là cách tiếp cận nhằm bảo đảm đạo đức AI không chỉ được nhắc tới ở khâu vận hành hoặc xử lý vi phạm, mà được đưa vào ngay từ đầu vào sản phẩm công nghệ, giúp giảm thiểu rủi ro từ gốc. Bên cạnh đó, Luật AI áp dụng cơ chế quản lý dựa trên mức độ rủi ro. Ông Trần Văn Sơn cho biết, Luật không lựa chọn cách tiếp cận cấm đoán cực đoan, mà phân loại các hệ thống AI theo mức độ tác động và nguy cơ đối với con người và xã hội, từ đó áp dụng các nghĩa vụ quản lý tương xứng.

Đối với các hệ thống AI rủi ro cao, đặc biệt trong những lĩnh vực có ảnh hưởng trực tiếp đến quyền con người như y tế, giáo dục, tài chính, Luật đặt ra các yêu cầu nghiêm ngặt hơn. Các hệ thống này phải thực hiện đánh giá tác động rủi ro, quản trị chất lượng dữ liệu và đặc biệt là phải bảo đảm có sự giám sát của con người.

Theo ông Trần Văn Sơn, việc đánh giá sự phù hợp đối với các hệ thống AI rủi ro cao là yêu cầu bắt buộc trước khi đưa vào sử dụng. Cách làm này nhằm bảo đảm con người có thể can thiệp, điều chỉnh hoặc dừng hệ thống ngay từ giai đoạn thiết kế, thay vì chỉ xử lý hậu quả khi công nghệ đã được triển khai trên diện rộng.

Trên cơ sở Khung đạo đức AI quốc gia, Bộ Khoa học và Công nghệ sẽ chủ trì xây dựng và ban hành các tiêu chuẩn, quy chuẩn kỹ thuật cụ thể. Các tiêu chuẩn này đóng vai trò là “thước đo” chung, giúp doanh nghiệp và tổ chức phát triển AI có căn cứ tuân thủ thống nhất, đồng thời tạo cơ sở cho hoạt động giám sát, kiểm định và chứng nhận hợp quy.

Cùng với đó, cơ chế thử nghiệm có kiểm soát (sandbox) được xác lập như một công cụ quan trọng trong quản lý AI. Theo ông Trần Văn Sơn, sandbox cho phép nhận diện sớm các rủi ro về đạo đức, xã hội và pháp lý trong quá trình thử nghiệm, từ đó có biện pháp điều chỉnh kịp thời trước khi công nghệ được triển khai rộng rãi.

Bảo vệ người dân, trẻ em, nhóm yếu thế

Bảo vệ người dân, đặc biệt là trẻ em và các nhóm yếu thế là một trọng tâm rõ nét trong Luật AI. Theo ông Trần Văn Sơn, Luật đặt ra yêu cầu bắt buộc gắn nhãn đối với nội dung do AI tạo ra nhằm tăng cường tính minh bạch và giúp người dùng nhận biết rõ đâu là nội dung do con người tạo ra, đâu là sản phẩm của trí tuệ nhân tạo.

Quy định này được triển khai theo hướng yêu cầu nhà cung cấp phải đánh dấu nội dung AI bằng cả nhãn dễ nhận biết bằng mắt thường và định dạng máy đọc. Cách tiếp cận này không chỉ hỗ trợ người dùng, mà còn tạo điều kiện để các nền tảng số tự động phát hiện, ngăn chặn tin giả, nội dung lừa đảo hoặc thao túng thông tin ngay từ gốc.

Bên cạnh đó, Luật AI nghiêm cấm việc sử dụng AI để khai thác điểm yếu của trẻ em, người cao tuổi nhằm gây tổn hại. Nội dung này đang được cụ thể hóa thông qua Khung đạo đức AI quốc gia, trong đó yêu cầu các sản phẩm AI dành cho trẻ em phải đáp ứng các bộ tiêu chí an toàn nghiêm ngặt hơn so với các sản phẩm thông thường.

Để bảo đảm tính khả thi, Bộ Khoa học và Công nghệ đang chuẩn bị hạ tầng kỹ thuật, xây dựng các tiêu chuẩn thống nhất cho việc gắn nhãn nội dung AI và phát triển các công cụ nhận diện nội dung AI độc hại. Những công cụ này được kỳ vọng sẽ hỗ trợ nhà trường và gia đình trong việc bảo vệ trẻ em trên môi trường số một cách chủ động hơn.

Theo ông Trần Văn Sơn, Luật AI còn thiết lập cơ chế đánh giá sự phù hợp, kiểm định, chứng nhận hợp quy và giám sát sau triển khai. Thông qua chu trình quản lý khép kín này, các yêu cầu về đạo đức, độ tin cậy và trách nhiệm của trí tuệ nhân tạo được bảo đảm thực hiện một cách thực chất, liên tục và bền vững.

Bộ Khoa học và Công nghệ sẽ sớm ban hành Khung đạo đức AI quốc gia làm căn cứ định hướng xây dung các tiêu chuẩn, quy chuẩn kỹ thuật và hướng dẫn chuyên ngành. Dựa trên Khung đạo đức, Bộ Khoa học và Công nghệ sẽ chủ trì xây dựng và ban hành các tiêu chuẩn và quy chuẩn kỹ thuật cụ thể. 

Luật AI áp dụng cơ chế quản lý tương xứng với mức độ rủi ro, các yêu cầu trong quy chuẩn kỹ thuật và mức độ giám sát sẽ phụ thuộc vào kết quả phân loại rủi ro của hệ thống AI. Việc đánh giá sự phù hợp đối với các hệ thống rủi ro cao là bắt buộc trước khi đưa vào sử dụng, đảm bảo khả năng can thiệp của con người từ khâu thiết kế.

Như vậy, Bộ Khoa học và Công nghệ sẽ sử dụng một chu trình quản lý khép kín: Khung đạo đức làm kim chỉ nam để xây dung các quy chuẩn, tiêu chuẩn kỹ thuật. Các quy định này được áp dụng một cách linh hoạt thông qua cơ chế phân loại rủi ro và việc tuân thủ được đảm bảo bằng một cơ chế giám sát tương xứng. Cách tiếp cận này giúp các yêu cầu đạo đức được nhúng vào sản phẩm AI ngay từ khâu thiết kế ban đầu.

Thu Phương (TTXVN)
Luật Trí tuệ nhân tạo có hiệu lực từ ngày 1/3/2026
Luật Trí tuệ nhân tạo có hiệu lực từ ngày 1/3/2026

Chiều ngày 10/12, tiếp tục chương trình Kỳ họp thứ 10, Quốc hội khóa XV, Quốc hội đã chính thức thông qua Luật Trí tuệ nhân tạo (AI) với 429/434 đại biểu tham dự biểu quyết tán thành. Luật Trí tuệ nhân tạo (AI) có hiệu lực từ ngày 1/3/2026, là đạo luật đầu tiên của Việt Nam điều chỉnh toàn diện về phát triển, ứng dụng và quản trị AI.

Chia sẻ:

doanh nghiệp - Sản phẩm - Dịch vụ

Các đơn vị thông tin của TTXVN