Những khác biệt về chính sách AI - vấn đề 'nóng' ở châu Á

Những cách tiếp cận khác nhau của các nước trong việc xây dựng chính sách về trí tuệ nhân tạo (AI) là nỗi đau đầu của các doanh nghiệp công nghệ ở châu Á. Tuy vậy, những khác biệt về quan điểm và thể chế khiến nỗ lực hợp tác giữa các nước gặp khó khăn.

Chú thích ảnh
Trí tuệ nhân tạo (AI). Ảnh minh họa: CCO

Theo các chuyên gia pháp lý, nhà phân tích và giới doanh nghiệp, những cách tiếp cận manh mún của một số nước châu Á trong việc xây dựng hành lang pháp lý về AI làm gia tăng những bất ổn cho các doanh nghiệp nóng lòng ứng dụng công nghệ AI ở khu vực này.

Từ Trung Quốc đến Singapore, chính phủ các nước chọn lựa những chính sách AI riêng cho mỗi nước thay vì hướng tới các quy định chung cấp khu vực. Cách tiếp cận này có thể tạo ra nhiều rủi ro cho các doanh nghiệp.

Theo ông Adrian Fisher, người phụ trách công nghệ, truyền thông và viễn thông ở công ty luật toàn cầu Linklaters, có trụ sở ở Anh, khoảng 15 quốc gia lớn ở châu Á bắt đầu thực thi các luật về AI có sự khác biệt rõ rệt.

Công ty kiểm toán KPMG mới đây nhắc tới "sự khác biệt về chính sách quản lý AI" như một rủi ro chính đối với tăng trưởng kinh doanh trong năm tới, bất chấp đầu tư vào lĩnh vực này tăng hơn 5 lần trong giai đoạn 2013 - 2023.

Các quy định cấp khu vực là một chủ đề nóng kể từ khi AI xuất hiện vào năm 2022. Mỹ và Trung Quốc, những quốc gia dẫn đầu trong lĩnh vực AI, đã có cuộc họp tại Thụy Sỹ trong năm 2024  để thảo luận về những rủi ro liên quan tới AI, mặc dù không đạt được một kết quả cụ thể nào.

Trong khi đó, Liên minh châu Âu (EU) đã thông qua Luật AI, được coi là đạo luật toàn diện đầu tiên về quản lý việc sử dụng AI. Đạo luật này sẽ áp dụng với những nhà cung cấp và phát triển những hệ thống AI được sử dụng trong EU, và dự kiến có hiệu lực theo từng giai đoạn trong những tháng tới.

Tại châu Á, Trung Quốc được coi là chính phủ tích cực nhất trong việc xây dựng quy định quản lý AI. Mặc dù một đạo luật AI nói chung vẫn chưa có hiệu lực, một loạt quy định hướng dẫn hành chính cho lĩnh vực này đã có hiệu lực từ năm 2022, từ những đề xuất về thuật toán đến những hướng dẫn về deepfake. Deepfake là công nghệ sử dụng AI để tạo ra hình ảnh, âm thanh và video giả mạo, sai sự thật, để bắt chước giọng nói và gương mặt của người.

Nhà phân tích Laveena Iyer của công ty nghiên cứu Economist Intelligence Unit cho rằng các nước châu Á đang quản lý lĩnh vực AI như một phần hệ thống các quy định công nghệ quốc gia riêng biệt, thiếu sự minh bạch về các tiến trình và hệ thống dành riêng cho AI. Theo nhà phân tích này, Trung Quốc là trường hợp ngoại lệ khi nước này chuyển từ nhanh chóng từ kế hoạch đưa các quy định về AI trong năm 2023 sang dự thảo một đạo luật AI quốc gia có thể được đưa ra bàn thảo trong năm 2024.

Trong khi đó, Nhật Bản đã để các doanh nghiệp tự quản lý về những hoạt động liên quan tới AI dựa trên những hướng dẫn của chính phủ. Hiện Nhật Bản đang xem xét quản lý hoạt động của các nhà phát triển AI trong nước và ngoài nước để hạn chế rủi ro như sự lan truyền những thông tin sai lệch. Hội đồng chiến lược AI của chính phủ bắt đầu thảo luận hồi tháng 5/2024 về việc tạo ra một khung pháp lý và dự kiến phân tích và nghiên cứu các giải pháp thực hiện ở Mỹ và châu Âu như một phần kế hoạch này.

Tại Hàn Quốc, các cơ quan quản lý đang xem xét một đạo luật về AI. Theo các đối tác từ công ty luật Lee and Ko, khác với Luật AI ở châu Âu, luật này dựa trên nguyên tắc chấp thuận công nghệ đầu tiên, sau đó xây dựng quy định quản lý. 

Còn Singapore cũng không hướng tới các quy định quản lý kiểu EU và thay vào đó đưa ra những hướng dẫn về lĩnh vực AI.

Trong khi chưa có những quy định pháp luật cụ thể, một số doanh nghiệp đã tự nghiên cứu và xây dựng quy định riêng về AI. Công ty viễn thông Mỹ Verizon hồi tháng 5/2024 đã công bố những công cụ AI để phân tích các hồ sơ khách hàng để có thể đáp ứng chính xác hơn các nhu cầu của khách hàng, cam kết sử dụng AI có trách nhiệm.

Anh Quân (TTXVN)
Công nghệ trí tuệ nhân tạo đang được tội phạm mạng tạo ra các phần mềm độc hại mới
Công nghệ trí tuệ nhân tạo đang được tội phạm mạng tạo ra các phần mềm độc hại mới

Bên cạnh lợi ích mang lại, công nghệ trí tuệ nhân tạo (AI) đang được tội phạm mạng sử dụng để dễ dàng chế tạo ra các phần mềm độc hại mới, tạo ra các cuộc tấn công lừa đảo mới, tinh vi, với nhiều kịch bản tấn công đa dạng, hay sử dụng công nghệ Deepfake để thực hiện các chiến dịch tấn công lừa đảo trực tuyến trên không gian mạng,…

Chia sẻ:

doanh nghiệp - Sản phẩm - Dịch vụ Thông cáo báo chí Rao vặt

Các đơn vị thông tin của TTXVN