Đây là khuyến cáo được các quan chức Liên minh châu Âu (EU) đưa ra ngày 21/4 khi đề xuất gói quy định đầy tham vọng nhằm kiểm soát công nghệ đang phát triển với tốc độ chóng mặt này.
Ủy ban châu Âu (EC) đã chia các ứng dụng AI thành 4 loại dựa trên mức độ nguy cơ gồm tối thiểu, hạn chế, cao và không thể chấp nhận được.
Bà Margrethe Vestager, Phó chủ tịch điều hành EC phụ trách vấn đề cạnh tranh, nêu rõ mức độ nguy cơ càng cao, quy định càng chặt chẽ. Bà cho biết các hệ thống AI có nguy cơ tối thiểu có thể được phát triển và sử dụng mà không có bất kỳ hạn chế nào. Phần lớn các hệ thống AI này đang được sử dụng ở EU, như phần mềm nhận dạng thư rác.
Các hệ thống AI có nguy cơ hạn chế đòi hỏi các quy định minh bạch để đảm bảo người dùng biết rõ đang tương tác với máy móc chứ không phải con người, như với trường hợp chatbots - công cụ phần mềm kết hợp với AI để tương tác với con người.
Trong khi đó, các hệ thống AI có nguy cơ cao - là những hệ thống có thể can thiệp đáng kể vào đời sống của con người, đang được sử dụng trong các cơ sở hạ tầng quan trọng, giáo dục - sẽ phải chịu một loạt quy định chặt chẽ, trong đó có hệ thống đánh giá và giảm thiểu nguy cơ tương xứng.
Tất cả hệ thống AI "được coi là mối đe dọa rõ ràng đối với sự an toàn, sinh kế và quyền của con người" đều không thể chấp nhận được, và phải bị cấm, như các loại đồ chơi khuyến khích hành vi nguy hiểm ở trẻ vị thành niên thông qua hỗ trợ bằng giọng nói hay hệ thống chấm điểm xã hội của chính phủ, trong đó đánh giá con người dựa trên hành vi.
Bà Vestager nêu rõ với những quy định mang tính bước ngoặt trên, EU đang dẫn đầu việc đưa ra các tiêu chuẩn toàn cầu mới để đảm bảo AI có thể được tin cậy.
Tuy nhiên, phải mất một thời gian dài nữa các quy định này mới có thể đi vào hiệu lực. Các quy định này cần được Nghị viện châu Âu và Hội đồng châu Âu xem xét và có thể được sửa đổi.