Chương trình phát triển trí tuệ nhân tạo (AI) của Cơ quan phụ trách các dự án nghiên cứu quốc phòng tiên tiến của Mỹ (DARPA) sẽ sớm chịu trách nhiệm đưa ra quyết định cuối cùng đối với những cuộc chiến có thể gây thương vong hàng loạt.
Trang Asia Times đưa tin, vừa được ra mắt vào tháng trước, dự án “In the Moment” của DARPA muốn bắt chước khả năng đưa ra quyết định của các nhà lãnh đạo đáng tin cậy trong những tình huống mà các bên không thể đạt được đáp án đồng thuận.
Cụ thể, DARPA muốn phát triển một công nghệ dựa trên nhiều kịch bản quyết định thực tế và so sánh chúng với những người nắm quyền quyết định bằng xương bằng thịt. Công nghệ này sẽ giúp tìm ra quyết định nhanh chóng đối với các tình huống căng thẳng cần cứu chữa y tế theo thứ tự ưu tiên, chẳng hạn như chiến tranh, khủng bố và thảm họa, bằng cách sử dụng thuật toán và dữ liệu.
Chương trình ITM sẽ sáng tạo và đánh giá các thuật toán để hỗ trợ các nhà lãnh đạo quân sự ra quyết định trong hai tình huống: đầu tiên là sự kiện có thương vong nhỏ và thứ hai đối với các sự kiện thương vong hàng loạt như tấn công khủng bố hoặc thiên tai.
Thời gian phát triển của chương trình trên sẽ kéo dài hơn 3 năm với sự hợp tác của đối tác tư nhân, song không có số liệu về kinh phí.
Trong môi trường khủng hoảng, việc thu thập dữ liệu, xử lý thông tin và đưa ra quyết định là những công việc vô cùng khó khăn. Đối với những tình huống này, AI không chỉ có khả năng khắc phục những hạn chế của con người mà còn lưu ý đến các vấn đề đạo đức, cùng lúc đó làm giảm quyền tự chủ, quyền tự quyết của con người.
Tuy vậy, một trong những rắc rối nhất của dự án trên chính là việc một cỗ máy có thể định đoạt ai sống hay chết trong một sự kiện thương vong hàng loạt. Tình trạng tiến thoái lưỡng nan như vậy có thể trở nên nghiêm trọng hơn nếu AI có nguồn dữ liệu đào tạo mang tính thiên vị bị ảnh hưởng từ tính cá nhân của người nhập dữ liệu.
Đây có thể là một viễn cảnh không mấy dễ chịu khi xét đến các tình huống sinh tử mà AI đang được triển khai. Nó cũng đặt ra câu hỏi về việc liệu một số binh sĩ có được ưu tiên hơn những người khác dựa trên dữ liệu thiên vị của AI hay không.
Và sau đó là tình huống tiến thoái lưỡng nan về trách nhiệm giải trình đối với AI, đặc biệt là khi các quyết định của nó dẫn đến thương tích hoặc tử vong. Đồng thời, không rõ liệu các chỉ huy và binh sĩ được triển khai trong trận chiến có tuân theo các khuyến nghị của AI hay không.
Nhìn chung, AI nên được sử dụng như một cố vấn đạo đức khi khả năng phán đoán của con người bị suy giảm do các yếu tố thể chất và cảm xúc, chứ không nhằm mục đích thay thế những người ra quyết định chính.
Có lẽ không hệ thống AI nào có thể sánh được với sự kiên trì của con người, khả năng nhận thức tình huống và bản năng sinh tồn tổng thể.