Đại tá không quân Mỹ Matthew Strohmeyer cho biết đây là lần đầu tiên thử nghiệm một mô hình ngôn ngữ lớn để thực hiện một nhiệm vụ quân sự. Các mô hình ngôn ngữ lớn (LLM) được đào tạo dựa trên một lượng lớn dữ liệu internet nhằm giúp AI dự đoán và phản hồi giống như con người đối với yêu cầu của người dùng. Đây cũng là mô hình chính được sử dụng trong các chatbot “làm mưa làm gió” hiện nay như ChatGPT của OpenAI hay Bard của Google.
Theo Bloomberg, Bộ Quốc phòng Mỹ tiến hành thử nghiệm dựa trên 5 mô hình LLM, tập trung vào việc phát triển nền tảng tích hợp dữ liệu và kỹ thuật số trong quân đội. Đại tá Strohmeyer cho biết hiện nay việc yêu cầu cung cấp thông tin từ một bộ phận cụ thể trong lực lượng vũ trang có thể mất nhiều giờ hoặc nhiều ngày nếu nhân viên sử dụng điện thoại hay đến tận nơi tìm hiểu. Tuy nhiên, với một công cụ AI, công việc này có thể hoàn thành trong 10 phút.
Chia sẻ về cuộc thử nghiệm, Đại tá Strohmeyer cho biết thử nghiệm đã được tiến hành với các dữ liệu ở cấp độ mật và công nghệ này có thể được quân đội triển khai trong tương lai rất gần.
Đại tá Strohmeyer nêu rõ nhóm thử nghiệm của quân đội đã cung cấp cho các mô hình này những thông tin nghiệp vụ bí mật để trả lời các câu hỏi nhạy cảm. Mục đích lâu dài của việc luyện tập này là cập nhật hệ thống quân sự của Mỹ để có thể sử dụng dữ liệu được AI hỗ trợ trong việc ra quyết định cũng như các thiết bị cảm biến và hỏa lực.
Hiện tại, nhóm thử nghiệm sẽ yêu cầu các LLM lập kế hoạch ứng phó với một cuộc khủng hoảng toàn cầu đang leo thang, bắt đầu từ quy mô nhỏ và sau đó chuyển sang khu vực rộng lớn hơn như Ấn Độ Dương - Thái Bình Dương.
Trên thực tế, các cảnh báo về việc AI có thể tạo ra thông tin sai lệch hay thiên vị đang ngày càng gia tăng. Giới chuyên gia cho rằng AI cũng có thể bị tấn công bằng nhiều cách, trong đó có việc "đầu độc" dữ liệu cung cấp. Theo Đại tá Strohmeyer, những lo ngại nêu trên là một trong những lý do khiến Lầu Năm Góc tiến hành các cuộc thử nghiệm công nghệ trước khi đưa vào hoạt động. Bộ Quốc phòng Mỹ cũng đã làm việc với các công ty bảo mật công nghệ để giúp kiểm tra và đánh giá mức độ đáng tin cậy của các hệ thống hỗ trợ AI.