Các thám tử mạng xã hội, trong đó có Nick Waters từ Bellingcat - nhóm xác minh tin tức trực tuyến - đã nhanh chóng chỉ ra một số vấn đề đáng chú ý với bức ảnh. Thứ nhất là không có nhân chứng trực tiếp nào chứng thực sự kiện này. Tòa nhà trong bức ảnh cũng không giống với Lầu Năm Góc. Điều này có thể dễ dàng xác minh bằng cách sử dụng các công cụ như Google Street View để so sánh. Xuất hiện chi tiết bất thường như cột đèn nổi và cột đen nhô ra khỏi vỉa hè là dấu hiệu cho thấy hình ảnh này không thực tế.
Có nhiều công cụ AI tái tạo như Midjourney, Dall-e 2 và Stable Diffusion có thể tạo ra hình ảnh sống động như thật. Những công cụ này được đào tạo bằng cách xem xét khối lượng lớn hình ảnh thực. Tuy nhiên, khi thiếu dữ liệu, các công cụ này sẽ tự lấp đầy khoảng trống bằng giải thích của riêng chúng. Điều này có thể dẫn đến việc nhân vật trong các bức ảnh do AI tạo ra có thể thêm tay chân và các đồ vật bị biến dạng với môi trường xung quanh.
Kênh Al Jazeera đã nêu một số biện pháp để phân biệt giữa ảnh do AI tạo ra và ảnh thật của các sự kiện lớn khi chúng xuất hiện trên internet.
Trong trường hợp xảy ra một vụ nổ hoặc sự kiện lớn, thường sẽ có thông tin thực tế từ nhiều người và từ góc độ khác nhau.
Ai đang tải nội dung ? Cần xem lịch sử đăng của tài khoản người dùng. Vị trí của họ và vị trí của sự kiện. Họ đang theo dõi tài khoản nào và những người đang theo dõi tài khoản của họ. Liệu bạn có thể tiếp cận hoặc nói chuyện với họ?
Các công cụ tìm kiếm hình ảnh đảo ngược như Google Images và TinEye có thể cho phép bạn tải hình ảnh lên và xác định vị trí cũng như thời điểm hình ảnh được sử dụng lần đầu. Có một số công cụ khác mà bạn có thể sử dụng như xem cảnh quay trực tiếp của camera giao thông công cộng để xác minh rằng một sự kiện đang diễn ra.
Phân tích hình ảnh và môi trường xung quanh: Tìm kiếm manh mối trong hình ảnh như địa điểm gần đó, biển báo giao thông và thậm chí cả điều kiện thời tiết để giúp bạn xác định vị trí hoặc thời điểm sự kiện có thể diễn ra.
Đối với hình ảnh có con người, hãy đặc biệt chú ý đến đôi mắt, bàn tay và tư thế chung của họ. Các video do AI tạo ra bắt chước con người được gọi là deep fakes, có xu hướng gặp vấn đề về chớp mắt vì hầu hết các bộ dữ liệu đào tạo không chứa khuôn mặt nhắm mắt. Bàn tay không cầm nắm đồ vật đúng cách hoặc tay chân có vẻ vặn vẹo một cách bất thường. Bên cạnh đó, kênh DW (Đức) cho biết các lỗi phổ biến khác trong hình ảnh do AI tạo ra bao gồm người có quá nhiều răng hoặc gọng kính biến dạng, tai có hình không thực tế.
Da của người trong hình ảnh AI thường mịn màng, thậm chí tóc và răng của họ cũng hoàn hảo siêu thực. Nhiều bức ảnh còn mang tính nghệ thuật, bóng bẩy, long lanh mà ngay cả những nhiếp ảnh gia chuyên nghiệp cũng khó đạt được điều đó khi chụp trong studio. Trong một số trường hợp, các chương trình AI sao chép người và đồ vật rồi sử dụng chúng hai lần. Và nền trong các bức ảnh AI bị nhòe cũng không phải là hiếm.