Ví dụ như hình ảnh vụ tấn công khủng bố ở Christchurch (New Zealand) chỉ được Facebook rút xuống 12 phút sau khi được phát. Do đó Facebook đã hợp tác với chính quyền và cơ quan chức năng tại Anh và Mỹ để được cung cấp các hình ảnh bạo lực trong huấn luyện, dùng chúng để dạy hệ thống. Giờ đây, Facebook đã có đủ năng lực về công nghệ máy học để phát hiện nhanh chóng và lọc các hình ảnh bạo lực do các nhóm hoặc cá nhân "nguy hiểm" đăng tải.
Tuy nhiên, do chưa có một định nghĩa về các tổ chức khủng bố, Facebook đã phải hợp tác với các chuyên gia trong lĩnh vực chống khủng bố, nhân quyền, cảnh sát... để soạn thảo ra tiêu chí về nội dung bị cấm, tiêu chí này tập trung vào hành động của nhóm chứ không phải hệ tư tưởng họ theo đuổi, bao gồm cả nội dung có mục đích hù dọa hay ép buộc con người. Cho đến nay, Facebook thông báo đã cấm 200 tổ chức có tư tưởng phân biệt chủng tộc, coi người da trắng là thượng đẳng và rút 20 triệu nội dung khủng bố.
Facebook cũng cho biết sẽ sử dụng công nghệ máy học cho nền tảng thành công nhất của Facebook là Instagram, nơi có rất nhiều người trẻ tuổi theo dõi, ngoài ra Facebook cũng sẽ mở rộng đến Australia và Indonesia chương trình "lọc" những nội dung tìm kiếm cực đoan, chuyển họ sang một nhóm hỗ trợ đặc biệt.