Facebook công bố báo cáo tổng kết nỗ lực phát hiện, gỡ bỏ nội dung độc hại

Ngày 28/11, Công ty chủ quản của mạng xã hội toàn cầu Facebook cho biết đã công bố bản báo cáo mới nhất về các nỗ lực của công ty nhằm phát hiện và gỡ bỏ các nội dung vi phạm nội quy của cộng đồng mạng xã hội này cũng như trên các ứng dụng liên quan.

Chú thích ảnh
 Biểu tượng Facebook trên màn hình điện thoại tại Washington, DC, Mỹ. Ảnh: AFP/TTXVN

Báo cáo cung cấp các dữ liệu và tham số cho thấy những nội dung dễ xuất hiện vi phạm nhất và số vụ vi phạm các tiêu chuẩn quản lý của Facebook. Trong đó phải kể đến những nội dung đồi trụy trẻ em, lạm dụng tình dục trẻ em và tuyên truyền khủng bố cũng như buôn bán vũ khí bất hợp pháp, ma túy và tự sát. Facebook khẳng định đội ngũ chính sách nội dung của công ty liên tục hoạt động 24/7 trong tất cả các ngày để kịp thời phát hiện những nội dung vi phạm. 

Facebook cũng khẳng định đã cải thiện đáng kể khả năng nhận biết và gỡ bỏ những nội dung có thể độc hại trên các trang web và các ứng dụng thuộc sở hữu của công ty. Theo báo cáo trên, 99% nội dung bị gỡ bỏ trên Facebook được phát hiện tự động và phần còn lại là do nhận được báo cáo từ người dùng.

Trong khi đó, 94,6% nội dung bị gỡ bỏ trên Instagram được phát hiện tự động. Giữa quý IV/2018 và quý I/2019, Facebook đã gỡ 2,5 triệu bài đăng có nội dung tự sát hoặc tự làm tổn thương cơ thể trong khi khoảng 845.000 nội dung tương tự cũng đã bị xóa khỏi Instagram.

Lê Ánh (TTXVN)
Facebook đầu tư 'khủng' vào AI để kiểm soát nội dung cấm
Facebook đầu tư 'khủng' vào AI để kiểm soát nội dung cấm

Trong bối cảnh Facebook đang đầu tư “khủng” vào trí tuệ nhân tạo (AI) nhằm tự động phát hiện nội dung cấm, tập đoàn công nghệ này ngày 13/11 khẳng định phần mềm của Facebook đang ngày càng thành thạo hơn trong việc kiểm soát nội dung bị cấm trên mạng xã hội.

Chia sẻ:

doanh nghiệp - Sản phẩm - Dịch vụ Thông cáo báo chí Rao vặt

Các đơn vị thông tin của TTXVN