Tags:

Sao chép giọng nói

  • Những kẻ lừa đảo chỉ cần 3 giây để sao chép giọng nói bằng AI

    Những kẻ lừa đảo chỉ cần 3 giây để sao chép giọng nói bằng AI

    Ngân hàng trực tuyến Starling Bank của Anh vừa cho biết hàng triệu người có thể bị lừa bởi những kẻ sử dụng công nghệ trí tuệ nhân tạo (AI) để sao chép giọng nói. Ngân hàng này cảnh báo rằng chỉ cần 3 giây âm thanh từ một video đăng trên mạng xã hội, kẻ gian có thể dùng AI để tạo ra bản sao giọng nói của nạn nhân. Sau đó, chúng tiếp cận bạn bè và người thân của họ để thực hiện các cuộc gọi lừa đảo, yêu cầu chuyển tiền bằng giọng nói đã được sao chép.

  • Hàn Quốc dành 6,8 triệu USD ngân sách cho cuộc chiến chống deepfake

    Hàn Quốc dành 6,8 triệu USD ngân sách cho cuộc chiến chống deepfake

    Phóng viên TTXVN tại Seoul dẫn thông báo ngày 19/9 của Cơ quan Cảnh sát quốc gia Hàn Quốc cho biết sẽ đầu tư 9,1 tỷ won (6,8 triệu USD) trong 3 năm tới để phát triển công nghệ phát hiện các loại hình tội phạm deepfake, sao chép giọng nói và các nội dung bịa đặt khác.