lừa đảo deepfake

Cảnh báo: sử dụng AI tạo hình ảnh và giọng nói giả mạo để lừa tiền

(MobileWorld.vn) – Ngay cả khi bạn thực hiện một cuộc gọi video và thấy mặt người thân hay bạn bè, nghe đúng giọng nói của họ thì cũng không hẳn bạn đang nói chuyện với chính người đó. Gần đây, nhiều người đã trở thành nạn nhân của các cuộc lừa đảo tài chính sử dụng Deepfake và có sự…

Cần làm gì để tránh trở thành nạn nhân tiếp theo của lừa đảo deepfake?

Người dùng nên thực hiện các bước đơn giản dưới đây để tránh trở thành nạn nhân tiếp theo của phương thức lừa đảo deepfake trên không gian mạng. Công nghệ deepfake đã và đang tạo ra những hình ảnh, âm thanh hoặc video giả mạo hết sức chân thực. Deepfake được tội phạm sử dụng với các mục đích…

Kaspersky chia sẻ cách nhận diện lừa đảo deepfake

(MobileWorld.vn) – Trong bối cảnh các tiến bộ công nghệ liên tục định hình mạng xã hội và phương tiện truyền thông đại chúng, deepfake đang trở thành mối quan ngại lớn khi số lượng những vụ lừa đảo bằng deepfake ngày càng gia tăng. Sau khi nghiên cứu trên diễn đàn darknet (darknet forum), nơi các tội phạm công…