công nghệ deepfake

Cảnh báo: sử dụng AI tạo hình ảnh và giọng nói giả mạo để lừa tiền

(MobileWorld.vn) – Ngay cả khi bạn thực hiện một cuộc gọi video và thấy mặt người thân hay bạn bè, nghe đúng giọng nói của họ thì cũng không hẳn bạn đang nói chuyện với chính người đó. Gần đây, nhiều người đã trở thành nạn nhân của các cuộc lừa đảo tài chính sử dụng Deepfake và có sự…

Cần làm gì để tránh trở thành nạn nhân tiếp theo của lừa đảo deepfake?

Người dùng nên thực hiện các bước đơn giản dưới đây để tránh trở thành nạn nhân tiếp theo của phương thức lừa đảo deepfake trên không gian mạng. Công nghệ deepfake đã và đang tạo ra những hình ảnh, âm thanh hoặc video giả mạo hết sức chân thực. Deepfake được tội phạm sử dụng với các mục đích…