Một video deepfake của Chủ tịch phong trào ANO Andrej Babiš, quảng bá các khoản đầu tư hấp dẫn vào tiền điện tử và cổ phiếu, đã khiến một người đàn ông 59 tuổi đến từ Jesenicko rơi vào bẫy lừa đảo. Do tin rằng video này đáng tin cậy, người đàn ông đã đầu tư tiền, nhưng thay vì có lợi nhuận, ông mất toàn bộ số tiền cho kẻ lừa đảo. Hiện vụ việc đang được cảnh sát điều tra.
Theo phát ngôn viên cảnh sát Ivana Skoupilová, người đàn ông đã trình báo vụ việc vào hôm thứ Ba, cho biết mình trở thành nạn nhân của lừa đảo. Ông đã phản ứng với video deepfake của Andrej Babiš khoảng một năm trước và khi đó, ông đầu tư ban đầu 7.000 korun.
Theo bà Skoupilová, người đàn ông đã chọn giao dịch tự động, vì vậy ông không biết rõ lợi nhuận cũng như thời gian đầu tư.
Vào ngày 7 tháng 3, một người tự xưng là nhà môi giới đã liên hệ với ông, thông báo rằng khoản đầu tư ban đầu vào Bitcoin đã tăng lên 9.000 USD (khoảng 205.000 korun). Tin vào điều đó, người đàn ông quyết định rút một phần lợi nhuận tưởng chừng đã kiếm được.
Dưới vỏ bọc hướng dẫn chuyển đổi Bitcoin sang tiền Séc, tên lừa đảo đã thuyết phục nạn nhân tải ứng dụng AnyDesk, một phần mềm cho phép điều khiển máy tính từ xa. Sau đó, khi nạn nhân đăng nhập vào ngân hàng trực tuyến, kẻ lừa đảo cũng có quyền truy cập và nộp đơn vay 300.000 korun từ tài khoản của ông.
Sau đó, nạn nhân phát hiện rằng kẻ lừa đảo đã rút tiền từ tài khoản của ông qua cây ATM. Tổng số tiền ông bị mất lên đến 50.000 korun.
Sau khi liên hệ với ngân hàng, nạn nhân được thông báo rằng ông đã trở thành nạn nhân của một vụ lừa đảo và ngay lập tức tiến hành khóa tài khoản.
Theo phát ngôn viên Ivana Skoupilová, nếu kẻ lừa đảo bị bắt, hắn có thể đối mặt với án tù lên đến 8 năm.
Trên mạng xã hội, không chỉ có video deepfake lừa đảo bằng hình ảnh của ông Andrej Babiš, mà còn có những video giả mạo tương tự về Tổng thống Petr Pavel và Thượng nghị sĩ Pavel Fischer.
Các chuyên gia an ninh đã nhiều lần cảnh báo về mối nguy hiểm từ deepfake, nhưng loại hình lừa đảo này vẫn tiếp tục xuất hiện.
Deepfake là hình ảnh, âm thanh hoặc video được trí tuệ nhân tạo (AI) tạo ra, trông rất chân thực nhưng không phản ánh sự thật. Bằng cách sử dụng trí tuệ nhân tạo (AI) và các thuật toán phức tạp, công nghệ này có thể dựa trên số lượng lớn hình ảnh nguồn để tạo ra mô hình khuôn mặt giả, mà không cần quét trực tiếp khuôn mặt thật.
Theo Viện An ninh mạng Entrust Cybersecurity, đến năm 2025, trung bình cứ mỗi 5 phút sẽ xảy ra một vụ tấn công deepfake.
Các chuyên gia an ninh mạng cũng cảnh báo rằng hình ảnh, âm thanh và video giả mạo ngày càng tinh vi, khiến người dùng khó phân biệt thật – giả hơn bao giờ hết.
Nguồn: Novinky
Ghi rõ nguồn TAMDAMEDIA.eu khi phát hành lại thông tin từ website này