Lừa đảo sử dụng AI giả mạo hình ảnh, giọng nói để chiếm đoạt tài sản

Thứ 5, 22.02.2024 | 08:35:03
451 lượt xem

Theo cảnh báo từ Cục An toàn thông tin (ATTT), Bộ Thông tin và Truyền thông (TT&TT), nhiều người đã trở thành nạn nhân của các cuộc lừa đảo tài chính sử dụng Deepfake và trí tuệ nhân tạo (AI).

"Ngay cả khi bạn thực hiện một cuộc gọi video và thấy mặt người thân hay bạn bè, nghe đúng giọng nói của họ thì cũng không hẳn bạn đang nói chuyện với chính người đó", báo cáo từ Cục ATTT cho biết.

Lừa đảo sử dụng AI giả mạo hình ảnh, giọng nói để chiếm đoạt tài sản - 1

Tin tặc có thể sử dụng AI để giả mạo hình ảnh, giọng nói từ đó chiếm đoạt tài sản (Ảnh: Global News).

Mới đây, một nhân viên văn phòng tại Hà Nội đã trở thành nạn nhân của chiêu trò lừa đảo trên. Theo chia sẻ từ N.T.H., trong một lần trò chuyện với bạn thông qua ứng dụng Facebook Messenger, người bạn của H. đã chào và kết thúc câu chuyện.

Tuy nhiên, người bạn này đột nhiên quay lại nhắn tin, hỏi vay tiền và đề nghị chuyển tiền vào một tài khoản ngân hàng. Dù tên tài khoản trùng khớp với tên của bạn mình, H. vẫn thoáng nghi ngờ nên yêu cầu gọi video để xác thực.

Người bạn đồng ý nhưng cuộc gọi chỉ kéo dài vài giây do "mạng chập chờn". Khi thấy mặt bạn mình trong cuộc gọi video, giọng nói cũng đúng của người này, H. không còn nghi ngờ và chuyển tiền.

Sau khi chuyển tiền thành công, H. mới biết mình đã mắc bẫy của tin tặc. Không chỉ H., nhiều nạn nhân khác là bạn bè, người thân của người kia cũng bị lừa theo cách tương tự. Số tiền kẻ xấu lừa được từ tài khoản Facebook đó lên tới hàng chục triệu đồng.

Để ngăn chặn tình trạng trên tiếp tục tái diễn, Cục ATTT khuyến cáo người dân cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân (CCCD, tài khoản ngân hàng, mã OTP…) cho bất kỳ đối tượng nào thông qua nhiều hình thức khác nhau.

"Tuyệt đối không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo. Khi có yêu cầu chuyển tiền vào tài khoản qua mạng xã hội, người dùng nên thực hiện các phương thức xác thực khác như gọi điện thoại hay sử dụng các kênh liên lạc khác để xác nhận lại", Cục ATTT cho biết.

Lừa đảo sử dụng AI giả mạo hình ảnh, giọng nói để chiếm đoạt tài sản - 2

Cục ATTT khuyến cáo người dân không cung cấp thông tin cá nhân cho bất kỳ đối tượng nào (Ảnh: CNN).

Trước đó, một số ngân hàng cũng đưa ra cảnh báo về việc các đối tượng lừa đảo sử dụng công nghệ Deepfake nhằm mạo danh người thân để vay mượn tiền qua mạng xã hội.

Đối tượng lừa đảo sẽ dùng tài khoản mạng xã hội (Facebook, Zalo,..) để lôi kéo nạn nhân truy cập vào các đường link có chứa mã độc. Chiêu trò quen thuộc mà kẻ gian thường sử dụng là kêu gọi đăng ký bình chọn hộ hay gửi quà tặng.

Mục đích của chúng nhằm thu thập thông tin và chiếm quyền kiểm soát tài khoản mạng xã hội. Sau đó, kẻ gian sẽ sử dụng tài khoản đã chiếm được để nhắn tin cho người thân trong danh sách bạn bè và hỏi vay tiền hoặc nhờ chuyển tiền vào tài khoản ngân hàng.

Đáng nói, đối tượng lừa đảo sẽ gửi thông tin tài khoản có họ tên trùng với chủ tài khoản mạng xã hội để nạn nhân tin tưởng và chuyển tiền. Chưa dừng lại, đối tượng lừa đảo còn có thể tái tạo khuôn mặt và giọng nói của chủ tài khoản bằng công nghệ Deepfake/Swapface.

Từ đó, kẻ gian sẽ tạo video giả mạo nhằm thực hiện những cuộc gọi video ngắn, kém chất lượng với lý do lỗi mạng để nạn nhân tin tưởng và thực hiện chuyển tiền theo yêu cầu.


Theo dantri.com.vn

https://dantri.com.vn/suc-manh-so/lua-dao-su-dung-ai-gia-mao-hinh-anh-giong-noi-de-chiem-doat-tai-san-20240221221857411.htm

  • Từ khóa