Categories: Thời sựViệt Nam

Cảnh giác ‘chiêu’ dùng deepfake để ghép mặt, giọng nói giống hệt người thân để lừa đảo

Người dùng cần cảnh giác việc người xấu sử dụng công nghệ deepfake AI để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video giả làm người thân để chiếm đoạt tiền.

Người dùng cần cảnh giác trước hành vi lừa đảo khi người xấu sử dụng công nghệ deepfake AI. (Ảnh: MDV Edwards/Shutterstock)

Đối tượng lừa đảo nắm bắt được tâm lý người dùng mạng xã hội đã biết cảnh giác với “chiêu” lừa bằng tin nhắn vay tiền, chuyển tiền nên đã chuyển qua sử dụng chiêu lừa tinh vi hơn để vay tiền bằng cách giả cuộc gọi video.

Theo đó, người xấu có thể gọi video giả làm người thân hoặc quen biết với nạn nhân để vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí. Nói chung, hầu hết đều là những tình huống cấp bách cần tiền gấp.

Thủ đoạn của đối tượng này là chiếm đoạt tài khoản cá nhân, lấy những hình ảnh, video cũ của người dùng, cắt ghép hoặc dùng công nghệ deepfake để ghép mặt và giọng nói giống hệt người thân của nạn nhân để lừa đảo.

Sau đó, chúng sử dụng tài khoản đã chiếm đoạt để gọi và phát video giả mạo dưới hình thức mờ ảo, chập chờn rồi viện lý do đang ở nơi sóng yếu để tạo lòng tin rồi nhắn tin vay tiền, chuyển tiền và dẫn giải nạn nhân chuyển đến tài khoản của chúng để chiếm đoạt.

Gần đây, với cách thức trên, một nạn nhân ở TP.HCM đã bị lừa 20 triệu đồng, mặc dù nạn nhân đã gọi video qua Facebook để kiểm chứng.

Cũng như trường hợp chị V.T.M (SN 1997, ngụ tại Long Biên, TP. Hà Nội) nhận tin nhắn mượn tiền từ tài khoản Facebook của người thân bên nước ngoài nhắn nhờ chuyển tiền vào một số tài khoản 75 triệu đồng. Nghĩ là người thân nên chị M. đã chuyển tiền theo yêu cầu.

Mặc dù chị M. đã cẩn thận gọi video để xác nhận, nhưng khi gọi thì thấy hình ảnh đúng là người thân mình nên chị đã tin tưởng chuyển khoản liền. Đến tối, thấy người thân đăng trên trang cá nhân thông báo việc Facebook đã bị hack để hỏi vay tiền một số người, chị M. gọi điện lại xác minh thì mới biết mình bị lừa.

Khi chị M. gọi xác nhận trước khi chuyển tiền, đầu dây bên kia vẫn hiện lên khuôn mặt và giọng nói của người thân, cách xưng hô hoàn toàn chính xác. Tuy nhiên, âm thanh rất khó nghe, hình ảnh cũng bị nhòe giống như sóng chập chờn.

Chuyên gia hướng dẫn cách xử lý

Theo các chuyên gia, đối tượng lừa đảo thường tìm kiếm, thu thập thông tin cá nhân được đăng tải công khai trên mạng xã hội để tạo ra chiêu lừa tinh vi. Khi nạn nhân gọi điện hoặc video cho người thân để kiểm chứng, những người này sẽ không nhận cuộc gọi hoặc sẽ sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa.

Để có thể kiểm tra phía bên gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không, hãy yêu cầu họ quay mặt sang bên các góc 90 độ.

Thêm một phương pháp nhỏ đó là yêu cầu họ đưa tay trước mặt. Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn, thao tác này thường được gọi là “tạo mặt nạ” hoặc “xóa nền” – thông tin từ các chuyên gia bảo mật.

Qua đó, các cơ quan công an khuyến cáo người dân cần cảnh giác với thủ đoạn lừa đảo này, khi nhận bất kỳ tin nhắn hay cuộc gọi video để vay tiền, phải gọi qua số điện thoại trực tiếp cho người thân để xác minh mà không qua các ứng dụng như Zalo, Messenger, Viber, Telegram. Tuyệt đối không cung cấp mã OTP, chuyển tiền, nạp card điện thoại cho ai khi chưa biết rõ về người đó.

Khi có nghi vấn về việc giả mạo người thân trên mạng xã hội, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ xử lý.

Thạch Lam (t/h)

Thạch Lam

Published by
Thạch Lam

Recent Posts

Mỹ phê duyệt SpaceX triển khai thêm 7.500 vệ tinh, mở rộng mạng Starlink

Ủy ban Truyền thông Liên bang Mỹ (FCC) ngày 9/1 đã cấp một giấy phép…

5 giờ ago

Biến động chính trị ở Venezuela và Iran: Một loạt cú sốc đối với ĐCSTQ

Trước đây, chính quyền Trung Quốc đã đổ rất nhiều nguồn lực để hậu thuẫn…

5 giờ ago

Ông Trump: Mỹ phải kiểm soát Greenland để kiềm chế tham vọng của Trung Quốc và Nga

Tổng thống Trump cho biết vì lý do an ninh quốc gia, Mỹ cần phải…

6 giờ ago

Trung Nam Hải bị phát hiện “biến mất” khỏi bản đồ; Maduro bị bắt khiến Tập hoảng sợ?

Cư dân mạng Trung Quốc phát hiện khi nhập 3 chữ “Trung Nam Hải” vào…

6 giờ ago

6 gợi ý giúp nhìn lại bản thân và thay đổi hiệu quả trước thềm năm mới

Để tạo ra những thay đổi hiệu quả và lâu dài trong cuộc sống, trước…

7 giờ ago

Thượng nghị sĩ Nhật Bản Hei Seki thăm Đài Loan, khẳng định: “Đài Loan chính là Đài Loan”

Thượng nghị sĩ gốc Hoa của Đảng Duy Tân Nhật Bản, ông Hei Seki, sáng…

7 giờ ago