Categories: Thời sựViệt Nam

Cảnh giác ‘chiêu’ dùng deepfake để ghép mặt, giọng nói giống hệt người thân để lừa đảo

Người dùng cần cảnh giác việc người xấu sử dụng công nghệ deepfake AI để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video giả làm người thân để chiếm đoạt tiền.

Người dùng cần cảnh giác trước hành vi lừa đảo khi người xấu sử dụng công nghệ deepfake AI. (Ảnh: MDV Edwards/Shutterstock)

Đối tượng lừa đảo nắm bắt được tâm lý người dùng mạng xã hội đã biết cảnh giác với “chiêu” lừa bằng tin nhắn vay tiền, chuyển tiền nên đã chuyển qua sử dụng chiêu lừa tinh vi hơn để vay tiền bằng cách giả cuộc gọi video.

Theo đó, người xấu có thể gọi video giả làm người thân hoặc quen biết với nạn nhân để vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí. Nói chung, hầu hết đều là những tình huống cấp bách cần tiền gấp.

Thủ đoạn của đối tượng này là chiếm đoạt tài khoản cá nhân, lấy những hình ảnh, video cũ của người dùng, cắt ghép hoặc dùng công nghệ deepfake để ghép mặt và giọng nói giống hệt người thân của nạn nhân để lừa đảo.

Sau đó, chúng sử dụng tài khoản đã chiếm đoạt để gọi và phát video giả mạo dưới hình thức mờ ảo, chập chờn rồi viện lý do đang ở nơi sóng yếu để tạo lòng tin rồi nhắn tin vay tiền, chuyển tiền và dẫn giải nạn nhân chuyển đến tài khoản của chúng để chiếm đoạt.

Gần đây, với cách thức trên, một nạn nhân ở TP.HCM đã bị lừa 20 triệu đồng, mặc dù nạn nhân đã gọi video qua Facebook để kiểm chứng.

Cũng như trường hợp chị V.T.M (SN 1997, ngụ tại Long Biên, TP. Hà Nội) nhận tin nhắn mượn tiền từ tài khoản Facebook của người thân bên nước ngoài nhắn nhờ chuyển tiền vào một số tài khoản 75 triệu đồng. Nghĩ là người thân nên chị M. đã chuyển tiền theo yêu cầu.

Mặc dù chị M. đã cẩn thận gọi video để xác nhận, nhưng khi gọi thì thấy hình ảnh đúng là người thân mình nên chị đã tin tưởng chuyển khoản liền. Đến tối, thấy người thân đăng trên trang cá nhân thông báo việc Facebook đã bị hack để hỏi vay tiền một số người, chị M. gọi điện lại xác minh thì mới biết mình bị lừa.

Khi chị M. gọi xác nhận trước khi chuyển tiền, đầu dây bên kia vẫn hiện lên khuôn mặt và giọng nói của người thân, cách xưng hô hoàn toàn chính xác. Tuy nhiên, âm thanh rất khó nghe, hình ảnh cũng bị nhòe giống như sóng chập chờn.

Chuyên gia hướng dẫn cách xử lý

Theo các chuyên gia, đối tượng lừa đảo thường tìm kiếm, thu thập thông tin cá nhân được đăng tải công khai trên mạng xã hội để tạo ra chiêu lừa tinh vi. Khi nạn nhân gọi điện hoặc video cho người thân để kiểm chứng, những người này sẽ không nhận cuộc gọi hoặc sẽ sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa.

Để có thể kiểm tra phía bên gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không, hãy yêu cầu họ quay mặt sang bên các góc 90 độ.

Thêm một phương pháp nhỏ đó là yêu cầu họ đưa tay trước mặt. Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn, thao tác này thường được gọi là “tạo mặt nạ” hoặc “xóa nền” – thông tin từ các chuyên gia bảo mật.

Qua đó, các cơ quan công an khuyến cáo người dân cần cảnh giác với thủ đoạn lừa đảo này, khi nhận bất kỳ tin nhắn hay cuộc gọi video để vay tiền, phải gọi qua số điện thoại trực tiếp cho người thân để xác minh mà không qua các ứng dụng như Zalo, Messenger, Viber, Telegram. Tuyệt đối không cung cấp mã OTP, chuyển tiền, nạp card điện thoại cho ai khi chưa biết rõ về người đó.

Khi có nghi vấn về việc giả mạo người thân trên mạng xã hội, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ xử lý.

Thạch Lam (t/h)

Thạch Lam

Published by
Thạch Lam

Recent Posts

Một ứng viên xin rút công nhận chức danh phó giáo sư năm 2024

HĐGSNN vừa công nhận đạt tiêu chuẩn chức danh giáo sư, phó giáo sư năm…

2 giờ ago

Ông Vương Đình Huệ bị kỷ luật cảnh cáo

Ông Vương Đình Huệ có sai phạm trong phòng, chống tham nhũng, tiêu cực; vi…

3 giờ ago

Ông Musk và ông Ramaswamy viết bài xã luận trên WSJ vạch ra tầm nhìn về DOGE

Ông Musk và ông Ramaswamy đã cùng chấp bút một bài xã luận đăng trên…

3 giờ ago

Kiev: Nga dùng tên lửa đạn đạo xuyên lục địa tấn công Ukraine

Quân đội Ukraine thông báo trong sáng Thứ Năm Nga đã tiến hành không kích…

4 giờ ago

Việt Nam và Malaysia nâng cấp quan hệ lên Đối tác Chiến lược toàn diện

Hai nước Việt Nam-Malaysia vừa nâng cấp quan hệ lên Đối tác Chiến lược toàn diện,…

5 giờ ago

TP.HCM đề xuất xóa nợ quá hạn, khó thu hồi cho người nghèo

UBND TP.HCM vừa đề xuất dùng ngân sách địa phương để xử lý nợ quá…

6 giờ ago