Categories: Thời sựViệt Nam

Cảnh giác ‘chiêu’ dùng deepfake để ghép mặt, giọng nói giống hệt người thân để lừa đảo

Người dùng cần cảnh giác việc người xấu sử dụng công nghệ deepfake AI để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video giả làm người thân để chiếm đoạt tiền.

Người dùng cần cảnh giác trước hành vi lừa đảo khi người xấu sử dụng công nghệ deepfake AI. (Ảnh: MDV Edwards/Shutterstock)

Đối tượng lừa đảo nắm bắt được tâm lý người dùng mạng xã hội đã biết cảnh giác với “chiêu” lừa bằng tin nhắn vay tiền, chuyển tiền nên đã chuyển qua sử dụng chiêu lừa tinh vi hơn để vay tiền bằng cách giả cuộc gọi video.

Theo đó, người xấu có thể gọi video giả làm người thân hoặc quen biết với nạn nhân để vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí. Nói chung, hầu hết đều là những tình huống cấp bách cần tiền gấp.

Thủ đoạn của đối tượng này là chiếm đoạt tài khoản cá nhân, lấy những hình ảnh, video cũ của người dùng, cắt ghép hoặc dùng công nghệ deepfake để ghép mặt và giọng nói giống hệt người thân của nạn nhân để lừa đảo.

Sau đó, chúng sử dụng tài khoản đã chiếm đoạt để gọi và phát video giả mạo dưới hình thức mờ ảo, chập chờn rồi viện lý do đang ở nơi sóng yếu để tạo lòng tin rồi nhắn tin vay tiền, chuyển tiền và dẫn giải nạn nhân chuyển đến tài khoản của chúng để chiếm đoạt.

Gần đây, với cách thức trên, một nạn nhân ở TP.HCM đã bị lừa 20 triệu đồng, mặc dù nạn nhân đã gọi video qua Facebook để kiểm chứng.

Cũng như trường hợp chị V.T.M (SN 1997, ngụ tại Long Biên, TP. Hà Nội) nhận tin nhắn mượn tiền từ tài khoản Facebook của người thân bên nước ngoài nhắn nhờ chuyển tiền vào một số tài khoản 75 triệu đồng. Nghĩ là người thân nên chị M. đã chuyển tiền theo yêu cầu.

Mặc dù chị M. đã cẩn thận gọi video để xác nhận, nhưng khi gọi thì thấy hình ảnh đúng là người thân mình nên chị đã tin tưởng chuyển khoản liền. Đến tối, thấy người thân đăng trên trang cá nhân thông báo việc Facebook đã bị hack để hỏi vay tiền một số người, chị M. gọi điện lại xác minh thì mới biết mình bị lừa.

Khi chị M. gọi xác nhận trước khi chuyển tiền, đầu dây bên kia vẫn hiện lên khuôn mặt và giọng nói của người thân, cách xưng hô hoàn toàn chính xác. Tuy nhiên, âm thanh rất khó nghe, hình ảnh cũng bị nhòe giống như sóng chập chờn.

Chuyên gia hướng dẫn cách xử lý

Theo các chuyên gia, đối tượng lừa đảo thường tìm kiếm, thu thập thông tin cá nhân được đăng tải công khai trên mạng xã hội để tạo ra chiêu lừa tinh vi. Khi nạn nhân gọi điện hoặc video cho người thân để kiểm chứng, những người này sẽ không nhận cuộc gọi hoặc sẽ sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa.

Để có thể kiểm tra phía bên gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không, hãy yêu cầu họ quay mặt sang bên các góc 90 độ.

Thêm một phương pháp nhỏ đó là yêu cầu họ đưa tay trước mặt. Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn, thao tác này thường được gọi là “tạo mặt nạ” hoặc “xóa nền” – thông tin từ các chuyên gia bảo mật.

Qua đó, các cơ quan công an khuyến cáo người dân cần cảnh giác với thủ đoạn lừa đảo này, khi nhận bất kỳ tin nhắn hay cuộc gọi video để vay tiền, phải gọi qua số điện thoại trực tiếp cho người thân để xác minh mà không qua các ứng dụng như Zalo, Messenger, Viber, Telegram. Tuyệt đối không cung cấp mã OTP, chuyển tiền, nạp card điện thoại cho ai khi chưa biết rõ về người đó.

Khi có nghi vấn về việc giả mạo người thân trên mạng xã hội, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ xử lý.

Thạch Lam (t/h)

Thạch Lam

Published by
Thạch Lam

Recent Posts

Thuế suất 20%, dệt may Bangladesh tự tin đặt mục tiêu tăng trưởng 16,5%

Sau thuế quan Hoa Kỳ mới được công bố, doanh nghiệp dệt may Bangladesh cho…

34 phút ago

Người Trung Quốc bị kết án 8 năm tù tại Mỹ vì buôn lậu vũ khí sang Triều Tiên

Bộ Tư pháp Hoa Kỳ vào thứ Hai (ngày 18/8) tuyên bố rằng Wen Shenghua,…

2 giờ ago

Ông Bessent: Mỹ sẽ tính thêm 10% trên giá vũ khí mà EU mua để chuyển cho Ukraine

Bộ trưởng Tài chính Scott Bessent cho biết Hoa Kỳ sẽ tính thêm 10% giá…

4 giờ ago

Gác chắn tự nâng lên khi tàu lao tới: Có thể do hệ thống cảm biến bị nhiễu tín hiệu

Trong khi đoàn tàu đang đi tới, gác chắn tàu tự động tại một đoạn…

4 giờ ago

Một thiếu niên 14 tuổi bị mù mắt vĩnh viễn do nhóm côn đồ đánh nhầm

Nam thiếu niên bị đánh mù mắt phải, thương tích tối thiểu 41% sau khi…

4 giờ ago

Blog: Công lao của những người khuyên người TQ “tam thoái” là rất to lớn

Khi biết được rằng hơn 450 triệu người Hoa đã hoàn thành "tam thoái" với…

4 giờ ago