Khoa Học - Công Nghệ

Chỉ cần 3 giây, những kẻ lừa đảo có thể sao chép giọng nói bằng AI

Theo ngân hàng Starling Bank (Anh Quốc), hàng triệu người có thể bị lừa đảo bởi những kẻ sử dụng công nghệ trí tuệ nhân tạo (AI) để sao chép giọng nói. Chỉ cần 3 giây âm thanh từ một video đăng trên mạng xã hội, kẻ gian có thể dùng AI để tạo ra bản sao giọng nói của nạn nhân. Tiếp đến, chúng tiếp cận bạn bè và người thân của họ để thực hiện các cuộc gọi lừa đảo, yêu cầu chuyển tiền bằng giọng nói đã được sao chép.

(Ảnh minh họa: Justkgoomm/Shutterstock)

Một cuộc khảo sát đối với 3.000 người do Starling Bank phối hợp cùng cơ quan nghiên cứu Mortar Research thực hiện hồi tháng 8 vừa qua cho thấy hơn 1/4 số người được hỏi cho biết họ đã trở thành mục tiêu của một vụ lừa đảo giả giọng bằng AI trong 12 tháng qua.

Cuộc khảo sát cũng tiết lộ rằng 46% số người tham gia không biết có những trò lừa đảo như vậy, và 8% sẽ chuyển tiền theo yêu cầu của bạn bè hoặc thành viên gia đình ngay cả khi họ nghi ngờ tính xác thực của cuộc gọi. Bà Lisa Grahame, Giám đốc phụ trách an ninh thông tin của Starling Bank, cho biết mọi người thường xuyên đăng nội dung trực tuyến có ghi âm giọng nói của bản thân mà không bao giờ nghĩ rằng điều đó sẽ khiến họ dễ trở thành mục tiêu của những kẻ lừa đảo.

Starling Bank khuyến nghị các khách hàng thiết lập một “cụm từ an toàn” với những người thân yêu của họ – một cụm từ đơn giản, ngẫu nhiên, dễ nhớ và khác với các mật khẩu – để xác minh danh tính qua điện thoại. Ngân hàng cũng khuyến cáo các khách hàng không nên chia sẻ cụm từ an toàn qua tin nhắn, vì tin nhắn có thể bị kẻ gian nhìn thấy. Nếu chia sẻ theo cách này, họ nên xóa ngay sau khi đọc.

Đầu năm nay, ngân hàng NAB của Úc đã đưa hình thức lừa đảo giả giọng bằng AI vào danh sách các thủ đoạn nguy hiểm hàng đầu mà người dân quốc gia châu Đại Dương này cần cảnh giác trong năm 2024. Phó Giáo sư Toby Murray của khoa Khoa học Máy tính và Hệ thống Thông tin của Đại học Melbourne, cho biết công nghệ nhân bản giọng nói bằng AI cho phép bắt chước giọng của ai đó với độ chính xác cao, và kết quả ngày càng khó phân biệt.

Chỉ cần một vài giây ghi âm giọng nói từ video trên mạng xã hội, kẻ gian có thể tạo ra bản sao giọng nói rất thuyết phục. Sau đó, chúng sẽ dùng bản sao này để thực hiện cuộc gọi với thông điệp được thu âm sẵn, giả vờ cần tiền gấp và yêu cầu chuyển tiền qua thẻ quà tặng, ví điện tử hoặc tài khoản ngân hàng.

Phó Giáo sư Murray cho biết, một khi đã chia sẻ giọng nói và video cá nhân lên mạng, người dùng không thể ngăn chặn giọng nói của mình bị sao chép. Theo ông, trong thời đại truyền thông xã hội, việc yêu cầu mọi người không đăng video của họ lên mạng là điều vô lý, cũng giống như việc khó có thể ngăn người khác tạo tài khoản mạng xã hội giả mạo mình. Tuy nhiên, người dùng có thể thiết lập quyền riêng tư cho tài khoản mạng xã hội của mình để chỉ bạn bè và người thân mới có thể nhìn thấy nội dung họ đăng lên.

Anh Trần

Video: BÃO HELENE TẤN CÔNG NƯỚC MỸ, ĐE DỌA LÀM VỠ 3 CON ĐẬP, THIỆT HẠI KHOẢNG 100 TỶ ĐÔ

Anh Trần

Published by
Anh Trần

Recent Posts

Nga phản ứng về việc ông Trump nói ông đã từng đe dọa tấn công Moskva

Ông Peskov lưu ý rằng “hiện tại có rất nhiều tuyên bố gay gắt, rất…

22 phút ago

Bộ GD&ĐT yêu cầu thu hồi bằng cấp của ông Vương Tấn Việt

Ông Vương Tấn Việt  (Thích Chân Quang, Trụ trì Thiền tôn Phật Quang) bị thu…

1 giờ ago

Tiêm kích Nhật Bản xuất kích chặn máy bay trinh sát H-6, Y-9 của Trung Quốc

ĐCSTQ điều động một máy bay ném bom và máy bay trinh sát bay qua…

2 giờ ago

Năm chủ điểm thách thức lớn nhất đe dọa liêm chính bầu cử Hoa Kỳ 2024

Hoa Kỳ đang gặp phải rất nhiều thách nghiêm trọng liên quan đến tính liêm…

2 giờ ago

Trung Quốc và Ấn Độ đạt thỏa thuận bố trí tuần tra quân sự khu vực biên giới tranh chấp

Ấn Độ cho biết đã đạt được thỏa thuận với ĐCSTQ về việc bố trí…

2 giờ ago

Dự án Luật Điện lực (sửa đổi): Phát triển điện hạt nhân, do Nhà nước độc quyền đầu tư, vận hành

Phát triển điện hạt nhân được "thể chế hóa" trong Luật Điện lực (sửa đổi),…

2 giờ ago