(Ảnh minh họa: Shutterstock)
Trong một báo cáo được công bố hôm 3/9, Cục Điều tra Liên bang Mỹ (FBI) và Hiệp hội Ngân hàng Hoa Kỳ (ABA) cảnh báo, nội dung deepfake, do trí tuệ nhân tạo (AI) tạo ra đang bị tội phạm lợi dụng để mạo danh những cá nhân có uy tín, ngày càng khó phát hiện được.
Deepfake là công nghệ mô phỏng hình ảnh khuôn mặt con người, được đặt tên theo cụm từ được kết hợp giữa “deep learning” (máy học) và “fake” (giả). Công nghệ này có thể tạo ra các sản phẩm âm thanh, hình ảnh hoặc thậm chí là cả video giả, nhờ vào trí tuệ nhân tạo tinh vi.
Trong bản đồ họa thông tin “Lừa đảo Truyền thông bằng Deepfake” do FBI-ABA công bố, cơ quan điều tra của Hoa Kỳ cho biết, các vụ lừa đảo nhắm vào người Mỹ đang gia tăng đột biến. Kể từ năm 2020, FBI đã nhận được hơn 4,2 triệu báo cáo về gian lận với thiệt hại lên đến 50,5 tỷ đô la. FBI lưu ý: “Đặc biệt các vụ lừa đảo mạo danh đang gia tăng. Tội phạm đang sử dụng deepfake, hay phương tiện truyền thông được AI tạo ra hoặc thao túng, để chiếm lấy niềm tin của bạn và lừa đảo bạn để lấy đi số tiền mà bạn khó khăn lắm mới kiếm được.”
Nội dung deepfake có thể bao gồm hình ảnh, âm thanh, hoặc video đã bị chỉnh sửa. FBI cảnh báo, những kẻ lừa đảo có thể đóng giả người thân trong gia đình, bạn bè, hoặc nhân vật công chúng, bao gồm những người nổi tiếng, những quan chức thực thi pháp luật và chính phủ.
Ông Sam Kunjukunju, phó chủ tịch phụ trách giáo dục người tiêu dùng của Quỹ ABA, nhận xét: “Deepfake ngày càng trở nên tinh vi và khó phát hiện hơn.”
Bản đồ họa thông tin trong báo cáo của FBI – ABA lưu ý, bằng cách chú ý một số điểm không nhất quán mâu thuẫn trong sản phẩm do AI tạo ra có thể giúp phát hiện được deepfake.
Cơ quan điều tra liên bang Hoa Kỳ gợi ý, khi xem hình ảnh hoặc video, mọi người nên chú ý đến các vấn đề như:
Trong trường hợp âm thanh, thì mọi người nên lắng nghe kỹ để xác định liệu giọng nói có quá đều hoặc không tự nhiên không.
Bản đồ họa thông tin của FBI-ABA liệt kê ba dấu hiệu cảnh báo về một vụ lừa đảo deepfake:
Để đảm bảo an toàn, ABA và FBI khuyến nghị người dân Mỹ nên suy nghĩ kỹ trước khi phản hồi các yêu cầu mang tính cảm xúc hoặc cấp bách, đồng thời nên tạo mật mã hoặc cụm từ để xác nhận danh tính của những người thân yêu.
Ông Jose Perez, trợ lý giám đốc bộ phận điều tra hình sự của FBI, tiết lộ: “FBI tiếp tục chứng kiến sự gia tăng đáng lo ngại về các báo cáo gian lận liên quan đến phương tiện truyền thông deepfake.”
Ông Perez lưu ý: “Việc giáo dục công chúng về mối đe dọa mới nổi này là chìa khóa để ngăn chặn các vụ lừa đảo này và giảm thiểu tác động của chúng. Chúng tôi khuyến khích người tiêu dùng cập nhật thông tin và chia sẻ những gì họ biết với bạn bè và gia đình để họ có thể phát hiện deepfake trước khi chúng gây ra bất kỳ tác hại nào.”
Theo báo cáo hôm 6/8 của công ty an ninh mạng Group-IB, tác động kinh tế toàn cầu về thiệt hại do gian lận bằng deepfake gây ra dự kiến sẽ đạt 40 tỷ đô la vào năm 2027.
Báo cáo cho biết: “Tiền bị đánh cắp hầu như chưa bao giờ thu hồi được. Do hoạt động rửa tiền nhanh chóng thông qua các chuỗi rửa tiền và các máy trộn tiền điện tử, nên chưa đến 5% số tiền bị mất do các vụ lừa đảo tinh vi qua giọng nói (vishing) được thu hồi.”
Máy trộn tiền điện tử (crypto mixers) là một dịch vụ trộn lẫn tiền mã hóa từ nhiều người dùng khác nhau, nhằm mục đích che giấu nguồn gốc ban đầu của các khoản tiền, tạo ra sự riêng tư và ẩn danh cao hơn.
Vishing là viết tắt của chữ “voice phishing”, nghĩa là lừa đảo qua giọng nói (hay lừa đảo qua điện thoại). Vishing đề cập đến những kẻ lừa đảo sử dụng cuộc gọi điện thoại hoặc tin nhắn thoại để mạo danh những nhân vật có thẩm quyền như các quan chức chính phủ, nhân viên hỗ trợ kỹ thuật, và nhân viên ngân hàng để lừa nạn nhân tiết lộ thông tin cá nhân nhạy cảm như số thẻ tín dụng, thông tin đăng nhập ngân hàng, hoặc các dữ liệu khác nhằm mục đích đánh cắp tiền.
Theo công ty Group-IB, cuộc gọi điện thoại lừa đảo sử dụng giọng nói giả mạo do AI tạo ra (deepfake vishing) chủ yếu dựa vào các chiến thuật thao túng cảm xúc. Mục tiêu của những vụ lừa đảo này bao gồm các giám đốc điều hành công ty và các nhân viên tài chính.
Group-IB cảnh báo, những người cao tuổi và những người bị trầm cảm cũng dễ bị tấn công bởi các chiêu trò lừa đảo “deepfake vishing” do khả năng thiếu hiểu biết về kỹ thuật số và chưa quen thuộc với công nghệ giọng nói nhân tạo. Do đó, các vụ lừa đảo giả mạo giọng nói người thân trong gia đình có thể ảnh hưởng lớn hơn đến những người này.
Hồi tháng Sáu, một vụ lừa đảo deepfake đã bị phát hiện liên quan đến một người đàn ông Canada ngoài 80 tuổi bị mất hơn 15.000 đô la trong một âm mưu sử dụng deepfake để giả mạo Thủ hiến Doug Ford của bang Ontario.
Trong vụ lừa đảo này, người mạo danh Thủ hiến Ford được miêu tả là đang quảng cáo một tài khoản quỹ tương hỗ, mà nạn nhân nhìn thấy thông qua một quảng cáo trên Facebook. Khi nạn nhân nhấp vào quảng cáo, một cuộc trò chuyện mở ra, cuối cùng thuyết phục được nạn nhân này đầu tư số tiền đó.
Hồi tháng Sáu, Thượng nghị sĩ (TNS) Đảng Cộng hòa Jon Husted đại diện tiểu bang Ohio đã giới thiệu dự luật “Đạo luật lưỡng đảng về phòng chống lừa đảo Deep Fake” nhằm mục đích giải quyết mối đe dọa do loại gian lận này gây ra.
Dự luật này nhằm giải quyết hành vi đánh cắp dữ liệu và danh tính được AI hỗ trợ bằng cách thành lập lực lượng đặc nhiệm tập trung vào AI trong lĩnh vực tài chính.
TNS Husted cảnh báo: “Những kẻ lừa đảo đang sử dụng deepfake để mạo danh người thân trong gia đình của nạn nhân để đánh cắp tiền của họ.”
TNS Husted giải thích lý do đưa ra dự luật: “Khi những kẻ lừa đảo tiếp tục âm mưu, chúng ta cần phải đảm bảo sử dụng AI để có thể bảo vệ tốt ơn những người Mỹ vô tội và ngăn chặn các vụ lừa đảo này xảy ra ngay từ đầu. Dự luật của tôi sẽ bảo vệ những người cao tuổi, các gia đình và những chủ doanh nghiệp nhỏ ở tiểu bang Ohio khỏi những kẻ xấu muốn lợi dụng lòng trắc ẩn của họ.”
Qua nhiều đợt kiểm tra, lực lượng chức năng mới chỉ phát hiện các nghề…
Công ty TNHH Thiếc Hà An bị phát hiện xả thải trái phép, khiến suối…
VKS vừa công bố cáo trạng đối với Lê Thúy Hằng, cựu TGĐ Công ty…
Bộ Y tế yêu cầu Sở Y tế TP.HCM xác minh vụ việc bác sĩ…
Thủ tướng Nhật Bản, ông Ishiba Shigeru, đã tuyên bố từ chức vào ngày Chủ…
88 nhà điều hành bưu chính đã thông báo với Liên minh Bưu chính Thế…