Mặt nạ 3D dễ dàng đánh lừa hệ thống nhận diện khuôn mặt, gây quan ngại

Công nghệ nhận diện khuôn mặt được một số hãng quảng cáo như một bước tiến công nghệ cao cấp. Nhưng có người chỉ dùng mặt nạ và hình ảnh đơn giản là đã đủ để đánh lừa một số công nghệ nhận dạng khuôn mặt, qua đó làm dấy lên mối quan ngại về tính bảo mật.

Mặt nạ 3D có thể đánh lừa hệ thống nhận diện khuôn mặt. (Ảnh: Kneron)

Công ty trí tuệ nhân tạo Kneron (trụ sở tại California, Mỹ) mới đây đã tiến hành một thử nghiệm đánh lừa những thiết bị nhận dạng khuôn mặt đầu cuối để cho phép thanh toán hoặc truy cập. Ví dụ, trong các cửa hàng ở châu Á, nơi công nghệ nhận dạng khuôn mặt được triển khai rộng rãi, nhóm của Kneron đã sử dụng mặt nạ 3D chất lượng cao để đánh lừa hệ thống thanh toán AliPay và WeChat, qua đó thực hiện giao dịch mua bán thành công thông qua hai cổng thanh toán này.

Các hệ thống trên cũng giống với các hệ thống có ở sân bay, trong đó sử dụng khuôn mặt của một người thay vì mã PIN hoặc dấu vân tay để xác thực danh tính của người dùng. Về mặt lý thuyết, kiểu mặt nạ như vậy có thể cho phép những kẻ lừa đảo sử dụng khuôn mặt và tài khoản ngân hàng của người khác để đi mua sắm.

>> Công nghệ giám sát người dân của Trung Quốc lan ra khắp thế giới

Đáng báo động hơn là các thử nghiệm được triển khai tại các trung tâm giao thông. Tại khu vực làm thủ tục check-in tự động ở Schiphol, sân bay lớn nhất Hà Lan, nhóm của Kneron đã đánh lừa cảm biến chỉ bằng một bức ảnh trên màn hình điện thoại. Nhóm cũng cho biết họ có thể truy cập theo cách tương tự tại các nhà ga đường sắt ở Trung Quốc, nơi người dân sử dụng công nghệ nhận dạng khuôn mặt khi đi qua cửa soát vé.

Các thử nghiệm trên đã gây mối lo ngại về nguy cơ lừa đảo tín dụng, trộm cắp danh tính và khủng bố tại thời điểm mà các cơ quan an ninh đang nghiên cứu và áp dụng rộng rãi công nghệ nhận dạng khuôn mặt như một phương pháp giám sát hiệu quả cao và tiết kiệm chi phí.

Phía đại diện sân bay Schiphol, WeChat và AliPay đã không đưa ra bất cứ bình luận nào về tính hiệu quả của công nghệ nhận dạng khuôn mặt.

Sở dĩ mặt nạ 3D có thể phát huy tác dụng bởi hệ thống nhận dạng khuôn mặt có chứa hình ảnh của người đeo mặt nạ. Tuy nhiên, Kneron thừa nhận rằng hành vi gian lận này khó có thể lan rộng vì những mặt nạ được sử dụng trong thử nghiệm trên được lấy từ các nhà sản xuất mặt nạ đặc biệt tại Nhật Bản. Dẫu vậy, Kneron lưu ý rằng công nghệ này có thể được sử dụng để đánh cắp danh tính của những người nổi tiếng hoặc giàu có.

“Thử nghiệm đã cho thấy mối đe dọa đối với quyền riêng tư của người dùng khi sử dụng hệ thống nhận diện khuôn mặt bằng công nghệ trí tuệ nhân tạo (AI).” Giám đốc điều hành của Kneron, Albert Liu cho biết. “Công nghệ hiện nay có thể khắc phục những vấn đề này nhưng để giảm chi phí đầu tư, các công ty đã không tiến hành nâng cấp, dẫn đến làm giảm tính bảo mật.”

Kneron đã tiến hành các thử nghiệm để tìm hiểu về những hạn chế của công nghệ nhận diện khuôn mặt trong khi phát triển công nghệ của riêng mình. Công ty được lãnh đạo bởi các nhà đầu tư cao cấp bao gồm Qualcomm và Sequoia Capital, đang tạo ra cái gọi là “Edge AI”, một công cụ AI nhận dạng cá nhân hoàn toàn trên các thiết bị thay vì dựa trên công nghệ đám mây.

Kneron cũng lưu ý rằng những thử nghiệm của họ không thể đánh lừa một số ứng dụng nhận dạng khuôn mặt, đặc biệt là Face ID trên iPhone X của Apple.

>> Phương pháp mới để nhận diện người biểu tình Hồng Kông của ĐCSTQ

Thử nghiệm của công ty đến vào thời điểm xuất hiện nhiều tranh luận gay gắt về cách triển khai công nghệ nhận diện khuôn mặt. Robert Hackett, cây bút làm việc cho tạp chí Fortune (Mỹ), mới đây đã viết về việc ông từ chối sử dụng công nghệ này để vào văn phòng tòa soạn tại New York, với lý do lo ngại về quyền riêng tư.

Xa hơn nữa, độ tin cậy của công nghệ nhận dạng khuôn mặt và AI cần được xem xét một cách kỹ lưỡng. Các nhà khoa học về máy tính, trong một thử nghiệm tương tự như Kneron, đã đánh lừa các cảm biến khuôn mặt bằng cách sử dụng hình ảnh từ Facebook. Trong một nghiên cứu được báo cáo rộng rãi vào năm 2017, các nhà nghiên cứu tại Viện công nghệ Massachusetts (MIT, Mỹ) đã chỉ ra cách thức mà AI của Google nhầm lẫn hình ảnh một con rùa với một khẩu súng trường.

Trong khi đó, AI cũng đã sản xuất các công cụ có thể dễ dàng tạo ra những bản sao dấu vân tay của người khác, qua đó cho thấy công nghệ bảo mật sinh trắc học cũng không an toàn như chúng ta vẫn nghĩ.

>> Sức mạnh bất ngờ của WeChat trong việc ĐCSTQ tuyên truyền ở hại ngoại

Theo Fortune,
Phan Anh dịch

Published by

Recent Posts

Biểu tình bảo vệ quyền lợi ở Trung Quốc tăng mạnh – Báo cáo của Freedom House

Các cuộc biểu tình tại Trung Quốc trong quý 3 năm nay đã tăng 27%…

10 phút ago

Ngoại trưởng Ukraine Andrey Sibiga bác bỏ khả năng nhượng bộ lãnh thổ

Ngoại trưởng Andrey Sibiga cho biết Ukraine sẽ không chấp thuận nhượng bất kỳ lãnh…

16 phút ago

Chuyện danh y thời Tống tích âm đức cải biến mệnh

Trong cuốn sách "Dũng tràng tiểu phẩm" của tác giả Chu Quốc Trinh đời nhà…

26 phút ago

Cuộc sống vốn dĩ là một vòng xoay…

Đâu đó và ngay đây, vẫn có những người với người vẫn tin và thương…

31 phút ago

Bộ Tư pháp Mỹ: Google cần bán Chrome để chấm dứt độc quyền tìm kiếm trực tuyến

Đề xuất của Bộ Tư pháp Mỹ yêu cầu Google phải bán trình duyệt Chrome…

31 phút ago

Đội hình Phalanx huyền thoại chinh phục khắp thế giới

Đội hình Phalanx gắn liền với những cuộc chinh phục của Alexander Đại Đế.

41 phút ago