LHQ cảnh báo trí tuệ nhân tạo gây ra mối đe dọa “tiêu cực, thảm hoạ” cho nhân quyền
- Ngân Hà
- •
Liên Hợp Quốc đã cảnh báo rằng các hệ thống trí tuệ nhân tạo (AI) có thể gây ra mối đe doạ “tiêu cực, thậm chí là thảm hoạ” đối với quyền con người và kêu gọi cấm sử dụng các ứng dụng trí tuệ nhân tạo không tôn trọng quyền con người.
Người đứng đầu tổ chức nhân quyền Liên Hợp Quốc Michelle Bachelet hôm 15/9 đã thúc giục các quốc gia thành viên ban hành lệnh cấm tạm thời việc mua bán và sử dụng AI tới khi giải quyết được những rủi ro tiềm ẩn do nó gây ra và thiết lập được các biện pháp bảo vệ thích đáng để bảo đảm công nghệ này sẽ không bị lạm dụng.
“Chúng ta không thể cứ xoay chuyển quanh AI, cho phép sử dụng AI gần như không có giới hạn nào … [rồi sau đó lại phải đi] xử lý những hậu quả hầu như không thể tránh khỏi đối với quyền con người,” bà Bachelet tuyên bố.
“Sức mạnh của AI trong việc phục vụ con người là không thể phủ nhận, nhưng đồng thời khả năng AI vi phạm quyền con người trên quy mô rộng lớn cũng gần như có thể thấy được. Hành động cấp thiết hiện nay là đặt rào chắn an toàn cho quyền con người trong việc sử dụng AI, vì lợi ích của tất cả chúng ta,” người đứng đầu tổ chức nhân quyền nói thêm.
Bà đưa ra nhận xét này gần như ngay sau khi tổ chức LHQ công bố một báo cáo phân tích cách AI tác động đến quyền riêng tư của con người, cũng như một loạt các quyền khác liên quan đến y tế, giáo dục, tự do đi lại, tự do ngôn luận v.v.
Trong khi báo cáo ghi nhận rằng AI có thể được sử dụng cho mục đích tốt đẹp, và có thể giúp “xã hội vượt qua một số thách thức lớn của thời đại chúng ta,” việc sử dụng nó như một công cụ dự đoán và tra xét thông tin cá nhân có thể tác động nghiêm trọng “đến quyền riêng tư, quyền được xét xử công bằng, quyền không bị bắt bớ và giam cầm tuỳ tiện và quyền được sống.”
Theo báo cáo, nhiều tiểu bang và doanh nghiệp thường không thực hiện việc giải trình trong khi vội vã tích hợp các ứng dụng AI, và trong một số trường hợp nó đưa đến những sai lầm nghiêm trọng. Một số người được báo cáo bị ngược đãi, thậm chí bị bắt giữ vì phần mềm nhận dạng khuôn mặt bị lỗi.
Trong khi đó, việc nhận dạng khuôn mặt có khả năng cho phép theo dõi không giới hạn các cá nhân, điều này có thể dẫn đến một loạt các vấn đề về kỳ thị và bảo vệ dữ liệu.
Vì nhiều hệ thống AI phụ thuộc vào các tập dữ liệu lớn, những vấn đề xung quanh cách lưu trữ lâu dài các dữ liệu này cũng đem đến rủi ro, và có nhiều khả năng các dữ liệu như vậy bị khai thác trong tương lai, có thể gây ra những rủi ro nghiêm trọng cho an ninh quốc gia.
Tim Engelhardt, một quan chức về nhân quyền tại Bộ phận Pháp trị và Dân chủ, cảnh báo rằng tình hình hiện ở mức “kinh khủng” và theo thời gian nó sẽ ngày càng trở nên tồi tệ hơn khi một số nước và doanh nghiệp áp dụng các ứng dụng AI mà không nghiên cứu kỹ càng về những rủi ro tiềm ẩn liên quan tới công nghệ này.
Trong khi hoan nghênh thỏa thuận của EU nhằm “tăng cường các quy tắc về kiểm soát,” ông ghi nhận rằng trong năm tới sẽ chưa đưa ra được giải pháp cho vô số vấn đề xung quanh AI và rằng những bước đầu tiên để giải quyết các vấn đề này cần được thực hiện ngay bây giờ hoặc “nhiều người trên thế giới sẽ phải trả giá đắt.”
Bà Bachelet bổ sung, “Rủi ro đối với nhân quyền càng cao, yêu cầu pháp lý đối với việc sử dụng công nghệ AI càng phải chặt chẽ hơn”.
Báo cáo này và bình luận của bà Bachelet được đưa ra sau công bố hồi tháng Bảy rằng phần mềm gián điệp, gọi là Pegasus, đã được sử dụng để chiếm dữ liệu của hàng nghìn điện thoại thông minh của nhiều người trên khắp thế giới, bao gồm các nhà báo, quan chức chính phủ và các nhà hoạt động nhân quyền.
Điện thoại của Bộ trưởng Tài chính Pháp Bruno Le Maire chỉ là một trong nhiều điện thoại đang được điều tra do bị trộm dữ liệu thông qua phần mềm gián điệp được phát triển bởi Tập đoàn NSO của Israel.
Tập đoàn NSO tuyên bố rằng công ty sẽ “tiếp tục cung cấp cho các cơ quan tình báo và thực thi pháp luật khắp thế giới các công nghệ cứu sinh để đấu tranh chống khủng bố và tội phạm.”
Phát biểu tại phiên điều trần của Hội đồng Châu Âu về những cáo buộc quanh phần mềm gián điệp Pegasus, bà Bachelet nói rằng những tiết lộ này không gây ngạc nhiên, vì “mức độ giám sát của các các nhân tố nhà nước và tư nhân trên toàn cầu là không thể tin được.”
Ngân Hà dịch (theo Epoch Times)
Xem thêm:
Từ khóa trí tuệ nhân tạo nguy cơ của trí tuệ nhân tạo