Những vấn đề “ngoài tầm với” của trí tuệ nhân tạo
- Huệ Anh
- •
Hồi tháng Tư năm nay, Amazon đã sử dụng hệ thống trí tuệ nhân tạo (AI) để theo dõi hiệu quả của nhân viên, nhắc nhở nhân viên làm việc trì trệ, đồng thời tự động loại bỏ những người làm việc không hiệu quả. Cũng trong tháng Tư, một sinh viên Đại học Brown đã bị nhầm là nghi phạm trong vụ đánh bom Sri Lanka, nguyên nhân vì AI nhận diện khuôn mặt của chính quyền Sri Lanka đã sai lầm.
Những sự kiện này cho thấy rằng khi mọi người ngày càng phụ thuộc vào trí tuệ nhân tạo để ra quyết định và đưa hệ thống AI vào các vấn đề quan trọng như tư pháp, tài chính, tuyển dụng thì có thể gây ra những nguy hại khó lường. “Điều tôi lo lắng nhất là hệ thống mà chúng ta muốn dùng để giải quyết vấn đề cuối cùng có thể làm trầm trọng thêm những vấn đề này,” Kate Crawford, đồng sáng lập viên của Viện AI Now tại Đại học New York chia sẻ.
Tại sao trí tuệ nhân tạo sai lầm?
Trước đây, một trong những lý do khiến mọi người tin vào AI là AI không bị ảnh hưởng bởi cảm xúc và mệt mỏi, có thể trực tiếp phân tích các sự kiện để phán đoán chính xác. Nhưng có rất nhiều bằng chứng cho thấy AI cũng có “thiên vị” (AI bias), không phải lúc nào cũng thực tế khách quan như chúng ta tưởng tượng. Theo khảo sát, phần mềm COMPAS dùng để đánh giá rủi ro tái phạm mà một số tòa án Mỹ dùng rất hạn chế khi đánh giá người Mỹ gốc Phi, có thể đánh giá quá mức về khả năng họ tái phạm pháp. Hệ thống nhận diện khuôn mặt của các cơ quan thực thi pháp luật có tỷ lệ lỗi cao trong đánh giá nữ giới, thanh thiếu niên và người dân tộc thiểu số. Trường hợp này được gọi là “AI sai lầm”, vì sao vậy?
1. Do quá trình thiết lập trí tuệ nhân tạo
AI hoạt động chuẩn hay không là nhờ quá trình thiết lập, khi thông tin được cung cấp trong quá trình không đầy đủ, không thể phản ánh thế giới thực phức tạp, AI sẽ mắc những sai lệch. Michael Wagner, đồng sáng lập và CEO của Edge Case Research, chỉ ra rằng trong khi thiết lập AI lái xe tự động, dù máy cảm biến đã phân tích hàng ngàn hoặc hàng triệu hình ảnh cá nhân, nhưng AI vẫn bỏ qua người dùng xe lăn hoặc công nhân xây dựng mặc áo huỳnh quang, vì trong cơ sở dữ liệu thì những trường hợp này là khá hiếm hoi.
Wagner cho rằng các sản phẩm an toàn và đáng tin cậy không chỉ cần kiểm định đối với các sai lầm đã biết, còn phải cẩn thận tìm kiếm các sai lầm mới, những sai lầm này có thể không được phát hiện cho đến khi sản phẩm được sử dụng rộng rãi.
2. Trí tuệ nhân tạo bất lực trước định kiến
Chương trình AI cũng có thể “học” định kiến của con người. Khi đào tạo AI, giới chuyên môn dựa vào hàng loạt dữ liệu để tìm kiếm khuôn mẫu vô hình phục vụ phân tích thông tin. Khi những thông tin này ẩn chứa tình trạng thiên vị của con người, AI sẽ tái tạo dữ liệu liên quan đến thiên vị này. Nhưng AI khác với người thật, vì trước định kiến AI không có khả năng suy nghĩ. Cassie Kozyrkov, người phụ trách AI của Google cho biết, AI chỉ là một công cụ để thu thập dữ liệu và trình bày các mẫu, sẽ mãi mãi không bao giờ tự suy nghĩ được.
3. Trí tuệ nhân tạo Không thể xác định được giá trị trừu tượng
Một lý do khác cho những sai lầm là khi con người cố gắng dùng AI trong các quyết định liên quan đến các giá trị trừu tượng như công bằng, chính nghĩa, tin tưởng, bởi vì ý nghĩa trừu tượng không thể trình bày bằng thuật ngữ toán học, khiến phán đoán của AI trái với mong đợi của con người.
Chẳng hạn, một ngân hàng muốn dự đoán mức độ tin cậy của người xin vay tiền, “tin cậy” là một khái niệm mơ hồ. Để chuyển đổi điều này thành một thứ có thể tính toán được thì cần lượng hóa nó. Nếu mô hình cho vay thấy rằng người già có xác suất vi phạm cao hơn thì sẽ căn cứ theo độ tuổi để tính khoản cho vay, điều đó có thể gây ra sự phân biệt đối xử bất hợp pháp.
Kunal Verma, đồng sáng lập AppZen, là một nền tảng tài chính AI, cũng nói rằng nếu người nộp đơn sống ở khu vực có nhiều người khất nợ thì hệ thống có thể đánh giá họ thuộc đối tượng không đáng tin cậy.
Tranh luận về việc làm của con người
Nhiều nghiên cứu đã chỉ ra rằng việc dùng AI trong các ngành công nghiệp khác nhau có thể làm nhiều người bị mất việc làm. Trong một báo cáo vào tháng 6/2019 của Viện Nghiên cứu Kinh tế Oxford (Oxford Economics) đã dự đoán rằng, đến năm 2030, robot sẽ thay thế 8,5% công việc sản xuất trên toàn thế giới (khoảng 20 triệu việc làm). Nhân viên trong nhiều ngành công nghiệp lo lắng các kỹ năng chuyên nghiệp của họ sẽ bị AI thay thế.
Đồng thời, có nhiều người lo lắng người ta mang những vấn đề mà thuật toán không thể xử lý cho AI đánh giá. Ví dụ, Amazon đã sử dụng AI để xếp hạng những người tìm việc, nhưng sau đó thấy rằng hệ thống có xu hướng thuê những người tìm việc là nam giới, mặc dù các kỹ sư đã thực hiện điều chỉnh nhưng vẫn không thể giải quyết được, cuối cùng phải từ bỏ kế hoạch.
Nghiên cứu của Viện toàn cầu McKinsey (MGI) cho thấy, AI khó có thể đảm trách nhiệm vụ “không thể đoán trước”, “cần kiến thức hoặc kỹ năng chuyên môn sâu” và “cần tương tác quan hệ lợi ích”. Nếu cứ giao những nhiệm vụ này cho AI xử lý thì chắc chắn sẽ gây những vấn đề tệ hại.
Ví dụ như hoạt động tư pháp, thực thi pháp luật liên quan đến việc đo lường sự công bằng của tất cả các bên, hoặc trong một thời gian cực ngắn cần đánh giá về sự sống và cái chết, thuật toán AI có thể đảm trách được không? AI có thấy được nỗ lực của một người muốn sửa lỗi lầm để làm lại cuộc đời không?
Có lẽ, chúng ta phải nhớ rằng, AI không bao giờ là vạn năng, nó chỉ là một công cụ, không thể thay thế được suy nghĩ của loài người.
Huệ Anh
Xem thêm:
Từ khóa AI công nghệ trí tuệ nhân tạo trí tuệ nhân tạo