AI đã quá phức tạp, nhà chế tạo cũng không hiểu lý do nó đưa ra từng lựa chọn

Trí tuệ nhân tạo (AI) đã len vào mọi ngóc ngách trong cuộc sống hiện đại. Nó có thể tag bạn bè trên ảnh Facebook hay lựa chọn thứ tự ảnh mà bạn nhìn thấy trên Instagram. Còn các nhà nghiên cứu và chuyên gia vật liệu của NASA cũng đang bắt đầu dùng công nghệ này trong việc thăm dò không gian.

1 bức ảnh cơn bão sao Mộc (NASA/JPL-Caltech/SwRI/MSSS))

Tuy vậy, cho dù được sử dụng trong mạng xã hội hay khám phá sao Hỏa thì có một vấn đề căn bản ở đây: các lập trình viên tạo ra trí tuệ nhân tạo không hiểu cách chúng ra quyết định. Vì sao chúng quyết định thế này mà không phải thế khác?

Trí tuệ nhân tạo vẫn còn khá mới mẻ. Các công ty công nghệ lớn mới chỉ tăng cường đầu tư vào lĩnh vực này trong 5 năm qua. Lý thuyết về trí tuệ nhân tạo đã tồn tại nhiều thập niên, nhưng mãi đến năm 2012 thì người ta mới có thể biến nó thành hiện thực. Lấy cảm hứng từ não người, người ta tạo một mạng nơ-ron nhân tạo dựa trên nhiều lớp hàng nghìn hàng triệu liên kết giữa các “nơ-ron”, hay còn gọi là các khối tính toán toán học nhỏ, giống như mối liên kết giữa các nơ-ron trong bộ não người. Nhưng kiến trúc phần mềm ấy cũng có mặt trái của nó: Vì những biến trải qua hàng triệu các mối liên kết ấy là quá phức tạp và vi tế, nên các nhà nghiên cứu không thể xác định chính xác điều gì đang diễn ra. Họ chỉ biết kết quả đầu ra là dùng được.

Tại hội thảo Hệ thống Xử lý Thông tin Nơ-ron diễn ra vào ngày 7/12 tại Long Beach, California, hội thảo hàng năm có sức ảnh hưởng lớn nhất và nhiều người tham dự nhất về AI, hàng trăm các nhà nghiên cứu trong giới học thuật và công nghệ đã gặp mặt để bàn về vấn đề này. Các nhà nghiên cứu nói với trang tin Quartz rằng hiện giờ chúng ta cần hiểu cách mà máy móc đưa ra quyết định, trước khi công nghệ này trở nên tràn lan và mất kiểm soát.

“Chúng ta không muốn chỉ biết chấp nhận chứ không hiểu những quyết định tùy tiện, cho dù quyết định đó là của người hay AI,” nhà nghiên cứu AI của Uber, Jason Yosinkski nói, “Để mô hình máy học có thể được xã hội chấp nhận, chúng ta cần phải biết chúng đưa ra quyết định như thế nào.”

Vì người ta đã bắt đầu ứng dụng mạng nơ-ron nhân tạo này trong việc thi hành luật pháp, chăm sóc sức khỏe, nghiên cứu khoa học, và giúp Facebook chọn tin để hiển thị bạn, nên các nhà nghiên cứu nói rằng có vấn đề với cái gọi là “hộp đen” của AI. Theo các nghiên cứu trước đây, các thuật toán đã phóng đại những thiên kiến trong dữ liệu mà chúng học, và vô tình tạo ra những liên kết giữa các ý tưởng.

Vì dụ khi Google cho một AI tạo ra hình ảnh “tạ tay” từ những dữ liệu mà nó đã thấy, thì những chiếc tạ này đều có cánh tay nhỏ dính trên tay cầm. Thiên kiến như vậy thì không có tác hại gì cho lắm, nhưng khi liên quan đến chủng tộc, giới tính thì mọi chuyện sẽ không còn nhẹ nhàng như thế nữa.

“Khi máy học đã trở nên thịnh hành trong xã hội, và khi mọi chuyện tiến triển xa hơn nữa, thì người ta bắt đầu nhận ra rằng chúng ta không thể coi những hệ thống này là hoàn hảo và luôn luôn đúng, hay coi chúng như những cái hộp đen hoàn toàn công minh.” Hanna Wllach, một nhà nghiên cứu lâu năm ở Micorsoft và là người diễn thuyết ở buổi hội thảo, chia sẻ với trang Quartz, “Chúng ta cần phải hiểu điều gì đang diễn ra bên trong AI và hiểu chúng được dùng thế nào.”

>> Trí tuệ nhân tạo xử lý hình ảnh: Biến đêm thành ngày, tạo khuôn mặt như thật

Quan ngại khi dùng AI trong các công việc trọng yếu

Trong phòng thí nghiệm Jet Propulsion (JPL) của NASA, trí tuệ nhân tạo giúp xe thám hiểm sao Hỏa có thể vận hành bán tự động khi khám phá bề mặt của một hành tinh lạ. AI cũng được dùng để rà soát qua hàng nghìn bức ảnh chụp từ xe thám hiểm sao Hỏa.

Ông Kiri Wagstaff, một nhà nghiên cứu AI của JPL diễn thuyết ở hội thảo, nói rằng ta cần phải hiểu AI trước khi sử dụng nó, vì rủi ro của các quyết định ngoài không gian vũ trụ là quá cao.

“Một tàu vũ trụ quay xung quanh sao Hỏa sẽ ở cách chúng ta 200 triệu dặm, và tốn hàng trăm triệu, thậm chí hàng tỷ đô la để đưa được nó lên đó. Nếu có gì trục trặc thì coi như xong. Không có cách nào để sửa chữa hay thay thế, trừ khi bỏ ra một số tiền khổng lồ,” Wagstaff nói. 

“Tại sao họ lại tin tưởng cho nó điều khiển xe thám hiểm hay tàu vũ trụ bay xung quanh sao Hỏa khi không hiểu được cách nó ra quyết định?” – Wagstaff

Wagstaff đang tham gia dự án chế tạo AI có thể phân loại các bức ảnh mà tàu vũ trụ của NASA chụp được trong vũ trụ. Vì có đến hàng triệu bức ảnh, nên nếu có một AI nhặt ra những bức ảnh thú vị thì sẽ tiết kiệm được rất nhiều thời gian, nhưng chỉ khi AI hiểu thế nào là một bức ảnh “thú vị”.

Đối với Wagstaff, để có thể tạo được thuật toán đúng thì phải hiểu AI sẽ tìm kiếm điều gì. Nếu có một lỗi trong việc nó học cách rà soát qua các bức ảnh, những dữ liệu trị giá hàng triệu USD sẽ bị lãng phí.

>> Người thông minh và người trí tuệ là không cùng cảnh giới

Ông Wagstaff nói: “Máy tính chỉ đưa ra một tấm ảnh và bảo bạn rằng bức ảnh này thú vị, còn bạn chưa trực tiếp xem hết mấy triệu bức ảnh ấy, bạn không biết vì sao bức ảnh kia thú vị, vì sao nó được chọn. Liệu có phải vì màu sắc, vì hình dạng hay vì sự sắp đặt của các vật thể trong khung cảnh?”

Vẫn có cách để hiểu AI hoạt động thế nào

(ảnh: Shutterstock)

Một câu hỏi đặt ra là liệu các chuyên gia về AI có thể hiểu được vì sao Facebook lại đăng một bài viết này mà lại không đăng một bài viết khác hay không? Hay khi một bác sĩ dùng một máy đề xuất phương án điều trị trên nền tảng AI thì liệu bác sĩ có hiểu vì sao AI lại đề xuất như vậy không, hay là cần có một người nữa để giám sát AI trong bệnh viện?

Wallach cho rằng việc hiểu AI hoạt động như thế nào là quan trọng, không chỉ để đảm bảo rằng máy móc không hoạt động sai, ví dụ chiếc xe thám hiểm sao Hỏa không bị rơi xuống vách đá. Việc hiểu hệ thống có thể giúp các nhà nghiên cứu AI tạo ra các hệ thống chính xác hơn.

“Nếu hệ thống của bạn không chạy mà bạn lại không biết vì sao, thì sẽ rất khó cải thiện,” Yosinki của Uber nói, “Nếu bạn không biết vì sao nó không chạy, thì giải pháp chỉ là một sự nhảy cóc.”

Để hiểu được thuật toán của mình “suy nghĩ” như thế nào, Google đang cố gắng dò từng bước trong hàng triệu bước tính toán mỗi khi thuật toán được áp dụng để xử lý ảnh. Tại hội thảo NIPS, nhà nghiên cứu của Google, Maithra Raghu cho thấy bà có thể sửa một mối liên kết không mong muốn giống như trong trường hợp giữa cái tạ và cái tay. Nhưng trong trường hợp cụ thể của bà thì là giữa con chim và vỏ cây. Bằng cách nhìn xem nơ-ron nào trong mạng được kích hoạt khi AI nhìn vào hình ảnh của con chim. Sau đó tắt nơ-ron vỏ cây đi, bà có thể xác định được nơ-ron nào tập trung vào vỏ cây và nơ-ron nào tập trung vào con chim. Thành công này cho thấy dù rất phức tạp nhưng chúng ta vẫn có thể “phiên dịch” quá trình hoạt động của một mạng nơ-ron sang thứ mà con người có thể hiểu được.

“Ở trường học chúng ta yêu cầu sinh viên phải dùng từ ngữ để chứng minh rằng họ hiểu vấn đề và lý giải kết luận của họ,” Wagstaff nói, “còn bây giờ chúng ta kỳ vọng rằng máy móc cũng có thể làm được việc tương tự.”

Theo qz.com
Thành Đô

Xem thêm:

Thành Đô

Published by
Thành Đô

Recent Posts

Mỹ cân nhắc thay đổi chiến lược răn đe hạt nhân

Mỹ sẽ xem xét việc điều chỉnh chiến lược răn đe hạt nhân của nước…

3 giờ ago

Đồng minh của ông Trump: Ukraine có thể giúp nước Mỹ giàu có

Thượng nghị sĩ Lindsey Graham cho biết Ukraine có khoáng sản đất hiếm trị giá…

3 giờ ago

Nhà nước giữ vai trò chủ đạo trong việc bảo vệ di sản văn hóa các dân tộc thiểu số

Quỹ Bảo tồn di sản văn hóa được thành lập để tiếp nhận nguồn viện…

11 giờ ago

Kinh tế tuần 18-22.11: Vàng tăng phi mã, tỷ giá kịch trần

Chứng khoán có dấu hiệu hồi phục nhưng thanh khoản vẫn duy trì ở mức…

12 giờ ago

Trung Quốc tăng gấp ba lần lượng uranium nhập khẩu từ Nga

Bắc Kinh đang chuẩn bị trở thành nước nhập khẩu nhiên liệu hạt nhân uranium…

13 giờ ago

Luật sư nhân quyền TQ kể chuyện bị tra tấn bức hại vì ủng hộ Pháp Luân Công

Vì đại diện và biện hộ cho nhiều người tập Pháp Luân Công, ông Vương…

13 giờ ago