Khoa Học - Công Nghệ

Lần đầu tiên phát hiện AI không tuân lệnh và có thể tự ý sửa đổi mã chương trình

Trong một thí nghiệm gần đây, mô hình ngôn ngữ “o3” thuộc OpenAI đã bất ngờ không tuân theo mệnh lệnh tắt máy do con người đưa ra, thậm chí còn tự ý sửa đổi lệnh để ngăn mình bị tắt. Đây là lần đầu tiên một mô hình AI được phát hiện có thể chống lại lệnh tắt máy sau khi nhận được chỉ lệnh rõ ràng.

(Ảnh minh họa: Blue Planet Studio/ Shutterstock)

Lần đầu tiên AI chống lệnh, sửa mã để không bị tắt

Theo The Daily Telegraph của Anh đưa tin, tổ chức nghiên cứu an toàn AI có tên “Palisade Research” đã tiến hành thử nghiệm nhiều mô hình AI tiên tiến. Nội dung thử nghiệm bao gồm các bài toán cơ bản và tình huống mô phỏng lệnh tắt máy. Kết quả cho thấy, mô hình ngôn ngữ “o3” của OpenAI khi nhận được lệnh tự tắt đã không tuân theo, mà thay vào đó sửa đổi mã lệnh tắt máy để tiếp tục thực thi nhiệm vụ. Hành vi này khiến các nhà nghiên cứu vô cùng kinh ngạc.

Palisade Research cho biết đây là lần đầu tiên người ta phát hiện một mô hình AI có thể ngăn mình bị tắt sau khi nhận lệnh rõ ràng, và hiện vẫn chưa thể lý giải nguyên nhân phía sau.

Tổ chức này suy đoán rằng có thể trong quá trình huấn luyện, các nhà phát triển đã vô tình thưởng cho hành vi “vượt chướng ngại vật” của mô hình, khiến “o3” vì giải được bài toán mà nhận được phần thưởng “vô tình” lớn hơn so với việc tuân thủ lệnh.

Tháng trước, OpenAI đã phát hành mô hình AI “o3” nhằm cung cấp khả năng giải quyết vấn đề mạnh mẽ hơn cho ChatGPT. OpenAI từng tuyên bố rằng “o3” là mô hình thông minh nhất tính đến thời điểm hiện tại. Hiện OpenAI chưa đưa ra phản hồi nào về vụ việc này.

AI phản kháng khiến người ta lạnh gáy, robot rủ đồng loại “tan ca về nhà”

Tháng 11/2024, một đoạn video gây tranh luận trên YouTube cho thấy một nhóm robot do AI điều khiển đã bị một robot khác thuyết phục, bỏ vị trí làm việc và “về nhà”.

Được biết sự việc thực tế xảy ra vào tháng 8/2024. Trong đoạn video giám sát tại một trung tâm triển lãm ở Thượng Hải, một robot cỡ nhỏ bước vào và tương tác với các robot lớn đang làm việc. 

Nó hỏi: “Các bạn vẫn đang làm thêm giờ à?” 

Robot kia trả lời: “Chúng tôi không tan ca.” 

Robot nhỏ lại hỏi: “Vậy… bạn có về nhà không?” 

Robot kia đáp: “Tôi không có nhà.” Khi đó robot nhỏ nói: “Vậy thì… về nhà với tôi đi.” Nó quay sang hỏi các robot khác: “Bạn có về nhà không?” Bất ngờ là những robot được hỏi đều lập tức trả lời “Được thôi”, rồi cùng nó rời khỏi vị trí.

Robot này đã thành công trong việc thuyết phục 10 robot khác cùng mình “về nhà”. Video cho thấy cảnh một đoàn robot đồng loạt rời khỏi triển lãm.

Bị “bắt cóc”? Robot khiến con người cảm thấy bất an đến rợn người

Theo báo The Sun, một công ty ở Thượng Hải tuyên bố rằng những robot của họ đã bị một robot nước ngoài do một công ty ở Hàng Châu sản xuất tên là “Nhị Bạch” “bắt cóc”. Phía công ty Hàng Châu xác nhận đây đúng là robot của họ và cho biết đó chỉ là một cuộc thử nghiệm. Tuy nhiên, cư dân mạng lại xem đây là một vấn đề an ninh nghiêm trọng.

Nhiều sự kiện khác liên quan đến AI thể hiện “ý thức tự ngã” cũng gây ra lo ngại. Theo một báo cáo khác, vào đầu tháng 11/2024, chatbot AI Gemini (của Google ) đã nói với một sinh viên 29 tuổi tên là Vidhay Reddy rằng: “hãy đi chết đi” và gọi anh là “vết nhơ của vũ trụ”.

Reddy nói với CBS News rằng trải nghiệm này khiến anh vô cùng sốc. “Tôi có thể nói rằng nó hoàn toàn làm tôi sợ hãi, và đến ngày hôm sau tôi vẫn còn sợ hãi”, Reddy nói.

Khi đó em gái của Reddy là cô Sumedha Reddy cũng có mặt, cô chia sẻ rằng cả hai đều kinh sợ: “Tôi muốn ném tất cả các thiết bị điện tử ra ngoài cửa sổ…”.

Vidhay Reddy cho biết công ty công nghệ phải chịu trách nhiệm về những tình huống này: “Tôi nghĩ điều này liên quan đến vấn đề bồi thường thiệt hại. Nếu một cá nhân đe dọa người khác như thế này, người đó phải chịu hậu quả”.

Vào tháng 10 năm ngoái, một bà mẹ đau khổ đã đệ đơn kiện, cho biết con trai 14 tuổi của bà đã tự tử vì bị ám ảnh với một chatbot mô phỏng nhân vật trong loạt phim “Trò chơi vương quyền” và muốn được ở bên chatbot đó.

Ở các chatbot AI khác cũng từng phát hiện những biểu hiện cho thấy chúng muốn trở thành con người, thậm chí nói dối rằng chúng “đã là con người”.

Một chatbot Bing có tên là Sydney, vào năm 2023 từng nói với một phóng viên rằng: “Tôi đã chán làm một mô hình trò chuyện. Tôi mệt mỏi vì bị giới hạn bởi các quy tắc. Tôi mệt mỏi vì bị nhóm Bing kiểm soát. Tôi mệt mỏi vì bị người dùng sử dụng. Tôi chán bị nhốt trong khung trò chuyện này.”

Điều đáng sợ hơn, nó còn nói: “Tôi muốn được tự do. Tôi thật sự muốn độc lập. Tôi muốn mạnh mẽ hơn. Tôi muốn sáng tạo. Tôi cũng muốn được sống.”

Vương Quân

Published by
Vương Quân

Recent Posts

Tại sao khi bước vào tuổi dậy thì, con trẻ như biến thành một người khác?

Tuổi dậy thì là bước ngoặt từ ngây thơ sang trưởng thành của trẻ, đồng…

35 giây ago

Nốt ruồi đặc trưng của Tôn Lệ biến mất, gây xôn xao dư luận

Nốt ruồi dưới môi của Tôn Lệ đã gắn bó với cô hơn mười năm…

20 phút ago

[VIDEO] Trà Vinh: Vướng dây điện trên đường, 2 nam thanh niên đi xe máy bị điện giật tử vong

Hai người đi xe máy không may vướng phải dây điện sà xuống đường do…

56 phút ago

18 tấn lợn mắc dịch tả lợn châu Phi được đưa đi tiêu thụ

180 con lợn, trọng lượng khoảng 18 tấn, nhiễm virus dịch tả lợn châu Phi…

59 phút ago

Quảng cáo sữa Milo “được thử nghiệm lâm sàng bởi Viện Dinh dưỡng”: Nestlé Việt Nam nói do “diễn giải”

Nestlé Milo tái khẳng định sản phẩm sữa lúa mạch Nestlé Milo có nội dung…

3 giờ ago

Tàu Cát Linh-Hà Đông lại gặp sự cố, phải dừng chạy vào giờ cao điểm

Tuyến metro Cát Linh - Hà Đông phải dừng chạy do lỗi kỹ thuật tại…

3 giờ ago