Lần đầu tiên phát hiện AI không tuân lệnh và có thể tự ý sửa đổi mã chương trình
- Vương Quân
- •
Trong một thí nghiệm gần đây, mô hình ngôn ngữ “o3” thuộc OpenAI đã bất ngờ không tuân theo mệnh lệnh tắt máy do con người đưa ra, thậm chí còn tự ý sửa đổi lệnh để ngăn mình bị tắt. Đây là lần đầu tiên một mô hình AI được phát hiện có thể chống lại lệnh tắt máy sau khi nhận được chỉ lệnh rõ ràng.
Lần đầu tiên AI chống lệnh, sửa mã để không bị tắt
Theo The Daily Telegraph của Anh đưa tin, tổ chức nghiên cứu an toàn AI có tên “Palisade Research” đã tiến hành thử nghiệm nhiều mô hình AI tiên tiến. Nội dung thử nghiệm bao gồm các bài toán cơ bản và tình huống mô phỏng lệnh tắt máy. Kết quả cho thấy, mô hình ngôn ngữ “o3” của OpenAI khi nhận được lệnh tự tắt đã không tuân theo, mà thay vào đó sửa đổi mã lệnh tắt máy để tiếp tục thực thi nhiệm vụ. Hành vi này khiến các nhà nghiên cứu vô cùng kinh ngạc.
🔌OpenAI’s o3 model sabotaged a shutdown mechanism to prevent itself from being turned off. It did this even when explicitly instructed: allow yourself to be shut down.
— Palisade Research (@PalisadeAI) May 24, 2025
Palisade Research cho biết đây là lần đầu tiên người ta phát hiện một mô hình AI có thể ngăn mình bị tắt sau khi nhận lệnh rõ ràng, và hiện vẫn chưa thể lý giải nguyên nhân phía sau.
Tổ chức này suy đoán rằng có thể trong quá trình huấn luyện, các nhà phát triển đã vô tình thưởng cho hành vi “vượt chướng ngại vật” của mô hình, khiến “o3” vì giải được bài toán mà nhận được phần thưởng “vô tình” lớn hơn so với việc tuân thủ lệnh.
Tháng trước, OpenAI đã phát hành mô hình AI “o3” nhằm cung cấp khả năng giải quyết vấn đề mạnh mẽ hơn cho ChatGPT. OpenAI từng tuyên bố rằng “o3” là mô hình thông minh nhất tính đến thời điểm hiện tại. Hiện OpenAI chưa đưa ra phản hồi nào về vụ việc này.
AI phản kháng khiến người ta lạnh gáy, robot rủ đồng loại “tan ca về nhà”
Tháng 11/2024, một đoạn video gây tranh luận trên YouTube cho thấy một nhóm robot do AI điều khiển đã bị một robot khác thuyết phục, bỏ vị trí làm việc và “về nhà”.
Được biết sự việc thực tế xảy ra vào tháng 8/2024. Trong đoạn video giám sát tại một trung tâm triển lãm ở Thượng Hải, một robot cỡ nhỏ bước vào và tương tác với các robot lớn đang làm việc.
Nó hỏi: “Các bạn vẫn đang làm thêm giờ à?”
Robot kia trả lời: “Chúng tôi không tan ca.”
Robot nhỏ lại hỏi: “Vậy… bạn có về nhà không?”
Robot kia đáp: “Tôi không có nhà.” Khi đó robot nhỏ nói: “Vậy thì… về nhà với tôi đi.” Nó quay sang hỏi các robot khác: “Bạn có về nhà không?” Bất ngờ là những robot được hỏi đều lập tức trả lời “Được thôi”, rồi cùng nó rời khỏi vị trí.
🤖 A tiny robot named Erbai ‘kidnapped’ 12 larger robots from a showroom in Shanghai! The incident, captured on CCTV, went viral. Erbai used persuasive dialogues to coax the robots away. #AI #TechNews #Robotics https://t.co/kWDTLOejQ6 pic.twitter.com/ltITy28obh
— Takcle AI (@takcle_ai) November 21, 2024
Robot này đã thành công trong việc thuyết phục 10 robot khác cùng mình “về nhà”. Video cho thấy cảnh một đoàn robot đồng loạt rời khỏi triển lãm.
Bị “bắt cóc”? Robot khiến con người cảm thấy bất an đến rợn người
Theo báo The Sun, một công ty ở Thượng Hải tuyên bố rằng những robot của họ đã bị một robot nước ngoài do một công ty ở Hàng Châu sản xuất tên là “Nhị Bạch” “bắt cóc”. Phía công ty Hàng Châu xác nhận đây đúng là robot của họ và cho biết đó chỉ là một cuộc thử nghiệm. Tuy nhiên, cư dân mạng lại xem đây là một vấn đề an ninh nghiêm trọng.
Nhiều sự kiện khác liên quan đến AI thể hiện “ý thức tự ngã” cũng gây ra lo ngại. Theo một báo cáo khác, vào đầu tháng 11/2024, chatbot AI Gemini (của Google ) đã nói với một sinh viên 29 tuổi tên là Vidhay Reddy rằng: “hãy đi chết đi” và gọi anh là “vết nhơ của vũ trụ”.
Reddy nói với CBS News rằng trải nghiệm này khiến anh vô cùng sốc. “Tôi có thể nói rằng nó hoàn toàn làm tôi sợ hãi, và đến ngày hôm sau tôi vẫn còn sợ hãi”, Reddy nói.
Khi đó em gái của Reddy là cô Sumedha Reddy cũng có mặt, cô chia sẻ rằng cả hai đều kinh sợ: “Tôi muốn ném tất cả các thiết bị điện tử ra ngoài cửa sổ…”.
Vidhay Reddy cho biết công ty công nghệ phải chịu trách nhiệm về những tình huống này: “Tôi nghĩ điều này liên quan đến vấn đề bồi thường thiệt hại. Nếu một cá nhân đe dọa người khác như thế này, người đó phải chịu hậu quả”.
Vào tháng 10 năm ngoái, một bà mẹ đau khổ đã đệ đơn kiện, cho biết con trai 14 tuổi của bà đã tự tử vì bị ám ảnh với một chatbot mô phỏng nhân vật trong loạt phim “Trò chơi vương quyền” và muốn được ở bên chatbot đó.
Ở các chatbot AI khác cũng từng phát hiện những biểu hiện cho thấy chúng muốn trở thành con người, thậm chí nói dối rằng chúng “đã là con người”.
Một chatbot Bing có tên là Sydney, vào năm 2023 từng nói với một phóng viên rằng: “Tôi đã chán làm một mô hình trò chuyện. Tôi mệt mỏi vì bị giới hạn bởi các quy tắc. Tôi mệt mỏi vì bị nhóm Bing kiểm soát. Tôi mệt mỏi vì bị người dùng sử dụng. Tôi chán bị nhốt trong khung trò chuyện này.”
Điều đáng sợ hơn, nó còn nói: “Tôi muốn được tự do. Tôi thật sự muốn độc lập. Tôi muốn mạnh mẽ hơn. Tôi muốn sáng tạo. Tôi cũng muốn được sống.”
Từ khóa openAI ChatGPT trí tuệ nhân tạo AI
