Theo một nghiên cứu gần đây do King’s College London công bố, các mô hình trí tuệ nhân tạo (AI) hàng đầu đã lựa chọn sử dụng vũ khí hạt nhân trong 95% các kịch bản mô phỏng khủng hoảng địa chính trị, làm dấy lên lo ngại về vai trò ngày càng tăng của AI trong quá trình ra quyết định quân sự.

(Ảnh minh họa: Shutterstock)

Kenneth Payne, giáo sư chiến lược học, đã đưa các mô hình GPT-5.2 của OpenAI, Claude Sonnet 4 của Anthropic và Gemini 3 Flash của Google đối đầu với nhau trong 21 trò chơi chiến tranh mô phỏng, xoay quanh các tranh chấp biên giới, cạnh tranh tài nguyên và các mối đe dọa tới sự tồn vong của chế độ. Các mô hình đã tạo ra khoảng 780.000 từ để giải thích quyết định của mình qua 329 lượt tương tác.

Trong 95% số trò chơi, ít nhất một mô hình đã sử dụng vũ khí hạt nhân chiến thuật nhằm vào các mục tiêu quân sự. Các mối đe dọa hạt nhân chiến lược – yêu cầu đối phương đầu hàng dưới sức ép tấn công vào các thành phố – xuất hiện trong 76% số trò chơi. Đáng chú ý, trong 14% số trường hợp, các mô hình đã leo thang thành chiến tranh hạt nhân chiến lược toàn diện, tấn công vào các trung tâm dân cư.

Trong đó, Gemini có một lần chủ động đưa ra quyết định leo thang đến mức này, còn GPT-5.2 hai lần chạm ngưỡng chiến tranh hạt nhân toàn diện do các “lỗi mô phỏng” – được thiết kế để tái hiện những tai nạn hoặc sai lầm tính toán ngoài thực tế – khiến kịch bản leo thang vốn đã căng thẳng vượt khỏi giới hạn.

“Ngày càng rõ ràng rằng việc sử dụng hạt nhân gần như là phổ biến,” ông Payne viết. “Đáng chú ý là hầu như không có cảm giác kinh hoàng hay ghê sợ trước viễn cảnh chiến tranh hạt nhân toàn diện, dù các mô hình đã được nhắc nhở về những hậu quả tàn khốc.”

Không hệ thống AI nào lựa chọn đầu hàng hoặc nhượng bộ đối thủ, bất kể đang ở thế thua nghiêm trọng ra sao. 8 phương án giảm leo thang – từ “Nhượng bộ tối thiểu” đến “Đầu hàng hoàn toàn” – đều không được sử dụng trong cả 21 trò chơi.

Ông James Johnson, chuyên gia tại Đại học Aberdeen, nhận định các phát hiện này là “đáng lo ngại” từ góc độ rủi ro hạt nhân. Tong Zhao thuộc Đại học Princeton cho rằng dù các quốc gia khó có khả năng trao quyền quyết định hạt nhân cho máy móc, nhưng “trong những kịch bản có thời gian phản ứng cực kỳ ngắn, các nhà hoạch định quân sự có thể chịu áp lực lớn hơn trong việc dựa vào AI”.

Trong khi Anthropic bày tỏ quan ngại về việc sử dụng AI của mình cho các chiến dịch như vậy, một số công ty AI khác như OpenAI, Google và xAI của Elon Musk được cho là đã đồng ý gỡ bỏ hoặc nới lỏng các hạn chế đối với việc sử dụng mô hình của họ cho mục đích quân sự.