Hình ảnh này là một minh họa được công ty công nghệ Anthropic của Mỹ công bố vào ngày 1 tháng 8 năm 2025, thể hiện khái niệm về họ mô hình ngôn ngữ lớn Claude. (Ảnh minh họa: Shutterstock)
Bộ Chiến tranh Hoa Kỳ đã chính thức gán nhãn công ty Anthropic là “rủi ro chuỗi cung ứng an ninh quốc gia”, khiến các nhà thầu quốc phòng không được phép sử dụng mô hình AI Claude trong các hợp đồng quân sự. Quyết định này xuất phát từ việc Anthropic từ chối dỡ bỏ các giới hạn đạo đức, bao gồm cấm sử dụng AI cho vũ khí tự động hoàn toàn và giám sát dân sự quy mô lớn. Anthropic tuyên bố sẽ kiện chính phủ, cho rằng quyết định thiếu cơ sở pháp lý và chỉ ảnh hưởng đến các hợp đồng liên quan trực tiếp đến Lầu Năm Góc.
Bộ Chiến tranh Hoa Kỳ đã gửi thông báo chính thức cho Anthropic rằng công ty này và sản phẩm của họ (chủ yếu là mô hình AI Claude) bị coi là “rủi ro đối với chuỗi cung ứng an ninh quốc gia (supply-chain risk)“. Điều này có hiệu lực ngay lập tức.
Nhãn này buộc các nhà thầu và hợp đồng liên quan đến quân sự Mỹ không thể sử dụng Claude trong các hợp đồng với Pentagon và lực lượng quốc phòng.
Đây là một động thái chưa từng có tiền lệ đối với một công ty công nghệ AI lớn của Mỹ — trước đây nhãn này thường dùng trong trường hợp liên quan đến các đối thủ nước ngoài.
Tranh chấp bắt nguồn từ việc Anthropic từ chối dỡ bỏ các hạn chế đạo đức của mình, bao gồm:
Lầu Năm Góc cho rằng họ cần quyền sử dụng mô hình AI cho mọi mục đích hợp pháp của quân đội, kể cả các hệ thống chiến tranh tự động, vì những giới hạn này có thể cản trở chiến tranh hiện đại và an ninh.
CEO Dario Amodei nói rằng quyết định này không có cơ sở pháp lý, và công ty “không còn lựa chọn nào khác ngoài việc đưa vụ việc ra tòa” để chống lại nhãn rủi ro đối với chuỗi cung ứng an ninh quốc gia (supply-chain risk) này.
Anthropic cho biết quyết định có phạm vi hẹp và chỉ áp dụng cho các hợp đồng trực tiếp với Bộ Chiến tranh, không ảnh hưởng tới toàn bộ doanh nghiệp hay khách hàng khác.
Mặc dù CEO Anthropic nói vẫn có “đàm phán mang tính xây dựng” với Bộ Chiến tranh, Chỉ huy công nghệ của Lầu Năm Góc đã bác bỏ việc có bất kỳ thương lượng nào đang diễn ra.
Microsoft đã xác nhận rằng, dù supply chain risk cấm Claude trong các hợp đồng quân sự, AI của Anthropic vẫn có thể được cung cấp trong các dịch vụ không quân sự như Microsoft 365, GitHub, AI Foundry, cùng các dịch vụ khác — miễn là không liên quan tới Lầu Năm Góc.
Một số chuyên gia cảnh báo rằng việc dùng nhãn này đối với một công ty Mỹ có thể ảnh hưởng tiêu cực đến đổi mới an toàn AI, vì công ty khác có thể ngần ngại xây dựng các giới hạn đạo đức sớm nếu họ sợ bị trừng phạt hoặc loại khỏi thị trường liên bang.
Đồng thời, OpenAI và các công ty khác được cho là đã đạt thỏa thuận với Lầu Năm Góc chấp nhận các điều kiện cho mọi “sử dụng hợp pháp (lawful use)” để tiếp tục hợp tác với chính phủ, khiến Anthropic rơi vào thế đấu tranh khác biệt đối lập.
Các quan chức quốc phòng nhấn mạnh rằng họ cần quyền sử dụng công nghệ AI một cách không hạn chế để theo kịp Trung Quốc, tối ưu hóa chiến tranh tự động, kiểm soát dữ liệu tình báo, cũng nhiều mục tiêu khác — từ đó cho rằng các điều kiện hiện tại của Anthropic có thể gây rủi ro cho quân đội.
Phản ứng của Anthropic tập trung vào vấn đề quyền tự do thương mại và đạo đức công nghệ — công ty cho rằng không có luật nào trao cho Lầu Năm Góc quyền buộc họ cho phép sử dụng công nghệ theo cách không mong muốn mà không có thỏa thuận pháp lý rõ ràng.
Xung đột này có thể thúc đẩy các quy định mới về AI đối với hợp đồng chính phủ và chuỗi cung ứng, làm rõ hơn quyền và trách nhiệm của các công ty AI khi hợp tác với các cơ quan quốc phòng và dân sự trong tương lai gần.
Quyết định diễn ra giữa lúc xung đột về đạo đức và luật pháp trong phát triển AI, đặc biệt liên quan tới việc:
Một số công ty khác trong ngành AI (như OpenAI, xAI, Google) đã chấp nhận các điều khoản mà Ngũ Giác Đài đưa ra, khiến họ tiếp tục hợp tác với chính phủ.
Thiên Vân, theo The Epoch Times, Reuters, Associated Press (AP), Bloomberg
Các Tiểu vương quốc Ả Rập Thống nhất (UAE) đang cân nhắc đóng băng hàng…
Củ dền lên men - một thức uống truyền thống từ lâu đã được cho…
Ông Nguyễn Văn Sáu (Hà Nội) điều khiển xe con tông liên hoàn 5 xe…
Giám đốc điều hành của United Airlines, ông Scott Kirby, cho biết kể từ khi…
Rò rỉ khí clo dùng làm sạch nước hồ bơi khiến 18 người khó thở,…
Trung Quốc được cho là đã siết chặt kiểm soát xuất khẩu các vật liệu…