Bộ Chiến tranh đã nộp đơn kháng cáo vào ngày 2/4 đối với phán quyết của một thẩm phán liên bang, vốn đã tạm thời ngăn chặn Lầu Năm Góc tiếp tục chỉ định công ty Anthropic là một rủi ro đối với chuỗi cung ứng.

(Ảnh: Shutterstock)

Việc định danh công ty trí tuệ nhân tạo (AI) này theo luật liên bang — được thiết kế để bảo vệ hệ thống quân sự khỏi sự phá hoại của nước ngoài — có chức năng như một danh sách đen, ngăn cản công ty giao dịch với chính phủ liên bang và các nhà thầu của chính phủ.

Đây là lần đầu tiên việc định danh rủi ro chuỗi cung ứng — vốn thường nhằm vào các nhóm khủng bố, cơ quan tình báo nước ngoài và các thực thể thù địch khác — được áp dụng cho một công ty của Hoa Kỳ. Lệnh ngăn chặn này cho phép Anthropic tiếp tục hợp tác với các cơ quan và nhà thầu liên bang trong khi vụ kiện đang được xét xử tại tòa án.

Thẩm phán Quận Hoa Kỳ Rita F. Lin tại San Francisco đã ban hành một lệnh đình chỉ tạm thời vào ngày 26/3 sau khi tổ chức một phiên điều trần 2 ngày trước đó. Thẩm phán Lin đã hoãn thi hành lệnh của mình trong 7 ngày để tạo điều kiện cho chính phủ liên bang có cơ hội kháng cáo.

Thông báo kháng cáo phán quyết của bà Lin lên Tòa Phúc thẩm Hoa Kỳ khu vực 9 đã được Trợ lý Bộ trưởng Tư pháp Brett Shumate nộp lên tòa án vào ngày 2/4. Bản thông báo dài 2 trang này không đưa ra lý do cụ thể cho việc kháng cáo.

Trước đó, Tổng thống Donald Trump và Bộ trưởng Bộ Chiến tranh Pete Hegseth đã công bố lệnh tẩy chay liên bang đối với Anthropic, chỉ thị cho các cơ quan liên bang, nhà thầu và nhà cung cấp chấm dứt quan hệ với công ty này. 

Trên mạng xã hội, ông Trump từng tuyên bố rằng Anthropic đang cố gắng “chèn ép” chính phủ liên bang và các quan chức do người dân Mỹ bầu ra bằng cách áp đặt chính sách quân sự của họ.

Anthropic đã khởi xướng vụ kiện sau khi tuyên bố rằng họ từ chối thay đổi chính sách người dùng cho sản phẩm AI của mình, Claude, để gỡ bỏ các rào cản an toàn vốn ngăn chặn việc sử dụng công cụ này cho mục đích giám sát hàng loạt và vũ khí tự hành hoàn toàn. 

Bộ Chiến tranh khẳng định rằng họ không có kế hoạch sử dụng Claude cho các mục đích đó.

Thẩm phán Lin cho biết trong phán quyết hồi tháng trước rằng Anthropic đã tuyên bố Claude chưa sẵn sàng để sử dụng an toàn trong các loại vũ khí sát thương tự hành hoàn toàn hoặc để giám sát hàng loạt người dân Mỹ. Anthropic yêu cầu chính phủ phải đồng ý không sử dụng sản phẩm của họ cho những mục đích như vậy.

Đồng thời, Bộ Chiến tranh lập luận rằng họ mới là đơn vị duy nhất có quyền quyết định chức năng nào là an toàn để các công cụ AI thực hiện, chứ không phải một công ty tư nhân, bà Lin cho biết.

“Câu hỏi về chính sách công này không thuộc thẩm quyền trả lời của tòa án trong vụ kiện tụng này. Việc quyết định sử dụng sản phẩm AI nào là đặc quyền của Bộ Chiến tranh,” thẩm phán nhận định.

Tuy nhiên, các bằng chứng cho thấy Bộ này đang trừng phạt Anthropic vì “chỉ trích lập trường đấu thầu của chính phủ trên báo chí”, điều cấu thành hành vi “trả đũa bất hợp pháp điển hình vi phạm Tu chính án thứ nhất”, bà nói thêm. Hồ sơ của chính Bộ này cũng chỉ ra rằng họ áp đặt lệnh trừng phạt là do “thái độ thù địch của công ty thông qua báo chí”.

Hiện vẫn chưa rõ khi nào Tòa Phúc thẩm khu vực 9 sẽ tiếp nhận vụ kháng cáo này.