Những gã khổng lồ trong lĩnh vực trí tuệ nhân tạo (AI) tại Mỹ, bao gồm Google DeepMind, Microsoft và xAI, đã ký thỏa thuận hợp tác với Bộ Thương mại Mỹ nhằm đánh giá các rủi ro an ninh tiềm ẩn trong các mô hình AI mới của họ.

Ảnh minh họa: màn hình ứng dụng Grok. (Nguồn: Oleksii Pydsosonnii/The Epoch Times)

Ngày 5/5, Trung tâm Tiêu chuẩn và Đổi mới Trí tuệ Nhân tạo (CAISI) thuộc Bộ Thương mại Mỹ đã công bố các thỏa thuận hợp tác này.

Theo thông báo của Bộ Thương mại Mỹ, cơ quan này sẽ “thực hiện các đánh giá trước khi triển khai và tiến hành nghiên cứu có mục tiêu nhằm đánh giá kỹ lưỡng năng lực của AI tiên tiến, đồng thời nâng cao mức độ an ninh cho AI.”

Giám đốc CAISI Chris Fall cho biết trong thông báo: “Khoa học đo lường độc lập và nghiêm ngặt là yếu tố thiết yếu để hiểu rõ về AI tiên tiến và những tác động của nó đối với an ninh quốc gia. Việc mở rộng hợp tác với ngành công nghiệp AI sẽ giúp chúng tôi mở rộng quy mô công việc vì lợi ích công cộng vào thời điểm quan trọng này.”

Bộ Thương mại Mỹ cho biết các thỏa thuận này được xây dựng dựa trên các thỏa thuận đã ký với OpenAI và Anthropic vào tháng 8/2024, dưới thời chính quyền Biden. Tuy nhiên, theo CAISI, hai thỏa thuận với OpenAI và Anthropic đã được “đàm phán lại” để phù hợp hơn với chính sách của chính quyền Trump.

Những lo ngại về rủi ro an ninh từ các mô hình AI tiên tiến đã gia tăng sau khi Anthropic công bố mô hình Claude Mythos Preview vào ngày 7/4. Mô hình này chưa được phát hành rộng rãi do công ty lo ngại các tác nhân xấu có thể lợi dụng để tìm kiếm các lỗ hổng phần mềm nghiêm trọng.

Trước đó, chính quyền Trump đã cấm Anthropic giao dịch với chính phủ liên bang sau khi công ty từ chối cấp cho Lầu Năm Góc quyền truy cập không giới hạn vào mô hình Claude Mythos. Anthropic lo ngại mô hình này có thể bị sử dụng cho mục đích giám sát nội địa quy mô lớn hoặc phát triển vũ khí tự động — điều mà Lầu Năm Góc đã phủ nhận.

Dù vậy, tháng trước, nhà đồng sáng lập Anthropic Jack Clark cho biết ông đã đàm phán với chính quyền Trump về Claude Mythos Preview.

Các thỏa thuận hợp tác thúc đẩy thử nghiệm AI sâu rộng hơn

Ông Tom Lue, Phó chủ tịch Google DeepMind, phụ trách các vấn đề toàn cầu về AI tiên tiến, đã xác nhận việc ký kết thỏa thuận với CAISI qua bài đăng trên LinkedIn.

Trong thông cáo báo chí hôm thứ Ba (5/5), Microsoft nhấn mạnh rằng các thỏa thuận này rất quan trọng vì “việc thử nghiệm liên tục và nghiêm ngặt là yếu tố cần thiết để xây dựng niềm tin vào các hệ thống AI tiên tiến.”

Microsoft giải thích: “Các bài kiểm tra được thiết kế tốt sẽ giúp chúng tôi hiểu rõ liệu các hệ thống của mình có hoạt động đúng như mong muốn và mang lại lợi ích như kỳ vọng ban đầu hay không.”

Thông cáo tiếp tục: “Việc thử nghiệm cũng giúp chúng tôi chủ động đối phó với các rủi ro, chẳng hạn như các cuộc tấn công mạng do AI điều khiển và các hành vi lạm dụng hệ thống AI khác, vốn có thể xảy ra khi các mô hình AI tiên tiến được triển khai rộng rãi trên toàn thế giới.”

Microsoft cho biết thêm, dù công ty thường xuyên tự thử nghiệm các mô hình AI của mình, nhưng việc đánh giá rủi ro an ninh quốc gia và an toàn công cộng ở quy mô lớn “phải là nỗ lực hợp tác với chính phủ”.

Microsoft hiện cũng đang hợp tác với Viện An ninh Trí tuệ Nhân tạo của Vương quốc Anh để đánh giá “những năng lực có rủi ro cao và hiệu quả của các biện pháp bảo vệ”.

Đại diện của xAI đến nay chưa phản hồi về yêu cầu bình luận của The Epoch Times.

Theo The Epoch Times

Anh Hùng biên dịch