AI (trí tuệ nhân tạo) là con dao hai lưỡi, tuy mang lại sự tiện lợi cho cuộc sống nhưng cũng gây những vấn đề an ninh xã hội rất lớn. Giáo sư Geoffrey Hinton, người đoạt giải Nobel Vật lý năm 2024 và là một trong những người tiên phong về AI, cảnh báo rằng thế giới đang đứng trước nguy cơ AI vượt khỏi tầm kiểm soát.

Geoffrey Hinton
“Cha đẻ của AI” – ông Geoffrey Hinton,  tại Hội nghị Collision Tech ở trung tâm Enercare Toronto, Ontario, Canada, hôm 28/6/2023. (Ảnh: GEOFF ROBINS/AFP qua Getty Images)

Dù thế giới phổ biến lạc quan về sự phát triển của AI, nhưng nhiều vấn đề về AI vẫn chưa được giải quyết, thậm chí những vấn đề còn có xu hướng mở rộng như gian lận, thông tin sai lệch để thao túng bầu cử, bản quyền sở hữu trí tuệ…. Nhiều chuyên gia và chuyên gia công nghệ đã đưa ra cảnh báo hoặc phản đối về AI do các vấn đề nguy cơ do AI gây ra.

Tổ chức “NOMORE AI được tạo ra mà không có sự cho phép” bao gồm 26 diễn viên lồng tiếng nổi tiếng của Nhật Bản, đã đưa ra tuyên bố phản đối việc cho phép AI đăng tải trích dẫn phát ngôn khi chưa qua xác nhận cho phép chính thức của người bị trích dẫn phát ngôn, tuyên bố đã được chia sẻ lên các nền tảng xã hội như X, YouTube…

Họ hy vọng mọi người sẽ quan tâm đến bản quyền và kêu gọi ngành cũng như chính phủ đẩy nhanh việc xây dựng các quy định để ngăn chặn vấn đề này tái diễn. Trên thực tế vào năm ngoái, Hiệp hội Báo chí Nhật Bản, Hiệp hội Bản quyền Nhiếp ảnh Nhật Bản, Hiệp hội Nhà xuất bản Sách Nhật Bản… cũng đã đưa ra lời kêu gọi tương tự. Chính phủ Nhật Bản đã đáp ứng yêu cầu này và đưa ra các quy định liên quan, nhưng hiệu quả thực tế không như mong đợi.

Ngoài ra, các phương tiện truyền thông và nhà xuất bản như New York Times, Forbes, Condé Nast… gần đây đã cùng nhau cáo buộc CEO Jeff Bezos của Amazon, theo đó công ty khởi nghiệp AI Perplexity mà ông tài trợ đã vi phạm lợi ích bản quyền bằng cách sử dụng tài liệu của họ để tạo ra kết quả tìm kiếm mà không qua đồng ý của họ. Năm ngoái, New York Times đã kiện OpenAI và Microsoft với lý do tương tự.

Bên cạnh vấn đề bản quyền, vấn đề các chính phủ toàn trị và kẻ xấu lợi dụng AI để lừa đảo, phát tán thông tin sai lệch cũng ngày càng mở rộng, gây khó khăn cho việc phát hiện và phân biệt.

Truyền thông Nhật Bản ngày 3/10 đưa tin, Đảng Cộng sản Trung Quốc (ĐCSTQ) đã sử dụng công nghệ AI để tạo hơn 200 tài khoản cho mục đích phát tán trên nền tảng xã hội các video, thông điệp giả mạo về “mong muốn độc lập của Okinawa [tỉnh cực nam của Nhật Bản gồm hàng trăm đảo thuộc quần đảo Ryukyu]”, những tài khoản đó lan truyền tin rằng Okinawa thuộc về Trung Quốc, nhằm chia rẽ mối quan hệ giữa Okinawa và Nhật Bản. Những video đó đã tích lũy được hàng triệu lượt tương tác trên mạng xã hội.

ĐCSTQ, Nga và Iran đã nhiều lần tiết lộ sử dụng công nghệ deepfake trong AI để tạo ra nhiều thông điệp và video sai sự thật, sau đó đăng chúng lên các nền tảng xã hội lớn trong và ngoài nước nhằm mục đích tuyên truyền, tẩy não hoặc nhằm chia rẽ xã hội các xã hội dân chủ như châu Âu và Mỹ.

CEO Garry Tan của công ty đầu tư mạo hiểm công nghệ Ycombinator tiết lộ trên X vào ngày 11/10 rằng những kẻ xấu sử dụng giọng nói do AI tạo ra để thực hiện “các vụ lừa đảo khá phức tạp”. Ông nói rằng kẻ lừa đảo sẽ gửi thư hỗ trợ giả mạo của Google đến hộp thư Gmail của bạn, yêu cầu bạn xác minh xem bạn còn sống hay xác minh xem bạn có đang sử dụng hộp thư Gmail của mình ở nơi khác hay không, khi người dùng nhấp vào “Có” sẽ được chuyển đến một trang web lừa đảo.

Hồi tháng 9, chuyên gia tư vấn công nghệ Sam Mitrovic tại Công ty tư vấn giải pháp Microsoft Sammitrovic, đã đưa ra cảnh báo trên blog của ông về hành vi gian lận AI nhắm vào các tài khoản Gmail. Ông cho hay chính bản thân ông đã nhận được “thư giả” và “giọng nói giả” từ tài khoản Gmail, nhưng ông đã cảnh giác và không rơi vào bẫy. Ông nói: “Các trò lừa đảo AI ngày càng trở nên tinh vi và thuyết phục hơn, quy mô triển khai cũng ngày càng tăng, hình thức trò lừa đảo này được thể hiện theo cách rất hợp pháp… nên rất nhiều người có thể vào bẫy”.

Kỹ sư máy tính Kiyohara Jin người Nhật, nói với Epoch Times: “Hiện nay, thế giới đang phát triển AI quá nhanh và không đi theo con đường phát triển lành mạnh, AI có khả năng gây ra những thảm họa mà con người không thể gánh chịu được. Hầu hết mọi người đều muốn lợi ích trước mắt, chưa thực sự chú ý đến an toàn, trình độ đạo đức của đa số chưa theo kịp, điều này để lại kẽ hở cho những nhóm hoặc cá nhân có đạo đức kém”.

Lo ngại của Hinton và Hopfield

Giáo sư Jeffrey Hinton – được mệnh danh là “Cha đẻ của AI” và giáo sư John J. Hopfield của Đại học Princeton đã cùng đoạt giải Nobel Vật lý năm 2024. Tuy nhiên, thay vì cảm thấy vui mừng, họ lại lo lắng cho tương lai của nhân loại.

“Tôi nghĩ chúng ta đang ở một thời điểm bước ngoặt lịch sử mà trong vài năm tới chúng ta cần tìm hiểu xem liệu có cách nào để đối phó với mối đe dọa này hay không”, Giáo sư Hinton nói trong cuộc họp video của Ủy ban Nobel.

Giáo sư Hinton kêu gọi nghiên cứu thêm về các vấn đề an toàn xung quanh AI và tìm ra cách kiểm soát AI thông minh hơn con người. Ông cho rằng nếu công nghệ AI không được kiểm soát sẽ làm tăng nguy cơ xảy ra các cuộc tấn công lừa đảo, video giả mạo và can thiệp chính trị: “Hiện tại, khá nhiều nhà nghiên cứu xuất sắc tin rằng AI sẽ trở nên thông minh hơn con người trong tương lai gần, và chúng ta cần suy nghĩ nghiêm túc về điều gì sẽ xảy ra”.

Ông đã nhấn mạnh trong một cuộc phỏng vấn rằng luật pháp hiện hành ở Mỹ chưa đủ hoàn thiện để quy phạm việc sử dụng AI trong các vấn đề quân sự, điều này có thể dẫn đến những tình huống không thể kiểm soát hoặc tồi tệ khi AI được sử dụng trong chiến tranh. Trong khi đó ĐCSTQ không hề thận trọng về mặt pháp lý nên đã đầu tư rất nhiều nguồn lực vào việc phát triển vũ khí liên quan đến AI, tình trạng đó khiến vấn đề AI càng đáng lo ngại hơn.

Vào ngày 11/10, giáo sư Hopfield cũng bày tỏ quan ngại trong cuộc gọi video tại khán phòng Đại học Princeton. Ông nói: “Cái gì cũng có tính hai mặt, đối với AI cũng vậy, chúng ta chưa hiểu biết đầy đủ về AI và không biết giới hạn của nó ở đâu. Điều này khiến tôi rất bất an vì nó có nhiều khía cạnh không thể kiểm soát được. Đặc biệt là hiện nay có xu thế đang thúc đẩy hệ thống mạng lưới thần kinh AI.” Ông kết luận: “Điều tôi lo lắng không phải là AI, mà là hệ quả của việc kết hợp AI với các luồng thông tin toàn cầu”.

Ông nói thêm rằng AI có thể kiểm soát các hệ thống thông tin rất lớn chỉ bằng cách dựa vào các thuật toán đơn giản, đó là vấn đề gây bất an. Toàn bộ cách thức hoạt động của AI vẫn chưa được hiểu rõ, và với AI có thể khiến một nhóm nhỏ người nắm quyền thao túng thế giới.