“Cha đẻ” ChatGPT cảnh báo mặt trái của công nghệ AI
- Vương Quân
- •
Ngày 16/3, người được xem như “cha đẻ” của ChatGPT, ông Sam Altman, đã tuyên bố bản thân công ty tung ra công nghệ mới này cũng lo sợ nó sẽ gây ra mối đe dọa cho con người, thậm chí là “thực sự nguy hiểm”.
Theo tờ Guardian, CEO Altman của OpenAI với tư cách là nhà đồng phát triển, cho biết trong một cuộc phỏng vấn gần đây rằng điều đáng lo ngại nhất là liệu ChatGPT có bị lợi dụng để lan truyền tin tức giả mạo trên diện rộng hay không. Trong tình hình hiện nay, việc viết mã máy tính của ChatGPT không ngừng tốt hơn, giúp dễ dàng sử dụng AI này cho các cuộc tấn công mạng. Nhưng Altman cũng nói rằng dù vậy, cho đến nay ChatGPT vẫn là công nghệ tuyệt vời nhất.
Thông tin chỉ ra doanh nhân Elon Musk cũng là một trong những nhà đầu tư đầu tiên vào OpenAI, ông đã nhiều lần đưa ra cảnh báo rằng AI và AGI (trí tuệ nhân tạo tổng hợp) và các công nghệ liên quan có thể nguy hiểm hơn vũ khí hạt nhân, đồng thời lo lắng cho Microsoft trong việc giải tán cơ quan giám sát đạo đức và tích hợp ChatGPT trên công cụ tìm kiếm Bing của Microsoft. Do đó, ông Musk tin rằng chính phủ cũng nên xây dựng các quy định an toàn liên quan đến AI.
Về vấn đề giám sát an toàn AI, CEO Altman đề cập rằng việc giám sát hoạt động xử lý của công nghệ này sẽ rất quan trọng trong việc ngăn chặn những tác động tiêu cực tiềm ẩn đối với loài người, dù vậy chúng ta cũng cho phép mình hào hứng với tâm trạng lo sợ mà chúng ta cảm thấy.
Thủ đoạn mới trong cuộc chiến thông tin của Trung Quốc
Ngày 7/2, công ty phân tích truyền thông xã hội Graphika đã xuất bản một báo cáo có tiêu đề “Deepfake thật đến mức: Những kẻ thân Trung Quốc gây ảnh hưởng trực tuyến bằng cách quảng bá video về nhân vật hư cấu do AI tạo ra”. Báo cáo chỉ ra có phương tiện truyền thông mới giả tưởng có tên “Tin tức sói” (Wolf News) đã sử dụng AI để giả mạo 2 người dẫn chương trình phát đi các bản tin liên quan thân Đảng Cộng sản Trung Quốc và bôi nhọ Mỹ.
Báo cáo cũng cho hay cuối năm ngoái, một tài khoản người máy (bot) thân Trung Quốc đã đăng trên Facebook và Twitter một video về hai “người dẫn chương trình” của “Tin tức sói”. Họ đã tiết lộ đủ loại manh mối kỳ lạ ở khắp mọi nơi; giọng nói của những “người dẫn chương trình” này khá cứng và không đồng bộ với hình dạng miệng, còn khuôn mặt như các nhân vật trong trò chơi điện tử có tóc dính trên đầu trông không tự nhiên, trong khi đó phụ đề đầy lỗi ngữ pháp.
Sau gần 10 năm phát triển, công nghệ deepfake đã có thể tạo ra những nhân vật biết nói. Trong không ít trường hợp, phần mềm trí tuệ nhân tạo được sử dụng để gây ra vấn đề tin tức méo mó trong công chúng; chẳng hạn như vào năm ngoái khi Nga tấn công Ukraine, trên các nền tảng xã hội đã xuất hiện ảnh giả mạo Tổng thống Zelensky của Ukraine tuyên bố đầu hàng.
Các chuyên gia về thông tin sai lệch từ lâu đã cảnh báo, những hình ảnh deepfake có thể làm xói mòn khả năng của mọi người trong nhận diện thật/giả trên không gian mạng, thậm chí có thể bị lạm dụng để gây ra tình trạng bất ổn hoặc gây ra các vụ bê bối chính trị. Giờ đây những dự đoán này đã trở thành hiện thực.
Mặc dù deepfake bị bắt quả tang được sử dụng trong các chiến dịch thông tin sai lệch thân Trung Quốc vẫn còn rất vụng về khiến chúng có thể bị phát hiện nếu để ý một chút, nhưng thế giới loài người phải nghiêm túc cẩn trọng trước thực tế đối mặt với “một chương mới của cuộc chiến thông tin đã mở ra”.
Từ khóa openAI ChatGPT Sam Altman trí tuệ nhân tạo AI