Khoa Học - Công Nghệ

Từ điển Cambridge chọn “ảo giác” là từ của năm 2023

Năm nay có thể nói là năm thế giới đặc biệt quan tâm các công cụ trí tuệ nhân tạo (AI) tạo sinh như ChatGPT, theo đó cũng quan tâm những hạn chế của AI và cách khắc phục, đó là lý do Từ điển Cambridge của Anh đã chọn “ảo giác” (hallucinate) là từ của năm 2023.

Từ điển Cambridge của Anh đã chọn “ảo giác” (hallucinate) là từ của năm 2023, định nghĩa mới của từ này có liên quan đến AI. (Ảnh: Postmodern Studio/ Shutterstock)

Đại học Cambridge (Anh) tuyên bố trên trang web của trường rằng Từ điển Cambridge chọn từ “ảo giác” (hallucinate) là từ của năm 2023, mang thêm hàm nghĩa mới liên quan AI.

Nguyên nhân vì các công cụ AI, đặc biệt là những công cụ sử dụng mô hình ngôn ngữ lớn (large language model, LLM), cho thấy tạo ra nội dung có vẻ hợp lý, nhưng tiềm ẩn khả năng cao thực hiện bằng cách sử dụng những “sự thật” sai lệch, gây hiểu lầm hoặc bịa đặt, tạo “ảo giác” (hallucinate) rằng nội dung đó khả tín.

Định nghĩa truyền thống về ảo giác là “dường như nhìn, nghe, cảm nhận hoặc ngửi thấy những thứ không tồn tại, thường là do tình trạng bệnh lý hoặc do thuốc”. Một hàm nghĩa kèm theo mới bổ sung cho động từ tâm lý học này là: “Ảo giác AI (có những phẩm chất nhất định mà bộ não con người có, chẳng hạn như khả năng tạo ra ngôn ngữ theo cách có vẻ giống con người) sẽ tạo ra thông tin giả mạo”.

Hàm nghĩa mới về “ảo giác” (hallucinate) cho thấy xu hướng nhân hóa ngày càng tăng trong công nghệ AI, đây là cách ẩn dụ chỉ máy móc khi nói, viết và suy nghĩ đã mô phỏng con người.

Ảo giác AI (AI hallucinations) đã có tác động đến thế giới thực: ví dụ có trường hợp công ty luật của Mỹ dùng ChatGPT dẫn đến một vụ án pháp lý cáo buộc tội “hư cấu”; trong một video do Google sản xuất quảng cáo cho chatbot AI Bard, công cụ AI đã sai phạm về kính viễn vọng không gian James Webb.

BBC News The Guardian của Anh đưa tin, giám đốc xuất bản của Từ điển Cambridge là Wendalyn Nichols cho biết, “ảo giác AI” cảnh báo con người cần có tư duy phê phán trong sử dụng những công cụ này. AI có sở trường trong xử lý lượng lớn dữ liệu để tích hợp các giải đáp cụ thể, nhưng AI có nhiều khả năng đi chệch hướng. Ông lưu ý rằng độ tin cậy của các mô hình ngôn ngữ lớn phụ thuộc vào thông tin mà chúng được đào tạo, có thể nói so với trước [khi có AI] thì tri thức chuyên môn của con người càng trở nên quan trọng hơn bao giờ hết…

Tiến sĩ Henry Shevlin, nhà đạo đức học AI tại Đại học Cambridge, cho biết: “Tất nhiên lâu nay những thông tin không chính xác hoặc gây hiểu lầm luôn tồn tại xung quanh chúng ta, dù dưới dạng tin đồn, tuyên truyền hay tin giả. Tuy những thông tin đó là sản phẩm của con người, nhưng ‘ảo giác’ hàm ý khi những thông tin đó tách rời hiện thực. Việc áp dụng từ này [đối với AI] hàm nghĩa ‘ảo giác’ là của AI chứ không phải của người dùng – ở đây không có nghĩa AI có tri giác mà lưu ý con người sẵn lòng gán cho AI các thuộc tính giống con người”.

Sau khi Từ điển tiếng Anh Collins chọn từ của năm 2023 là “AI”, thì Từ điển Cambridge đã chọn “Hallucinate”.

Chấn Vũ

Published by
Chấn Vũ

Recent Posts

Tác giả cuốn sách ‘Bị giết theo đơn đặt hàng’ được FQM trao giải “Tác giả xuất sắc nhất” 

Gần đây, Tạp chí French Quarter (FQM) đã trao danh hiệu “Tác giả xuất sắc…

26 phút ago

Marco Adami: Về tập thơ “Bài ca thế kỷ 21” của Trương Văn Dân

Thế giới luôn bị tàn phá bởi chiến tranh, như thể nhân loại không học…

34 phút ago

Hé lộ nội tình cuộc đàm phán lịch sử Mỹ – Cuba tại Havana

Các quan chức Bộ Ngoại giao Mỹ tuần trước đã tới thủ đô Havana của…

51 phút ago

Nhân tướng học nói về 8 thói quen giao tiếp làm tổn hại vận khí

Ai ai cũng đều hoặc ít hoặc nhiều có những thói quen giao tiếp xấu,…

54 phút ago

Nguồn tin: Mỹ sắp tiến hành kiểm tra tàu, gia tăng sức ép lên Iran

Quân đội Mỹ đang chuẩn bị trong vài ngày tới sẽ tiến hành kiểm tra…

59 phút ago