Khoa Học - Công Nghệ

Từ điển Cambridge chọn “ảo giác” là từ của năm 2023

Năm nay có thể nói là năm thế giới đặc biệt quan tâm các công cụ trí tuệ nhân tạo (AI) tạo sinh như ChatGPT, theo đó cũng quan tâm những hạn chế của AI và cách khắc phục, đó là lý do Từ điển Cambridge của Anh đã chọn “ảo giác” (hallucinate) là từ của năm 2023.

Từ điển Cambridge của Anh đã chọn “ảo giác” (hallucinate) là từ của năm 2023, định nghĩa mới của từ này có liên quan đến AI. (Ảnh: Postmodern Studio/ Shutterstock)

Đại học Cambridge (Anh) tuyên bố trên trang web của trường rằng Từ điển Cambridge chọn từ “ảo giác” (hallucinate) là từ của năm 2023, mang thêm hàm nghĩa mới liên quan AI.

Nguyên nhân vì các công cụ AI, đặc biệt là những công cụ sử dụng mô hình ngôn ngữ lớn (large language model, LLM), cho thấy tạo ra nội dung có vẻ hợp lý, nhưng tiềm ẩn khả năng cao thực hiện bằng cách sử dụng những “sự thật” sai lệch, gây hiểu lầm hoặc bịa đặt, tạo “ảo giác” (hallucinate) rằng nội dung đó khả tín.

Định nghĩa truyền thống về ảo giác là “dường như nhìn, nghe, cảm nhận hoặc ngửi thấy những thứ không tồn tại, thường là do tình trạng bệnh lý hoặc do thuốc”. Một hàm nghĩa kèm theo mới bổ sung cho động từ tâm lý học này là: “Ảo giác AI (có những phẩm chất nhất định mà bộ não con người có, chẳng hạn như khả năng tạo ra ngôn ngữ theo cách có vẻ giống con người) sẽ tạo ra thông tin giả mạo”.

Hàm nghĩa mới về “ảo giác” (hallucinate) cho thấy xu hướng nhân hóa ngày càng tăng trong công nghệ AI, đây là cách ẩn dụ chỉ máy móc khi nói, viết và suy nghĩ đã mô phỏng con người.

Ảo giác AI (AI hallucinations) đã có tác động đến thế giới thực: ví dụ có trường hợp công ty luật của Mỹ dùng ChatGPT dẫn đến một vụ án pháp lý cáo buộc tội “hư cấu”; trong một video do Google sản xuất quảng cáo cho chatbot AI Bard, công cụ AI đã sai phạm về kính viễn vọng không gian James Webb.

BBC News The Guardian của Anh đưa tin, giám đốc xuất bản của Từ điển Cambridge là Wendalyn Nichols cho biết, “ảo giác AI” cảnh báo con người cần có tư duy phê phán trong sử dụng những công cụ này. AI có sở trường trong xử lý lượng lớn dữ liệu để tích hợp các giải đáp cụ thể, nhưng AI có nhiều khả năng đi chệch hướng. Ông lưu ý rằng độ tin cậy của các mô hình ngôn ngữ lớn phụ thuộc vào thông tin mà chúng được đào tạo, có thể nói so với trước [khi có AI] thì tri thức chuyên môn của con người càng trở nên quan trọng hơn bao giờ hết…

Tiến sĩ Henry Shevlin, nhà đạo đức học AI tại Đại học Cambridge, cho biết: “Tất nhiên lâu nay những thông tin không chính xác hoặc gây hiểu lầm luôn tồn tại xung quanh chúng ta, dù dưới dạng tin đồn, tuyên truyền hay tin giả. Tuy những thông tin đó là sản phẩm của con người, nhưng ‘ảo giác’ hàm ý khi những thông tin đó tách rời hiện thực. Việc áp dụng từ này [đối với AI] hàm nghĩa ‘ảo giác’ là của AI chứ không phải của người dùng – ở đây không có nghĩa AI có tri giác mà lưu ý con người sẵn lòng gán cho AI các thuộc tính giống con người”.

Sau khi Từ điển tiếng Anh Collins chọn từ của năm 2023 là “AI”, thì Từ điển Cambridge đã chọn “Hallucinate”.

Chấn Vũ

Published by
Chấn Vũ

Recent Posts

Ý định của ông Trump trong việc muốn giải thể Bộ Giáo dục Mỹ

Tổng thống đắc cử Donald Trump trong quá trình tranh cử đã nhiều lần chỉ…

18 giây ago

Cựu Dân biểu Matt Gaetz rút lui khỏi vị trí ứng cử viên tổng chưởng lý

Ông Matt Gaetz hôm thứ Năm (21/11) đã tuyên bố rằng ông sẽ rút lui…

7 phút ago

Ông Trump bán cây đàn guitar có chữ ký với giá hơn 10.000 USD

Có hơn 1.000 cây guitar acoustic và guitar điện không có chữ ký của ông…

26 phút ago

Bệnh tiểu đường gây tổn thương võng mạc như thế nào?

Bệnh tiểu đường có thể gây ra rất nhiều tác hại đối với cơ thể,…

44 phút ago

Hungary sẽ triển khai hệ thống phòng không gần biên giới của Ukraine

Trước tình hình căng thẳng, Hungary đang lên kế hoạch triển khai hệ thống phòng…

2 giờ ago

Quân đội Mỹ sẵn sàng sử dụng vũ khí hạt nhân nếu cần

Chuẩn Đô đốc Thomas Buchanan tuyên bố rằng Mỹ sẵn sàng sử dụng vũ khí…

2 giờ ago