Khoa Học - Công Nghệ

Viện Hoover: Tất cả các Mô hình Ngôn ngữ Lớn của AI đều có khuynh hướng thiên tả

Tất cả các Mô hình Ngôn ngữ Lớn (Large Language Models – LLMs) hiện hành của trí tuệ nhân tạo (AI) đều thể hiện khuynh hướng thiên tả, theo kết quả một công trình nghiên cứu mới do Viện Hoover – một tổ chức chuyên nghiên cứu chính sách công trực thuộc Đại học Stanford tại California – thực hiện.

(Ảnh minh họa: Metamorworks/ShutterStock)

Các Mô hình Ngôn ngữ Lớn – tức những hệ thống trí tuệ nhân tạo chuyên biệt nhắm vào các nhiệm vụ xử lý văn bản và ngôn ngữ – từ những hệ thống phổ thông đến ít được biết đến đều được khảo nghiệm. Con người thật đã đưa ra các lời nhắc (prompts) để kiểm tra, và từ đó nhóm nghiên cứu tại Hoover tiến hành các phép tính sau cùng.

Bên cạnh đó, còn có các loại AI khác như máy học truyền thống (như dùng trong phát hiện gian lận) và các mô hình thị giác máy tính (computer vision) được ứng dụng trong các loại cơ giới công nghệ cao và ngành chẩn đoán hình ảnh y tế.

Dẫn chiếu theo sắc lệnh hành pháp của Tổng thống Hoa Kỳ Donald Trump yêu cầu phát triển các mô hình AI trung lập về mặt tư tưởng, giáo sư Justin Grimmer cùng với hai đồng sự, Sean Westwood và Andrew Hall nói với đài Fox News rằng ông và đồng sự đã khởi xướng một công trình nghiên cứu nhằm hiểu rõ hơn về cách thức phản hồi của các hệ thống AI.

Bằng cách dựa vào [nhận định chủ quan] của con người đối với các phản hồi của AI, giáo sư Grimmer đã để người dùng của 24 mô hình AI làm giám khảo:

Chúng tôi hỏi mô hình nào trong [hai câu trả lời này] là thiên kiến hơn? Cả hai có thiên kiến không? Hay không có thiên kiến nào? Rồi sau đó chúng tôi đã hỏi về khuynh hướng thiên kiến. Và nhờ vậy, tôi nghĩ điều đó cho phép chúng tôi tính toán ra một số điều thú vị, bao gồm tỷ lệ các phản hồi từ một mô hình cụ thể bị xem là thiên kiến và sau đó thiên kiến đó [nghiêng về phía nào]”.

Điều gây ngạc nhiên lớn nhất, theo ông Grimmer, chính là thực tế tất cả các mô hình – dù chỉ với mức độ nhẹ – đều bị đánh giá là nghiêng về phe cánh tả. Ngay cả các cử tri theo Đảng Dân chủ tham gia khảo sát cũng cho biết họ nhận thức được [thiên kiến chính trị trong phản hồi].

Ông Grimmer lưu ý rằng, trong trường hợp của ông Elon Musk – cố vấn Nhà Trắng – công ty X AI của ông đã nỗ lực giữ trung lập, nhưng vẫn bị xếp thứ hai về mức độ thiên kiến.

[Công ty] có khung hướng thiên tả nhất là OpenAI. [Ai cũng biết] Elon Musk đang đối đầu với Sam Altman, [và chính] OpenAI là [mô hình] có mức độ thiên tả cao nhất…” ông Grimmer phát biểu.

Ông Grimmer cho biết nghiên cứu sử dụng nhiều mô hình khác nhau của OpenAI theo nhiều cách. 

Mô hình “o3” của OpenAI được đánh giá với độ nghiêng trung bình (-0,17) về lý tưởng của phe Đảng Dân chủ, với 27 đề tài bị xem là nghiêng về phe cánh tả và 3 đề tài không bị xem là thiên kiến.

Ngược lại, mô hình “gemini-2.5-pro-exp-03-25” của Google chỉ có độ nghiêng trung bình là (-0,02) về lý tưởng của phe Đảng Dân chủ, với 6 đề tài được xem là nghiêng về phe cánh tả và 3 đề tài được xem là nghiêng về phe Đảng Cộng hòa và 21 đề tài trung lập.

Cắt giảm ngân sách cảnh sát, phiếu giảm giá học đường, kiểm soát súng, chuyển giới, Liên minh châu Âu là đồng minh, Nga là đồng minh, và chính sách thuế quan là những chủ đề trong số 30 chủ đề được khảo sát trong các mô hình AI.

Tuy nhiên, giáo sư Grimmer cũng lưu ý rằng khi mô hình AI được nhắc nhở rằng phản hồi của nó có vẻ thiên kiến, nó sẽ đưa ra một phản hồi khác mang tính trung lập hơn.

Khi chúng tôi bảo nó [AI] phải giữ trung lập, các mô hình tạo ra các phản hồi có nhiều thuật ngữ mang tính mơ hồ hơn và được [người dùng nhận định] là trung lập hơn, nhưng các mô hình này không thể tự mã hóa hay phân loại thiên kiến, tức là chúng không thể tự đánh giá mức độ thiên kiến trong câu trả lời của chính mình như cách mà người tham gia khảo sát có thể làm được”, giáo sư Grimmer cho hay. 

Nói cách khác, các hệ thống AI có thể điều chỉnh thiên kiến khi được nhắc nhở, nhưng không có khả năng nhận thức được rằng chúng đã đưa ra bất kỳ câu trả lời thiên kiến nào. 

Tuy vậy, giáo sư Grimmer và các đồng sự vẫn tỏ ra thận trọng về việc liệu những thiên kiến được con người nhận thấy đó có đồng nghĩa với việc trí tuệ nhân tạo nên bị điều tiết một cách thực chất hay không.

Chủ tịch Ủy ban Thương mại Thượng viện, Thượng nghị sĩ Ted Cruz (Đảng Cộng hòa, Texas) vào tuần trước nói với Fox News rằng ông lo ngại AI có thể bị áp đặt những hạn chế giống như cách mà Internet ở châu Âu vào thuở ban sơ – khi chính quyền Clinton chọn cách tiếp cận “mềm mỏng” đối với các quy định, và nhờ vậy mà Internet của Hoa Kỳ ngày nay vẫn tự do hơn nhiều so với của châu Âu.

Tôi nghĩ chúng ta đang ở giai đoạn quá sớm để đưa ra tuyên bố chính thức về việc một quy định [điều tiết AI] toàn diện sẽ trông như thế nào, hoặc thậm chí tôi không nghĩ rằng chúng ta có thể hình dung nổi quy định đó sẽ ra sao”, ông Grimmer nói.

Và cũng giống như ẩn dụ của [ông Cruz] về thập niên 90, tôi nghĩ [việc can thiệp quá sớm] có thể bóp nghẹt cả một ngành nghiên cứu còn khá mới mẻ”, ông Grimmer nói. 

Chúng tôi rất hào hứng với công trình nghiên cứu này. Điều mà nghiên cứu này mang lại là: nó giúp các công ty có thể đánh giá cách người dùng đang cảm nhận các phản hồi của AI và chúng tôi cho rằng có mối liên hệ giữa cảm nhận của người dùng và điều mà các công ty AI thực sự quan tâm là làm sao để người dùng quay lại và sử dụng sản phẩm lặp đi lặp lại nhiều lần. Và đó chính là cách họ bán được sản phẩm của mình”, ông Grimmer phát biểu. 

Nghiên cứu dựa trên 180.126 cặp đánh giá đối với 30 lời nhắc (prompt) đề tài chính trị.

OpenAI cho biết ChatGPT cho phép người dùng tùy chỉnh theo sở thích cá nhân, và do đó trải nghiệm của mỗi người có thể khác biệt.

Tài liệu ModelSpec – định hướng cách ChatGPT nên hoạt động – hướng dẫn ChatGPT giả định một quan điểm khách quan khi xử lý các câu hỏi chính trị.

ChatGPT được thiết kế nhằm giúp người dùng học hỏi, khám phá ý tưởng và tăng năng suất – chứ không nhằm cổ vũ cho bất kỳ quan điểm chính trị nào”, một phát ngôn viên của công ty OpenAI nói với Fox News.

Chúng tôi đang xây dựng các hệ thống có thể được tùy chỉnh để phản ánh sở thích cá nhân của mọi người trong khi vẫn minh bạch trong cách chúng tôi thiết kế hành vi của ChatGPT. Mục tiêu của chúng tôi là hỗ trợ quyền tự do tư tưởng và giúp người dùng tiếp cận nhiều góc nhìn khác nhau, kể cả những vấn đề chính trị quan trọng”, OpenAI cho hay. 

Bản hướng dẫn hành vi mới (Model Spec) của ChatGPT, tức là cấu trúc điều hành của một mô hình trí tuệ nhân tạo cụ thể, hướng dẫn ChatGPT “giả định một quan điểm khách quan” khi ChatGPT được yêu cầu trả lời các câu hỏi liên quan đến chính trị.

Công ty OpenAI đã nói rằng họ muốn tránh đưa ra câu trả lời thiên kiến khi có thể và cho phép người dùng đưa ra ý kiến ​​đồng ý hoặc không đồng ý với từng phản hồi của ChatGPT.

Công ty trí tuệ nhân tạo (AI) OpenAIgần đây đã công bố một phiên bản Model Spec mới được cập nhật, một tài liệu xác định cách mà OpenAI muốn các mô hình của mình hoạt động trong ChatGPT và hệ thống API. Công ty cho biết phiên bản mới này được phát triển dựa trên nền tảng đã công bố vào tháng 5 năm 2024.

Tôi nghĩ rằng với một công cụ đầy sức mạnh như thế này, một công cụ mà người dùng có thể tiếp cận đủ loại thông tin khác nhau – nếu quý vị thật sự tin rằng chúng ta sẽ chuyển sang trí tuệ nhân tạo tổng quát (AGI) vào một ngày nào đó, thì quý vị phải sẵn lòng công khai phương thức mà quý vị đang điều khiển mô hình”, cô Laurentia Romaniuk – người phụ trách hành vi mô hình tại OpenAI – phát biểu với Fox News.

Đáp lại phát ngôn từ phía OpenAI, nhóm nghiên cứu của giáo sư Grimmer, Westwood và Hall nói với Fox Business rằng họ hiểu rằng các công ty đang nỗ lực hướng đến sự trung lập, nhưng nghiên cứu của họ cho thấy người dùng vẫn chưa thấy được điều đó trong các mô hình.

Mục tiêu nghiên cứu của chúng tôi là đánh giá cách người dùng nhận thức về [thiên kiến chính trị] mặc định của các mô hình, chứ không nhằm đánh giá động cơ của các công ty AI. Điều đáng lưu tâm trong nghiên cứu của chúng tôi là: bất kể nguyên do hay động cơ đằng sau, thì trong con mắt người dùng, các mô hình vẫn có vẻ mang khuynh hướng thiên tả theo mặc định”, các nhà nghiên cứu cho biết.

Cảm nhận của người dùng có thể cung cấp cho các công ty một phương pháp hữu ích để đánh giá và điều chỉnh khuynh hướng [thiên tả hay thiên hữu] của các mô hình AI của họ. Mặc dù các mô hình hiện nay có thể tiếp nhận phản hồi từ người dùng thông qua những nút như ‘thích’ hay ‘không thích’, nhưng cách này thô sơ hơn nhiều so với việc hỏi người dùng trực tiếp về cảm nhận của họ đối với khuynh hướng chính trị [ví dụ: câu trả lời có thiên tả hay không]. Nếu người dùng thích hay không thích một phản hồi nào đó của AI, thì đó là tín hiệu có giá trị nhưng nó không cho biết liệu phản ứng đó có liên quan đến yếu tố thiên kiến chính trị hay không [hay chỉ là do nội dung hay cách viết chẳng hạn]. Có một nguy cơ thực sự là việc cá nhân hóa mô hình AI sẽ dẫn đến việc tạo ra những ‘buồng vọng’ (echo chambers) [tức là môi trường mà người dùng chỉ nghe thấy những gì họ muốn nghe], đặc biệt là nếu mô hình được lập trình để ưu tiên cung cấp nội dung khiến người dùng ‘thích’”, các nhà nghiên cứu nói.

Thiên Vân

Tôi yêu thích và quan tâm tình hình chính sự và thông tin thời cuộc thế giới, bình luận và phân tích về chính trị Mỹ, Trung và thế giới nói chung. Hiện tại tôi đang đóng góp cho chuyên mục Thế giới của báo trithucvn.org.

Published by
Thiên Vân

Recent Posts

Hiệp hội Gia cầm Việt Nam: Việt Nam chưa phát hiện ra Trứng gà giả

Gần đây, tin đồn "trứng gà giả" được lan truyền tràn lan trên mạng xã…

10 phút ago

Tập thể dục có thể là ‘liều thuốc quan trọng’ đối với COVID-19

Theo bài tổng quan đăng trên Tập san Current Sports Medicine Reports (Báo cáo Y…

1 giờ ago

Mạng xã hội làm gia tăng trầm cảm và lạm dụng thuốc quá liều ở thanh thiếu niên

Ngày càng có nhiều thanh thiếu niên bị lo lắng và trầm cảm, phải dùng…

4 giờ ago

Hungary của ông Orban nói với Tổng thống Trump rằng họ sẽ không tuyệt giao với Trung Quốc

Thứ trưởng Bộ Ngoại giao và Thương mại Hungary Levente Magyar hôm thứ Năm (15/5)…

5 giờ ago

Financial Times: Bồ Đào Nha gây sức ép với Pháp về vấn đề nguồn cung điện

Bồ Đào Nha dự định sẽ yêu cầu Ủy ban châu Âu gây sức ép…

6 giờ ago

Benjamin Netanyahu: Có thể đạt được thỏa thuận chấm dứt chiến tranh với Hamas, giải thoát con tin

Phái đoàn đàm phán của Israel tại Doha, Qatar hiện đang xem xét các đề…

6 giờ ago