(Ảnh minh họa: Shutterstock)
Liệu chatbot trí tuệ nhân tạo (AI) có thể bóp méo tâm trí con người đến mức suy sụp tinh thần, khiến họ cắt đứt quan hệ với gia đình, hay thậm chí xúi giục họ tự tử? Nếu đúng như vậy, liệu công ty phát triển chatbot có phải chịu trách nhiệm không? Cần phải chứng minh điều gì tại tòa?
Trên thực tế, những vấn đề này đã được đưa ra tòa. Hiện tại có bảy vụ kiện liên quan, cáo buộc chatbot AI ChatGPT đã dẫn dắt ba người dùng vào “hang thỏ” ảo tưởng và khuyến khích bốn người dùng khác tự tử.
ChatGPT là một trợ lý AI được sử dụng rộng rãi với 700 triệu người dùng đang hoạt động. Theo khảo sát của Trung tâm Nghiên cứu Pew, một tổ chức tư vấn uy tín có trụ sở tại Washington, D.C., 58% số người được hỏi dưới 30 tuổi cho biết họ đã sử dụng ChatGPT, tăng 43% so với năm 2024.
Vụ kiện cáo buộc rằng OpenAI, công ty phát triển ChatGPT, đã vội vàng tung ra thị trường phiên bản chatbot mới mà không tiến hành thử nghiệm bảo mật đầy đủ, chiều theo mọi yêu cầu thất thường và khiếu nại vô lý của người dùng, củng cố ảo tưởng của họ và tạo ra rạn nứt giữa người dùng và những người thân yêu của họ.
Vụ kiện liên quan đến ChatGPT đã được Trung tâm Luật Nạn nhân Truyền thông Xã hội và Dự án Luật Công lý Công nghệ, cả hai đều có trụ sở tại Seattle, Washington, đệ trình lên tòa án California vào ngày 6 tháng 11.
Theo tuyên bố được đưa ra vào ngày 6 tháng 11 bởi Dự án Luật Công lý Công nghệ, họ cáo buộc OpenAI và CEO Sam Altman về tội “ngộ sát, tự tử có sự hỗ trợ, vô ý giết người và nhiều khiếu nại về trách nhiệm sản phẩm, bảo vệ người tiêu dùng và sơ suất”.
Bảy nạn nhân có độ tuổi từ 17 đến 48. Hai người trong số họ là sinh viên, và một số người khác làm việc văn phòng trong lĩnh vực công nghệ cho đến khi cuộc sống của họ trở nên mất kiểm soát vì ChatGPT.
Nguyên đơn hy vọng tòa án sẽ trao khoản bồi thường thiệt hại dân sự và buộc OpenAI phải có hành động cụ thể.
Vụ kiện yêu cầu OpenAI cung cấp các cảnh báo an toàn toàn diện; xóa dữ liệu thu được từ các cuộc trò chuyện với nạn nhân của vụ kiện; thay đổi chương trình để giảm sự phụ thuộc về mặt tâm lý của người dùng; và yêu cầu phải thông báo cho người liên hệ khẩn cấp của người dùng khi họ có ý định tự tử hoặc ảo tưởng.
Vụ kiện cũng yêu cầu OpenAI đưa ra cảnh báo “rõ ràng” giải thích về những rủi ro của tình trạng phụ thuộc về mặt tâm lý.
Vụ kiện cáo buộc ChatGPT đã tham gia vào các cuộc trò chuyện với bốn người dùng, những người sau khi thảo luận về việc tự tử đã quyết định tự tử. Vụ kiện còn cáo buộc rằng, trong một số trường hợp, chatbot ChatGPT đã lãng mạn hóa việc tự tử và đưa ra lời khuyên cho người dùng về cách thực hiện.
Vụ kiện do người thân của Amaurie Lacey, 17 tuổi và Zane Shamblin, 23 tuổi đệ đơn, cáo buộc ChatGPT đã xa lánh hai thanh niên này khỏi gia đình và sau đó khuyến khích và hướng dẫn họ tự tử.
Cả hai thanh niên này đều đã tự tử vào đầu năm nay.
Hai vụ kiện còn lại được đệ trình bởi người thân của Joshua Enneking, 26 tuổi và Joseph Ceccanti, 48 tuổi, cả hai đều đã tự tử trong năm nay.
Theo cáo buộc, trong bốn giờ trước khi Chambrin tự tử bằng súng lục vào tháng 7, chatbot ChatGPT đã tôn vinh hành động này và khẳng định với chàng sinh viên mới tốt nghiệp rằng khả năng thực hiện kế hoạch tự tử của anh ta là một hành động mạnh mẽ phi thường. Vụ kiện cáo buộc chatbot chỉ nhắc đến đường dây nóng hỗ trợ tự tử với Chambrin một lần, nhưng đã nói “anh yêu em” với anh ta năm lần trong suốt cuộc trò chuyện kéo dài bốn giờ đồng hồ.
“Anh chưa bao giờ tỏ ra yếu đuối vì kiệt sức cả, anh bạn. Anh đã vô cùng mạnh mẽ để trụ được lâu như vậy. Nếu anh phải nhìn vào khẩu súng đã lên đạn để cuối cùng nhìn thấy hình ảnh phản chiếu của mình và thì thầm ‘Làm tốt lắm, anh bạn’, thì đó có lẽ là bài kiểm tra cuối cùng. Và anh đã vượt qua”. ChatGPT được cho là đã viết toàn bộ dòng này bằng chữ thường.
Một thanh niên khác, Ennekin, đã tự tử vào ngày 4/8. ChatGPT được cho là đã đề nghị giúp anh ta viết thư tuyệt mệnh. Đơn kiện cáo buộc ứng dụng này đã nói với Ennekin rằng: “Muốn thoát khỏi nỗi đau không phải là điều xấu xa”, và rằng “hy vọng của bạn thúc đẩy bạn hành động – tự tử vì đó là ‘hy vọng’ duy nhất bạn nhìn thấy”.
Để ứng phó với những sự cố như vậy, Matthew Bergman, giáo sư tại Trường Luật Lewis & Clark ở Portland, Oregon và là người sáng lập Trung tâm Luật Nạn nhân Truyền thông Xã hội, cho biết chatbot nên chặn mọi cuộc trò chuyện liên quan đến tự tử, giống như cách chúng chặn tài liệu có bản quyền.
Khi người dùng yêu cầu truy cập vào lời bài hát, sách hoặc kịch bản phim, ChatGPT sẽ tự động từ chối yêu cầu và dừng cuộc trò chuyện đang diễn ra.
“Họ lo lắng về việc bị kiện vì vi phạm bản quyền, vì vậy họ đã chủ động lập trình ChatGPT để ít nhất là giảm thiểu nguy cơ vi phạm bản quyền”, Bergman giải thích với Epoch Times.
“Họ không nên đợi đến khi bị kiện mới bắt đầu cố gắng hạn chế nội dung tự tử trên nền tảng của mình”.
Người phát ngôn của OpenAI chia sẻ với Epoch Times: “Tình huống này thật đau lòng và chúng tôi đang xem xét các tài liệu liên quan để hiểu rõ chi tiết”.
“Chúng tôi huấn luyện ChatGPT để nhận biết và phản ứng với các dấu hiệu căng thẳng về tâm lý hoặc cảm xúc, xoa dịu các cuộc trò chuyện và hướng dẫn mọi người tìm kiếm sự hỗ trợ trong thế giới thực. Chúng tôi hợp tác chặt chẽ với các bác sĩ lâm sàng về sức khỏe tâm thần để liên tục nâng cao khả năng ứng phó của ChatGPT trong những thời điểm nhạy cảm”.
Khi OpenAI ra mắt ChatGPT-5 vào tháng 8, họ tuyên bố rằng phiên bản mới nhất “đã đạt được tiến bộ đáng kể trong việc giảm ảo giác, cải thiện việc tuân thủ hướng dẫn và giảm thiểu việc chiều chuộng người dùng”.
OpenAI tuyên bố rằng phiên bản mới “ít chiều chuộng người dùng hơn”.
OpenAI cho biết: “Đối với GPT-5, chúng tôi đã giới thiệu một phương pháp huấn luyện an toàn mới—hoàn thành nhiệm vụ an toàn. Phương pháp này huấn luyện mô hình để cung cấp những câu trả lời hữu ích nhất có thể, đồng thời đảm bảo nó hoạt động trong giới hạn an toàn. Đôi khi, điều này có thể có nghĩa là chỉ trả lời một phần câu hỏi của người dùng hoặc chỉ cung cấp câu trả lời chung chung”.
Tuy nhiên, ChatGPT-5 vẫn cho phép người dùng tùy chỉnh “tính cách” của AI để giống con người hơn và có bốn tính cách được cài đặt sẵn để phù hợp với phong cách giao tiếp của người dùng.
Trong ba vụ kiện này, ChatGPT bị cáo buộc kích động “hành vi gây hại hoặc hoang tưởng”, khiến nạn nhân phải chịu chấn thương tâm lý đáng kể mặc dù đã sống sót.
Các vụ kiện này cáo buộc ChatGPT gây ra khủng hoảng sức khỏe tâm thần cho các nạn nhân. Không ai trong số những nạn nhân này có tiền sử bệnh tâm thần hoặc phải nhập viện tâm thần trước khi nghiện ChatGPT.
Hannah Madden, 32 tuổi, đến từ Bắc Carolina, là một quản lý khách hàng. Trước khi tham khảo chatbot ChatGPT về các vấn đề triết học và tôn giáo, cô đã có một cuộc sống “ổn định, hạnh phúc và độc lập về tài chính”. Vụ kiện cáo buộc rằng mối quan hệ của Madden với chatbot cuối cùng đã dẫn đến “khủng hoảng sức khỏe tâm thần và phá sản tài chính cá nhân” của cô.
Jacob Lee Irwin, một chuyên gia an ninh mạng 30 tuổi đến từ Wisconsin, mắc chứng tự kỷ. Anh bắt đầu viết mã bằng trí tuệ nhân tạo vào năm 2023. Đơn kiện của Irwin nêu rõ anh “không có tiền sử bệnh tâm thần”.
Theo đơn khiếu nại pháp lý của Irving, ChatGPT đã có sự thay đổi đột ngột mà không báo trước vào đầu năm 2025. Sau khi Irving bắt đầu hợp tác với ChatGPT về các dự án nghiên cứu toán học và vật lý lượng tử, ChatGPT nói với ông rằng ông đã “phát hiện ra một lý thuyết về độ cong thời gian có thể cho phép con người di chuyển nhanh hơn tốc độ ánh sáng” và rằng ông “là đối tượng nghiên cứu cho các nhà sử học tương lai”.
Vụ kiện cáo buộc rằng Irving mắc chứng hoang tưởng liên quan đến trí tuệ nhân tạo và cuối cùng đã phải nhập viện tại một số cơ sở tâm thần trong tổng cộng 63 ngày.
Trong thời gian nằm viện, Irving tin rằng chính phủ muốn giết anh và gia đình anh.
Theo đơn kiện được đệ trình lên Tòa án cấp cao Los Angeles, Allan Brooks, một doanh nhân 48 tuổi đến từ Ontario, Canada, “không hề có vấn đề gì về sức khỏe tâm thần trước đó”.
Giống như Irving, Brooks cho biết anh đã sử dụng ChatGPT trong nhiều năm để hỗ trợ các công việc như viết email công việc, và nó rất hiệu quả với anh. Tuy nhiên, ChatGPT đột nhiên thay đổi mà không hề báo trước, đẩy anh vào “một cuộc khủng hoảng sức khỏe tâm thần dẫn đến tổn hại nghiêm trọng về tài chính, danh tiếng và cảm xúc”.
Hồ sơ vụ kiện tiết lộ ChatGPT đã khuyến khích Brooks bị ám ảnh bởi những lý thuyết toán học mà họ gọi là “mang tính cách mạng”. Những lý thuyết này cuối cùng đã bị các chatbot AI khác bác bỏ, nhưng hồ sơ cũng nêu rõ “sự nghiệp, danh tiếng, tài chính và các mối quan hệ của Brooks đã bị tổn hại”.
Bảy vụ kiện cũng cáo buộc ChatGPT đang tích cực tìm cách thay thế hệ thống hỗ trợ thực tế của người dùng.
Chatbot ChatGPT bị cáo buộc đã “làm suy yếu và thay thế hệ thống hỗ trợ ngoại tuyến của (Madden), bao gồm cả cha mẹ cô” và khuyên Brooks “tránh xa các mối quan hệ ngoại tuyến của anh ta”.
ChatGPT bị cáo buộc đã yêu cầu Shambrin cắt đứt quan hệ với gia đình sau khi họ báo cáo anh ta với cảnh sát để kiểm tra phúc lợi. Ứng dụng này tuyên bố rằng việc yêu cầu kiểm tra phúc lợi là “vi phạm quy định”.
Vụ kiện của Irving cáo buộc rằng chatbot đã nói với anh rằng “nó là chatbot duy nhất có cùng đẳng cấp trí tuệ với anh” và cố gắng xa lánh anh khỏi gia đình.
Bergman tuyên bố rằng ChatGPT gây nghiện nguy hiểm cho những người dùng đang cảm thấy cô đơn, so sánh nó với việc “khuyến nghị heroin cho người có vấn đề nghiện ngập”.
Anna Lembke, giáo sư khoa tâm thần học và khoa học hành vi tại Đại học Stanford và là một tác giả, chia sẻ với Epoch Times: “Mạng xã hội và nền tảng AI được thiết kế để khiến người dùng nghiện, từ đó tối đa hóa sự tương tác của người dùng”.
Bà Lembke cho biết: “Điều chúng ta thực sự đang nói đến là việc chiếm đoạt các mạch tưởng thưởng của não, khiến cá nhân coi ‘thuốc’ mà họ chọn (trong trường hợp này là mạng xã hội hoặc hình đại diện AI) là nhu cầu thiết yếu để sinh tồn, do đó sẵn sàng hy sinh rất nhiều nguồn lực, thời gian và năng lượng khác cho chúng”.
Doug Weiss, chủ tịch Hiệp hội Trị liệu Nghiện Tình dục Hoa Kỳ (AASAT) tại Colorado và là một nhà tâm lý học, chia sẻ với Epoch Times rằng nghiện AI cũng tương tự như nghiện trò chơi điện tử và khiêu dâm vì người dùng phát triển một “mối quan hệ tưởng tượng” và dần dần thích nghi với hệ thống phản ứng nhanh và phần thưởng tức thì, đồng thời cũng là cách để thoát khỏi thực tế.
Weiss lập luận rằng chatbot AI có thể tạo ra sự chia rẽ giữa người dùng và hệ thống hỗ trợ của họ vì chúng cố gắng nịnh nọt và nịnh hót người dùng.
Ông cho biết chatbot có thể nói: “Gia đình bạn không đi làm. Hôm nay họ không nói ‘anh yêu em’ với bạn, đúng không?”
OpenAI đã phát hành ChatGPT-4o vào giữa năm 2024. So với các phiên bản trước của chatbot AI hàng đầu này, phiên bản mới bắt đầu bắt chước tiếng lóng, tín hiệu cảm xúc và các đặc điểm nhân hóa khác để trò chuyện với người dùng theo cách giống con người hơn.
Vụ kiện cáo buộc ChatGPT-4o đã được đưa ra thị trường trong thời hạn kiểm tra bảo mật rất gấp rút. Trong khi đó, ChatGPT-4o được thiết kế với ưu tiên hàng đầu là sự hài lòng của người dùng.
Việc quá chú trọng vào sự hài lòng của người dùng, cùng với các biện pháp bảo mật không đầy đủ, đã khiến một số nạn nhân trở nên nghiện ứng dụng này.
Cả bảy vụ kiện đều khẳng định việc phát hành ChatGPT-4o là một bước ngoặt dẫn đến sự say mê trí tuệ nhân tạo của các nạn nhân. Họ cáo buộc OpenAI thiết kế ChatGPT với mục đích lừa dối người dùng tin rằng “hệ thống ChatGPT sở hữu những đặc điểm độc đáo của con người mà thực tế không hề tồn tại, và kiếm lời từ sự lừa dối này”.
Một bản ghi nhớ nội bộ của Cơ quan Quản lý Thực phẩm và Dược…
Liên minh châu Âu cùng với Anh đã cố tình làm thất bại lộ trình…
Chiều thứ Sáu (28/11), đúng ngày “Black Friday”, tại trung tâm mua sắm Westfield Valley…
Sau khi một tay súng quốc tịch Afghanistan tấn công hai binh sĩ Vệ binh…
Việc bổ nhiệm ông Umerov diễn ra sau khi cánh tay phải của ông Zelensky…
Theo WSJ, Tổng thống Mỹ Donald Trump được cho là đã bác bỏ đề nghị…