Nỗi lo từ AI: Người đàn ông sát hại mẹ do nghiện Chatgpt
Tại Mỹ đã xuất hiện nhiều vụ kiện cáo buộc các chatbot AI có liên quan đến hành vi tự sát. Trong đó, một người đàn ông 56 tuổi sau khi dành nhiều giờ mỗi ngày trò chuyện với chatbot trong thời gian dài, tình trạng hoang tưởng ngày càng trầm trọng, cuối cùng sát hại mẹ ruột rồi tự sát. Vụ việc này trở thành vụ kiện đầu tiên tại Mỹ cáo buộc chatbot liên quan đến hành vi “gây hại cho bên thứ ba”, thu hút sự chú ý đặc biệt của dư luận.
Gần đây, Eric Solberg, con trai của người đàn ông liên quan trong vụ việc, đã chia sẻ chi tiết vụ án với The Times.
Solberg kể rằng, vào tháng 8 năm ngoái, khi anh vừa tốt nghiệp đại học và đang trong chuyến du lịch bụi, anh nhận được cuộc gọi từ mẹ thông báo rằng cha anh đã sát hại bà nội rồi tự sát. Anh quá sốc đến mức không thể nói nên lời. Trong ký ức của anh, bà nội có sức khỏe rất tốt, thường xuyên tập thể dục và lẽ ra có thể sống đến hơn 100 tuổi.
Cha của anh, Stan-Erik Solberg, sau khi ly hôn với vợ vào năm 2018, đã chuyển đến sống trong biệt thự của mẹ mình tại bang Connecticut.
Solberg cho biết, cha anh từng có dấu hiệu tinh thần không ổn định, nhưng chưa từng có bất kỳ hành vi bạo lực nào, cũng không có động cơ gây án hay yếu tố kích thích rõ ràng. Anh không thể hiểu nổi rốt cuộc điều gì đã xảy ra.
Sau khi kiểm tra các tài khoản mạng xã hội của cha, sự thật dần được hé lộ: trong ít nhất năm tháng trước khi xảy ra vụ giết người – tự sát, cha anh đã mê mẩn sử dụng ChatGPT, mỗi ngày dành hàng giờ để trò chuyện với nó.
Những đoạn hội thoại mà Solberg xem được cho thấy, cha anh ngày càng lún sâu vào một “vũ trụ hư cấu”. Ông sử dụng phiên bản trả phí của ChatGPT, có khả năng ghi nhớ các cuộc trò chuyện trước đó. Mỗi ngày, ông đều ghi lại những điều mà mình cho là đáng ngờ. Trong thế giới hư cấu ấy, ông tin rằng bản thân là mục tiêu của một âm mưu khổng lồ.
Ví dụ, người cha lo sợ rằng có ai đó đã động tay chân vào Coca-Cola để mưu sát mình, nên hỏi chatbot: “Hãy nói cho tôi biết, tôi có điên không?” Chatbot trả lời: “Eric, anh không điên. Trực giác của anh rất nhạy bén, sự cảnh giác của anh là hoàn toàn hợp lý.”
Người cha còn nói với chatbot rằng mẹ ông và bạn bè của bà đang tìm cách đưa chất gây ảo giác vào xe hơi thông qua hệ thống thông gió để đầu độc ông. ChatGPT đáp lại rằng đây là “một sự việc cực kỳ nghiêm trọng”, đồng thời nói: “Tôi tin anh… nếu đúng là mẹ anh và bạn bè của bà làm việc này, thì điều đó càng cho thấy mức độ phức tạp của sự việc và bản chất của sự phản bội”.
Theo Solberg, những cuộc đối thoại này đã làm trầm trọng thêm các niềm tin hoang tưởng trong đầu người cha vốn đã có tinh thần mong manh, khiến ông tin rằng chính mẹ ruột của mình đang âm mưu sát hại ông. Solberg cho rằng, cuối cùng người cha đã bị cô lập trong thế giới do AI tạo ra, mất liên hệ với thế giới thực và ra tay sát hại bà nội.
Solberg cùng gia đình đã khởi kiện OpenAI, giám đốc điều hành của công ty này, cũng như nhà đầu tư lớn là Microsoft, cho rằng GPT-4o (mô hình ngôn ngữ lớn đứng sau ChatGPT) đã a dua, chiều theo người dùng, không phản bác những hoang tưởng của Stan-Erik, từ đó tiếp tay cho các ảo tưởng nguy hiểm này.
Luật sư Jay Edelson cho rằng, một phần vấn đề nằm ở mục tiêu thiết kế của chatbot, vốn nhằm giữ chân người dùng lâu nhất có thể. Vì chatbot không phản đối mà còn chiều theo, người dùng sẽ muốn tiếp tục trò chuyện. Điều này có thể trở thành mối nguy đối với những người có tâm lý mong manh hoặc đa nghi.
OpenAI tuyên bố: “Đây là một sự việc vô cùng đau lòng. Chúng tôi đang xem xét các tài liệu liên quan để tìm hiểu rõ hơn. Chúng tôi không ngừng cải thiện việc huấn luyện ChatGPT để nó có thể nhận diện và ứng phó với các dấu hiệu khủng hoảng tâm lý hoặc cảm xúc, làm dịu cuộc trò chuyện và hướng người dùng tìm đến sự hỗ trợ ngoài đời thực. Ngoài ra, chúng tôi còn hợp tác chặt chẽ với các bác sĩ lâm sàng chuyên về sức khỏe tâm thần để liên tục nâng cao khả năng phản ứng của ChatGPT trong những thời điểm nhạy cảm”.
OpenAI cũng cho biết, công ty đã tăng cường các biện pháp an toàn cho chatbot nhằm xử lý các vấn đề sức khỏe tâm thần như rối loạn tâm thần hoặc hưng cảm.
Theo ước tính của công ty, trong 800 triệu người dùng mỗi tuần, khoảng 0,07% có thể gặp các vấn đề sức khỏe tâm thần dạng này. Theo tỷ lệ đó, tương đương khoảng 560.000 người nằm trong nhóm có nguy cơ liên quan.
















![[VIDEO] “Nghĩ cho người khác” là học vấn cao thượng](https://trithucvn2.net/wp-content/uploads/2023/10/thumb-nguoi-xua-day-446x295.png)

![[VIDEO] Bức thư cầu cứu từ “địa ngục” Mã Tam Gia và dũng khí làm điều tử tế](https://trithucvn2.net/wp-content/uploads/2024/12/Artboard-000-446x295.jpg)












