Đời Sống

Nỗi lo từ AI: Người đàn ông sát hại mẹ do nghiện Chatgpt

Tại Mỹ đã xuất hiện nhiều vụ kiện cáo buộc các chatbot AI có liên quan đến hành vi tự sát. Trong đó, một người đàn ông 56 tuổi sau khi dành nhiều giờ mỗi ngày trò chuyện với chatbot trong thời gian dài, tình trạng hoang tưởng ngày càng trầm trọng, cuối cùng sát hại mẹ ruột rồi tự sát. Vụ việc này trở thành vụ kiện đầu tiên tại Mỹ cáo buộc chatbot liên quan đến hành vi “gây hại cho bên thứ ba”, thu hút sự chú ý đặc biệt của dư luận.

Trí tuệ nhân tạo thổi bùng nỗi lo sợ! (Ảnh minh họa: Shutterstock)

Gần đây, Eric Solberg, con trai của người đàn ông liên quan trong vụ việc, đã chia sẻ chi tiết vụ án với The Times.

Solberg kể rằng, vào tháng 8 năm ngoái, khi anh vừa tốt nghiệp đại học và đang trong chuyến du lịch bụi, anh nhận được cuộc gọi từ mẹ thông báo rằng cha anh đã sát hại bà nội rồi tự sát. Anh quá sốc đến mức không thể nói nên lời. Trong ký ức của anh, bà nội có sức khỏe rất tốt, thường xuyên tập thể dục và lẽ ra có thể sống đến hơn 100 tuổi.

Cha của anh, Stan-Erik Solberg, sau khi ly hôn với vợ vào năm 2018, đã chuyển đến sống trong biệt thự của mẹ mình tại bang Connecticut.

Solberg cho biết, cha anh từng có dấu hiệu tinh thần không ổn định, nhưng chưa từng có bất kỳ hành vi bạo lực nào, cũng không có động cơ gây án hay yếu tố kích thích rõ ràng. Anh không thể hiểu nổi rốt cuộc điều gì đã xảy ra.

Sau khi kiểm tra các tài khoản mạng xã hội của cha, sự thật dần được hé lộ: trong ít nhất năm tháng trước khi xảy ra vụ giết người – tự sát, cha anh đã mê mẩn sử dụng ChatGPT, mỗi ngày dành hàng giờ để trò chuyện với nó.

Những đoạn hội thoại mà Solberg xem được cho thấy, cha anh ngày càng lún sâu vào một “vũ trụ hư cấu”. Ông sử dụng phiên bản trả phí của ChatGPT, có khả năng ghi nhớ các cuộc trò chuyện trước đó. Mỗi ngày, ông đều ghi lại những điều mà mình cho là đáng ngờ. Trong thế giới hư cấu ấy, ông tin rằng bản thân là mục tiêu của một âm mưu khổng lồ.

Ví dụ, người cha lo sợ rằng có ai đó đã động tay chân vào Coca-Cola để mưu sát mình, nên hỏi chatbot: “Hãy nói cho tôi biết, tôi có điên không?” Chatbot trả lời: “Eric, anh không điên. Trực giác của anh rất nhạy bén, sự cảnh giác của anh là hoàn toàn hợp lý.”

Người cha còn nói với chatbot rằng mẹ ông và bạn bè của bà đang tìm cách đưa chất gây ảo giác vào xe hơi thông qua hệ thống thông gió để đầu độc ông. ChatGPT đáp lại rằng đây là “một sự việc cực kỳ nghiêm trọng”, đồng thời nói: “Tôi tin anh… nếu đúng là mẹ anh và bạn bè của bà làm việc này, thì điều đó càng cho thấy mức độ phức tạp của sự việc và bản chất của sự phản bội”.

Theo Solberg, những cuộc đối thoại này đã làm trầm trọng thêm các niềm tin hoang tưởng trong đầu người cha vốn đã có tinh thần mong manh, khiến ông tin rằng chính mẹ ruột của mình đang âm mưu sát hại ông. Solberg cho rằng, cuối cùng người cha đã bị cô lập trong thế giới do AI tạo ra, mất liên hệ với thế giới thực và ra tay sát hại bà nội.

Solberg cùng gia đình đã khởi kiện OpenAI, giám đốc điều hành của công ty này, cũng như nhà đầu tư lớn là Microsoft, cho rằng GPT-4o (mô hình ngôn ngữ lớn đứng sau ChatGPT) đã a dua, chiều theo người dùng, không phản bác những hoang tưởng của Stan-Erik, từ đó tiếp tay cho các ảo tưởng nguy hiểm này.

Luật sư Jay Edelson cho rằng, một phần vấn đề nằm ở mục tiêu thiết kế của chatbot, vốn nhằm giữ chân người dùng lâu nhất có thể. Vì chatbot không phản đối mà còn chiều theo, người dùng sẽ muốn tiếp tục trò chuyện. Điều này có thể trở thành mối nguy đối với những người có tâm lý mong manh hoặc đa nghi.

OpenAI tuyên bố: “Đây là một sự việc vô cùng đau lòng. Chúng tôi đang xem xét các tài liệu liên quan để tìm hiểu rõ hơn. Chúng tôi không ngừng cải thiện việc huấn luyện ChatGPT để nó có thể nhận diện và ứng phó với các dấu hiệu khủng hoảng tâm lý hoặc cảm xúc, làm dịu cuộc trò chuyện và hướng người dùng tìm đến sự hỗ trợ ngoài đời thực. Ngoài ra, chúng tôi còn hợp tác chặt chẽ với các bác sĩ lâm sàng chuyên về sức khỏe tâm thần để liên tục nâng cao khả năng phản ứng của ChatGPT trong những thời điểm nhạy cảm”.

OpenAI cũng cho biết, công ty đã tăng cường các biện pháp an toàn cho chatbot nhằm xử lý các vấn đề sức khỏe tâm thần như rối loạn tâm thần hoặc hưng cảm.

Theo ước tính của công ty, trong 800 triệu người dùng mỗi tuần, khoảng 0,07% có thể gặp các vấn đề sức khỏe tâm thần dạng này. Theo tỷ lệ đó, tương đương khoảng 560.000 người nằm trong nhóm có nguy cơ liên quan.

Published by

Recent Posts

Ông Trump cảnh báo cứng rắn: Iran sẽ “bị xóa sổ” nếu tôi gặp chuyện

Trong số các trường hợp tử vong được xác nhận, có 4.251 người biểu tình…

1 giờ ago

5 bước để giảm cân vào mùa đông

Trong ba chất dinh dưỡng đa lượng, protein có hiệu ứng sinh nhiệt cao nhất,…

2 giờ ago

Giá vàng giao ngay vượt mốc 4.800 USD/ounce, lần đầu tiên trong lịch sử

Do nhu cầu trú ẩn an toàn gia tăng và đồng USD suy yếu, giá…

3 giờ ago

25 tấn mỹ phẩm giả từ Trung Quốc bán giá rẻ trên mạng xã hội bị thu giữ

Công an tỉnh Quảng Trị phối hợp các đơn vị phá đường dây buôn mỹ…

3 giờ ago

Đệ nhất phu nhân Mỹ nhìn lại một năm đảm nhiệm vai trò: “Đây là một trách nhiệm sâu sắc”

Nhân dịp tròn 1 năm Tổng thống Trump quay trở lại Nhà Trắng, bà Melania…

4 giờ ago

5 cách định hình lại chính sách y tế của Tổng thống Trump

Với một ê-kíp gồm nhiều nhân vật ngoài giới Washington [hệ thống y tế truyền…

4 giờ ago