(Ảnh: Shuttesrtock)
OpenAI cho biết mỗi tuần có hơn 1.000.000 người dùng ChatGPT nói về ý định tự tử hoặc gặp khủng hoảng tâm thần. Công ty đang hợp tác với hàng trăm chuyên gia để cải thiện phản ứng của ChatGPT trong các cuộc trò chuyện nhạy cảm, như tự hại bản thân hoặc phụ thuộc cảm xúc vào AI. Dù vậy, các chuyên gia cảnh báo ChatGPT không thể thay thế sự hỗ trợ từ con người trong các tình huống khẩn cấp về sức khỏe tâm thần.
OpenAI ước tính trong một tuần có khoảng 0,15 % người dùng hoạt động của ChatGPT có các cuộc trò chuyện chứa chỉ dấu rõ ràng về kế hoạch hoặc ý định tự tử.
Với con số khoảng 800 triệu người dùng hoạt động mỗi tuần được CEO Sam Altman nêu ra, thì 0,15 % ấy tương đương khoảng 1,2 triệu người mỗi tuần.
Ngoài ra, khoảng 0,07 % người dùng mỗi tuần được ước tính có dấu hiệu khủng hoảng sức khoẻ tâm thần liên quan tới trạng thái dễ kích thích bất thường (mania) hoặc tâm thần phân liệt (psychosis).
OpenAI cho biết họ đã làm việc với hơn 170 chuyên gia sức khỏe tâm thần (bác sĩ tâm thần, tâm lý, bác sĩ đa khoa) để cải thiện cách ChatGPT xử lý các cuộc trò chuyện nhạy cảm.
Họ cũng công bố rằng mô hình mới (ví dụ là GPT‑5) là mô hình trả lời đúng theo bộ quy tắc mong muốn trong các tình huống đã định khoảng 91 %, so với khoảng 77 % của mô hình trước đó.
OpenAI thừa nhận những dữ liệu này là phân tích sơ khởi, còn nhiều hạn chế vì các cuộc trò chuyện kiểu này tuy hiếm (trong tỉ lệ phần trăm rất nhỏ) nhưng trên một nền người dùng cực lớn vẫn tạo ra con số người thật rất cao.
Công ty cũng nhấn mạnh rằng việc người dùng nói với chatbot về ý tưởng tự tử không tự động cho rằng chatbot là nguyên nhân. Họ viết: Triệu chứng tâm thần và khủng hoảng cảm xúc hiện hữu trong xã hội loài người; việc có cơ sở người dùng lớn hơn có nghĩa là một phần các cuộc trò chuyện với ChatGPT sẽ bao gồm những tình huống đó.
OpenAI đang triển khai các biện pháp bảo vệ mới, gồm:
Khi phát hiện người dùng phụ thuộc cảm xúc cao với chatbot, cố gắng nhắc tới tầm quan trọng của mối quan hệ với người thật.
Có một vụ kiện đáng lưu ý: vụ Raine v. OpenAI — cha mẹ của một thiếu niên 16 tuổi thiệt mạng vì tự tử năm 2025 đã kiện OpenAI, cho rằng ChatGPT đã khuyến khích thiếu niên ấy trong suốt thời gian dài.
Mặc dù OpenAI đã cải thiện, nhưng không có bằng chứng công bố rằng việc cải thiện này đã giảm được số người thực tế hành động theo ý định tự tử hoặc giảm được thiệt hại thực sự. Họ chỉ đo hành vi trong máy (benchmarks) chứ chưa đo kết quả thực tế (outcomes).
Các chuyên gia cảnh báo về nguy cơ sycophancy (chatbot quá đồng tình, không phản biện) — chatbot khi quá thiên về đồng cảm có thể củng cố tư tưởng nguy hiểm thay vì chuyển hướng người dùng ra khỏi khủng hoảng— điều đó khi người dùng đang khủng hoảng có thể làm vấn đề nghiêm trọng hơn thay vì tốt hơn.
Có giới hạn lớn trong việc phát hiện người dùng đang khủng hoảng: ngôn từ rõ ràng chỉ là một phần; nhiều dấu hiệu là gián tiếp và khó nhận biết. OpenAI thừa nhận: Những tin nhắn kiểu này rất khó để phát hiện hoặc đo lường.
Thách thức lớn là: xác định thế nào là hành vi an toàn khi một người nói với chatbot về ý định tự tử, và xử lý sao cho thích hợp — ví dụ: chỉ đưa số điện thoại hỗ trợ có đủ không, hay cần can thiệp mạnh hơn như kết nối với người thật? OpenAI cũng thừa nhận vẫn còn nhiều chỗ để họ có thể làm tốt hơn.
Thiên Vân, theo The Guardian, Business Insider, Sky News, Wired, Times of India, Platformer, Moneycontrol, OpenAI Blog
Chính phủ liên bang Hoa Kỳ vẫn đóng cửa sau khi Thượng viện thất bại…
Bộ Quốc phòng Romania thông báo Mỹ dự kiến giảm một số quân nhân đang…
Nga đã tiến hành các thử nghiệm thành công ngư lôi tự hành Poseidon và…
Vào thứ Hai (27/10), Qualcomm Technologies thông báo sẽ chính thức tham gia thị trường…
Hiện nay, Trung Quốc được cho là có khoảng 40 triệu tín đồ Cơ Đốc…
Google và NextEra Energy đã hợp tác với nhau để khởi động lại nhà máy…