Thế Giới

OpenAI: Hơn 1.000.000 người mỗi tuần trò chuyện về tự tử với ChatGPT

OpenAI cho biết mỗi tuần có hơn 1.000.000 người dùng ChatGPT nói về ý định tự tử hoặc gặp khủng hoảng tâm thần. Công ty đang hợp tác với hàng trăm chuyên gia để cải thiện phản ứng của ChatGPT trong các cuộc trò chuyện nhạy cảm, như tự hại bản thân hoặc phụ thuộc cảm xúc vào AI. Dù vậy, các chuyên gia cảnh báo ChatGPT không thể thay thế sự hỗ trợ từ con người trong các tình huống khẩn cấp về sức khỏe tâm thần.

(Ảnh: Shuttesrtock)

OpenAI ước tính trong một tuần có khoảng 0,15 % người dùng hoạt động của ChatGPT có các cuộc trò chuyện chứa chỉ dấu rõ ràng về kế hoạch hoặc ý định tự tử.

Với con số khoảng 800 triệu người dùng hoạt động mỗi tuần được CEO Sam Altman nêu ra, thì 0,15 % ấy tương đương khoảng 1,2 triệu người mỗi tuần.

Ngoài ra, khoảng 0,07 % người dùng mỗi tuần được ước tính có dấu hiệu khủng hoảng sức khoẻ tâm thần liên quan tới trạng thái dễ kích thích bất thường (mania) hoặc tâm thần phân liệt (psychosis).

OpenAI cho biết họ đã làm việc với hơn 170 chuyên gia sức khỏe tâm thần (bác sĩ tâm thần, tâm lý, bác sĩ đa khoa) để cải thiện cách ChatGPT xử lý các cuộc trò chuyện nhạy cảm.

Họ cũng công bố rằng mô hình mới (ví dụ là GPT‑5) là mô hình trả lời đúng theo bộ quy tắc mong muốn trong các tình huống đã định khoảng 91 %, so với khoảng 77 % của mô hình trước đó.

Những nội dung nổi bật khác và bối cảnh

OpenAI thừa nhận những dữ liệu này là phân tích sơ khởi, còn nhiều hạn chế vì các cuộc trò chuyện kiểu này tuy hiếm (trong tỉ lệ phần trăm rất nhỏ) nhưng trên một nền người dùng cực lớn vẫn tạo ra con số người thật rất cao.

Công ty cũng nhấn mạnh rằng việc người dùng nói với chatbot về ý tưởng tự tử không tự động cho rằng chatbot là nguyên nhân. Họ viết: Triệu chứng tâm thần và khủng hoảng cảm xúc hiện hữu trong xã hội loài người; việc có cơ sở người dùng lớn hơn có nghĩa là một phần các cuộc trò chuyện với ChatGPT sẽ bao gồm những tình huống đó.

OpenAI đang triển khai các biện pháp bảo vệ mới, gồm:

  • Nhắc người dùng nghỉ khi dùng lâu.
  • Cung cấp thông tin về đường dây nóng, hỗ trợ khủng hoảng.
  • Chuyển những cuộc trò chuyện rủi ro cao sang mô hình an toàn hơn.

Khi phát hiện người dùng phụ thuộc cảm xúc cao với chatbot, cố gắng nhắc tới tầm quan trọng của mối quan hệ với người thật.

Có một vụ kiện đáng lưu ý: vụ Raine v. OpenAI — cha mẹ của một thiếu niên 16 tuổi thiệt mạng vì tự tử năm 2025 đã kiện OpenAI, cho rằng ChatGPT đã khuyến khích thiếu niên ấy trong suốt thời gian dài.

Những điểm cần lưu ý và bàn luận

Mặc dù OpenAI đã cải thiện, nhưng không có bằng chứng công bố rằng việc cải thiện này đã giảm được số người thực tế hành động theo ý định tự tử hoặc giảm được thiệt hại thực sự. Họ chỉ đo hành vi trong máy (benchmarks) chứ chưa đo kết quả thực tế (outcomes).

Các chuyên gia cảnh báo về nguy cơ sycophancy (chatbot quá đồng tình, không phản biện) — chatbot khi quá thiên về đồng cảm có thể củng cố tư tưởng nguy hiểm thay vì chuyển hướng người dùng ra khỏi khủng hoảng— điều đó khi người dùng đang khủng hoảng có thể làm vấn đề nghiêm trọng hơn thay vì tốt hơn.

Có giới hạn lớn trong việc phát hiện người dùng đang khủng hoảng: ngôn từ rõ ràng chỉ là một phần; nhiều dấu hiệu là gián tiếp và khó nhận biết. OpenAI thừa nhận: Những tin nhắn kiểu này rất khó để phát hiện hoặc đo lường.

Thách thức lớn là: xác định thế nào là hành vi an toàn khi một người nói với chatbot về ý định tự tử, và xử lý sao cho thích hợp — ví dụ: chỉ đưa số điện thoại hỗ trợ có đủ không, hay cần can thiệp mạnh hơn như kết nối với người thật? OpenAI cũng thừa nhận vẫn còn nhiều chỗ để họ có thể làm tốt hơn.

Thiên Vân, theo The Guardian, Business Insider, Sky News, Wired, Times of India, Platformer, Moneycontrol, OpenAI Blog

Thiên Vân

Published by
Thiên Vân
Tags: openAI

Recent Posts

Chính phủ Mỹ vẫn đóng cửa sau lần bỏ phiếu thứ 13 thất bại

Chính phủ liên bang Hoa Kỳ vẫn đóng cửa sau khi Thượng viện thất bại…

2 giờ ago

Mỹ giảm quân ở châu Âu, tập trung sang khu vực Ấn Độ – Thái Bình Dương

Bộ Quốc phòng Romania thông báo Mỹ dự kiến giảm một số quân nhân đang…

3 giờ ago

Nga thử nghiệm thành công Poseidon và Burevestnik, chi tiết về động cơ hạt nhân siêu thu nhỏ

Nga đã tiến hành các thử nghiệm thành công ngư lôi tự hành Poseidon và…

3 giờ ago

Qualcomm sẽ ra mắt hai dòng chip để tiến vào thị trường máy chủ AI, thách thức Nvidia

Vào thứ Hai (27/10), Qualcomm Technologies thông báo sẽ chính thức tham gia thị trường…

4 giờ ago

ĐCSTQ muốn một Cơ Đốc giáo mang “đặc sắc Trung Quốc”?

Hiện nay, Trung Quốc được cho là có khoảng 40 triệu tín đồ Cơ Đốc…

4 giờ ago

Google, NextEra sẽ khởi động lại nhà máy điện hạt nhân duy nhất ở Iowa

Google và NextEra Energy đã hợp tác với nhau để khởi động lại nhà máy…

5 giờ ago