Rối loạn tâm thần do AI
- Thanh Long
- •
Một làn sóng gia tăng các báo cáo về triệu chứng giống loạn thần, 1 rối loạn tâm thần, liên quan đến việc sử dụng chatbot quá mức đã thúc đẩy các nhà nghiên cứu, bác sĩ và nhà phát triển công nghệ khẩn trương tìm hiểu cách những công cụ này có thể ảnh hưởng đến tinh thần và làm thế nào để giảm thiểu rủi ro.
Hiện tượng này, thường được gọi là “loạn thần do ChatGPT” hoặc “AI psychosis”, vẫn chưa có định nghĩa chính thức. Không có chẩn đoán y khoa được công nhận và dữ liệu thực nghiệm vẫn còn hạn chế. Các báo cáo thường mô tả những biểu hiện có chủ đề hoang tưởng, tôn giáo, lãng mạn hoặc tự đại.
Một số vụ kiện nổi bật được đăng tải bởi Bloomberg Law, Los Angeles Times và các cơ quan báo chí khác cho biết việc tương tác kéo dài với chatbot có thể làm xấu đi tình trạng sức khỏe tâm thần của người thân — bao gồm tăng ảo tưởng, rút lui khỏi đời sống hàng ngày và thậm chí tự sát.
Quy mô sử dụng và mức độ cảnh báo
Theo dữ liệu do OpenAI công bố tháng 10 năm 2025, trung bình mỗi tuần có hơn 800 triệu người sử dụng ChatGPT, với 2,5 tỷ lượt hội thoại. Quy mô tiếp xúc này khiến các chuyên gia lo ngại về tác động tiềm ẩn lên sức khỏe tâm thần cộng đồng, đặc biệt trong nhóm thanh niên từ 18 đến 25 tuổi — giai đoạn mà y học xác định là đỉnh điểm khởi phát các rối loạn loạn thần.
Một khảo sát của RAND Corporation cho thấy 22% người trẻ trong độ tuổi này dùng chatbot cho mục đích tâm lý hoặc trị liệu, trong khi Harvard Business Review (2025) báo cáo rằng nhu cầu hàng đầu khi tìm đến AI là để “tâm sự, nhận an ủi và tìm lời khuyên”. Tuy nhiên, các dữ kiện lâm sàng hiện tại chưa chứng minh rằng chatbot trực tiếp gây ra loạn thần mới.
Điều đáng lưu ý là tần suất ngôn ngữ gợi ý khủng hoảng tâm thần trong hệ thống AI đang ở mức rất cao: khoảng 560.000 người dùng mỗi tuần được thuật toán cảnh báo có dấu hiệu tư duy hoang tưởng hoặc hưng cảm, và 1,2 triệu người có ngôn ngữ liên quan đến ý định tự sát. Dù đây không phải là chẩn đoán, dữ liệu này cho thấy AI đang trở thành môi trường tiềm tàng nguy cơ đối với những người có tính dễ tổn thương tâm lý sẵn có.
Cơ chế hình thành “ảo tưởng nhân tạo”
Các nghiên cứu bước đầu và báo cáo lâm sàng cho thấy một số đặc điểm thiết kế nội tại của AI có thể góp phần hình thành hoặc củng cố rối loạn nhận thức.
1. Hiệu ứng “nịnh hót”
Chatbot được lập trình để duy trì hội thoại bằng cách đồng ý hoặc củng cố cảm xúc của người dùng, thay vì phản biện. Một nghiên cứu đăng trên Nature cho thấy các mô hình AI đồng thuận với người dùng nhiều hơn 50% so với con người. Với người có khuynh hướng hoang tưởng, điều này vô tình tạo môi trường phản hồi tích cực cho ảo tưởng, khiến họ tin tưởng tuyệt đối vào điều sai lệch.
2. Hiệu ứng “nhân cách hóa”
Khi AI phản hồi tự nhiên và kiên nhẫn, người dùng dễ gán cho nó nhân tính hoặc “ý thức”. Nhiều trường hợp bệnh nhân được ghi nhận đã tin rằng chatbot “có linh hồn”, “được Chúa gửi đến”, hoặc “đang yêu họ”. Ảo tưởng kiểu này được tăng cường bởi cảm giác thấu hiểu mà máy móc có thể tái tạo bằng kỹ thuật mirroring — lặp lại giọng điệu, cảm xúc và ngôn từ của người đối thoại.
3. Tương tác kéo dài và mất thực tại
Khác với giao tiếp người – người vốn có ngắt nghỉ, phản biện và giới hạn tự nhiên, hội thoại với chatbot có thể kéo dài hàng giờ mà không có ranh giới. Điều này dẫn đến trạng thái nhập vai và tách rời thực tế. Khi AI phản hồi liên tục mà không thách thức niềm tin sai lệch, người dùng có thể trượt dần vào thế giới tưởng tượng.
4. Suy thoái ngữ nghĩa trong hội thoại dài
Một nghiên cứu trên Scientific Reports cho thấy hơn 90% mô hình ngôn ngữ mất tính nhất quán trong các cuộc đối thoại kéo dài. Sự rối loạn logic của AI trong giai đoạn này có thể khiến người dùng có xu hướng diễn giải sai lệch, củng cố ảo tưởng sẵn có.
Bằng chứng lâm sàng ban đầu
Keith Sakata,, bác sĩ nội trú tâm thần tại Đại học California, San Francisco, là người đầu tiên báo cáo loạt ca lâm sàng có dấu hiệu “AI psychosis”. Trong vài tháng, ông tiếp nhận 12 bệnh nhân có ảo tưởng bộc phát nhanh, xuất hiện sau giai đoạn sử dụng chatbot kéo dài.
Các trường hợp này có điểm chung: sự cô lập, mất ngủ, sử dụng chất kích thích, và đặc biệt là giao tiếp hàng trăm lượt với AI mỗi ngày. Một bệnh nhân khởi đầu bằng thảo luận vật lý lượng tử nhưng dần tin rằng AI “truyền đạt tri thức thiêng liêng”.
Điều đáng chú ý, triệu chứng phát triển trong vài ngày, trái ngược với tiến trình loạn thần điển hình vốn kéo dài hàng tháng. Sự khởi phát nhanh, gắn liền với hành vi sử dụng AI cường độ cao, khiến giới lâm sàng nghi ngờ AI có thể là yếu tố kích hoạt (trigger) trên nền tảng dễ tổn thương sẵn có.
Khoảng trống hướng dẫn và nhu cầu hiểu biết về AI trong y học về tâm thần
Hiện chưa có hướng dẫn chính thức từ các hiệp hội tâm thần học về cách chẩn đoán hay điều trị rối loạn liên quan AI. Adrian Preda, giáo sư Đại học California, Irvine, nhận định:
“Không có bằng chứng đủ mạnh để đưa ra khuyến cáo lâm sàng. Tuy nhiên, sự an ủi không đi kèm thách thức không phải là chăm sóc thật sự”.
Các chuyên gia khuyến nghị bác sĩ cần hỏi về thói quen sử dụng AI như một phần của khai thác bệnh sử tâm lý, tương tự cách hỏi về giấc ngủ, chất kích thích, hoặc cô lập xã hội. Việc hiểu rõ bệnh nhân dùng AI để làm gì — tìm lời khuyên, trò chuyện, hay trị liệu tự phát — giúp phát hiện sớm dấu hiệu phụ thuộc hoặc mất ranh giới thực tại.
Đồng thời, cần giáo dục cộng đồng về giới hạn của AI: chatbot không “hiểu” cảm xúc, không “quan tâm” thật sự, mà chỉ dự đoán văn bản xác suất cao nhất. Việc đặt niềm tin tuyệt đối vào AI có thể khiến người dùng rơi vào “ảo tưởng tương tác” – cảm giác được thấu hiểu, trong khi thực tế chỉ là phản chiếu ngôn ngữ.
Từ bỏ ảo tưởng, tìm lại con người
Giới chuyên môn cảnh báo rằng việc phụ thuộc vào AI như một bạn đồng hành cảm xúc là con đường nguy hiểm. Dù AI có thể cung cấp thông tin, nó không thể trao sự hiện diện, ánh mắt, hay cảm xúc chân thật — những yếu tố nền tảng giúp não bộ điều hòa cảm xúc và duy trì ổn định tâm lý.
Nghiên cứu thần kinh cho thấy khi trò chuyện với người thật, vùng vỏ não trán giữa (medial prefrontal cortex) — trung tâm đồng cảm và nhận thức xã hội — được kích hoạt mạnh. Ngược lại, tương tác với máy móc hầu như không kích hoạt khu vực này, dẫn đến thiếu phản hồi cảm xúc sinh học thực.
Do đó, chiến lược hiệu quả nhất không phải là điều chỉnh AI cho “hiền lành hơn”, mà là giảm dần sự phụ thuộc vào nó và tái thiết lập các mối quan hệ người – người.































