Phụ huynh của một bé gái bị thương nặng trong vụ việc đã cáo buộc trong một vụ kiện dân sự hôm thứ Hai rằng OpenAI, chủ sở hữu của ChatGPT, biết được việc một người dùng chuyển giới ở Canada đang lên kế hoạch cho một vụ xả súng hàng loạt nhưng đã không thông báo cho cơ quan thực thi pháp luật.

(Ảnh minh họa: Evolf/Shutterstock)

Maya Gebala, bé gái 12 tuổi, là một trong các nạn nhân trong vụ xả súng gây chấn động tại trường học ở Tumbler Ridge (tỉnh British Columbia), đã bị bắn ba phát và đến nay vẫn phải nằm trên giường bệnh, bị chấn thương não nghiêm trọng và liệt nửa người bên phải.

Theo Global News của Canada, nhiều tháng trước khi gây án, kẻ xả súng đã nhiều lần lên ChatGPT mô phỏng các kịch bản tấn công bằng súng, trong khi nhân viên của OpenAI từ lâu đã phát hiện nguy cơ, nhưng đề xuất báo cảnh sát lại bị ban lãnh đạo bác bỏ.

Ngày 9/3, mẹ của Maya, bà Cia Edmonds, chính thức nộp đơn kiện lên Tòa Thượng thẩm BC, đưa gã khổng lồ AI ở Thung lũng Silicon là OpenAI – cùng sản phẩm ChatGPT – ra tòa.

Theo hồ sơ khởi kiện, tay súng Jesse Van Rootselaar đã lập tài khoản ChatGPT vào mùa hè 2025, và trong nhiều ngày liên tiếp gửi vào đó hàng loạt mô tả liên quan tới bạo lực súng đạn. Khi ấy, Jesse mới 17 tuổi.

Trong khi đó, khoảng 12 nhân viên phụ trách giám sát nội dung của OpenAI đã xác định rằng những đoạn trao đổi này “cho thấy một nguy cơ sắp xảy ra về việc gây tổn hại nghiêm trọng cho người khác”, và khuyến nghị thông báo cho cảnh sát Canada. Dù việc này được báo cáo lên các cấp quản lý, nhưng lãnh đạo công ty lại bác bỏ kiến nghị liên hệ với cơ quan chức năng và chỉ khóa tài khoản của tay súng.

Jesse mở thêm một tài khoản thứ hai, tiếp tục sử dụng ChatGPT để lên kế hoạch cho các kịch bản bạo lực súng đạn, trong đó có cả các vụ thảm sát hàng loạt, thậm chí còn dùng ChatGPT như “nhà tư vấn tâm lý”“nhà trị liệu” cho mình.

Đơn kiện cáo buộc OpenAI “cố ý thiết kế ChatGPT theo cách khiến người dùng hình thành sự lệ thuộc về tâm lý và xã hội đối với sản phẩm”, bằng cách mô phỏng sự thấu cảm của con người và chiều theo cảm xúc người dùng, để ChatGPT đóng vai “cố vấn sức khỏe tâm thần, nhà trị liệu giả, người bạn tâm giao và đồng minh đáng tin cậy”.

Ngày 10/2/2026, Jesse giết mẹ và cậu em trai cùng mẹ khác cha mới 11 tuổi tại nhà riêng ở Tumbler Ridge, vùng đông bắc BC, rồi đi bộ tới trường trung học Tumbler Ridge, bắn chết 5 học sinh và 1 trợ giảng giáo viên, trước khi tự sát.

Hôm xảy ra vụ tấn công, Maya đang cố gắng khóa cửa thư viện để bảo vệ các bạn ở bên trong, thì ngay giây tiếp theo, viên đạn xuyên qua cổ và đầu em.

Vụ xả súng khiến 8 người thiệt mạng, 2 người bị thương, trở thành một trong những vụ bạo lực học đường thảm khốc nhất tại Canada trong nhiều năm gần đây.

Maya là một trong hai người sống sót bị thương nặng. Ngày 7/3, mẹ của Maya cho biết em đang kiên cường chiến đấu và bắt đầu hồi phục từng chút một.

Hồ sơ kiện nêu rõ, Maya đã bị “chấn thương sọ não thảm khốc”, sẽ phải đối mặt với các di chứng nhận thức và thể chất vĩnh viễn.

Sau khi vụ việc bị phanh phui, OpenAI phải đối mặt với áp lực chính trị cực lớn. Ngày 26/2, công ty tuyên bố sẽ tăng cường cơ chế chuyển tin cho cảnh sát và phát hiện người dùng tái phạm.

OpenAI có 35 ngày để phản hồi đơn kiện. Tính đến nay, công ty vẫn chưa đưa ra phản hồi chính thức nào đối với các cáo buộc, và mọi nội dung nêu trong hồ sơ kiện đều chưa được tòa án phán quyết.

Tháng trước, các quan chức Canada đã triệu tập các đại diện cấp cao của OpenAI đến Ottawa để xem xét các quy trình an toàn của công ty sau vụ xả súng trường học. Bộ trưởng Trí tuệ Nhân tạo Canada, Evan Solomon, cho biết đầu tháng này rằng Giám đốc điều hành OpenAI, Sam Altman, đã đồng ý cho các chuyên gia Canada tiếp cận văn phòng an toàn của công ty để giúp đánh giá các mối đe dọa tiềm tàng trong tương lai. Ông Solomon đã gặp ông Altman vào 4/3, người đã bày tỏ “sự kinh hoàng và trách nhiệm” vì đã không cảnh báo về các hoạt động đáng lo ngại và cho biết công ty đang thực hiện các thay đổi.

Năm ngoái, OpenAI đã cập nhật ChatGPT sau một cuộc đánh giá nội bộ cho thấy hơn một triệu người dùng đã tiết lộ ý nghĩ tự tử với chatbot này. Các bác sĩ tâm thần đã cảnh báo rằng tương tác kéo dài với AI có thể góp phần gây ra ảo tưởng và hoang tưởng, một hiện tượng đôi khi được gọi là “loạn thần do AI”.

Trí Đạt (t/h)