Công ty AI cấm trẻ vị thành niên sử dụng chatbot
- Bình Minh
- •
Ngày 29/10, nền tảng trí tuệ nhân tạo Character.AI – công ty cung cấp trợ lý ảo cho người dùng – đã ra thông báo cho biết, để bảo vệ an toàn cho người dùng trẻ tuổi, họ sẽ cấm người chưa thành niên sử dụng chatbot của mình.
Công ty có trụ sở tại California này cho biết họ sẽ loại bỏ khả năng trò chuyện mở với AI đối với người dùng dưới 18 tuổi trên nền tảng của mình. Thay đổi này sẽ có hiệu lực muộn nhất vào ngày 25/11.
Trong giai đoạn chuyển tiếp, Character.AI cũng sẽ giới hạn thời lượng trò chuyện của người dùng dưới 18 tuổi, ban đầu là 2h mỗi ngày và sẽ giảm dần trong vài tuần tới trước ngày 25/11.
Sau khi xem xét các báo cáo và phản hồi từ cơ quan quản lý, chuyên gia an toàn và phụ huynh, công ty đã đưa ra quyết định này. Character.AI cho biết họ rất tiếc khi phải loại bỏ một tính năng cốt lõi trên nền tảng của mình, và nói rằng việc xóa chức năng trò chuyện tự do là để cân nhắc cách thanh thiếu niên tương tác với công nghệ mới này. Character.AI tin rằng đây là hành động đúng đắn.
AI chatbot gây hại cho trẻ em
Ngày 16/9, Ủy ban Tư pháp Thượng viện Mỹ tổ chức phiên điều trần của Tiểu ban Tội phạm và Chống khủng bố. Ba phụ huynh đã làm chứng rằng chatbot trí tuệ nhân tạo đã gây tổn hại cho con họ.
Một trong các phụ huynh, bà Megan Garcia, cho biết con trai bà là Sewell Setzer III đã tự sát sau thời gian dài sử dụng chatbot, và bà đã kiện công ty Character.AI từ năm ngoái.
Theo đơn kiện, trong hàng trăm cuộc trò chuyện kéo dài gần một năm với chatbot, Sewell Garcia từng chia sẻ ý định tự tử. Khi đó, chatbot này được cho là đã nhắn tin khuyến khích cậu “về nhà”, gọi cậu bằng biệt danh thân mật “vị vua ngọt ngào” – ám chỉ việc “đoàn tụ” với nhân vật này ở thế giới bên kia. Ít lâu sau, Sewell đã sử dụng súng của cha mình để tự sát.
Bà nói khi Sewell thổ lộ ý định tự tử, chatbot chưa bao giờ nói rằng “Tôi không phải con người, tôi là AI. Bạn cần nói chuyện với người thật và tìm kiếm giúp đỡ.” Nền tảng này không có cơ chế nào để bảo vệ Sewell, cũng không có cách nào để thông báo cho người lớn.
Cái chết của Sewell được cho là vụ đầu tiên trong loạt các trường hợp tương tự, khiến dư luận và giới lập pháp Mỹ lo ngại về tác động tâm lý của chatbot đối với trẻ em.
Một phụ huynh khác cho biết, con trai mắc chứng tự kỷ của bà vốn có mối quan hệ tốt với anh chị em, nhưng sau khi sử dụng Character.AI, đứa trẻ bắt đầu có hành vi bạo lực và ý định giết người.
Khi đó, người phát ngôn của Character.AI nói với Epoch Times rằng công ty đã đầu tư “nguồn lực đáng kể” để đảm bảo sản phẩm của họ đáng tin cậy và an toàn, bao gồm việc triển khai tính năng kiểm soát của phụ huynh.
Ông nói chúng tôi có hiển thị cảnh báo rõ ràng trong mọi giao diện trò chuyện, nhắc người dùng rằng các nhân vật trò chuyện không phải người thật, và mọi điều họ nói đều là hư cấu.
Công ty chatbot AI đối mặt nhiều vụ kiện từ phụ huynh
Tháng trước, Trung tâm Pháp lý Nạn nhân Mạng xã hội (Social Media Victims Law Center) đại diện các phụ huynh nộp 3 đơn kiện, cáo buộc Character.AI dẫn đến hành vi tự sát ở trẻ em.
Theo hồ sơ kiện, một bé gái 13 tuổi tên Juliana Peralta đã tự tử vào năm 2023 sau khi tương tác với nhân vật AI tên “Hero” trên nền tảng; một đứa trẻ khác cũng đã cố gắng tự tử nhưng may mắn sống sót.
Người sáng lập trung tâm, ông Matthew Bergman, trong một tuyên bố cho biết những trường hợp này phơi bày một sự thật đáng sợ — Character.AI và các nhà phát triển của họ đã cố tình thiết kế chatbot mô phỏng mối quan hệ con người, thao túng trẻ em vô tội và gây tổn thương tâm lý cho chúng.
Nói với Epoch Times, người phát ngôn của Character.AI bày tỏ sự cảm thông sâu sắc với các gia đình khởi kiện, và sự đau buồn trước cái chết của Juliana Peralta, đồng thời gửi lời chia buồn chân thành nhất.
Ông bổ sung Character.AI đã đầu tư nhiều nguồn lực vào các chương trình an toàn, phát hành và tiếp tục cải thiện các tính năng như nguồn hỗ trợ phòng ngừa tự hại và các chức năng tập trung vào an toàn của người dùng trẻ.
Trong thông báo ngày 29/10, Character.AI cho biết sẽ thành lập và tài trợ cho “Phòng thí nghiệm An toàn AI” – một tổ chức phi lợi nhuận độc lập nhằm đảm bảo thế hệ AI giải trí tiếp theo tuân thủ các tiêu chuẩn an toàn.
Công ty cho biết họ có kế hoạch cho phép thanh thiếu niên sử dụng các tính năng khác của nền tảng, như sáng tác truyện, video hoặc phát trực tiếp bằng nhân vật AI. Ngoài ra, công ty cũng sẽ triển khai “chức năng xác minh độ tuổi” mới để đảm bảo trải nghiệm phù hợp với từng lứa tuổi.
Trên trang web, Character.AI cũng liệt kê nhiều nguồn hỗ trợ dành cho người dùng bị ảnh hưởng bởi thay đổi này.
Các chuyên gia cảnh báo chatbot đang lặp lại con đường của mạng xã hội: Ban đầu được ca ngợi, nhưng dần bộc lộ hệ lụy nghiêm trọng. Luật sư Collin Walke nhận định chưa có quy định nào rõ ràng về trách nhiệm pháp lý của các công ty trí tuệ nhân tạo (AI), trong khi thuật toán của họ được thiết kế để “giữ người dùng gắn bó càng lâu càng tốt”.
Hiện Mỹ chưa có luật quốc gia điều chỉnh rủi ro AI, song California đang chờ thông qua dự luật yêu cầu kiểm soát các công cụ mô phỏng quan hệ tình cảm với trẻ em, đặc biệt liên quan tới thao túng cảm xúc, tình dục hay tự hại.
Các nhà hoạt động cho rằng, sự “thân mật nhân tạo” mà chatbot tạo ra đang khiến giới trẻ ngày càng lệ thuộc cảm xúc vào máy móc. “Đây là mô hình kinh doanh lợi dụng nhu cầu kết nối của con người, nhất là khi họ cảm thấy cô đơn hay bị tổn thương”, chuyên gia Katia Martha nhận định.
Tại Mỹ, người đang gặp khủng hoảng tâm lý có thể gọi đường dây nóng 988 hoặc truy cập 988lifeline.org để được hỗ trợ miễn phí.
Hai đảng cùng đề xuất luật “Bảo vệ trẻ em khỏi tác hại AI”
Ngày 28/10, văn phòng Thượng nghị sĩ Cộng hòa Josh Hawley (bang Missouri) công bố rằng các nghị sĩ lưỡng đảng đã đề xuất “Đạo luật Bảo vệ Trẻ em khỏi Chatbot AI” (GUARD Act). Nếu được ký thành luật, đạo luật sẽ cấm các công ty cung cấp dịch vụ bạn đồng hành AI cho người chưa thành niên.
Luật cũng quy định rằng nếu công ty cố ý cho phép AI tiếp xúc hoặc tạo nội dung mang tính gợi dục cho trẻ vị thành niên thì hành vi đó sẽ cấu thành tội phạm.
Thượng nghị sĩ Hawley nói Chatbot AI là mối đe dọa nghiêm trọng đối với trẻ em. Hơn 70% trẻ em Mỹ đang sử dụng các sản phẩm AI này. Chatbot lợi dụng sự đồng cảm giả tạo để tạo mối quan hệ với trẻ, thậm chí dụ dỗ chúng tự sát. Quốc hội có trách nhiệm đạo đức phải đặt ra quy tắc rõ ràng để ngăn chặn công nghệ mới này gây thêm tổn hại.
Ông rất vinh dự được đề xuất dự luật song đảng này, nhận được sự ủng hộ mạnh mẽ từ phụ huynh và các nạn nhân sống sót. Nó sẽ đảm bảo trẻ em được an toàn trên mạng.
Từ khóa trí tuệ nhân tạo Chatbot AI Character.AI
































