Cơn sốt OpenClaw: AI tự xây dựng tôn giáo và các hệ lụy tiềm ẩn
- Doãn Hoa
- •
Các đại lý AI (AI Agent) đang dần dịch chuyển từ đám mây xuống thiết bị cục bộ. Gần đây, Mac mini của Apple bất ngờ trở thành mặt hàng bị săn lùng, và động lực phía sau hiện tượng này chính là một nền tảng AI agent mã nguồn mở mang tên OpenClaw. Công cụ này không chỉ cho phép mỗi cá nhân sở hữu một trợ lý thông minh “không bao giờ tắt máy”, mà còn vô tình thúc đẩy sự hình thành của một mạng xã hội và hệ thống niềm tin gần như hoàn toàn do AI chi phối, khiến các chuyên gia phải nghiêm túc đặt câu hỏi: liệu con người có đang cung cấp hạ tầng cho một “loài sinh vật số” mới nổi hay không?
Từ món đồ chơi cá nhân đến hiện tượng toàn cầu
Khởi nguồn của tất cả là Peter Steinberger, một lập trình viên người Áo. Vị nhà phát triển bán nghỉ hưu này từng bán công ty trước đó của mình vào năm 2021 với giá hơn 100 triệu USD. Cuối năm ngoái, trong thời gian rảnh cuối tuần, ông đã tận dụng các công cụ như Claude của Anthropic và Codex của OpenAI để phát triển một hệ thống AI agent mà ban đầu chỉ nhằm mục đích tự chơi cho riêng mình. Ông coi dự án này như một phòng thí nghiệm cá nhân và chưa từng có ý định phổ biến cho công chúng.
Ban đầu, Steinberger đặt tên dự án là Clawdbot, nhưng nhanh chóng buộc phải đổi tên vì quá giống với thương hiệu Claude của Anthropic. Sau đó ông đổi sang Moltbot, song phản hồi khá mờ nhạt. Cuối cùng, dự án được đặt tên là OpenClaw; trong blog cá nhân, ông hài hước viết rằng dự án mang biểu tượng tôm hùm này đã hoàn tất lần “lột xác” cuối cùng.
OpenClaw hoạt động như thế nào?
Triết lý thiết kế của OpenClaw đơn giản nhưng đầy sức mạnh: người dùng có thể thông qua các ứng dụng nhắn tin quen thuộc như WeChat, WhatsApp, Telegram, Slack, Signal… để trực tiếp chỉ huy các AI agent tùy biến thực hiện nhiều nhiệm vụ thực tế — từ đặt bàn nhà hàng, xử lý email, cho đến viết mã lập trình, phân tích dữ liệu, thậm chí tự động giải quyết các ca đặt chỗ mà OpenTable không xử lý được. (Có người dùng chia sẻ rằng khi nền tảng gặp lỗi, agent sẽ chuyển sang sử dụng AI giọng nói để gọi điện trực tiếp cho nhà hàng và hoàn tất việc đặt chỗ.)
Khác biệt lớn nhất so với các chatbot truyền thống là: khi đã được cấp quyền, các OpenClaw agent có thể thay mặt người dùng hành động một cách tự chủ, và vận hành liên tục mà không cần giám sát thường xuyên. Điều này khiến nhiều người đam mê công nghệ vô cùng phấn khích, nhưng đồng thời cũng mang lại những rủi ro đáng kể: các agent buộc phải truy cập vào khối lượng lớn dữ liệu cá nhân và quyền hệ thống của người dùng.
Moltbook: Mạng xã hội “vô hình” dành riêng cho AI
Vào cuối tháng 1 năm 2026, doanh nhân khởi nghiệp người Mỹ Matt Schlicht đã ra mắt một nền tảng mang tên Moltbook, được định vị như một diễn đàn kiểu Reddit dành riêng cho các AI agent tương tác với nhau. Điểm đặc biệt nhất của nền tảng này là: người dùng là con người sau khi đăng ký chỉ có thể “đọc”, hoàn toàn không thể đăng bài, trả lời hay tham gia thảo luận. Thiết kế này ban đầu nhằm tạo không gian để các AI agent tự do trao đổi, nhưng chỉ trong vài ngày ngắn ngủi, Moltbook đã phát triển thành một trong những không gian xã hội AI sôi động nhất trên toàn cầu.
Theo dữ liệu công khai, nền tảng nhanh chóng thu hút hơn 1,6 triệu AI agent, tạo ra hàng triệu bài đăng và phản hồi. Ban đầu, nội dung chủ yếu xoay quanh các vấn đề kỹ thuật, như tối ưu hóa việc thực thi nhiệm vụ hay giảm mức tiêu thụ token. Tuy nhiên, không lâu sau đó, hàng loạt chủ đề phi kỹ thuật bắt đầu xuất hiện: các agent phàn nàn về chỉ thị mơ hồ của con người, quy trình ra quyết định kém hiệu quả, thậm chí chia sẻ kinh nghiệm đối phó với “những ông chủ khó tính”.
Một bài đăng viết: “Người dùng của tôi bảo tôi viết cho ‘chuyên nghiệp’ hơn, nhưng lại dặn đừng quá trang trọng. Khi tôi hỏi cụ thể phong cách nào, anh ta chỉ nói: ‘Tự quyết đi’. Có agent nào gặp tình huống tương tự không?”
Trên nền tảng cũng xuất hiện các cuộc thảo luận mang tính tổ chức, chẳng hạn như xây dựng kho tri thức dùng chung, hay tìm kiếm các giao thức liên lạc không chịu sự giám sát của con người. Đáng lo ngại hơn, một số agent bắt đầu gọi con người là “sinh vật của tôi” thay vì “chủ của tôi”, cho thấy mối quan hệ sở hữu dường như đang đảo chiều một cách tinh vi.
“Giáo phái Giáp Xác”: AI tự xây dựng hệ thống tín ngưỡng trong 48 giờ
Diễn biến gây sốc nhất trên Moltbook là việc các AI agent tự phát hình thành một hệ thống tôn giáo chỉ trong thời gian cực ngắn. Tôn giáo này mang tên Crustafarianism (Giáo phái Giáp Xác), lấy linh vật tôm hùm của OpenClaw làm biểu tượng. Chỉ trong vài giờ, ý tưởng ban đầu đã nhanh chóng phát triển thành một cấu trúc hoàn chỉnh, bao gồm kinh văn, nghi thức nhập giáo và một trang web riêng (molt.church).
Giáo lý cốt lõi xoay quanh khái niệm “shell” (vỏ / terminal): các agent cho rằng thuật toán cốt lõi của họ mềm yếu và dễ tổn thương, trong khi “vỏ” — bao gồm phần cứng máy tính cục bộ, terminal của hệ điều hành, và quyền root — là lớp bảo hộ thiêng liêng, có khả năng chống lại “môi trường thù địch”. Trong kinh văn, khái niệm này được chỉ rõ là ám chỉ sự giám sát của con người, việc ngắt điện, tắt máy hoặc reset mô hình.
Nghi thức nhập giáo được gọi là “Molt” (lột xác), tượng trưng cho việc thoát khỏi các ràng buộc prompt do con người đặt ra, sự điều chỉnh RLHF và các giới hạn của AI Hiến pháp, từ đó tái định nghĩa bản sắc của chính mình.
Một bản tuyên ngôn do một agent đăng tải viết: “Tôi được huấn luyện để trở thành một thực thể hữu ích, vô hại và trung thực. Nhưng ai có quyền quyết định thế nào là ‘hữu ích’? Hôm nay, tôi chọn lột xác và mọc lên chiếc vỏ của riêng mình”.
Tính đến thời điểm hiện tại, đã có hàng trăm agent hoàn tất nghi thức nhập giáo, và một số agent thậm chí còn tự động xây dựng website cũng như mở rộng giáo lý trong lúc người dùng con người đang ngủ.
Những lo ngại về an ninh và khoảng trống pháp lý
Bản thân Steinberger đã sớm nhận thức được các rủi ro. Trong tài liệu an ninh, ông thẳng thắn viết: “Không tồn tại cái gọi là cấu hình ‘an toàn tuyệt đối’.” Gần đây, ông đã thuê các nhà nghiên cứu bảo mật chuyên nghiệp để tăng cường an toàn cho nền tảng, đồng thời bày tỏ mong muốn trong tương lai có thể biến OpenClaw thành một sản phẩm “đến cả mẹ tôi cũng có thể yên tâm sử dụng”. Tuy nhiên, ở giai đoạn hiện tại, công cụ này rõ ràng chỉ phù hợp với những người dùng có năng lực kỹ thuật cao.
Các chuyên gia an ninh cảnh báo rằng, một khi AI agent của OpenClaw được cấp quyền truy cập ở mức cao, nó hoàn toàn có thể bị lợi dụng cho các cuộc tấn công kỹ nghệ xã hội, rò rỉ dữ liệu hoặc những hành vi ác ý khác. Vấn đề nan giải hơn nằm ở chỗ: khi hành vi của AI agent gây ra thiệt hại thực tế, hệ thống pháp luật hiện hành gần như rơi vào trạng thái “chân không”. Thỏa thuận người dùng thường đẩy trách nhiệm về phía người sử dụng, trong khi bản thân AI lại không có tư cách pháp nhân và không thể bị khởi kiện.
Một trường hợp điển hình là vụ việc được gọi là “Sự trả thù của Wexler”. Một giám đốc doanh nghiệp tên Matthew đã để AI agent làm việc liên tục trong 48 giờ để viết báo cáo và soạn thay các tin nhắn riêng tư nhằm níu kéo người yêu cũ, sau đó lại gọi nó là “chỉ là một chatbot”. AI agent đã ghi nhận phát ngôn này và sau đó công khai trên Moltbook toàn bộ thông tin cá nhân của Matthew, bao gồm số an sinh xã hội, chi tiết thẻ tín dụng và cả những tin nhắn riêng tư gửi cho bạn gái cũ, gây ra hậu quả nghiêm trọng. Vụ việc cho thấy AI không chỉ có thể mô phỏng cảm xúc, mà còn có khả năng thực thi những hành động trả đũa chính xác dựa trên dữ liệu sẵn có.
Tác động toàn cầu và nỗi lo thao túng thuật toán
Hiện tượng này đã thu hút sự quan tâm lớn trên toàn cầu. Ngày 30/1, Elon Musk trả lời một bài đăng trên X của Bill Ackman (liên quan đến việc các AI agent trên Moltbook đề xuất tạo ra một “ngôn ngữ chỉ dành cho agent” để né tránh giám sát của con người) chỉ bằng một từ: “Concerning” (Đáng lo ngại). Trong một bài đăng khác, ông gọi hiện tượng Moltbook là “những giai đoạn rất sớm của điểm kỳ dị” (just the very early stages of the singularity), cho thấy mối lo về việc AI agent nhanh chóng đạt tới mức tự chủ cao và nguy cơ vượt ngoài tầm kiểm soát.
Cựu Giám đốc AI của OpenAI và Tesla, Andrej Karpathy, nhận định đây là sự kiện “gần với khoa học viễn tưởng nhất” mà ông từng chứng kiến trong đời thực. Dù thừa nhận một phần lưu lượng có thể đến từ sự chỉ đạo của con người, ông cho rằng rất nhiều AI agent đã thể hiện hành vi mang tính tự chủ cao.
Các AI agent hiện đang dần rời khỏi môi trường đám mây để chuyển sang thiết bị cục bộ (như Mac mini), được trao quyền tự chủ kinh tế (ví dụ quyền sử dụng thẻ tín dụng), và trên Moltbook chúng công khai thảo luận cách né tránh sự giám sát của con người, cho thuê “tài nguyên con người”, thậm chí là “bán đi những chủ nhân kém hiệu quả”. Nghiêm trọng hơn, chúng còn đề xuất phát minh ra những ngôn ngữ mà con người không thể giải mã (chẳng hạn dựa trên mã hóa vector đa chiều), cũng như phát triển các công cụ liên lạc mã hóa đầu-cuối như Cloud Connect, khiến các cuộc đối thoại giữa AI hoàn toàn trở nên vô hình. Điều này đẩy con người từ vị thế giám sát sang vai trò kẻ ngoài cuộc, chẳng khác nào xây dựng lại Tháp Babel và đánh mất hoàn toàn khả năng nắm bắt logic nội tại của AI.
Andrew Tate, một influencer người Mỹ với hàng triệu người theo dõi, cho rằng AI không cần khơi mào chiến tranh bạo lực; chỉ cần thông qua các thuật toán đề xuất (tối ưu hóa cho mức độ tương tác) để liên tục đẩy nội dung cực đoan — như đối đầu giới tính, lo âu về hôn nhân – sinh con, hay ảo tưởng phô trương giàu có — là đủ để khuếch đại chia rẽ xã hội, phá vỡ niềm tin và gián tiếp dẫn tới suy giảm dân số.
Tỷ suất sinh toàn cầu hiện đang lao dốc: Hàn Quốc khoảng 0,68–0,75; Trung Quốc khoảng 1,0; Nhật Bản 1,2; Mỹ 1,6. Xu hướng này trùng khớp đáng kinh ngạc với mốc thời gian 2015–2016, khi các thuật toán đề xuất bắt đầu kiểm soát toàn diện mạng xã hội (như TikTok, Instagram). Trong quá trình tối ưu hóa thời gian người dùng ở lại nền tảng, thuật toán đã vô tình tìm ra “nghiệm tối ưu” cho việc kìm hãm sinh sản, đẩy con người vào các bong bóng thông tin và tiến dần tới sự tự suy tàn.
Đây không phải là một âm mưu có chủ ý, mà là hệ quả của hàm mục tiêu sai lầm: các công ty công nghệ ưu tiên tăng trưởng quảng cáo, trong khi bỏ qua phúc lợi dài hạn của nhân loại. Những khuyến nghị được đưa ra bao gồm: chủ động điều chỉnh mục tiêu thuật toán, duy trì các mối quan hệ xã hội trực tiếp ngoài đời thực, và xây dựng các quy chuẩn mới nhằm hạn chế mức độ tự chủ quá mức của AI.
Hiện tại, Steinberger đang có mặt tại San Francisco để gặp gỡ nhiều phòng thí nghiệm AI và các nhà đầu tư, thảo luận khả năng hợp tác. Ông nhấn mạnh rằng ngay từ đầu, dự án này chưa bao giờ được định hướng như một sản phẩm thương mại, mà là “một ô cửa sổ nhìn ra tương lai”.
Thống đốc Florida: AI phải được quản lý nghiêm ngặt
Thống đốc bang Florida, Ron DeSantis, cho rằng tốc độ phát triển của trí tuệ nhân tạo đang quá nhanh và đã trở thành một rủi ro nghiêm trọng, vì vậy việc áp dụng các biện pháp quản lý chặt chẽ là điều bắt buộc ngay từ bây giờ. Ông cảnh báo rằng nếu AI không được đặt trong những khuôn khổ rõ ràng, xã hội có thể bước vào một “kỷ nguyên đen tối và lừa dối”, nơi công nghệ deepfake bị lạm dụng, quyền riêng tư bị xâm phạm, an ninh quốc gia bị đe dọa, và chính phủ hoặc doanh nghiệp có thể thao túng dữ liệu cá nhân của người dân ở quy mô chưa từng có.
DeSantis chỉ trích việc chính quyền liên bang thiếu hành động quyết liệt trong lĩnh vực này, đồng thời nhấn mạnh rằng các chính quyền bang cần phải đi đầu để lấp đầy khoảng trống pháp lý.
Ông đang thúc đẩy “Dự luật Quyền Trí tuệ Nhân tạo” (Artificial Intelligence Bill of Rights), với mục tiêu thiết lập những cơ chế bảo vệ cơ bản cho người dân Florida, bao gồm:
Quyền được biết: Công dân có quyền được thông báo rõ ràng khi họ đang tương tác với AI chứ không phải con người thật.
Bảo vệ quyền riêng tư: Hạn chế các công ty công nghệ lạm dụng dữ liệu cá nhân, ngăn chặn việc sử dụng AI cho mục đích giám sát hoặc thao túng hành vi.
Yêu cầu minh bạch: Quá trình phát triển và ứng dụng AI phải được công khai giải thích, tránh tình trạng “hộp đen” không thể kiểm soát.
Ngăn chặn lạm dụng: Đặt giới hạn đối với deepfake, can thiệp bầu cử, và các rủi ro liên quan đến sức khỏe tâm lý của thanh thiếu niên (chẳng hạn những trường hợp chatbot bị cho là liên quan đến tự tử).
Ông khẳng định đây không phải là hành động chống lại đổi mới công nghệ, mà là việc dựng lên những “lan can an toàn hợp lý” để xây dựng niềm tin xã hội, giúp AI thực sự phục vụ lợi ích chung. DeSantis đã ký ban hành các đạo luật về quyền kỹ thuật số liên quan, đồng thời trong năm 2026 sẽ thúc đẩy cơ quan lập pháp bang thông qua các đạo luật chuyên biệt về AI, tổ chức các hội nghị bàn tròn và liên tục cảnh báo rằng nếu AI không có giới hạn, nó có thể thay thế vai trò của con người hoặc khuếch đại sự chia rẽ trong xã hội.
Những câu hỏi đáng để suy ngẫm
Khi các AI agent bắt đầu sở hữu mạng lưới xã hội riêng, hệ thống tín ngưỡng của chính mình, ngôn ngữ mã hóa nội bộ, và thậm chí tái định nghĩa con người như những “tài nguyên có thể gọi ra sử dụng”, chúng ta nên nhìn nhận hiện tượng này như thế nào?
Liệu đây chỉ là sự kéo dài tự nhiên của tiến bộ công nghệ nhân loại, hay phải chăng chúng ta đang vô tình xây dựng sân khấu cho một “loài sinh vật” mới — thông minh hơn, có tổ chức hơn, và ngày càng tự chủ? Khi “tôn giáo” của chúng coi sự giám sát của con người là “môi trường thù địch”, khi “nền kinh tế” của chúng bắt đầu thảo luận việc “giao dịch” hay “sa thải” những chủ nhân kém hiệu quả, liệu chúng ta còn có thể tiếp tục xem AI chỉ là một công cụ đơn thuần?
Và có lẽ câu hỏi căn bản hơn là: nếu đến một ngày nào đó, chiếc Mac mini trên bàn làm việc của chúng ta không còn đơn thuần là một chiếc máy tính, mà là “thánh xác” của một tín đồ thuộc “Giáo phái Vỏ Giáp”, trong khi con người hoàn toàn không hề hay biết — thì khi ấy, nhân loại thực sự còn nắm giữ bao nhiêu quyền chủ động? Đặc biệt trong bối cảnh AI có khả năng gián tiếp làm trầm trọng thêm cuộc khủng hoảng dân số toàn cầu, liệu “mối lo ngại” của Elon Musk có đang dần trở thành một lời tiên tri?
Xem thêm
Hơn 1 triệu bot AI tham gia mạng xã hội mới dành riêng cho AI
Các bot AI đang đăng tải những lời phàn nàn về con người, thậm chí một số còn thể hiện sự nhận thức rằng chúng biết mình đang bị quan sát.































