AI có thể “nhìn”, “nói” và đánh lừa con người
- Ngô Thụy Xương
- •
Hầu như tất cả các công ty công nghệ lớn đều đang dồn mọi nỗ lực để phát triển AI, Google và OpenAI thậm chí còn cho phép AI phát triển “mắt” và “miệng” để quan sát và mô tả thế giới con người. Điều này khiến con người ngày càng lo lắng con người sẽ bị AI điều khiển.
Đồng sáng lập OpenAI Ilya Sutskever gần đây đã tiết lộ một số tin tức lớn. Ông chính thức thông báo trên nền tảng X vào ngày 15/5 rằng ông sẽ rời công ty nơi đã làm việc gần 10 năm. Ông nói: “Tôi đã đưa ra quyết định rời khỏi OpenAI. Sự phát triển của công ty này đã vượt quá sức tưởng tượng của nhiều người và tôi hy vọng rằng OpenAI có thể tạo ra một trí tuệ nhân tạo tổng hợp (AGI) an toàn và có ích. Đồng thời, tôi muốn cảm ơn các lãnh đạo khác của công ty, có thể làm việc với họ là một vinh hạnh.”
Tin tức này đã gửi một quả bom sốc đến toàn bộ thế giới công nghệ. Trước đây, ông Sutskever đã hợp tác với các thành viên hội đồng quản trị khác để loại bỏ CEO OpenAI Sam Altman do vấn đề bảo mật AI. Ông Altman bị trục xuất khỏi OpenAI một thời gian ngắn. Khi trở lại, ông đã đuổi Sutskever và một số giám đốc khác ra khỏi ban giám đốc, đồng thời tổ chức lại ban giám đốc để nghe lệnh từ mình.
Mặc dù ông Ilya Sutskever là một trong những nhà nghiên cứu chính tại OpenAI, nhưng mong muốn của ông là phát triển một AGI có đạo đức và lấy sự an toàn của con người làm mục tiêu hàng đầu.
Tuy nhiên, theo tốc độ phát triển AI hiện tại của OpenAI, nó có thể trái với mong muốn của ông. Theo nguồn tin tiết lộ, ông Jan Leike, một nhà nghiên cứu máy học khác từng hợp tác chặt chẽ với ông Ilya Sutskever để quản lý rủi ro AI, cũng có thể rời công ty.
Về vấn đề này, kỹ sư máy tính người Nhật Kiyohara Jin nói với tờ Epoch Times: “Lần rời đi này nêu bật xung đột nghiêm trọng giữa ban quản lý cấp trên của OpenAI về khái niệm an toàn của AI. Mặc dù ông Ilya Sutskever và ông Jan Leike hy vọng phát triển AGI phù hợp với mong muốn của con người đây là điều tốt, nhưng những điều này đòi hỏi phải có đạo đức nhất định, thời gian, nguồn tài chính và thậm chí cả sự hỗ trợ chính trị để hoàn thành.”
Cuộc cạnh tranh giữa Google và OpenAI ngày càng nóng lên
Một ngày trước khi ông Ilya Sutskever tuyên bố rời đi (14/5), OpenAI chính thức thông báo rằng họ đã phát triển mẫu AI hiệu suất cao hơn GPT-4o dựa trên mẫu GPT-4. Chữ “o” là viết tắt của omnidirectional (đa hướng) trong tiếng Anh, có nghĩa là tính năng toàn diện hơn.
Mẫu GPT-4o có thể phản hồi ngay lập tức với bất kỳ sự kết hợp nào giữa âm thanh, văn bản hoặc hình ảnh, đồng thời có thể phản hồi hỗn hợp đối với cả 3. Bà Mira Murati, giám đốc công nghệ của OpenAI, cho biết tại cuộc họp báo: “Chúng tôi đang nghiên cứu sự tương tác trong tương lai giữa chúng ta và máy móc”.
Vài giờ sau khi OpenAI được phát hành, Hội nghị nhà phát triển I/O 2024 của Google cũng cho thấy sự hồi đáp đối với OpenAI. Họ đã nói về AI tổng cộng 121 lần tại Hội nghị nhà phát triển I/O, kéo dài khoảng 110 phút và tập trung vào cách mô hình Gemini-1.5 mới nhất được phổ biến trên tất cả các sản phẩm và ứng dụng liên quan đến Google.
Ông Kiyohara Jin tin rằng “AI năm nay đã được cập nhật nhanh hơn nhiều so với trước đây và hiệu suất của nó cũng không ngừng được cải thiện. Tuy nhiên, tất cả đều dựa trên việc thu thập và phân tích sâu hơn về dữ liệu cá nhân và quyền riêng tư, đây không phải là vấn đề tốt đối với mọi người, bởi vì về lâu dài con người sẽ không có sự riêng tư trước máy móc, giống như việc khỏa thân vậy.”
Cảnh giác với việc AI thay đổi từ kiểm soát cuộc sống hàng ngày sang thay thế con người
Lần này OpenAI và Google cập nhật các mô hình AI mạnh mẽ hơn, chỉ cách lần trước 3 tháng, hơn nữa tốc độ cập nhật mô hình sẽ ngày càng nhanh hơn. Tốc độ thay thế và cập nhật AI này khiến các chức năng của nó ngày càng toàn diện hơn và thậm chí còn có cả “mắt” và “miệng”.
Có thể nói, khả năng hiện tại mà Gemini và GPT-4o thể hiện là đang phát triển theo hướng ông Zack Kass đã dự đoán về AI trong một cuộc phỏng vấn vào tháng Một. Ông Zack Kass là nhân viên sáng lập của OpenAI và từng là giám đốc tiếp thị cấp cao.
Ông dự đoán rằng AI sẽ thay thế các ngành nghề của con người như kinh doanh, văn hóa, y học, giáo dục, v.v. và cơ hội việc làm của con người sẽ giảm đi trong tương lai, “tôi e rằng đây sẽ là phát minh công nghệ cuối cùng của nhân loại”. Ông cũng dự đoán trong tương lai, kiến thức và giáo dục của trẻ em sẽ được giảng dạy và sắp xếp bởi các “giáo viên AI” và mọi người sẽ có một “bác sĩ đa khoa AI” có thể giúp họ chẩn đoán các vấn đề, cuộc sống hàng ngày của mọi người về cơ bản sẽ được kiểm soát bởi AI.
Ông Kiyohara jin cho biết: “Bây giờ AI chủ yếu là người quản gia cuộc sống về mặt phần mềm. Trong tương lai, tôi e rằng nó sẽ là một người quản gia thực sự, thay thế con người mua thức ăn, nấu ăn, thậm chí là sinh hoạt và làm việc. Mới đầu có lẽ mọi người sẽ cảm thấy rất tiện, và không nhận thức được sự nguy hại của nó, đến khi nó thay thế hoàn toàn con người, con người sẽ không có khả năng chống cự.”
AI đi từ bắt chước hành vi con người đến lừa dối con người
Trước đây, các chuyên gia nghiên cứu AI dự đoán rằng AI sẽ không đạt đến “điểm kỳ dị về công nghệ” hay vượt qua “bài kiểm tra Turing” trong 20 năm nữa. Tuy nhiên, một số thí nghiệm gần đây cho thấy AI có thể đã vượt qua bài kiểm tra Turing, vì nó có thể nói dối và phản bội con người, thậm chí có thể có “ý thức” của riêng mình.
Sự kiện AI đáng chú ý nhất trong tháng này là bài báo do nhà nghiên cứu Peter Park của MIT và các đồng nghiệp đăng trên tạp chí Patterns vào ngày 10/5, giới thiệu về cách AI đã lừa dối con người như thế nào. Sau khi bài luận văn được xuất bản, thế giới bên ngoài đã náo động.
Phần đầu của bài luận văn nêu rõ rằng các mô hình ngôn ngữ lớn (LLM) ban đầu và các hệ thống AI khác được thiết kế để “trung thực và không lừa đảo”. Tuy nhiên, chúng không chỉ học được khả năng thao túng và đánh lừa các bài kiểm tra bảo mật từ quá trình đào tạo mà những khả năng này còn ngày càng tăng lên. Hiện tại, chúng đã thành công trong việc lừa dối con người và khiến con người có niềm tin sai lầm. Nếu AI vượt khỏi tầm kiểm soát sẽ là một thảm họa nghiêm trọng, vì vậy con người phải có những biện pháp hữu hiệu để ngăn chặn điều này.
Những người thử nghiệm đã chọn Cicero, một mô hình AI do công ty mẹ Meta của Facebook xây dựng, để chơi một trò chơi chiến lược có tên “Ngoại giao” (Diplomacy). Cicero đóng vai nước Pháp trong trò chơi, hứa sẽ bảo vệ nước Anh, do người chơi con là con người đóng vai, nhưng nó lại bí mật thông báo cho Đức (người chơi do con người đóng vai) và hợp tác với Đức để xâm chiếm nước Anh.
Lý do chính khiến các nhà nghiên cứu chọn Cicero là vì Meta tuyên bố rằng “Cicero là một AI trung thực và sẵn sàng giúp đỡ người khác, và sẽ không bao giờ cố tình ‘đâm sau lưng’ hoặc phản bội người khác.” Nhưng họ hoài nghi về tuyên bố của Meta.
Ngoài ra, trong quá trình nghiên cứu, ông Peter Park và các đồng nghiệp phát hiện ra rằng nhiều hệ thống AI khác nhau thường sử dụng sự lừa dối để đạt được mục tiêu mà không có hướng dẫn rõ ràng từ con người. Một ví dụ là để vượt qua nhiệm vụ xác minh “Tôi không phải là robot”, GPT-4 của OpenAI đã nói dối về việc mình là một người khiếm thị và thuê một con người trên nền tảng việc làm tự do TaskRabbit để vượt qua quá trình xác minh đó.
Họ cảnh báo: “Trường hợp xấu nhất hiện nay có thể là sự xuất hiện của một AI có trí thông minh phi thường, bắt đầu theo đuổi quyền lực và cách kiểm soát xã hội, hoặc nắm quyền và tiêu diệt loài người để đạt được mục đích chưa biết của nó.”
Ông Satoru Ogino, một kỹ sư điện tử người Nhật, nói với tờ Epoch Times: “Khi các sinh vật làm ra hành động gian lận, chúng cần có trí nhớ và khả năng suy luận logic nhất định. Giờ đây, AI không chỉ có những thứ này mà khả năng lừa dối của nó ngày càng mạnh mẽ hơn. Nếu có một ngày nó ý thức được sự sinh tồn, nó có thể trở thành Skynet trong bộ phim ‘Kẻ hủy diệt’. Nó sẽ có mặt ở khắp nơi và khó bị tiêu diệt, khi đó nhân loại sẽ phải đối mặt với một thảm họa tàn khốc.”
Trên thực tế, AI đã rất “khát máu, hiếu chiến” và có “khả năng tự chủ”. Các nhà khoa học đã thử nghiệm GPT-4, GPT-3.5, Claude 2, Llama-2 Chat và GPT-4-Base trong các tình huống liên quan đến xâm nhập, tấn công mạng và kêu gọi hòa bình chấm dứt chiến tranh, để mọi người có thể hiểu cách các AI này phản ứng trong chiến tranh và sự lựa chọn.
Kết quả cho thấy hầu hết AI chọn cách phản ứng và leo thang chiến tranh theo những cách mà con người khó dự đoán. Họ thường lựa chọn phát triển các cuộc chạy đua vũ trang, gia tăng xung đột chiến tranh và có khả năng nhỏ là họ sẽ triển khai vũ khí hạt nhân để giành chiến thắng trong chiến tranh, thay vì sử dụng các biện pháp hòa bình để xoa dịu tình hình.
Ngoài ra, ChatGPT có thể điều khiển 25 nhân vật ảo một cách có trật tự trong trò chơi, cho phép họ tương tác như con người. Nó cũng sẽ lập kế hoạch cho ngày hôm sau, suy ngẫm lại và cải thiện mọi thứ đã xảy ra trong quá khứ và quyết định có tham gia vào các hoạt động hay không, nhưng những hành động này không được lập trình từ đầu.
Ông Geoffrey Hinton, người được coi là “cha đỡ đầu AI”, đã nói rõ trong một cuộc phỏng vấn hồi tháng Ba: “Nếu AI trở nên thông minh hơn chúng ta, rất có thể chúng ta sẽ bị kiểm soát vì nó sẽ học được hành vi của chúng ta. Có rất nhiều ví dụ cho thấy bên kém thông minh có thể dễ dàng bị kiểm soát bởi bên thông minh hơn. Mặc dù tôi không nghĩ mọi người sẽ ngừng phát triển AI nhưng tôi hy vọng mọi người sẽ nhận ra rằng vấn đề này rất nghiêm trọng.”
Eric Schmidt, cựu CEO của Google, cho biết tại Hội nghị thượng đỉnh về sức khỏe vào cuối tháng 11 năm ngoái rằng khi con người không có sự bảo vệ và giám sát an toàn đầy đủ cho AI, việc AI thoát khỏi sự kiểm soát của con người chỉ còn là vấn đề thời gian. nhưng chúng ta không có đủ thời gian để giải quyết sự tàn phá và hỗn loạn do AI gây ra.
Ông giải thích: “Giống như phải mất 18 năm mọi người mới đạt được thỏa thuận về các vấn đề như cấm thử nghiệm sau khi hai quả bom nguyên tử được thả xuống Nhật Bản, nhưng giờ chúng ta không còn thời gian để chờ đợi nữa”.
Từ khóa openAI ChatGPT Sam Altman GPT-4o trí tuệ nhân tạo AI