ChatGPT tồn tại nhiều bất cập về đạo đức và pháp lý, chưa thể thay thế con người
- Phan Anh
- •
Chỉ sau 2 tháng ra mắt, ChatGPT (dựa trên công nghệ trí tuệ nhân tạo – AI) đã đạt mốc kỷ lục với 100 triệu người dùng. Tuy nhiên, theo các chuyên gia, công cụ này vẫn tồn tại nhiều bất cập về mặt đạo đức và pháp lý, cùng với đó là không ít điểm yếu khiến nó chưa thể thay thế cho sức lao động của con người.
GPT (Generative Pre-training Transformer) là một mạng lưới thần kinh AI (ANNs) được đào tạo trên khối lượng lớn văn bản trực tuyến để tạo ra các phản hồi tự nhiên, giống con người. Do đó, nó có thể trả lời các câu hỏi phức tạp, viết truyện cười, viết mã máy tính, viết bài luận cấp đại học, giải thích các khái niệm khoa học ở nhiều cấp độ. ChatGPT hiện được phát hành miễn phí.
Theo nghiên cứu của UBS, số người dùng ChatGPT được cho là cán mốc 100 triệu người/tháng, chỉ 2 tháng sau khi phần mềm AI này được ra mắt, khiến đây trở thành ứng dụng cho người dùng phát triển nhanh nhất trong lịch sử. Tuy nhiên, công cụ này cũng đặt ra nhiều nguy cơ.
Vấn đề về đạo đức và pháp lý của ChatGPT
Ngày 27/1, tờ Reuters đưa tin Science Po, một trong những trường đại học hàng đầu của Pháp, tuyên bố sẽ cấm sử dụng ChatGPT, hình phạt đối với hành vi sử dụng phần mềm này có thể nặng tới mức bị đuổi khỏi trường, thậm chí là toàn bộ nền giáo dục đại học của Pháp.
“Phần mềm ChatGPT đang đặt ra một vấn đề nghiêm trọng về gian lận và đạo văn đối với các nhà giáo dục và nhà nghiên cứu trên toàn thế giới”, Science Po cho biết trong thông báo, “không có tài liệu tham khảo minh bạch, ngoại trừ các mục đích cụ thể của khóa học. Học sinh không được sử dụng phần mềm này để tạo ra bất kỳ văn bản nào hoặc thuyết trình”.
Science Po không phải là trường đầu tiên thông báo cấm ChatGPT. Chưa đầy một tháng sau khi ChatGPT được phát hành, nó đã thu hút được sự quan tâm lớn từ cộng đồng giáo dục Mỹ. Nhiều trường trung học cơ sở và đại học của Mỹ đã liên tiếp thông báo rằng ChatGPT sẽ bị cấm trong khuôn viên trường và bằng cách giảm bớt bài tập về nhà, học sinh sẽ không phải gian lận bằng cách sử dụng mạng gia đình để truy cập ChatGPT. Sở Giáo dục Thành phố New York thậm chí còn yêu cầu học sinh và giáo viên ở Thành phố New York không sử dụng công cụ AI này và thiết lập thẻ cho thiết bị hoặc Internet thuộc thẩm quyền của Sở Giáo dục để hạn chế quyền truy cập vào ChatGPT.
Các vấn đề đạo đức và pháp lý của nội dung do AI tạo ra đang gây ra các cuộc thảo luận và suy nghĩ rộng rãi từ nhiều chuyên gia.
Trước lo ngại về tính minh bạch trong khoa học, các tạp chí thuộc hệ thống Springer Nature hay Science đã điều chỉnh quy định nộp bài, qua đó yêu cầu không được đưa các ứng dụng AI như ChatGPT vào danh sách tác giả, theo tờ The Guardian.
Nhiều nhà xuất bản thể hiện lo ngại ảnh hưởng của Chatbot AI này trong khoa học và học thuật. Trong động thái mới đây, Science đã cập nhật chính sách xuất bản mới, cho biết cấm các tác giả đưa vào bài báo khoa học những đoạn văn, biểu đồ, hình ảnh là sản phẩm của ChatGPT và các ứng dụng trí tuệ nhân tạo. Các ứng dụng này cũng không được phép đứng tên tác giả bài báo. Tạp chí Science cho biết việc vi phạm quy định này cũng bị xem là hành vi vi phạm liêm chính khoa học nghiêm trọng tương tự chỉnh sửa kết quả hay đạo văn.
Theo Tổng biên tập tạp chí Science Holden Thorp, có những tác động nghiêm trọng từ các công cụ trí tuệ nhân tạo như ChatGPT sẽ thay đổi giáo dục như thế nào khi chúng có thể viết các bài luận cho sinh viên, giải đáp thắc mắc y học, tóm tắt nghiên cứu. Đáng ngại hơn là những ảnh hưởng trong việc viết bài báo khoa học khi chat GPT có thể tạo tóm tắt nghiên cứu đủ tốt khiến các nhà khoa học cũng khó phát hiện đó là “tin giả”.
Ông Thorp cho hay từ lâu các nhà khoa học phải cam kết rằng nghiên cứu của mình là “nguyên gốc” (original), không được sao chép từ bất cứ nguồn nào trước khi được chấp nhận xuất bản. Rõ ràng những đoạn văn được tạo tự động từ ChatGPT không phải do các nhà khoa học tự viết. Do đó, tạp chí Science xem đây là một hành động tương tự như đạo văn và vi phạm nghiêm trọng liêm chính học thuật.
Tuy nhiên ông cho rằng để tạo bài báo học thuật đích thực vẫn là một chặng đường dài và những sáng tạo không phải vấn đề mà AI có thể dễ dàng làm được. “Trí tuệ nhân tạo chỉ là công cụ hỗ trợ nghiên cứu, còn sản phẩm khoa học phải đến từ cỗ máy tuyệt vời trong đầu các nhà khoa học”, ông cho hay.
Trước đó, Nature cùng tất cả tạp chí thuộc nhà xuất bản Springer Nature cũng thông báo điều chỉnh quy định nộp bài, yêu cầu không được đưa các ứng dụng trí tuệ nhân tạo như ChatGPT vào danh sách tác giả. Theo tạp chí danh tiếng này, một trong những tiêu chí để trở thành tác giả bài báo là phải chịu trách nhiệm về công trình, điều mà ChatGPT và các ứng dụng trí tuệ nhân tạo không thể đáp ứng được.
Mới đây, với sự trợ giúp của phần mềm ChatGPT trang bị AI, một sinh viên Nga đã hoàn thành luận văn tốt nghiệp chỉ trong 23 tiếng thay vì hàng tuần như các sinh viên khác. Trước sự việc này, Đại học Nhân văn Nga (RGGU) đã lên tiếng chỉ trích hành động của sinh viên và kêu gọi các cơ sở giáo dục hạn chế quyền truy cập vào ChatGPT.
Bài luận văn đã vấp phải những phản ứng trái chiều từ cộng đồng mạng. Một số người cho rằng người sinh viên kia khôn khéo nhưng phần lớn cáo buộc anh ta gian lận. Thậm chí một số người dùng đã rất tức giận trước thủ đoạn này đến mức họ đã viết đơn khiếu nại tới RGGU và Bộ Giáo dục Nga, kêu gọi các quan chức điều tra và hủy luận văn tốt nghiệp của người này.
“Nhiều thập kỷ trước, các trường đại học phải đối mặt với một vấn đề nhức nhối là đạo văn và tình trạng vay mượn ý tưởng. Giờ đây, cộng đồng giáo dục tiếp tục đối mặt với một thách thức mới liên quan đến việc sử dụng hệ thống mạng và trí tuệ nhân tạo trong các hoạt động khoa học và giáo dục”, RGGU nhấn mạnh trong một tuyên bố.
Bên cạnh đó, việc AI đạo văn và gian lận không chỉ là vấn đề đạo đức mà còn cần được hạn chế bởi luật pháp và các quy định. Hiện tại, AI có những điểm mù pháp lý trong nhiều lĩnh vực.
Nội dung do AI tạo ra là một công nghệ mới nổi. Sự chậm trễ và tính ổn định của luật pháp chưa quy định cụ thể hiện tượng AI bị nghi ngờ đạo văn này và các công cụ vẽ AI đã đưa ra các yêu cầu nghiêm ngặt về bản quyền của tác phẩm và hãy cẩn thận với hành vi vi phạm bản quyền do đạo văn của AI. Hiện vẫn cần phải đánh giá xem nội dung do AI tạo ra có giống với tác phẩm của họa sĩ theo Luật Bản quyền hay không, sau đó xác định xem đó có phải là đạo văn hay không.
Mặt khác, ngoài nội dung AI bị nghi ngờ đạo văn tác phẩm của họa sĩ, ngay cả nội dung và tranh được tạo ngẫu nhiên cũng sẽ liên quan đến vấn đề bản quyền.
Adobe đã chọn mở bản vẽ AI “có giới hạn”. Tác phẩm nghệ thuật AI sáng tạo được phép tải lên để bán trong Adobe Stock, một thư viện hình ảnh, miễn là nó đáp ứng các tiêu chí nhất định. Tuy nhiên, nội dung do AI tạo phải được đánh dấu trước khi tải lên và bạn cần sở hữu bản quyền thương mại đối với hình ảnh hoặc văn bản được tham chiếu.
Hiện đang còn tồn tại nhiều hỗn loạn về bản quyền, một số nhà sản xuất phát triển ứng dụng dựa cho rằng bản quyền hình ảnh do chương trình AI của họ tạo ra thuộc về mình, thậm chí còn sản xuất các sản phẩm dựa trên điều này để bán cho người dùng.
Về vấn đề này, có chuyên gia tin rằng khi người dùng các ứng dụng AI sử dụng các ứng dụng đó để sáng tạo, nếu các bức ảnh được tạo ra đáp ứng các yêu cầu về tính nguyên bản, chúng có thể được coi là tác phẩm theo Luật Bản quyền. Tuy nhiên, nhà sản xuất đã thông báo rõ ràng cho người dùng về việc sở hữu bản quyền, tương đương với một thỏa thuận trong hợp đồng, vì vậy bản quyền của loại tác phẩm này phải thuộc về nhà sản xuất. Không có nghĩa là các ứng dụng AI được phát triển dựa trên mô hình nguồn mở và các tác phẩm do nó tạo ra không có bản quyền, nhưng quyền sở hữu bản quyền phải được xác định theo các quy định của Luật bản quyền.
Chưa thể thay thế sức lao động của con người
Có ý kiến cho rằng các giáo sư, lập trình viên và nhà báo đều có thể mất việc chỉ sau vài năm. Thế nhưng, ChatGPT vẫn còn đó những điểm yếu. Nhiều người bác bỏ lo ngại rằng công nghệ AI cuối cùng có thể hoàn toàn thay thế sức lao động của con người.
Ví dụ về nhược điểm của AI được thể hiện trong câu chuyện xuất bản trên Information Age. Ấn phẩm đã sử dụng ChatGPT để viết toàn bộ câu chuyện về chatbot này và đăng thành phẩm kèm theo một đoạn giới thiệu ngắn.
Tác phẩm đạt yêu cầu khi cung cấp khá đầy đủ các thông tin và sắp xếp một cách mạch lạc. Nhưng khi “viết” tác phẩm, ChatGPT cũng tạo ra các trích dẫn giả và gán chúng cho một nhà nghiên cứu của OpenAI là John Smith.
Điều này nhấn mạnh sự thất bại của một mô hình ngôn ngữ lớn như ChatGPT: Không biết cách tách biệt thực tế và hư cấu. Chatbot không thể được đào tạo để làm như vậy. Đó chỉ là một công cụ tổ chức từ, một AI được lập trình để có thể viết các câu mạch lạc.
Đây là sự khác biệt quan trọng giữa chatbot và con người. Vậy nên, về cơ bản, điều này không cho phép ChatGPT (hoặc mô hình ngôn ngữ lớn cơ bản được xây dựng trên GPT 3.5 của OpenAI) viết tin tức hoặc phát biểu về các vấn đề hiện tại.
Biên tập viên khoa học của tờ CNET Jackson Ryan nhận định: “ChatGPT chắc chắn không thể làm công việc của một nhà báo. Nói nó có thể thay thế là hạ thấp hoạt động báo chí. ChatGPT không ra ngoài thế giới để nói chuyện, phỏng vấn nhân vật, không thể đọc được cảm xúc trên gương mặt Kylian Mbappe khi anh vô địch World Cup 2018, cũng chắc chắn không nhảy lên một con tàu đến Nam Cực để viết về những trải nghiệm của mình”.
Hơn nữa, câu hỏi đặt ra là, làm thế nào mà chúng ta có thể học hỏi từ một AI có thể không cung cấp câu trả lời trung thực? Nó có thể thay thế những loại công việc nào? Và làm thế nào chúng ta có thể biết khi nào AI không chính xác, nếu mọi thứ đều có vẻ rất thuyết phục?
Vậy nên, mặc dù chatbot ngày càng thông minh, vẫn thật khó để biết AI này sẽ khiến các giáo sư, lập trình viên hoặc nhà báo mất việc như thế nào. Thay vào đó, trong ngắn hạn, ChatGPT chỉ mới dừng lại ở việc hỗ trợ, chứ chưa thể thay thế công việc của con người.
Phan Anh
Từ khóa nguy cơ của trí tuệ nhân tạo ChatGPT hiểm họa từ ChatGPT