Khi cuộc chiến với Iran ngày càng leo thang, các nội dung được tạo ra bởi trí tuệ nhân tạo (AI) đang xuất hiện tràn lan trên mạng, thúc đẩy những luận điệu gây hiểu lầm hoặc hoàn toàn là bịa đặt.

Sáng ngày 28 tháng 2 năm 2026, Mỹ và Israel cùng nhau tấn công Iran. Nơi ở của Lãnh tụ tối cao Iran, Ayatollah Khamenei, bị nghi ngờ là mục tiêu của vụ đánh bom, và các nhân chứng đã reo hò. (Ảnh chụp màn hình từ video)

Nhiều tài khoản có liên quan đến Iran đã tuyên bố sai sự thật rằng chính quyền Hồi giáo đã thực hiện các cuộc tấn công thành công vào tàu hải quân, căn cứ và binh sĩ Mỹ. Họ sử dụng hình ảnh và video do AI tạo ra để thuyết phục công chúng rằng những tuyên bố này là đúng. Đây là ví dụ mới nhất trong xu hướng lạm dụng AI ngày càng tăng trong thời chiến nhằm lan truyền thông tin giả mạo để thao túng dư luận.

Các chuyên gia nhận định rằng loại tuyên truyền do AI tạo ra này — vốn đã được sử dụng rất hiệu quả trong các cuộc xung đột và chiến tranh gần đây trên thế giới — là một cách dễ dàng để các chính phủ nỗ lực củng cố niềm tin của công chúng và quyền lực, đồng thời bôi nhọ phe đối lập.

Dưới đây là một số ví dụ về loại nội dung này, cũng như lý do tại sao chúng bị coi là sản phẩm dàn dựng.

Thông tin giả mạo về hậu quả các cuộc tấn công của Iran

Trong một trường hợp tiêu biểu về nội dung do AI tạo ra, tờ Tehran Times của Iran đã khẳng định rằng Iran đã phá hủy thiết bị radar của Mỹ tại một căn cứ hải quân của Hoa Kỳ ở Qatar.

Tờ báo này đã đăng các bức ảnh vệ tinh so sánh cạnh nhau trong một bài viết ngày 28/2 trên mạng xã hội X với dòng chú thích “TIN NÓNG”“Trước và sau”.

Bức ảnh “sau” cho thấy thiệt hại ở vài tòa nhà và có vẻ như được dựa trên hình ảnh vệ tinh thực tế của căn cứ Hỗ trợ Hải quân tại Manama, Bahrain, từ tháng 2/2025.

The Epoch Times đã xác nhận bức ảnh “trước” (một ảnh vệ tinh) thông qua Google Earth và quan sát thấy nhiều điểm không hợp lý giữa hai bức ảnh: Các tòa nhà ở phía dưới ảnh không khớp nhau, và có 3 chiếc xe đậu ở cùng một vị trí chính xác trong cả 2 ảnh, mặc dù các bức ảnh “trước”“sau” được cho là chụp cách nhau một năm.

Một chương trình có tên SynthID do Google phát triển có thể phát hiện liệu các công cụ AI của công ty này có tạo ra hoặc chỉnh sửa một tệp video, ảnh hoặc âm thanh hay không.

Trong trường hợp Iran tuyên bố tấn công thành công vào căn cứ hải quân Hoa Kỳ, SynthID đã phát hiện ra rằng cả 2 bức ảnh trước và sau đều được tạo ra hoặc chỉnh sửa bằng các công cụ AI của Google.

Tehran Times tiếp tục chia sẻ thêm các bức ảnh vào ngày 6/3, tuyên bố về “sự tàn phá và hỏa hoạn” tại một căn cứ của Mỹ ở Các Tiểu vương quốc Ả Rập Thống nhất (UAE).

Mặc dù SynthID không xác định các bức ảnh này được tạo ra hay chỉnh sửa bởi công cụ AI của Google, nhưng hệ thống AI tích hợp của X là Grok cho biết các hình ảnh này cho thấy những dấu hiệu “mạnh mẽ” của việc được tạo ra bởi AI hoặc ít nhất là đã bị chỉnh sửa rất nhiều. Grok không thể tìm thấy bất kỳ bài đăng hay bài báo tương ứng nào liên quan đến các sự kiện thực tế, một điều bất thường đối với những bức ảnh đầy kịch tính mô tả cảnh một căn cứ Mỹ bị thiệt hại.

Hệ thống AI của X đã nhấn mạnh một số lý do để tin rằng các bức ảnh được tạo ra hoặc chỉnh sửa bởi AI. Grok cho biết trong một bức ảnh xuất hiện cơn mưa lớn, nhưng điều này không khớp với cách mưa, khói và lửa tương tác trong một sự kiện thực tế.

Hệ thống cũng ghi nhận: “Bố cục mang tính điện ảnh quá mức, các họa tiết ngọn lửa và mật độ khói đồng nhất một cách bất tự nhiên mà không có những sự bất nhất về vật lý thực tế”, cũng như sự thiếu hụt các khiếm khuyết của máy ảnh như độ nhiễu hạt, lóe sáng hoặc sự thay đổi độ sâu trường ảnh thường thấy trong các bức ảnh thực.

Sự lừa dối trong thời chiến

Không phải lúc nào cũng rõ nguồn gốc của các tuyên bố sai sự thật bắt nguồn từ đâu. Chúng có thể đến từ các nhóm có liên kết với chính phủ hoặc từ những người dùng ngẫu nhiên nhưng lại góp phần thúc đẩy các luận điệu sai lệch.

Một bài đăng khác do AI tạo ra, từ một tài khoản dường như không liên quan đến chính quyền, đã mô tả một vụ nổ lớn tại sân bay quốc tế ở Irbil, Iraq, nằm gần một căn cứ quân sự của Mỹ mà Iran đang nhắm mục tiêu.

Bức ảnh mô tả một đám cháy khổng lồ và cột khói đen cao như núi lửa, có vẻ như được lấy cảm hứng từ một bức ảnh thật chụp đám khói khiêm tốn hơn nhiều trên bầu trời sân bay. Những điểm bất nhất về mặt thị giác trong hình ảnh đã bị SynthID phát hiện, công cụ này cho biết các công cụ AI của Google đã được sử dụng để tạo ra hoặc chỉnh sửa bức ảnh.

Cuộc xung đột Nga–Ukraine và cuộc chiến kéo dài 12 ngày của Israel với Iran vào mùa hè năm ngoái cũng xuất hiện những thông tin bịa đặt do AI tạo ra, theo ghi nhận của các viện nghiên cứu.

“Khối lượng nội dung AI đang bắt đầu làm ô nhiễm môi trường thông tin trong các bối cảnh khủng hoảng như thế này đến một mức độ thực sự đáng sợ,” bà Melanie Smith, giám đốc cấp cao về chính sách và nghiên cứu hoạt động thông tin tại Viện Đối thoại Chiến lược, nói với The Associated Press. “Khả năng tiếp cận thông tin được xác thực và đáng tin cậy trong những thời điểm như thế này đang ngày càng trở nên khó khăn hơn.”

Trong một báo cáo năm 2023, Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS) đã nhấn mạnh tầm ảnh hưởng của AI đối với cuộc chiến Israel–Hamas, cho biết các tài khoản bot được các bên liên minh với Hamas sử dụng để khuếch đại các luận điệu của nhóm khủng bố này.

“Sự hậu thuẫn của Iran… và sự tham gia được báo cáo của Trung Quốc và Nga trong việc khuếch đại những luận điệu này cho thấy một xu hướng rộng lớn hơn về việc sử dụng mạng xã hội như một công cụ trong chiến tranh ủy nhiệm, và sự chuyển dịch trong chiến lược quân sự nhằm kết hợp các chiến dịch truyền thông,” báo cáo cho biết.

Hiện chưa rõ có bao nhiêu thông tin sai lệch do AI tạo ra này tiếp cận được người dân Iran, vì chính phủ đã áp đặt lệnh cắt bỏ internet. Nhóm WITNESS, tổ chức chuyên sử dụng video để ghi lại các hành vi vi phạm nhân quyền, cho biết năm ngoái lượng nội dung do AI tạo ra — tăng mạnh trong cuộc chiến kéo dài 12 ngày — đã gây ra “ô nhiễm thông tin” nghiêm trọng khiến người dân Iran khó tiếp cận thông tin đáng tin cậy.

“Công dân thường không thể xác minh hoặc kiểm chứng thông tin được cung cấp bởi nhà nước hoặc các bên xung đột,” các tác giả của WITNESS là Mahsa Alimardani và Sam Gregory viết trong một bài báo cho Quỹ Carnegie vì Hòa bình Quốc tế.

Vấn đề đó càng trầm trọng hơn khi truyền thông nhà nước Iran thúc đẩy các luận điệu sai trái, bao gồm cả những thông tin từ chính phủ, như đã xảy ra trong cuộc xung đột hiện tại. Trên mạng, các nguồn tin cũng có thể dựa trên những thông tin tuyên truyền đó của chính phủ để phát triển thêm.

Quân đoàn Vệ binh Cách mạng Hồi giáo Iran (IRGC) trước đó tuyên bố đã tấn công một tàu sân bay Mỹ, chiếc USS Abraham Lincoln, bằng tên lửa đạn đạo. Các tài khoản mạng xã hội dường như không liên kết với các nguồn tin chính thức của Iran sau đó đã củng cố tuyên bố của IRGC bằng những đoạn phim giả.

“Tên lửa Iran đã đánh chìm tàu sân bay USS Abraham Lincoln ở Vịnh Ba Tư,” một tài khoản như vậy viết trong một bài đăng trên X, thu hút hơn 8 triệu lượt xem. Một ghi chú cộng đồng trên bài đăng đã làm rõ rằng đoạn phim đó thực chất là từ một trò chơi điện tử chủ đề quân sự.

Bộ Chỉ huy Trung tâm Hoa Kỳ (CENTCOM) đã đáp trả tuyên bố này trên X.

“IRGC của Iran tuyên bố đã tấn công tàu USS Abraham Lincoln bằng tên lửa đạn đạo,” cơ quan này viết. “DỐI TRÁ.”

Chống lại tuyên truyền sai sự thật

Mặc dù AI đã có những bước tiến vượt bậc trong những năm gần đây, cùng với khả năng tiếp cận rộng rãi các công cụ tạo nội dung khiến thông tin giả mạo lan truyền trên mạng xã hội với tốc độ chưa từng thấy, nhưng các công nghệ nhằm giảm thiểu những luận điệu sai trái này cũng đang phát triển nhanh chóng.

Mạng xã hội X có tính năng Ghi chú Cộng đồng, nơi những người dùng đã được xác minh có thể trực tiếp phản hồi các tuyên bố trong bài đăng, cung cấp bối cảnh quan trọng hoặc thông tin còn thiếu. Bất kỳ tài khoản nào trên X cũng có thể đánh giá ghi chú đó là hữu ích hay không và lý do tại sao. Những ghi chú này đã xuất hiện thường xuyên trên các bài đăng về cuộc xung đột mới nhất tại Iran.

Nikita Bier, người đứng đầu bộ phận sản phẩm tại X, cho biết vào ngày 3/3 rằng nền tảng này đang xem xét lại các chính sách cho chương trình cho phép người dùng kiếm doanh thu. 

Hiện tại, những người đăng video AI về một cuộc xung đột vũ trang mà không tiết lộ đó là sản phẩm của trí tuệ nhân tạo sẽ bị đình chỉ 90 ngày khỏi chương trình Chia sẻ Doanh thu cho Người sáng tạo của nền tảng. Ông Bier viết trên X rằng bất kỳ hành vi vi phạm nào sau đó sẽ dẫn đến việc bị đình chỉ vĩnh viễn.

Bà Sarah Rogers, Thứ trưởng Bộ Ngoại giao phụ trách ngoại giao công chúng, đã ca ngợi động thái này. “Bạn không cần đến một ‘Bộ Sự thật’ để thúc đẩy sự thật trên không gian mạng,” bà viết trên X.

Google và Meta hiện chưa phản hồi ngay lập tức các yêu cầu bình luận về bất kỳ sáng kiến bổ sung nào mà họ đang thực hiện để đối phó với thông tin sai lệch do AI tạo ra từ Iran.

Các chuyên gia cho rằng mọi người nên cẩn trọng và có cái nhìn phản biện đối với thông tin họ tiếp nhận, đặc biệt khi AI đã tiến tới mức gần như không thể phân biệt được hình ảnh và video chúng tạo ra là thật hay giả. Họ gợi ý nên tìm kiếm các nguồn tin xác thực chéo như cơ quan báo chí, nhà báo độc lập, nguồn tin chính phủ, giới học giả, nhà nghiên cứu hoặc thậm chí là các tổ chức phi lợi nhuận.

Hình mờ (watermark) là một dấu hiệu nhận biết sự can thiệp trên video hoặc ảnh. Đôi khi, những hình mờ này được tạo ra bởi công cụ tạo AI. Tuy nhiên, chúng có thể bị làm mờ hoặc che khuất để ngăn người xem biết rằng hình ảnh đó là do AI tạo ra, đó là lúc những chương trình như SynthID trở nên hữu ích.

Dẫu vậy, những công nghệ này vẫn có giới hạn, như Alimardani và Gregory đã nhận định vào năm ngoái rằng đôi khi chúng đưa ra kết quả mâu thuẫn. 

“Các phương pháp phát hiện tinh vi có thể dẫn đến những kết luận trái ngược nhau, để mặc các nhà báo, những người bảo vệ nhân quyền và dân thường trong vùng xung đột phải tự định hướng trong màn sương chiến tranh mà không có một tín hiệu rõ ràng nào về những gì là thật,” họ viết.