Guardian: Israel dùng ‘cỗ máy lãnh khốc’ AI giúp xác định 37.000 mục tiêu tấn công tiềm năng
- Theo The Guardian
- •
Các nguồn tin tình báo Israel đã tiết lộ về việc nước này sử dụng hệ thống AI ‘Lavender’ giúp xác định mục tiêu tấn công tiềm năng trong cuộc chiến ở Gaza, và cho biết họ được phép tàn sát thường dân để truy đuổi các chiến binh Hamas cấp thấp.
Theo các nguồn tin tình báo liên quan đến cuộc chiến, chiến dịch dội bom của quân đội Israel ở Gaza đã sử dụng cơ sở dữ liệu được hỗ trợ bởi AI chưa từng được tiết lộ trước đây, có thời điểm đã xác định được 37.000 mục tiêu tấn công tiềm năng dựa trên mối liên hệ rõ ràng của họ với Hamas.
Ngoài nói về việc họ sử dụng hệ thống AI có tên Lavender, các nguồn tin tình báo Israel còn khẳng định rằng các quan chức quân sự nước này đã cho phép giết hại một số lượng lớn thường dân Palestine, đặc biệt là trong những tuần và tháng đầu của cuộc xung đột.
Tiết lộ chân thật bất thường của họ đã cung cấp một cái nhìn hiếm hoi thoáng qua về trải nghiệm trực tiếp của các quan chức tình báo Israel, những người đã sử dụng hệ thống tự học (AI) để giúp xác định mục tiêu tấn công trong cuộc chiến kéo dài đã 6 tháng qua.
Việc Israel sử dụng các hệ thống AI mạnh mẽ trong cuộc chiến chống lại Hamas, đã bước chân vào vùng đất chưa được khám phá về chiến thuật cấp tiến, đặt ra một loạt câu hỏi về pháp lý và đạo đức, đồng thời làm thay đổi mối quan hệ giữa quân nhân và máy móc.
“Trong trí nhớ của tôi, điều này là chưa từng có,” một sĩ quan tình báo Israel từng sử dụng Lavender cho biết, đồng thời nói thêm rằng họ tin tưởng vào “cơ chế thống kê” hơn là vào một người lính đang đau buồn. “Mọi người ở đó, kể cả tôi, đều mất người [thân quen] vào ngày 7/10. Máy móc thì cứ lạnh lùng mà làm việc. Và điều đó khiến mọi việc trở nên dễ dàng hơn.”
Một người dùng Lavender khác đặt câu hỏi, liệu vai trò của con người trong quá trình lựa chọn [mục tiêu tiêu diệt] có ý nghĩa hay không. “Tôi sẽ dành 20 giây cho mỗi mục tiêu ở giai đoạn này, và định ra hàng chục mục tiêu mỗi ngày. Là một con người, tôi không có thêm chút giá trị nào [trong quá trình này], ngoài việc trở thành một con dấu cấp duyệt. Nó giúp tiết kiệm được rất nhiều thời gian.”
Trải nghiệm của 6 sĩ quan tình báo Israel, tất cả những người đã tham gia sử dụng hệ thống AI để xác định các mục tiêu Hamas và Thánh chiến Hồi giáo Palestine (PIJ) trong cuộc chiến, đã được trao cho nhà báo Yuval Abraham trong một báo cáo do ấn phẩm Israel-Palestinian xuất bản cùng với Tạp chí 972 và Tạp chí Local Call bằng tiếng Do Thái.
Các báo cáo của họ đã được chia sẻ độc quyền với The Guardian trước khi xuất bản. Cả 6 người đều nói rằng Lavender đã đóng vai trò trung tâm trong cuộc chiến, xử lý khối lượng lớn dữ liệu để nhanh chóng xác định các đặc vụ Hamas “cấp thấp” tiềm năng để nhắm tới. Bốn trong số các nguồn tin cho biết, vào giai đoạn đầu của cuộc chiến, Lavender đã liệt kê tới 37.000 người đàn ông Palestine đã được hệ thống AI liên kết với Hamas hoặc PIJ.
Lavender được phát triển bởi đơn vị tình báo tinh nhuệ của Lực lượng Phòng vệ Israel, Đơn vị 8200, có thể so sánh với Cơ quan An ninh Quốc gia Hoa Kỳ hoặc Trung tâm đầu não về truyền thông và thông tin của Chính phủ Anh (GCHQ) ở Anh [một tổ chức tình báo và an ninh chịu trách nhiệm cung cấp thông tin tình báo (SIGINT) và đảm bảo thông tin (IA) cho chính phủ và các lực lượng vũ trang của Vương quốc Anh].
Một số nguồn tin cho biết, đối với một số loại mục tiêu nhất định, IDF đã áp dụng sự cho phép trước về định lượng dân thường có thể bị thiệt mạng, trước khi một cuộc tấn công được cho phép.
Hai nguồn tin cho biết trong những tuần đầu của cuộc chiến, họ được phép giết 15 hoặc 20 thường dân trong các cuộc không kích nhằm vào các chiến binh Hamas cấp thấp. Họ nói rằng các cuộc tấn công vào các mục tiêu như vậy thường được thực hiện bằng cách sử dụng các loại đạn không dẫn đường được gọi là “bom ngu“, phá hủy toàn bộ ngôi nhà và giết chết tất cả những người cư ngụ trong đó. [Đạn không dẫn đường (unguided) còn được gọi là “đạn ngu” hoặc “bom ngu” (dumb bomb), thường ít chính xác hơn do không được điều khiển và không có hệ thống dẫn đường. Vì vậy số bom này gây nguy cơ sát thương lớn hơn cho thường dân, đặc biệt ở khu vực đông đúc như Gaza.]
Một sĩ quan tình báo cho biết: “Bạn không muốn lãng phí những quả bom đắt tiền cho những người không quan trọng – nó rất tốn kém cho đất nước và còn đang thiếu”. Một người khác cho biết câu hỏi chính mà họ phải đối mặt là liệu “thiệt hại ngoài dự kiến” đối với dân thường có cho phép một cuộc tấn công hay không.
“Bởi vì chúng tôi thường thực hiện các cuộc tấn công bằng bom ngu, và điều đó theo đúng nghĩa đen là đánh bom cả ngôi nhà với những người cư ngụ trong đó. Nhưng ngay cả khi cuộc tấn công bị cản trở, bạn cũng không quan tâm – bạn ngay lập tức chuyển sang mục tiêu tiếp theo. Bởi vì hệ thống đề xuất các mục tiêu không bao giờ kết thúc. Bạn còn 36.000 người khác đang chờ.”
Theo các chuyên gia hiểu biết cuộc xung đột này, nếu Israel sử dụng bom ngu để san phẳng nhà của hàng ngàn người Palestine có liên quan với các nhóm chiến binh ở Gaza, với sự hỗ trợ của AI, thì điều đó có thể giúp giải thích số người chết cao đến mức kinh ngạc trong cuộc chiến.
Bộ Y tế tại lãnh thổ do Hamas điều hành cho biết 33.000 người Palestine đã thiệt mạng trong cuộc xung đột trong 6 tháng qua. Số liệu của Liên Hợp Quốc cho thấy chỉ trong tháng đầu tiên của cuộc chiến, 1.340 gia đình đã chịu nhiều tổn thất, trong đó 312 gia đình mất hơn 10 thành viên.
Trước đó, trong chương trình chương trình Spectator TV của Anh, giáo sư John Mearsheimer của Đại học Chicago đã từng nói: “Người Israel không phải thuần túy truy bắt Hamas đâu! Điều mà người Israel đang làm, đó là họ tàn sát có chủ đích lượng lớn người dân… Tôi tin tưởng mạnh mẽ… rằng chủ đích cuối cùng của người Israel trong chuyện này chính là thanh tẩy sắc tộc ở Gaza.”
Đáp lại việc công bố các lời chứng trong +972 và Local Call, IDF cho biết trong một tuyên bố rằng các hoạt động của họ được thực hiện phù hợp với các quy tắc đối xứng theo luật pháp quốc tế. Họ cho biết bom ngu là “vũ khí tiêu chuẩn” được các phi công IDF sử dụng theo cách đảm bảo “mức độ chính xác cao”.
Lời khai mô tả Lavender là một cơ sở dữ liệu được sử dụng “để tham khảo chéo các nguồn thông tin tình báo, nhằm tạo ra các lớp thông tin cập nhật kịp thời về hoạt động quân sự của các tổ chức khủng bố. Đây không phải là danh sách các quân nhân đã được xác nhận đủ điều kiện để tấn công.”
“IDF không sử dụng hệ thống trí tuệ nhân tạo để xác định các thành viên khủng bố hoặc cố gắng dự đoán liệu một người có phải là khủng bố hay không,” báo cáo nói thêm. “Hệ thống thông tin chỉ đơn thuần là công cụ dành cho các nhà phân tích trong quá trình xác định mục tiêu.”
Lavender tạo cơ sở dữ liệu gồm hàng chục ngàn cá nhân
Trong các hoạt động quân sự trước đây do IDF tiến hành, việc định ra các mục tiêu con người [để tấn công] thường là một quá trình tốn nhiều công sức hơn. Nhiều nguồn tin mô tả việc phát triển mục tiêu trong các cuộc chiến trước đây với The Guardian, cho biết quyết định “định tội” một cá nhân hoặc xác định họ là mục tiêu hợp pháp, sẽ được thảo luận và sau đó được cố vấn pháp lý phê duyệt.
Theo các nguồn tin, trong những tuần và tháng sau ngày 7/10, mô hình phê duyệt các cuộc tấn công vào mục tiêu con người này đã được tăng tốc đáng kể. Họ cho biết, khi các cuộc dội bom của IDF vào Gaza ngày càng gia tăng, các chỉ huy Israel đã yêu cầu liên tục cung cấp các mục tiêu.
Một sĩ quan tình báo cho biết: “Chúng tôi liên tục bị áp lực: ‘Hãy mang đến cho chúng tôi nhiều mục tiêu hơn’. Họ thực sự đã hét vào mặt chúng tôi [như vậy]”. “Chúng tôi đã được thông báo rằng: Bây giờ chúng tôi phải tiêu diệt Hamas bằng bất cứ giá nào. Bạn có thể đánh bom bất kể thứ gì.”.
Để đáp ứng nhu cầu này, IDF đã phụ thuộc rất nhiều vào Lavender để tạo ra cơ sở dữ liệu về các cá nhân được đánh giá là có đặc điểm của một chiến binh PIJ hoặc Hamas.
Thông tin chi tiết về các loại dữ liệu cụ thể, được sử dụng để huấn luyện thuật toán của Lavender hoặc cách chương trình đưa ra kết luận, không được đưa vào báo cáo của +972 hoặc Local Call. Tuy nhiên, các nguồn tin cho biết trong vài tuần đầu tiên của cuộc chiến, Đơn vị 8200 đã tinh chỉnh thuật toán của Lavender và điều chỉnh các tham số tìm kiếm của nó.
Các nguồn tin cho biết, sau khi lấy mẫu ngẫu nhiên và kiểm tra chéo các dự đoán của mình, đơn vị kết luận rằng Lavender đã đạt được tỷ lệ chính xác 90%, khiến IDF chấp thuận việc sử dụng rộng rãi nó làm công cụ đề xuất mục tiêu.
Họ cho biết thêm, Lavender đã tạo ra một cơ sở dữ liệu gồm hàng chục ngàn cá nhân được coi thành viên cấp thấp chủ lực trong cánh quân Hamas. Điều này được sử dụng cùng với một hệ thống hỗ trợ ra quyết định dựa trên AI khác, được gọi là Cẩm nang (Gospel), đề xuất các tòa nhà và công trình là mục tiêu thay vì cá nhân.
Các báo cáo bao gồm lời khai trực tiếp về cách các sĩ quan tình báo làm việc với Lavender và cách điều chỉnh tầm bao phủ của nó. Một trong những nguồn tin cho biết: “Vào thời lúc cao điểm, hệ thống đã tìm cách tạo ra 37.000 người làm mục tiêu con người tiềm năng”. “Nhưng các con số luôn thay đổi, bởi vì nó phụ thuộc vào việc bạn đặt tiêu chuẩn cho một đặc vụ Hamas là gì.”
Họ nói thêm: “Có những lúc, đặc vụ Hamas được định nghĩa rộng hơn, và sau đó cỗ máy bắt đầu đưa đến cho chúng tôi tất cả các loại dân quân, cảnh sát, những người mà sẽ thật đáng xấu hổ nếu lãng phí bom vào họ. Họ giúp đỡ chính quyền Hamas, nhưng không thực sự gây nguy hiểm cho binh lính [Israel]”.
Trước chiến tranh, Mỹ và Israel ước tính số thành viên của phiến quân Hamas vào khoảng 25-30.000 người.
Trong những tuần sau cuộc tấn công do Hamas lãnh đạo vào ngày 7/10 nhằm vào miền nam Israel, trong đó các chiến binh Palestine đã giết chết gần 1.200 người Israel và bắt cóc khoảng 240 người, các nguồn tin cho biết đã có quyết định coi những người đàn ông Palestine có liên hệ với phiến quân Hamas là mục tiêu tiềm năng, bất chấp cấp bậc hoặc tầm quan trọng của họ.
Họ cho biết, quy trình nhắm mục tiêu của IDF trong giai đoạn tấn công dữ dội nhất cũng được nới lỏng. Một nguồn tin cho biết: “Có một chính sách hoàn toàn dễ dãi liên quan đến thương vong trong các chiến dịch [đánh bom]”. “Một chính sách dễ dãi đến mức theo tôi nó có yếu tố trả thù.”
Một nguồn tin khác biện minh cho việc sử dụng Lavender để giúp xác định các mục tiêu cấp thấp, nói rằng “khi nói đến một chiến binh cấp thấp, bạn không muốn đầu tư nhân lực và thời gian vào đó”. Họ cho rằng trong thời chiến không có đủ thời gian để cẩn thận “định tội mọi mục tiêu”.
Họ nói thêm: “Vì vậy, bạn sẵn sàng chấp nhận sai sót khi sử dụng trí tuệ nhân tạo, mạo hiểm gây thiệt hại ngoài dự liệu và việc dân thường thiệt mạng cũng như mạo hiểm tấn công do nhầm lẫn và chấp nhận nó”.
‘Đánh bom vào căn nhà của một gia đình dễ hơn nhiều’
Những lời chứng do +972 và Local Call công bố có thể giải thích làm thế nào một đội quân phương Tây với năng lực cao cấp như vậy, với vũ khí có thể tiến hành các cuộc ‘tấn công phẫu thuật cao’ [đánh vào các mục tiêu chính đáng], lại tiến hành một cuộc chiến với số lượng người thiệt mạng lớn như vậy.
Họ cho biết, khi nhắm mục tiêu vào các nghi phạm cấp thấp của Hamas và PIJ, ưu tiên là tấn công khi họ được cho là đang ở nhà. Một người nói: “Chúng tôi không chỉ quan tâm đến việc giết các đặc vụ [Hamas] khi họ ở trong một tòa nhà quân sự hoặc tham gia vào một hoạt động quân sự”. “Đánh bom vào nhà của một gia đình sẽ dễ dàng hơn nhiều. Hệ thống được xây dựng để tìm kiếm họ trong những tình huống này.”
Chiến lược như vậy có nguy cơ gây thương vong cho dân thường cao hơn, và các nguồn tin cho biết, IDF đã áp đặt các giới hạn được cho phép trước đối với số lượng dân thường mà họ cho là có thể tàn sát trong một cuộc tấn công nhằm vào một chiến binh Hamas. Tỷ lệ này được cho là đã thay đổi theo thời gian và thay đổi tùy theo thâm niên của mục tiêu.
Theo +972 và Local Call, IDF cho rằng được phép giết hơn 100 thường dân trong các cuộc tấn công nhằm vào các quan chức cấp cao nhất của Hamas. Một nguồn tin cho biết: “Chúng tôi đã tính toán xem có bao nhiêu [thường dân] có thể bị giết đối với chỉ huy lữ đoàn, bao nhiêu [thường dân] đối với chỉ huy tiểu đoàn, v.v.”
Một người khác nói thêm: “Có những quy định nhưng chúng rất dễ dãi”. “Chúng tôi đã giết người với thiệt hại ngoài dự liệu ở mức cao hai con số, nếu không muốn nói thấp thì là ba con số. Đây là những điều chưa từng xảy ra trước đây.” Dường như có những biến động đáng kể về con số mà các chỉ huy quân sự sẽ chấp nhận ở các giai đoạn khác nhau của cuộc chiến.
Một nguồn tin cho biết, giới hạn về sự thương vong của thường dân được phép “tăng giảm” theo thời gian, và có thời điểm thấp nhất là 5 người. Nguồn tin cho biết, trong tuần đầu tiên của cuộc xung đột, binh lính Israel được phép giết 15 người không tham chiến để tiêu diệt các chiến binh Hamas cấp thấp ở Gaza. Tuy nhiên, họ cho biết ước tính số thường dân thương vong là không chính xác, vì không thể biết chính xác có bao nhiêu người trong một tòa nhà.
Một sĩ quan tình báo khác cho biết, gần đây hơn trong cuộc xung đột, tỷ lệ thiệt hại ngoài dự liệu được phép lại giảm xuống. Nhưng ở một giai đoạn trước đó của cuộc chiến, họ được phép giết tới “20 thường dân không liên quan” cho một đặc vụ Hamas, bất kể cấp bậc, tầm quan trọng quân sự hay tuổi tác của họ.
Họ nói: “Không chỉ là bạn có thể giết bất kỳ người nào là binh sĩ Hamas, điều này được cho phép rõ ràng và hợp pháp về mặt luật pháp quốc tế”. “Nhưng họ trực tiếp nói với bạn: ‘Bạn được phép giết họ [chiến binh Hamas] cùng với nhiều thường dân.’… Trên thực tế, tiêu chí về tính đối xứng không tồn tại.”
Tuyên bố của IDF cho biết, các thủ tục của họ “yêu cầu tiến hành đánh giá cá nhân về dự đoán lợi ích quân sự và thiệt hại ngoài dự liệu… IDF không thực hiện các cuộc tấn công khi thiệt hại ngoài dự liệu từ nó là quá lớn so với lợi ích quân sự”. Báo cáo còn cho biết: “IDF hoàn toàn bác bỏ tuyên bố liên quan đến bất kỳ chính sách nào của họ nhằm giết hàng chục ngàn người trong nhà.”
Các chuyên gia về luật nhân đạo quốc tế đã nói chuyện với The Guardian, bày tỏ sự cảnh giác trước việc IDF chấp nhận và cho phép trước tỷ lệ thiệt hại ngoài dự liệu lên tới 20 thường dân, đặc biệt là đối với các chiến binh cấp thấp hơn. Họ cho biết quân đội phải đánh giá tính tương xứng của từng cuộc tấn công riêng lẻ.
Một chuyên gia luật quốc tế tại Bộ Ngoại giao Hoa Kỳ cho biết họ “chưa bao giờ nghe tới việc tỷ lệ 1:15 được coi là có thể chấp nhận được, đặc biệt là đối với các chiến binh cấp thấp hơn. Có nhiều sự sai số, nhưng điều đó khiến tôi thấy cực đoan”.
Sarah Harrison, cựu luật sư của Bộ Quốc phòng Hoa Kỳ, hiện là nhà phân tích của Crisis Group, cho biết: “Mặc dù có những trường hợp nhất định mà 15 thường dân thiệt mạng có thể là đối xứng, nhưng có những trường hợp khác chắc chắn là không. Bạn không thể chỉ đặt ra một con số có thể chấp nhận được cho một loại mục tiêu và nói rằng nó sẽ phù hợp về mặt pháp lý trong từng trường hợp.”
Bất kể sự biện minh nào về mặt pháp lý hay đạo đức cho chiến lược ném bom của Israel, một số sĩ quan tình báo của nước này dường như đang đặt câu hỏi về cách tiếp cận do các chỉ huy của họ đặt ra. Một người nói: “Không ai nghĩ đến việc phải làm gì sau đó, khi chiến tranh kết thúc hoặc làm sao sống được ở Gaza”.
Một người khác nói rằng sau cuộc tấn công ngày 7/10 của Hamas, bầu không khí trong IDF thật “đau đớn và đầy thù hận”. “Có một sự mâu thuẫn: Một mặt, người dân ở đây thất vọng vì chúng tôi tấn công chưa đủ. Mặt khác, cuối cùng bạn sẽ thấy hàng ngàn người Gaza khác đã thiệt mạng, mà hầu hết là dân thường”.
Từ khóa Mỹ viện trợ Gaza Lavender trí tuệ nhân tạo Hamas dải Gaza AI Dòng sự kiện Israel tấn công Gaza Xung đột Isreal - Palestine Thủ tướng Palestine từ chức