Chiến tranh AI thực sự sẽ như thế nào?
David Wallace-Wells | New York Times
Nguyễn
Thị Kim Phụng, biên dịch
https://nghiencuuquocte.org/2024/04/19/chien-tranh-ai-thuc-su-se-nhu-the-nao/
Tháng
11 vừa qua, tạp chí cánh tả +972 và Local Call của
Israel đã công bố một cuộc điều tra gây lo ngại của nhà báo Yuval Abraham, về
việc Lực lượng Phòng vệ Israel sử dụng hệ thống trí tuệ nhân tạo để xác định
các mục tiêu ở Gaza – điều mà một cựu quan chức tình báo mô tả là “nhà máy ám
sát hàng loạt.”
Vào
một thời điểm đang có hàng loạt những viễn cảnh về ngày tận thế do AI gây ra –
những viễn cảnh đôi khi là về các hệ thống vũ khí tự động bất ngờ nổi loạn –
chúng ta có lẽ mong đợi một phản ứng dữ dội và đáng báo động. Nhưng thay vào
đó, báo cáo về một cuộc chiến đang được tiến hành một phần bởi AI lại chỉ tạo
nên một gợn sóng nhỏ trong các cuộc tranh luận về cách thức tiến hành chiến
tranh của Israel ở Gaza.
Một
phần nguyên nhân – nhưng là phần đáng lo ngại – là các chuyên gia chấp nhận rằng
nhiều dạng AI đã được sử dụng rộng rãi trong các quân đội hàng đầu thế giới, kể
cả ở Mỹ, nơi Lầu Năm Góc đã phát triển AI cho mục đích quân sự chí ít cũng từ
thời chính quyền Obama. Theo tờ Foreign Affairs, có ít nhất 30 quốc
gia hiện đang vận hành các hệ thống phòng thủ có chế độ tự động. Nhiều người
trong chúng ta vẫn coi chiến tranh trí tuệ nhân tạo là một tương lai khoa học
viễn tưởng, nhưng thật ra AI đã được tích hợp vào các hoạt động quân sự toàn cầu
hệt như cách nó đã được đưa vào cuộc sống hàng ngày của chúng ta.
Không
chỉ AI mất kiểm soát mới là mối đe dọa. Ngay cả các hệ thống được kiểm soát
cũng có thể gây hại. Washington Post gọi cuộc chiến ở Ukraine
là một “siêu phòng thí nghiệm phát minh,” đánh dấu một “cuộc cách mạng trong
chiến tranh bằng máy bay không người lái sử dụng AI.” Lầu Năm Góc đang phát triển
phương án đối phó với các nhóm máy bay không người lái do AI điều khiển, một mối
đe dọa ngày càng trở nên cận kề khi họ chống lại các cuộc tấn công bằng máy bay
không người lái của lực lượng Houthi ở Biển Đỏ. Theo hãng tin Associated
Press (AP), một số nhà phân tích cho rằng chỉ còn là vấn đề thời gian
trước khi “máy bay không người lái được sử dụng để xác định, lựa chọn, và tấn
công mục tiêu mà không cần sự trợ giúp của con người.” Những nhóm máy bay không
người lái kiểu này, được điều khiển bởi các hệ thống hoạt động nhanh đến mức
con người không thể giám sát, “sắp thay đổi cán cân sức mạnh quân sự,” Elliot
Ackerman và Đô đốc James Stavridis, cựu chỉ huy đồng minh NATO, dự đoán trên tờ Wall
Street Journal vào tháng trước. Nhưng những người khác cho rằng tương
lai đó đã đến rồi.
Tương
tự như cuộc xâm lược Ukraine, chiến dịch tấn công dữ dội ở Gaza đôi khi trông
giống như một bước thụt lùi. Ở một khía cạnh nào đó, nó gần với một cuộc chiến
tổng lực ở thế kỷ 20 hơn là với các cuộc phản công và các chiến dịch thông minh
mà người Mỹ ngày nay đã quen thuộc. Tính đến tháng 12, gần 70% nhà cửa và hơn một
nửa tòa nhà ở Gaza đã bị hư hại hoặc phá hủy. Theo Liên Hợp Quốc, hiện có chưa
đến 1/3 số bệnh viện ở Gaza vẫn còn hoạt động và 1,1 triệu người dân Gaza đang
phải đối mặt với tình trạng mất an ninh lương thực “thảm khốc.” Dù nó trông giống
như một cuộc xung đột kiểu cũ, nhưng cuộc tấn công của Lực lượng Phòng vệ
Israel cũng là một dấu hiệu đáng lo ngại về tương lai quân sự – cả trong khâu
triển khai lẫn giám sát bởi các công nghệ chỉ mới nổi lên kể từ khi cuộc chiến
chống khủng bố bắt đầu.
Tuần
trước, +972 và Local Call đã công bố cuộc điều
tra tiếp theo của Abraham – một báo cáo rất đáng đọc đầy đủ. (Tờ Guardian cũng
xuất bản một trích đoạn từ báo cáo này, với tiêu đề “Máy móc đã làm mọi thứ một
cách lạnh lùng.” Báo cáo đã thu hút sự chú ý của John Kirby, phát ngôn viên an
ninh quốc gia Mỹ, và được thảo luận bởi Aida Touma-Sliman, một thành viên người
Ả Rập gốc Israel của Knesset, và bởi Tổng thư ký Liên Hợp Quốc, António
Guterres, người nói rằng ông “vô cùng lo lắng” về điều đó.) Báo cáo tháng 11 mô
tả một hệ thống có tên Habsora (Phúc Âm), mà theo các cựu sĩ
quan và sĩ quan đương nhiệm của tình báo Israel được Abraham phỏng vấn, hệ thống
này xác định “các tòa nhà và công trình mà quân đội tuyên bố là căn cứ hoạt động
của các chiến binh địch.” Báo cáo điều tra mới, đang bị Lực lượng Phòng vệ
Israel phản đối, ghi nhận một hệ thống khác, được gọi là Lavender,
được sử dụng để lập “danh sách tiêu diệt” những người bị nghi ngờ là kẻ địch.
Abraham viết, hệ thống Lavender “đã đóng vai trò trung tâm trong các vụ đánh
bom chưa từng có tiền lệ nhắm vào người Palestine, đặc biệt là trong giai đoạn
đầu của cuộc chiến.”
Về
mặt chức năng, Abraham gợi ý, sự huỷ diệt ở Gaza – với cái chết của hơn 30.000
người Palestine, phần lớn trong số họ là dân thường, trong đó có hơn 13.000 trẻ
em – là một cách để hình dung về chiến tranh do AI tiến hành. “Theo các nguồn
tin,” ông viết, “ảnh hưởng của AI trong hoạt động của quân đội đã lên đến mức
mà, về cơ bản, người ta xem kết quả đầu ra của AI ‘như thể đó là quyết định của
con người,’” bất chấp việc thuật toán đang áp dụng có tỷ lệ lỗi được thừa nhận
là 10%. Một nguồn tin nói với Abraham rằng các sĩ quan con người thường xem xét
đề xuất [của AI] trong 20 giây – “chỉ để đảm bảo rằng mục tiêu mà Lavender xác
định là nam giới” trước khi duyệt đề xuất đó.
Những
câu hỏi trừu tượng hơn được đặt ra bởi viễn cảnh chiến tranh AI đang gây quan
ngại không chỉ về các lỗi máy móc, mà còn về trách nhiệm cuối cùng: Ai sẽ chịu
trách nhiệm trong một cuộc tấn công hoặc một chiến dịch được thực hiện với rất
ít hoặc không có sự tham gia hoặc giám sát của con người? Cơn ác mộng về AI
quân sự là khi nó được trao toàn quyền kiểm soát việc ra quyết định, nhưng một
ác mộng khác là khi AI giúp quân đội hoạt động hiệu quả hơn đối với các quyết định
đã được đưa ra. Như Abraham mô tả, Lavender không tàn phá Gaza bằng những phát
đạn lạc mục tiêu. Thay vào đó, nó được sử dụng để cân nhắc giữa giá trị quân sự
tiềm năng với thiệt hại dân sự đi kèm theo những cách rất cụ thể – không giống
như một hộp đen về phán đoán quân sự, hay một lỗ đen về trách nhiệm đạo đức, mà
giống như một bản thiết kế được công khai về mục tiêu chiến tranh của Lực lượng
Phòng vệ Israel.
Tại
một thời điểm trong tháng 10, Abraham báo cáo, Lực lượng Phòng vệ Israel đã nhắm
mục tiêu vào các chiến binh cấp dưới được Lavender xác định nếu thiệt hại dân sự
giới hạn ở mức 15 hoặc 20 thường dân thiệt mạng – đây là một con số lớn đến
kinh ngạc, bởi không có thiệt hại dân sự nào được coi là có thể chấp nhận được
đối với chiến binh cấp thấp. Theo báo cáo của Abraham, các chỉ huy cấp cao hơn
sẽ trở thành mục tiêu ngay cả khi điều đó đồng nghĩa với việc sát hại hơn 100
thường dân. Chương trình thứ hai, có tên “Bố cháu ở đâu?,” được sử dụng để theo
dõi các chiến binh trên đường về nhà trước khi tấn công họ ở đó, Abraham viết,
bởi vì nhắm mục tiêu vào nhà ở và gia đình của binh sĩ thì “dễ hơn” là theo dõi
họ đến các tiền đồn quân sự. Và để tránh lãng phí bom dẫn đường (smart bomb)
khi tấn công những nơi bị nghi là nhà ở của chiến binh cấp dưới, Lực lượng
Phòng vệ Israel đã chọn sử dụng bom không dẫn đường (dumb bomb) kém chính xác
hơn nhiều.
Đây
không hẳn là loại phép thuật AI đen tối chỉ có trong khoa học viễn tưởng. Nhưng
nó giống với Phù thủy xứ Oz hơn: Điều tưởng chừng là hiện tượng
khác thường hóa ra lại là một người đàn ông đứng sau tấm màn, đang nghịch công
tắc. Trên thực tế, khi phản hồi báo cáo mới, Lực lượng Phòng vệ Israel cho biết
họ “không sử dụng hệ thống trí tuệ nhân tạo để xác định các chiến binh khủng bố,”
và rằng “hệ thống thông tin chỉ là công cụ dành cho các nhà phân tích trong quá
trình xác định mục tiêu.” Lực lượng Phòng vệ Israel trước đây đã khoe khoang về
việc sử dụng AI để nhắm mục tiêu vào Hamas, và theo Haaretz, họ đã
thiết lập các “vùng chết” rộng lớn ở Gaza, nơi mà bất kỳ ai đặt chân tới đều bị
xem là khủng bố và sẽ bị bắn hạ. (Lực lượng Phòng vệ Israel phủ nhận việc thiết
lập các vùng chết này.) Trên CNN, nhà phân tích Barak Ravid nói với
Anderson Cooper về cuộc trò chuyện giữa ông với một sĩ quan dự bị Israel, người
đã nói với ông rằng “về cơ bản, các mệnh lệnh – vốn đến từ các chỉ huy trên chiến
trường – là bắn mọi người trong độ tuổi chiến đấu,” một mô tả phù hợp với nhận
xét tuần trước của cựu giám đốc CIA và cựu Bộ trưởng Quốc phòng Leon Panetta,
người đã nói, “Theo kinh nghiệm của tôi, người Israel thường nổ súng rồi sau đó
đặt câu hỏi.”
Mọi
chuyện sẽ đi đến đâu? Câu hỏi này không chỉ áp dụng cho cách hành xử của Israel
ở Gaza, hay sự phổ biến của máy bay không người lái ở Ukraine, nơi mà các trận
không chiến không có phi công đã định hình diễn biến chiến sự, nơi Nga đã triển
khai rộng rãi các công cụ tác chiến điện tử để gây nhiễu cho máy bay không người
lái của Ukraine, và theo một phân tích trong War on the Rocks, còn
là nơi Nga đang “cố gắng đạt được những bước tiến để tự động hóa toàn bộ chuỗi
tiêu diệt.”
Trong
một bài tiểu luận xuất bản hồi tháng 2, “Thời đại Nguy hiểm Sắp tới của Chiến
tranh AI,” Paul Scharre của Trung tâm An ninh Mỹ Mới đã phác họa một số viễn cảnh
tiềm năng trong tương lai gần, từ các máy bay không người lái tự động chiến đấu
với nhau độc lập như các bot giao dịch chứng khoán tần suất cao, cho đến khả
năng AI có thể được trao quyền kiểm soát các kho vũ khí hạt nhân hiện có.
Ông
cũng đưa ra một kế hoạch năm điểm chủ động và tương đối lạc quan: các chính phủ
đồng ý về sự giám sát của con người đối với AI quân sự, cấm các vũ khí tự động
nhắm vào con người, phát triển giao thức thực hành tốt nhất để ngăn ngừa tai nạn,
giới hạn quyền kiểm soát vũ khí hạt nhân chỉ thuộc về con người, và áp dụng sổ
tay hướng dẫn cơ bản cho việc điều khiển máy bay không người lái. Scharre viết:
“Nếu không đặt ra giới hạn, nhân loại sẽ phải đối mặt với tương lai của chiến
tranh nguy hiểm do máy móc điều khiển,” và cửa sổ cơ hội để hành động đang
“đóng lại nhanh chóng.”
Tuy
nhiên, không phải ai cũng đồng ý rằng chúng ta đang tiến gần đến một điểm tương
đương với “điểm đồng nhất” về quân sự, mà khi vượt qua nó, chiến tranh sẽ trở
nên không thể nhận ra. Thay vào đó, đây là một quá trình tiến hóa chậm, với nhiều
thay đổi diễn ra đằng sau hậu trường. Học giả quân sự Anthony King viết trên
trang War on the Rocks rằng “Các cuộc cách mạng quân sự
thường ít triệt để hơn so với suy đoán ban đầu của những người ủng hộ chúng.”
Dù ông tin rằng chúng ta vẫn chưa đến gần việc chấm dứt khả năng giám sát của
con người và rằng “rất khó có khả năng” chúng ta sẽ sớm thấy mình trong một thế
giới mà chiến tranh là thực sự tự động, ông cũng cho rằng “dữ liệu và AI là một
chức năng tình báo quan trọng – thậm chí có thể là quan trọng nhất – cho chiến
tranh đương đại.” Trên thực tế, “bất kỳ lực lượng quân sự nào muốn chiếm ưu thế
trên chiến trường trong tương lai đều sẽ cần khai thác tiềm năng của dữ liệu lớn
– lực lượng đó sẽ phải làm chủ lượng thông tin số hóa đang tràn ngập chiến trường,”
ông viết. “Con người đơn giản là không có khả năng làm điều này.” Nhưng có lẽ
AI sẽ làm được.
--------------------
Nguồn: David Wallace-Wells, “What War by A.I. Actually Looks Like,” New York Times, 10/04/2024
Làm
thế nào để chống lại chiến lược bầy đàn rô-bốt
Nguồn:
Paul Scharre, “Counter-Swarm: A Guide to Defeating Robotic Swarms”, War on
the Rocks, 23/3/2015.
Biên
dịch: Lê Thanh Danh | Hiệu đính: Nguyễn Thế Phương
Kỳ
1: Công nghệ rô-bốt trong quân sự: Tự vận hành là gì?
Kỳ
2: Rô-bốt tham chiến: Ưu thế của số lượng
Kỳ
3: Các đàn rô-bốt và … Continue
reading Làm thế nào để chống lại chiến
lược bầy đàn rô-bốt
No comments:
Post a Comment