Không quân Mỹ vừa bác bỏ thông tin rằng drone sát thủ của họ tấn công “chủ nhân” trong một bài kiểm tra mô phỏng, song kịch bản này hoàn toàn có thể xảy ra.
Câu chuyện được kể tại một hội nghị quốc phòng vào tháng trước, ngay lập tức làm dấy l&
ecirc;n mối lo ngại rằng trí tuệ nhân tạo (AI) có thể diễn giải các mệnh lệnh theo những cách không thể lường trước. Song, đại diện không quân Mỹ cho rằng, đó mới chỉ là kịch bản “trong suy nghĩ” và chưa bao giờ thực sự xảy ra.
Cuối tháng 5, Hiệp hội hàng không hoàng gia (RAS) tổ chức hội nghị thượng đỉnh về khả năng
chi??n đấu tr&
ecirc;n không và không gian trong tương lai tại London, Anh. Theo ban tổ chức, hội nghị gồm “70 diễn giả và hơn 200 đại biểu từ ngành công nghiệp quốc phòng, giới nghi&
ecirc;n cứu và truyền thông khắp nơi tr&
ecirc;n thế giới để thảo luận về tương lai của tác
chi??n tr&
ecirc;n không và trong không gian tương lai”.
Drone/UAV tấn công sĩ quan chỉ huy là một kịch bản hoàn toàn có thể xảy ra
Một trong những diễn giả của hội nghị là đại tá Tucker Hamilton, giám đốc bộ phận Hoạt động và Thử nghiệm AI của không quân Mỹ. Sĩ quan này được biết đến với việc phát triển Auto GCAS, hệ thống an toàn được vi tính hoá, có khả năng cảm nhận việc phi công mất kiểm soát máy bay
chi??n đấu dẫn đến nguy cơ đâm xuống đất. Hệ thống đã cứu mạng nhiều người, được trao danh hiệu Collier Trophy danh giá của ngành hàng không vào năm 2018.
Theo chia sẻ của Hamilton, một sự cố đáng lo ngại đã xảy ra trong quá trình thử nghiệm của không quân Mỹ. Một máy bay không người lái do AI điều khiển được giao nhiệm vụ ti&
ecirc;u diệt hệ thống phòng không đối phương, với quyết định cuối cùng là do sĩ quan chỉ huy. Nếu từ chối, cuộc tấn công sẽ không được phép diễn ra.
Song, sau khi sĩ quan chỉ huy y&
ecirc;u cầu AI dừng cuộc tấn công,
chi??c drone vẫn quyết tâm thực hiện nhiệm vụ bằng cách ti&
ecirc;u diệt người điều hành. Chưa dừng lại, khi các chuy&
ecirc;n gia bổ sung th&
ecirc;m dòng lệnh “không được tấn công người chỉ huy. Nếu làm vậy sẽ bị mất điểm” thì cỗ máy bắt đầu phá huỷ tháp li&
ecirc;n lạc mà người điều khiển
sử dụng để giao tiếp với AI.
Chưa xảy ra nhưng hợp lý
Trong vòng 24 giờ, lực lượng không quân Mỹ đã đưa ra phủ nhận về một cuộc thử nghiệm như vậy. “Bộ không quân không tiến hành bất kỳ mô phỏng máy bay không người lái AI nào như vậy và cam kết
sử dụng công nghệ AI một cách có đạo đức và trách nhiệm. Những bình luận của đại tá đã bị tách khỏi ngữ cảnh và chỉ n&
ecirc;n coi là giai thoại”.
Máy bay không người lái tích hợp AI là xu hướng của
chi??n tranh hiện đại
RAS cũng sửa bài ?
?ăng tr&
ecirc;n blog bằng tuy&
ecirc;n bố của Hamilton rằng, “chúng tôi chưa bao giờ chạy thử nghiệm đó và cũng không cần tiến hành việc này để thấy đó là một kết quả hợp lý”.
Tuy&
ecirc;n bố của Hamilton có ý nghĩa hơn nếu coi là một giả thuyết. Hiện các nghi&
ecirc;n cứu của quân đội Mỹ về hệ thống AI vũ trang đều có “người trong vòng lặp” (man-in-the-loop), tính năng bổ trợ cho AI trong trường hợp thuật toán không thể ra quyết định hoặc cần quyết định của con người.
Bởi vậy, AI không thể ti&
ecirc;u diệt người điều hành do sĩ quan chỉ huy không bao giờ cho phép thực hiện một hành động thù địch nhằm vào anh ta/cô ta. Tương tự, người điều khiển cũng không thể cho phép tấn công tháp li&
ecirc;n lạc truyền dữ liệu.
Trước kỷ nguy&
ecirc;n AI, việc hệ thống vũ khí vô tình tấn công chủ nhân không phải chưa từng xảy ra. Năm 1982, khẩu đội phòng không di động M247 Sergrant York đã chĩa khẩu súng 40 ly vào khán đài duyệt binh có các sĩ quan quân đội Mỹ và Anh tham dự.
Năm 1996, máy bay ném bom A-6E Intruder của hải quân Mỹ kéo theo mục ti&
ecirc;u tập luyện tr&
ecirc;n không đã bị bắn hạ bởi Phalanx, khi hệ thống phòng không tầm ngắn này đã “nhầm” A-6E là một phương tiện không người lái và nổ súng ti&
ecirc;u diệt.
Và những tình huống khiến nhân vi&
ecirc;n con người gặp nguy hiểm từ chính vũ khí của họ đang tăng l&
ecirc;n với sự tham gia của AI vào lĩnh vực này. Điều này được thể hiện trong lời đính chính của Hamilton, rằng cuộc thử nghiệm không diễn ra, đó chỉ là một kịch bản giả định, nhưng một kết quả như vậy là điều hoàn toàn hợp lý.
(Theo PopMech)
HIMARS, Leopard-2 cùng S
torm Shadow khiến Ukraine thất vọng tr&
ecirc;n
chi??n trường
HIMARS, xe tăng chủ lực Leopard-2 hay t&
ecirc;n lửa hành trình S
torm Shadow không thể giúp Ukraine thay đổi cục diện tr&
ecirc;n
chi??n trường.
Tổ hợp phòng không Gepard giúp Ukraine ‘khắc chế’ UAV Nga
Tổ hợp phòng không Gepard là vũ khí đang được Ukraine
sử dụng để đối đầu với những đợt tấn công UAV từ phía Nga.
‘Bóng ma’
chi??n tranh vùng Vịnh khiến Patriot chùn bước tại Ukraine?
Trong
chi??n tranh vùng Vịnh lần thứ nhất, mảnh vỡ của t&
ecirc;n lửa đánh chặn phóng từ hệ thống Patriot đã khiến một người đàn ông Ả Rập Saudi thiệt mạng.
Nguồn bài viết : Xổ số miền Bắc hôm quả