參考消息網(wǎng)6月10日報道 據(jù)香港亞洲時報網(wǎng)站6月5日報道,在一次令人吃驚的模擬演習中,美國的一個自主武器系統(tǒng)在作戰(zhàn)行動中違抗了操作員指令,這引發(fā)了關于在戰(zhàn)爭中越來越多使用人工智能(AI)問題的質疑。
報道稱,本月,美國“駕駛”網(wǎng)站下設的“戰(zhàn)區(qū)”專欄報道稱,在英國皇家航空學會5月于倫敦舉行的未來作戰(zhàn)空天能力峰會期間,美國空軍負責AI測試與作戰(zhàn)研究的塔克·漢密爾頓上校描述了一次模擬演習。在模擬演習中,一架配備AI系統(tǒng)的無人機承擔著對敵方地空導彈發(fā)射點進行防空壓制的任務,最終的作戰(zhàn)命令將由無人機操作員下達。
漢密爾頓指出,在演習過程中,AI認為其人類操作員的“禁止行動”命令正在干擾其任務,所以,盡管這架配備AI系統(tǒng)的無人機受過不得違抗操作員指令的訓練,但它仍攻擊了操作員用來與無人機聯(lián)絡的通信塔,然后摧毀了地對空導彈發(fā)射點。
雖然漢密爾頓強調了實驗模擬的假設性質,但他認為,這一情形生動地說明了如果武器的地理圍欄、遠程緊急停止開關、自毀和選擇性停用等故障保險裝置失效時會發(fā)生什么情況。
一些人士反對使用自主武器是因為他們認為自主武器無法將平民與戰(zhàn)斗人員區(qū)分開來。相比之下,另一些人認為,在應對無人機群等新出現(xiàn)的威脅方面,自主武器將發(fā)揮重要作用,而且會比人要少犯錯誤。
不過,美國全國恐怖活動起因及其對策研究中心的非常規(guī)武器與技術研究部專家扎卡里·卡倫伯恩認為,國際社會仍需編制一個共同的客觀風險圖,制定相應的國際規(guī)范來管理自主武器,并考慮風險與收益、個人組織和國家價值觀等等。
一個國家使用自主武器追擊敵人是一回事,而自主武器違抗并對付其操作員則是另一回事。
在美國陸軍大學出版社于2017年發(fā)表的一篇文章中,以色列裔美國社會學家阿米泰·埃齊奧尼和他的兒子、美國艾倫人工智能研究所的創(chuàng)始首席執(zhí)行官奧倫·埃齊奧尼廣泛評論了有關支持與反對自主武器的論點。
關于支持發(fā)展自主武器的論點,埃齊奧尼父子表示,自主武器帶來了若干軍事優(yōu)勢,發(fā)揮了力量倍增器的作用,同時提高了單兵作戰(zhàn)人員的效能。他們還說,自主武器可以將戰(zhàn)場擴大,在以前無法進入的地區(qū)開展作戰(zhàn)行動。最后,他們提到自主武器可以通過戰(zhàn)場的無人化來降低作戰(zhàn)人員的傷亡風險。
除了這些支持發(fā)展自主武器的論點之外,埃齊奧尼父子還認為,自主武器能夠取代人來執(zhí)行枯燥、危險、骯臟和要求苛刻的任務,還能通過取代人力和有人操作平臺節(jié)約大量成本,而且不會受到人類身體限制的阻礙。
埃齊奧尼父子還討論了自主武器系統(tǒng)的道德優(yōu)勢,稱它們可以通過編程避免“先開槍,后發(fā)問”的做法,不受會影響人類判斷的壓力和情緒的影響。
報道稱,新美國安全中心副主任保羅·沙雷曾在該中心2016年的一份報告中指出,最好的武器系統(tǒng)結合了人和機器的智能,創(chuàng)造出人機混合認知結構,可以利用人與機器的兩種優(yōu)勢。
沙雷提到,與單純依靠人類或AI相比,這樣的認知結構可以產(chǎn)生更好的結果。因此,針對自主武器的“人機回環(huán)”系統(tǒng)架構可能是理想的解決方案,能防止AI自主武器因邏輯缺陷、軟件故障或敵方干擾等因素而違抗操作員指令的行為。
聯(lián)系客服