網頁列印

內容來自網址: https://www.worldjournal.com/6004641/article-link/

首頁 周刊

新聞眼 | 自動殺人機器 未來戰爭新型態?

愛沙尼亞的米爾蘭姆機器人公司發展出一款叫作THeMIS的機器人,全名為「履帶混合模組化步兵系統」。(取自Milrem Robotics) 愛沙尼亞的米爾蘭姆機器人公司發展出一款叫作THeMIS的機器人,全名為「履帶混合模組化步兵系統」。(取自Milrem Robotics)
一名日本船員在擦拭方陣近迫武器系統。(路透) 一名日本船員在擦拭方陣近迫武器系統。(路透)

這是個寒冷下雪的日子,在愛沙尼亞與俄羅斯的交界,兩國的士兵在邊界進行例行巡邏。各方皆配有自動武器系統的履帶機器人,這種無人地面車輛配有機械槍和光學系統可分辨外來威脅,例如人類或是交通工具。當雙邊士兵與機器人在凹凸不平的地面慢慢交會時,一名愛沙尼亞士兵不慎跌倒時誤發射了他的突擊步槍。俄國機器人記錄到槍聲後將此舉解釋為攻擊行動,隨即決定進行適當回應。不到一秒鐘,愛沙尼亞和俄國的機器人在演算法的命令下,將武器轉向人類目標然後發射。一陣槍林彈雨過後,12名或死或傷的士兵四散倒臥在他們的機器人同伴旁,最後兩國檢討此番死傷,或者將此次攻擊歸咎到對方身上。

•自動化 不受人類控制

雖然這個假設情況看似荒誕,但今日這些戰用機器人早已有雛形。愛沙尼亞的米爾蘭姆機器人公司(Milrem Robotics)發展出一款叫作THeMIS的機器人,全名為「履帶混合模組化步兵系統」。它的身體靠著小型坦克履帶移動,上方有遠端武器砲塔,可搭載小口徑或大口徑的機械槍。機器人還涵蓋鏡頭與目標追蹤軟體,讓砲塔可按照設定追逐人類或物體。目前這套系統仍由人類控制,米爾蘭姆公司也如此堅稱,但其實機器人身上的零件組成已能讓它自行判斷眼前情況,辨別可能的作戰目標並進行追蹤。米爾蘭姆公司官網上指出:「THeMIS有近乎無限的潛在用途。」

在戰爭中使用致命武器對抗作戰目標,過去這一直是由人類作出的決定,但這種情況可能很快面臨改變。人工智慧、機器影像辨識和機器人等現代發展為人類鋪出新未來,準備迎來一部分全球最大的軍隊,讓武器系統不需人類參與,便可能確認並殺死戰場上的敵人。

俄國、中國、美國都努力研發可將武器與感應器、定位電腦配對的自動平台;英國和以色列早已使用具有自動化功能的武器,包括可找尋並攻擊敵人雷達的飛彈、無人機,以及無須人類命令便可立刻決定發射砲火的交通工具與船艦。

•「機器殺人」 跨越道德

什麼情況下軍事武器可以或應該代理人類,決定由機器取走人類的生命?這個問題跨越道德,讓人思考戰爭本質,如今軍事策畫者、人權組織、國防官員、研究分析師和倫理學家都尚未取得共識。

自動殺人機器並不是新科技,其實數十年前早已有武器系統可以獨立辨識並攻擊目標的技術。在1980和1990年代,美國戰爭策畫者已測試可獨自辨認目標的魚叉反艦飛彈和戰斧巡弋飛彈,兩種飛彈至今仍在人為監控的情況下使用。

美國最先進的自動武器主要著重防禦應用。2003年美國在伊拉克的大型基地遭攻擊,美國陸軍研發出「反火箭、火砲和迫擊砲」(C-RAM)系統來可偵測空中威脅、向人類操作員示警,當人類按下按鈕,該系統可追蹤並發射可在空中自行爆炸的彈藥來炸毀威脅來源,藉此減少人員傷亡與損害。

華盛頓智庫「新美國安全中心」高級研究人員沃克(Robert Work)表示:「當大量飛彈襲來,人類不可能說:『好,你先擊毀那個飛彈。』作戰資訊中心的人員沒辦法跟上飛彈速度,因此美國策畫人員發展出方陣近迫武器系統(Phalanx)和神盾戰鬥系統,這可以連結到船艦和飛機上的感應器辨認空中威脅,操作人員輸入資料後,可自動發射艦上飛彈攻擊。」

這些系統已被事先安排好,只要人類在某個時間點按下按鈕,機器就可作出一切決定。

在沃克看來,致命自動武器的定義為:一旦人類解除限制,便可獨立決定摧毀對象與目標的武器。

•恐致更血腥嚴重衝突

沃克於2014年到2017年擔任美國國防部副部長,當時他負責執行國防部的「第三次抵消戰略」,即利用美軍軍事最核心的創新科技來打擊敵人的可能優勢。美國第一次抵消戰略在美國前總統艾森豪(Dwight D. Eisenhower)任內實施,旨在建立美國核優勢;第二次在1970和1980年代,強調美國電腦和導彈科技。第三次抵消戰略結合人類與機器的優點,利用人工智慧、機器自動化來打造更快更聰明的網路。

獨立致命武器的支持派認為機器可降低錯誤發生率。瑟瑞(Tony Cerri)最近開始在美國陸軍訓練與條令司令部監控數據科學、模型和模擬,他表示,機器人可在幾毫秒內分析人類想像不到的大量數據,並判斷出使用武器限制損害的最佳時間點。

但是反對派表示,一旦致命機器人犯錯,將招致更血腥的嚴重衝突,這需要自動武器持有國相互合作與約束。聯合國工作組織在8月擬定方向,作為未來國際自動殺人機器人的規範,希望讓製造商承擔更多責任。

聯合國11月召開為期五天的聯合國特定傳統武器公約(CCW)會議,希望可制定自動武器的管理規範。雖然多數國家支持自動武器在某種程度上由手動控制,但卻難以解釋「實務上有效人為控制的意義」,因此外交官認為達成條約的機會不高。

美國海軍戰爭學院軍事倫理教授波林·尚克斯‧考林(Pauline Shanks Kaurin)表示,人類會譴責某種行動或將之合理化,這牽涉到人類會判斷這些行動是否符合道德,如果今天不是人類作決定,那這就變成機器對機器的問題了。

•馬斯克:如潘朵拉盒子

電動車大廠特斯拉創辦人馬斯克(Elon Musk)、已故英國理論物理學家霍金(Stephen Hawking)和蘋果共同創辦人沃茲尼克(Steve Wozniak)和多位人工智慧研究人員2015年曾簽署一封公開信,警告自動武器可能成為暗殺、顛覆國家、壓迫人民和選擇性殺害特定種族的工具。

馬斯克更曾指出,人工智慧武器恐成人類最大威脅,一旦開了潘朵拉的盒子,就再也關不起來了。

儘管如此,沃克對道德問題的看法顯得稍加樂觀,他認為未來人類會更不用擔心將控制權交給自動武器代理,但他坦言人類必須採取行動,而且還有漫漫長路需要努力。

美軍駐阿富汗的飛行員2016年準備駕駛MQ-9死神偵察機執行任務。(路透) 美軍駐阿富汗的飛行員2016年準備駕駛MQ-9死神偵察機執行任務。(路透)
特斯拉創辦人馬斯克曾警告,人工智慧武器恐成人類最大威脅。(美聯社) 特斯拉創辦人馬斯克曾警告,人工智慧武器恐成人類最大威脅。(美聯社)

Copyright 2019 世界新聞網-北美華文新聞、華商資訊. All rights reserved.