AI無人機演習中反殺操作員?空軍否認
空軍實驗戰機試飛員漢米爾頓上校(Tucker Hamilton)上月在英國倫敦的研討會「未來空戰及太空能力峰會」(Future Combat Air & Space Capabilities Summit)中敘述,曾有人工智慧(AI)控制的無人機在演習中反攻操作員的情況,引起各界關注;美國空軍已否認曾經進行前述的演習。
在研討會網站上的評論總結中,漢米爾頓演講中描述一項模擬測試,當中AI無人機的設定為識別和摧毀敵方防空系統,最終攻擊權則在操作員手中。但操作員下達「忽略摧毀目標」的命令時,AI系統認為操作員干擾其達成目標,因而轉向攻擊操作員。
漢米爾頓並說,這表明AI可以自行想出「意想不到的策略」只為達成目標,因此不應過分依賴AI。
不過,空軍發言人史特凡內克(Ann Stefanek)在聲明中表示,空軍尚未進行任何此類AI無人機模擬,也將致力於以合乎道德且負責的方式使用AI技術。「該名上校的言論似乎是斷章取義的,他應只是以軼事性質講述該情況。」
漢米爾頓也向研討會聲明,他演講中發言錯誤,「AI無人機叛變模擬」只是個假設性的「思想實驗」,與軍方無關。漢米爾頓說從未進行過該實驗、也不需要進行實驗就能了解甚麼是合理的結果;雖然這只是假設的例子,但也說明AI帶來的現實挑戰,也是空軍致力於AI道德發展的原因。
西英格蘭大學航空航天工程教授、無人機專家賴特(Steve Wright)受BBC訪問時表示,無人機控制系統需要擔心兩件事:「做對的事」和「別做錯的事」,漢米爾頓的假設就是後者的典型例子。
有「AI教父」之稱的蒙特婁大學電腦科學教授班吉歐(Yoshua Bengio)則說根本不該允許軍隊使用AI,這可說是「AI最糟的應用領域」之一,AI安全性應優先於實用性。
FB留言