專家之眼/人工智慧的兩張惡臉:職場清洗與戰場屠殺
本月中旬,美國軍方正式確認,在伊朗戰役中,五角大廈大量倚賴人工智慧輔助決策,旗下系統在開戰後短短二十四小時內,便鎖定了超過一千個攻擊目標。這套系統整合了Palantir的智慧平台,其中更嵌入了美國AI公司Anthropic的大型語言模型。消息傳出後,輿論譁然。
令人諷刺的是,Anthropic本身不久前才因試圖限制其技術被用於全自主武器與大規模監控,與美國國防部正面交鋒,鬧上法庭。一家標榜以「AI安全」為使命的公司,其核心技術卻出現在現代戰場的殺傷鏈上,這不只是新聞,更是一個警惕。
人工智慧的時代確實來臨了,但它同時以截然不同的面貌敲響了兩扇門。一扇門通向辦公室,另一扇門通向戰場。
在辦公室這一側,情況同樣令人不安。今年二月底,支付科技公司Block宣布裁員四千人,相當於整體員工人數的四成。執行長在致股東信中毫不掩飾地將這波裁員與AI掛鉤,他寫道,AI工具正在讓更小、更扁平的團隊得以用全新的方式運作,從根本上改變了企業的建構與經營模式,並預言業界大多數公司將在一年內得出相同結論。
幾乎同一時間,亞馬遜宣布裁減一萬六千人,儘管該公司在2025年創下了歷史最高營收。這兩家公司的共同點,在於都是在財務表現亮眼的情況下大砍人力,而裁員的理由,都指向同一個名字:人工智慧。這不再只是底層工作被取代的故事,而是一場從基層到中高層、席捲整個白領生態的結構性清洗。
輝達執行長黃仁勳最近在公司的年度開發者大會上試圖緩和這種恐慌,他呼籲科技業者停止用裁員來回應AI帶來的效率提升,認為那是「缺乏想像力」的表現。他描繪了一幅美麗的願景:AI讓每一位木工都能晉升為建築師,讓每一位水電工都能擁有更廣闊的工作視野。但黃仁勳迴避了一個核心問題,並非每位工人都渴望成為建築師。有人就是想鑿木,就是想接管線,這些人的選擇與尊嚴,並不比矽谷的宏觀願景低一個層次。
NBC最新民調顯示,美國民眾對AI的反感程度,竟然超越了飽受批評的移民執法機構ICE,甚至超越了現任總統川普的淨支持率。有四成六的受訪者對AI持負面態度,反觀正面評價不到三成。這個數字不該被輕描淡寫為「無知恐懼」。公眾對AI的反感,有著清晰可辨的理由。AI助長了監控,讓部分政府如虎添翼地迫害少數族群;AI被整合進戰爭機器,讓生死決定變得愈來愈機械化和不透明;AI的大規模部署帶動了數據中心的無限擴張,引發了缺水危機、電費飆升、空氣惡化。
更令人憂心的是問責機制的消失,傳統軍事決策中,每一個指揮決定都有一個可以被追究的名字。AI介入之後,責任在開發商、系統操作者、審核軍官之間漂浮,沒有人真正擁有那個「判決」,但每個人都宣稱自己只是輔助。這種責任的模糊化,對國際人道法而言是根本性的挑戰,而現有的國際規範框架對此幾乎毫無準備。
一個社會對新技術的集體態度,往往在它真正理解這項技術之前就已定型。如今,那些形塑公眾意見的事件,正在以極快的速度積累,包括自動化帶來的工作焦慮,AI輔助的戰場死亡,聊天機器人對心理健康的侵蝕,資料中心對社區環境的壓榨等。我們若是等到民意強烈反彈再來想辦法管理,代價可能遠比現在主動設下清晰邊界、建立透明的問責機制要沉重得多。
這不是要在「擁抱AI」和「拒絕AI」之間二選一,這是一道更難回答的問題。我們願意讓AI在什麼樣的條件下進入我們的辦公室、我們的社區、我們的戰場?那個「我們」,究竟由誰來代表?
