被吞噬的伊朗監控者 AI失控的代價
人工智慧的演進,正從單純的技術競賽,演變為人類文明史上最深刻的權力重組。它已然跨越了「生產力工具」的邊界,踏入「統治技術」的範疇。此刻Anthropic與美國國防部及之間的爭議,不僅是對採購合約的歧見,更是人類社會對AI失控風險最真實的集體辯論。問題的核心不再是「AI能否做到」,而是「誰有權決定做到哪裡為止」。
在專制體制中,技術與權力的結合幾乎沒有懸念。以中國為例,AI已廣泛且深度地嵌入公共安全與社會治理架構,演算法成為權力運作的神經中樞。這種模式將監控的成本趨近於零。更令人警惕的是,這種「高效率治理」正成為治理誘惑,部分國家不再隱瞞全面掌控資料的野心,反而以治安、反恐與國家安全為名,合理化其對資料蒐集與自動化決策權限的無度擴張,個人的權利也正在被無所限的AI威脅侵蝕。
這種技術對權力的反噬,在近期爆發的對伊戰爭中展現了最冷峻的一幕。伊朗斥資巨額預算,在德黑蘭等核心城市布建了嚴密的數位監控體系,旨在壓制國內異議並強化社會控制。諷刺的是,這套原本用於對付國民的「統治利器」,竟成為以色列情報單位反客為主的情報金礦。
根據最新消息,以色列利用其在網絡滲透與AI解析領域的絕對優勢,以色列軍方全面駭入並破解了伊朗首都的道路監控系統與通訊基地站,並透過AI系統衍生技術,實施了所謂的「生活樣態分析」,精確辨識出伊朗高層官員的座車導航規律、保鏢的交接班時間,甚至是特定官邸周遭異常的訊號活動。
這種超越人類腦力極限的大數據整合,讓以色列得以掌握最高領袖哈米尼官邸開會的「黃金時刻」。這是一個極其可怖的實例:當統治者利用AI建立起全知全能的監控網絡時,他也同時為外部的軍事科技精準打擊提供了一份完美的「導航地圖」。
在此歷史轉折點上,Anthropic堅持畫下的兩條紅線——拒絕大規模國內監控、拒絕無人類介入的自主致命武器——顯得極具先見之明。這不單是企業的品牌定位,更是一場關於「技術不可無限擴張」的公開宣示。Anthropic實際上在向全球拋出一個大哉問:當政府傾向將AI視為統治與戰爭的基礎設施時,技術開發者是否仍保有對文明價值的最終否決權?
然而,隨著川普再度主政,行政權對科技資源的調動展現出更強硬的姿態,川普政府明確宣示:在國家安全優先的框架下,技術應當是全面可用的兵器,若企業設限,將被貼上「妨礙國家安全」的標籤。
Anthropic曾是五角大廈最倚重的AI合作夥伴,但在日前新一輪的合約談判,川普政府要求移除紅線,最後談判破裂,川普政府不僅廢止新約,還宣布將其列為「國家安全供應鏈風險」,所有美國政府供應商,都不敢再與Anthropic有任何業務上的往來。
相較之下,OpenAI與戰爭部的合作,形成了鮮明對照,雖然內部也有類似的原則規範,但它傾向在法律框架內與政府廣泛合作。但若法律本身即是政權意志的延伸,所謂的原則是否只是彈性設計?當紅線被改寫為「特定條件下可例外」時,技術的用途便會隨政策偏移,最終淪為權力的附庸。
真正令人不安的,是專制與民主之間的界限正趨於模糊。專制體制利用AI監控人民本在預料之中,但若民主國家亦在缺乏充分監督下,逐步擴張自動化決策與軍事整合權限,民主將無可維繫。
AI正逐步被全面納入國家權力結構而缺乏制衡,Anthropic的堅持在此刻成為稀有的「煞車機制」。技術本身沒有意志,但權力有。當政府與企業狂熱於加速部署AI,若無法建立起「不該做什麼」的共識,下一個世代將生活在恐懼之中,而自由一旦遺失,將比任何技術突破都更難恢復。