我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

伊朗宣稱成功襲擊 美軍支援艦在阿曼外海遭鎖定 傷亡不明

迎世界盃 布碌崙大橋曼哈頓入口單車分流

Google端最新壓縮演算法 華爾街:存儲晶片用量更多

聽新聞
test
0:00 /0:00

Google端出最新「TurboQuant」壓縮演算法,標榜僅需六分之一的記憶體數量,就能運作大型語言模型(LLM),且性能能提升八倍,市場憂心不利記憶體後市,引爆記憶體股龐大賣壓。惟華爾街分析師認為,該演算法不僅不會降低記憶體需求,反而會推升存儲晶片使用量。

分析師認為,Google這個新演算法未必會降低記憶體需求,因為根據傑文斯悖論(Jevons paradox),提高效率反而會推升需求。

傑文斯悖論是19世紀英國經濟學家針對煤炭產量提出的理論,指出技術效率愈高,需求會增加愈多,去年中國推出DeepSeek AI模型時,也有分析師引用這個理論。

也有分析師指出,TurboQuant問世將大幅降低單次查詢的服務成本,讓部分原本只能在雲端集群上運行的模型遷移至本地,有效降低AI規模化部署的門檻,這可能反而能進一步提振整體需求。

摩根大通交易團隊便認為,近期的記憶體使用量不受威脅,TurboQuant短期對運算與記憶體的影響為中性,卻是長多,但可能讓投資人獲利了結。

摩根士丹利證券也認為,TurboQuant有利超大型運端業者和大型語言模型(LLM),因為能提高投資報酬率。

就TurboQuant的運作邏輯,具軟體工程背景的專業人士分析,TurboQuant主要針對AI在回答問題時,能不用像過往運算方式般重複記憶大量資料,若以讀書方式來比喻,舊運算方式如同認真向學的乖寶寶,要將每一個知識點都記下來,並且不斷反覆回憶,加深印象。

而TurboQuant就像是聰明但喜歡偷懶的學生,透過重點整理,選擇性記憶關鍵知識點,再從大方向進行延伸思考,因此省去大量腦容量。

就實際運作來說,TurboQuant是藉由兩種數學方法,將資料進行規律化,模型就不需要死記硬背每一筆資料的特徵,而是可以透過固定的規律去尋找答案,而在規律化的過程中,勢必會產生誤差,此時再藉由另一個小小的演算法進行誤差校正,就能夠確保AI運算的結果依然準確。

專家指出,TurboQuant減少的只是緩存的用量,並且只針對回答過程中所產生的這些緩存,並不會影響到模型本身訓練的過程及結果,也就是說,模型依然需要存儲空間來存放過去訓練所得出的模型權重,同時也需要有足夠的空間進行新的訓練。

華爾街

上一則

馬斯克攻AI影音生成 催出更多伺服器需求

下一則

Google新壓縮演算法「TurboQuant」嚇趴記憶體 引爆類股賣壓

延伸閱讀

超人氣

更多 >