我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

紐約年薪15萬軟體工程師因AI被裁員 現住拖車靠外送餬口

移民政策收緊 綠卡不再是入境美保證

字節跳動旗下「豆包」新模型架構 推理成本最多降83%

聽新聞
test
0:00 /0:00
字節跳動字節跳動旗下「豆包大模型」Foundation團隊,近期提出一種全新的稀疏模型架構「UltraMem」,推理成本最高可降低83%。(路透)
字節跳動字節跳動旗下「豆包大模型」Foundation團隊,近期提出一種全新的稀疏模型架構「UltraMem」,推理成本最高可降低83%。(路透)

字節跳動旗下「豆包大模型」Foundation團隊,近期提出一種全新的稀疏模型架構「UltraMem」,該架構在保證模型效果的前提下,推理速度較傳統的MoE(專家混合模型)架構提升2到6倍,推理成本最高可降低83%。

中媒財聯社報導,這項創新成果已被機器學習和AI領域的頂級會議ICLR 2025接收,為解決大模型推理效率和擴展能力問題提供了全新思路。

大模型的推理能力,對應的是端側AI應用/工具的回應能力和速度。隨著模型規模的擴大,推理成本和訪存效率已成為限制大模型規模應用的關鍵瓶頸。

在Transformer架構下,模型的性能與參數數量和計算複雜度呈對數關係。隨著LLM規模不斷增大,推理成本會急劇增加,速度變慢。

為了解決計算問題,先前的研究者提出MoE和PKM(Product Key Memory)方案,但都有各自侷限性。包括MoE架構犧牲了效率、PKM架構犧牲了效果,這些侷限性使得MoE和PKM在推理效率、模型效果和擴展能力等方面的優化空間仍需進一步探索,UltraMem正是為了解決上述缺點。

UltraMem參考了PKM的設計,但針對PKM的缺陷予以補充,優勢主要在於降低推理成本、提升推理速度、保持模型效果。

豆包研究團隊在151M、680M、1.6B三個不同規模的模型上進行了廣泛的實驗。實驗結果顯示,UltraMem在模型效果和推理速度方面均優於MoE和PKM架構,且在680M、1.6B上具有顯著的效果優勢。

報導提到,無論是訓練端還是推理端,當大模型廠商「捲」起成本,代表AI應用將在未來更加高效易用;當推理成本大幅降低,將助推AI技術在更多領域的應用成為可能,尤其是對於資源受限的場景,如邊緣計算和移動設備等,能讓更多企業和開發者有能力使用和部署AI模型。

AI

上一則

江西被公路包圍的「最牛釘子戶」仍佇立 當局割出一道門

下一則

米老鼠勁敵? 全球第3座哈利波特影城確定落腳「魔都」

延伸閱讀

超人氣

更多 >