Nvidia旗下新一代AI伺服器 能將中國模型效能提升10倍
聽新聞
test
0:00 /0:00
Nvidia輝達(另稱英偉達)3日公布最新測試數據,顯示旗下最新一代AI伺服器可讓多項新模型的效能提升達十 倍,包括兩款備受矚目的中國熱門模型。
AI 產業的重心正從輝達稱霸的模型訓練階段,轉向應用階段,也就是讓AI能真正服務廣大用戶。在應用市場方面,輝達面臨超微(AMD)、Cerebras 等更多競爭對手的挑戰。
輝達此次特別著重於「專家混合」(mixture-of-experts, MoE)模型的表現。這種架構透過把問題拆成好幾個部分,再分別交給模型內部不同的「專家」處理,藉此提升運算效率。今年這項技術爆紅,正因為中國DeepSeek 在2025年初推出一款高效能開源模型,訓練所需的輝達晶片遠低於同級競品,震撼全球AI社群。
經過DeepSeek的震撼,MoE技術也被ChatGPT開發商OpenAI、法國的Mistral,以及中國的Moonshot AI採用;其中Moonshot AI今年7月也推出自家表現亮眼的開源模型。
與此同時,輝達著重強調的是:即使這類模型在訓練時用到的輝達晶片較少,但在模型上線服務時,輝達的硬體仍然是能支撐服務的主力。
輝達3日表示,旗下最新一代AI伺服器整合72顆旗艦晶片於單一系統,並以高速串連,能讓Moonshot的Kimi K2 Thinking模型效能相較上一代輝達伺服器提升十倍, 在DeepSeek模型也有同樣增進的效能。
輝達指出,效能大幅躍升,主要來自伺服器能塞進大量晶片,以及晶片之間的高速連結,而這正是輝達目前仍優於競爭對手的關鍵。
超微也在打造類似、由多顆高效能晶片組成的伺服器,並表示最快明年就會上市。

FB留言