亞馬遜推自研AI晶片 並整合Nvidia技術做大AI商機
全球最大雲端服務供應商(CSP)亞馬遜AWS美國時間2日推出旗下最強自研AI晶片「Trainium 3」,大搶Nvidia輝達(另稱英偉達)地盤之際,也宣布下一代自研AI晶片「Trainium 4」將整合輝達「NVLink Fusion」技術,兩大廠成為「競爭又合作」的關係。
業界看好,亞馬遜AWS與輝達「既競爭、又合作」,有利亞馬遜AWS管理先前已經部署的輝達AI伺服器之外,也可望快速推出以輝達MGX架構的ASIC伺服器,使亞馬遜AWS、輝達在AI算力市場中共創雙贏,並攜手做大AI商機,帶旺台積電、鴻海、緯穎等AI伺服器鏈。
亞馬遜AWS表示,下一代的自家Trainium 4晶片,將採用輝達NVLink Fusion技術。亞馬遜AWS亦成為繼英特爾與高通之後,最新一家採用輝達高速網通技術AI大廠。
據了解,NVLink Fusion主要應用在伺服器內部資料傳輸通道中,這對每一個高效能運算晶片(HPC)相互串聯運算具有絕對重要性。目前只要輝達AI伺服器中,都配有NVLink技術,並已從先前的NVL 32推進到NVL 72,該命名方式的原因為可同時連結36顆輝達Grace架構CPU、72個Blackwell架構GPU。
目前輝達已將NVLink Fusion技術拓展到ASIC應用市場,只要採用客製化架構的MGX機櫃,同樣可使用NVLink規格,成為亞馬遜AWS導入輝達NVLink Fusion合作主因。
業界指出,亞馬遜先前採購的輝達H200架構AI伺服器,以及今年陸續建置的GB200/GB300的AI伺服器,未來都需要與亞馬遜自家研發的Trainium 4架構整合,如此才能讓AI模型訓練及推論上達到最大效益。
業界分析,現階段AI伺服器市場已開始逐步從過去以輝達、超微推出的HPC平台為主的架構,衍生出各大CSP廠自行開發的ASIC伺服器商機,以強化自家客製化AI模型訓練效率,不僅亞馬遜推出自家ASIC晶片,Google的TPU更是市場近期熱議話題,但這並不代表輝達或超微的HPC市場會被完全取代。未來GPU晶片廠推出的AI伺服器平台將會與ASIC平台相輔相成,且GPU本就是可做高度重複性運算的架構,因此輝達、超微開發的產品仍是市場大宗,ASIC架構則吃下部份AI伺服器市場。

FB留言