華為槓上Nvidia 大秀AI突破性黑科技
華為發表AI黑科技摃上Nvidia輝達(另稱英偉達),21日推出AI領域的突破性技術「Flex:ai」,透過算力切分技術,將單張圖形處理器(GPU)或神經網路處理器(NPU)算力卡切分為多份虛擬算力單元來彈性調度使用,讓算力資源平均利用率提升30%。
中國基金報報導,華為公司副總裁、華為數據存儲產品線總裁周躍峰表示,Flex:ai能夠釋放基礎設施潛力,開源加速AI真正走向平民化。
華為的Flex:ai技術,與輝達旗下Run:ai公司的核心技術類似。同時,Flex:ai是能夠讓AI行業化落地的重要工具之一,華為在發布Flex:ai後,同步開源至魔擎社區,建構完整的全流程AI開發工具平台(ModelEngine)開源生態。
為什麼推出Flex:ai?華為方面認為,在大模型時代,容器技術與AI是天然搭檔。容器技術作為一種羽量級虛擬化技術,可以將模型代碼、運行環境等打包成一個獨立且羽量級的鏡像,實現跨平台無縫遷移,解決模型部署存在環境配置不一致的痛點。此外,傳統容器技術已經無法完全滿足AI工作的負載需求,AI時代需要AI容器技術。
華為認為Flex:ai具備兩大獨特優勢。一是虛擬化,除了在本地虛擬化技術中實現算力單元的按需切分,Flex:ai獨有的「拉遠虛擬化」技術,可以不做複雜的分散式任務設置,將集群內各節點的空閒算力聚合形成「共用算力池」。
二是智慧調度,Flex:ai的智慧資源和任務調度技術,可以自動感知集群負載與資源狀態,結合AI工作負載的優先順序、算力需求等多維參數,對本地及遠端的虛擬化GPU、NPU資源進行全域最優調度,滿足不同AI工作負載對資源的需求。
Flex:ai的發布和開源,助力華為構建完整的ModelEngine開源生態,作為大模型訓練、推理和應用開發的AI平台,可以提供從資料預處理到模型訓練、優化及部署的一站式服務。

FB留言