2025-11-21 17:57:05
11月21日下午,華為在上海舉辦論壇,正式開源創(chuàng)新AI容器技術(shù)Flex:ai。該技術(shù)通過算力切分,將單張GPU/NPU算力卡切分為多份虛擬單元,提升算力利用率30%,且可統(tǒng)一管理多品牌算力資源。華為認(rèn)為容器技術(shù)與AI是天然搭檔,F(xiàn)lex:ai通過精細(xì)化管理與智能調(diào)度,實(shí)現(xiàn)AI工作負(fù)載與算力資源的“精準(zhǔn)匹配”,關(guān)鍵能力包括切分、調(diào)度和聚合。
每經(jīng)編輯|張錦河
11月21日下午,華為在上海舉辦“2025 AI容器應(yīng)用落地與發(fā)展論壇”,會(huì)上正式發(fā)布并開源了創(chuàng)新AI容器技術(shù)Flex:ai。
據(jù)媒體報(bào)道,目前,行業(yè)內(nèi)算力資源的平均利用率僅為30%至40%,據(jù)華為介紹,F(xiàn)lex:ai通過算力切分技術(shù),將單張GPU(圖形處理器)/NPU(神經(jīng)網(wǎng)絡(luò)處理器)算力卡切分為多份虛擬算力單元,切分粒度精準(zhǔn)至10%。此技術(shù)實(shí)現(xiàn)了單卡同時(shí)承載多個(gè)AI工作負(fù)載,在無法充分利用整卡算力的AI工作負(fù)載場(chǎng)景下,算力資源平均利用率可提升30%。
與英偉達(dá)旗下Run:ai只能綁定英偉達(dá)算力卡不同,華為AI容器技術(shù)Flex:ai通過軟件創(chuàng)新,可實(shí)現(xiàn)對(duì)英偉達(dá)、昇騰及其他第三方算力資源的統(tǒng)一管理和高效利用,有效屏蔽不同算力硬件之間的差異,為AI訓(xùn)練推理提供更高效的資源支持。
圖片來源:視覺中國-VCG211478193393
為什么推出Flex:ai?華為方面認(rèn)為,在大模型時(shí)代,容器技術(shù)與AI是天然搭檔。
容器技術(shù)作為一種輕量級(jí)虛擬化技術(shù),可以將模型代碼、運(yùn)行環(huán)境等打包成一個(gè)獨(dú)立且輕量級(jí)的鏡像,實(shí)現(xiàn)跨平臺(tái)無縫遷移,解決模型部署存在環(huán)境配置不一致的痛點(diǎn)。
同時(shí),容器技術(shù)可以按需掛載GPU(圖形處理器)、NPU(神經(jīng)網(wǎng)絡(luò)處理器)的算力資源,并且按需分配和回收資源,提升集群整體的資源利用率。
第三方機(jī)構(gòu)數(shù)據(jù)顯示,目前AI負(fù)載大多已容器化部署和運(yùn)行,預(yù)計(jì)到2027年,75%以上的AI工作負(fù)載將采用容器技術(shù)進(jìn)行部署和運(yùn)行。
此外,傳統(tǒng)容器技術(shù)已經(jīng)無法完全滿足AI工作的負(fù)載需求,AI時(shí)代需要AI容器技術(shù)。
Flex:ai可以大幅提升算力資源的利用率,主要是通過對(duì)GPU、NPU等智能算力資源的精細(xì)化管理與智能調(diào)度,實(shí)現(xiàn)對(duì)AI工作負(fù)載與算力資源的“精準(zhǔn)匹配”。
具體來看,Flex:ai的關(guān)鍵能力分別是算力資源切分、多級(jí)智能調(diào)度、跨節(jié)點(diǎn)算力資源聚合。
以算力資源切分為例,Flex:ai可以將單張GPU/NPU算力卡,切分為多份虛擬算力單元,切分粒度精準(zhǔn)至10%,實(shí)現(xiàn)單卡同時(shí)承載多個(gè)AI工作負(fù)載的效果。
每日經(jīng)濟(jì)新聞綜合上海證券報(bào)、公開信息
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP