
新浪科技訊 11月24日晚間消息,聯(lián)合利用在近日的大高2025 AI容器應用落地與發(fā)展論壇上,華為公司副總裁、布并數(shù)據(jù)存儲產(chǎn)品線總裁周躍峰正式發(fā)布AI容器技術(shù)——Flex:ai。開源同時,容器華為聯(lián)合上海交通大學、技術(shù)西安交通大學與廈門大學共同宣布,助力資源將此項產(chǎn)學合作成果向外界開源,破解助力破解算力資源利用難題。算力
當前,難題AI產(chǎn)業(yè)高速發(fā)展催生海量算力需求,聯(lián)合利用但全球算力資源利用率偏低的大高問題日益凸顯,“算力資源浪費”成為產(chǎn)業(yè)發(fā)展的布并關(guān)鍵桎梏:小模型任務獨占整卡導致資源閑置,大模型任務單機算力不足難以支撐,開源大量缺乏GPU/NPU的容器通用服務器更是處于算力“休眠”狀態(tài),供需錯配造成嚴重的資源浪費。
本次發(fā)布并開源的Flex:ai XPU池化與調(diào)度軟件,是基于Kubernetes容器編排平臺構(gòu)建,通過對GPU、NPU等智能算力資源的精細化管理與智能調(diào)度,實現(xiàn)AI工作負載與算力資源的精準匹配,可大幅提升算力利用率。
據(jù)介紹,該技術(shù)深度融合了三大高校與華為的科研力量,形成三大核心技術(shù)突破:針對AI小模型訓推場景中“一張卡跑一個任務”的資源浪費問題,華為與上海交通大學聯(lián)合研發(fā)XPU池化框架,可將單張GPU或NPU算力卡切分為多份虛擬算力單元,實現(xiàn)算力單元的按需切分,使此類場景下的整體算力平均利用率提升30%;針對大量通用服務器因缺乏智能計算單元而無法服務于AI工作負載的問題,華為與廈門大學聯(lián)合研發(fā)跨節(jié)點拉遠虛擬化技術(shù)。該技術(shù)將集群內(nèi)各節(jié)點的空閑XPU算力聚合形成“共享算力池”,促進通用算力與智能算力資源融合;面對算力集群中多品牌、多規(guī)格異構(gòu)算力資源難以統(tǒng)一調(diào)度的痛點,華為與西安交通大學共同打造Hi Scheduler智能調(diào)度器,實現(xiàn)AI工作負載分時復用資源。即便在負載頻繁波動的場景下,也能保障AI工作負載的平穩(wěn)運行。
頂: 16踩: 97472
評論專區(qū)