华为在上海发布了一款名为Flex:ai的AI容器软件,这款软件把GPU和NPU等算力资源的利用率给大幅度提升了。这个消息是11月21日由中新社从上海那边报道出来的。那天在练秋湖研发基地,华为搞了一场关于AI容器应用的论坛,正式宣布了Flex:ai开源。华为公司的周跃峰副总裁提到了要让AI走进各行各业,但也指出硬件资源有限,必须精细化管理。这次,华为联合了国内三所大学一起开发了Flex:ai,这个软件提供了新的资源管理调度方案,还降低了开发门槛。具体来说,这个软件可以把一张算力卡切成多份虚拟算力单元,切分的精度能达到10%。这样一来,一张卡就能同时运行多个AI任务了。在以前那些用不到整张卡算力的场景里,资源利用率能平均提升30%。此外,这个软件还能智能地把AI工作负载和资源匹配起来,保障任务平稳运行。Flex:ai发布后会在魔擎社区上开源,和华为之前开源的Nexent、AppEngine、DataMate、UCM等工具一起组成ModelEngine生态。周跃峰希望通过这种方式让AI变得更加平民化,目前这个软件已经在教育、医疗和金融等行业开始试点使用了。