高端算力正从过去的“奢侈品”变成现在的“基础能力”

咱就说3月26日这天,中科曙光在中关村论坛上搞了个大动作,曙光信息产业(北京)有限公司副总裁李柳亲自出来吆喝。他们把世界上第一个无线缆的箱式超节点scaleX40给弄出来了,现场就开始全网预售了。李柳现场解释说,这个超节点其实就是把片间互联做得超快,让算力单元紧挨着耦合在一起的东西。李斌这边也给出了官方解释,说这个新产品能满足模型推理的需求,他们是想把它当成推动算力落地的重要工具。 为了让大家伙儿用起来不费劲,这个scaleX40搞了个结构上的革新。以前的超节点方案太折腾,全靠大量线缆连着,还得定制化建设,这就导致部署周期长、运维要求高。钱和时间成本都上去了,超节点就没法大范围普及。现在这个scaleX40直接搞无线缆架构,把计算和交换节点直接插在一起,不用光纤也不用铜缆。它还弄成了标准的19英寸箱子的样子,单个节点就有40张GPU堆在那儿,算力达到了28PFLOPS(用FP8精度算),HBM显存超过5TB,访问带宽超过80TB/s。稳定性这块也提升到了99.99%,既简化了复杂度又保证了好用。 李斌直言不讳地说,这个核心不光是堆算力密度,更是通过架构创新来降低门槛,让超节点能更标准化地走到各种应用场景里去。看现在市场的需求也变了样,AI的算力结构正在分层。全球的投入还在涨,可新增的需求不再光盯着超级大的集群了,而是开始关注企业级和行业里的实际场景。在这种情况下大家关心的不再是规模有多大多大,而是更在乎性能、成本和灵活性能不能平衡。 发布会现场有不少人也提到了企业的真实需求,他们不需要一味追求更大的集群规模,而是在花得起的钱里头弄点稳定、能扩展的高端算力出来。scaleX40的配置正好踩在了这个平衡点上,既能支持大模型的训练和推理,又不会让大家背上太重的包袱。而且它还挺灵活的:往小了说它能照顾到32张卡那种中小规模的训练和测试需求;往大了说它又能通过扩展变成更大的集群。这样的设计让部署更贴合企业的节奏。 现在AI都已经进入产业化阶段了,大家比的不再是单项的性能指标高低了,而是看谁能让高端算力变得更易部署、更易使用、还能一直稳定运行。高端算力正从过去的“奢侈品”变成现在的“基础能力”。scaleX40在设计上就特别强调“能用就行”。它的结构能直接插进现有的数据中心环境里去用,不用再费心思搞额外改造;模块化的架构还支持灵活扩展。 通过跟存储和调度体系的配合呢?算力资源就能直接给模型训练和智能体应用服务了。这种“开箱就能用”的感觉让高端算力更快地进入了实际业务流程里。从把它摆到现场到正式上线的周期被大大缩短了。 对于那些急需算力的企业用户来说?这意味着高端算力不再只是少数特定场景才有的稀罕玩意儿了。它正在变成大家都能常规部署的基础能力呢。行业专家也说了:“当超节点开始用更简单的方式被部署和使用的时候?高端算力才会加速从一种‘能力选项’变成体系里的标配。”作者叫窦世平。