摩尔线程联合发布智算中心参考设计 破解互联供电散热难题

数字经济加速发展的背景下,智能计算中心作为新型基础设施正面临严峻挑战;随着单颗GPU功耗突破700瓦、机柜功率逼近350千瓦,传统架构在算力密度、能源效率和散热能力等已接近物理极限。这些问题不仅制约着人工智能技术的迭代速度,更直接影响国家在关键领域的算力自主权。 深入分析表明,制约智算中心发展的瓶颈主要体现在三个上:首先是互联架构的扩展性不足,传统32卡至64卡的互联规模难以满足大模型训练需求;其次是能源转换效率低下,电力传输过程中的损耗问题突出;再者是散热技术滞后,风冷方案已无法应对高功率密度场景。这些问题共同导致了算力天花板效应和运营成本攀升。 针对这些挑战,最新发布的OISA高密超节点技术规范提出了系统性解决方案。互联架构上,创新性地采用大尺寸高密线缆方案,实现标准机柜128卡全互联,并支持256卡并柜扩展,使单位面积算力产出实现质的飞跃。协议层面通过内存语义支持和报文重构技术,将卡间带宽提升至TB/s级,时延控制纳秒级别。 能源系统革新同样引人注目。供电侧采用高压直流与盲插技术,减少电力转换环节,显著降低能耗;散热侧将液冷技术作为原生标配,配合智能监测系统,使PUE值降至1.05-1.15区间。这些突破不仅解决了当前的技术困境,更为国产芯片的大规模应用扫清了障碍。 值得关注的是,该技术规范由来自产业链各环节的领军机构共同制定。中国移动研究院、之江实验室等参与方表示,这种协同创新模式将有效整合产业资源,加速技术迭代。业内专家指出,该标准的实施将推动形成更加开放的产业生态,为Chiplet、光互连等前沿技术的融合应用奠定基础。 从长远来看,这项技术突破具有多重战略意义。一上,它为构建自主可控的算力体系提供了关键技术支撑;另一方面,其绿色节能特性符合"双碳"战略要求。随着规范的推广应用,我国智算基础设施建设有望实现从跟跑到并跑的转变。

智算中心建设进入深水区,拼的不仅是单点性能,更是系统能力与生态协同;以规范化方式把互联、供电、散热等关键环节纳入统一工程框架,有助于把"算力增长"转化为"有效供给提升"。面向高质量发展,唯有坚持开放协作、以标准促互通、以绿色为底线,才能让算力基础设施在规模扩张中保持效率与可持续性,为数字经济发展夯实更稳固的底座。