Meta发布第四代自研推理芯片 联手博通加速AI基础设施布局

全球科技企业加速推进算力自主的背景下,Meta于5月22日披露了MTIA芯片路线图的最新进展;本次更新涉及四代产品,延续阶梯式迭代节奏:MTIA 300已进入量产,主要用于推荐算法训练;MTIA 400处于测试阶段;面向高性能推理场景的MTIA 450与MTIA 500计划在2027年分批落地。行业分析认为,Meta这次进展体现出三点特点:其一,硬件设计不再单纯追求算力堆叠,而是通过将HBM带宽提升至原来的4.5倍、优化封装内通信等方式,把推理延迟降低30%以上。其二,引入MX4混合精度格式,使特定场景下的计算效率达到常规浮点运算的6倍。其三,全系列产品兼容统一基础设施框架,新芯片可直接替换旧型号,将部署周期缩短至约6个月。 此技术路线背后有两上因素。一方面,随着推荐系统、内容审核等业务持续扩张,Meta每天需要处理千亿级推理请求,传统GPU方案能效上逐渐承压。内部测试显示,在广告推荐场景中,MTIA相较通用硬件可将功耗成本降低40%。另一上,Meta近期与AMD达成的千亿美元级基础设施协议,也反映出其希望构建更多元的技术生态,以降低对单一供应商的依赖和供应链风险。 市场观察人士指出,Meta的模块化架构对行业具有一定参考价值。通过深度整合PyTorch等开源工具链,企业用户无需重构算法模型即可实现跨平台部署。目前全球约15%的互联网企业开始借鉴类似的软硬协同路线。预计到2028年,专用推理芯片市场规模将超过800亿美元。

从“推理优先”的设计思路到模块化部署方式,Meta的MTIA路线体现出对效率与成本的整体权衡。随着应用复杂度提高、推理需求持续增长,围绕内存带宽、能耗与生态兼容的竞争将继续加剧。能否在按计划落地的同时形成稳定的技术与商业闭环,将影响其在新一轮算力竞争中的位置。