孙仲团队搞了个叫“可重构紧凑型广义逆电路”的东西,还巧妙地用了电导补偿原理。

孙仲研究员带着团队长期搞模拟计算,把物理定律直接变成了并行运算,弄出了这种延迟低、功耗小的新型芯片。这次他们盯着非负矩阵分解这个关键任务不放,因为它能从海量数据里挖出关联模式。数据越大,CPU和GPU在跑这套算法的时候就越吃力,要么算不快,要么费电,很不好办。 为了治这个毛病,他们用了RRAM这种能调电阻的新型存储器来做存算一体设计。团队搞了个叫“可重构紧凑型广义逆电路”的东西,还巧妙地用了电导补偿原理。靠着这种底层电路的革新,芯片只用了最少的单元就能搞定矩阵求逆这一步运算,直接一步到位。 他们把这块芯片拿来测了测。在图片压缩任务上,虽然存储空间能节省大约50%,但图片质量看起来跟全精度数字计算机处理的一样。在MovieLens 100k数据集上做推荐系统训练时,跟主流的可编程数字硬件比起来,速度快了212倍,能效比更是猛增了4.6万倍。就算拿来跟Netflix那种超大数据集对比,它的计算速度也提升了约12倍,能效比更是高了228倍。 这次研究不光是芯片性能好这么简单。它证明了模拟计算和存算一体架构在AI里真的行得通,也给后摩尔时代的硬件设计指了一条路。而且它还提供了一套从算法到电路的全栈优化方案,直接帮产业解决了处理高维数据的难题。这事儿也是咱们国内科研人员坚持自主创新搞出来的结果。 北京大学人工智能学院的孙仲团队这次干得漂亮。他们通过新芯片把能效比提了几百倍甚至几万倍,生动地说明了从物理原理里找效率的路子是对的。这不仅解决了现在的算力难题,还让中国在AI硬件领域的地位更稳了。以后要是把这个技术工程化了拿去用,肯定能在数据中心和智能设备上发挥大作用。