(2025.10.14,新加坡)据微信公众号“北京大学人工智能研究院”13日消息,北京大学人工智能研究院孙仲研究员团队与其合作者在一项重要科研项目中取得突破性进展,成功研制出全球首款基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。该研究成果已发表于国际权威学术期刊《自然·电子》。
长期以来,无论是通信基站的信号处理,还是人工智能大模型的参数训练,其核心运算往往可以归结为求解复杂的矩阵方程。传统数字计算方法虽精度高,但面对大规模矩阵运算时,往往计算开销巨大、能耗高且速度受限。随着人工智能、无线通信等领域的快速发展,对算力的需求呈指数级增长,数字处理器如GPU逐渐面临性能与能耗的双重瓶颈。
在这样的背景下,模拟计算——一种利用物理定律直接进行并行运算的技术——重新进入科研人员的视野。模拟计算具有低延迟、低功耗的天然优势,但由于精度低、扩展性差,长期以来难以应用于现代高精度计算任务。如何实现高精度、可扩展的模拟计算系统,成为全球科研界亟需攻克的难题。

孙仲团队通过融合新型信息器件、原创电路设计与经典算法,提出了一种全新的全模拟矩阵方程求解架构。该芯片首次将模拟计算的精度提升至24位定点精度,相当于将传统模拟计算的精度提高了五个数量级,达到与当前主流数字计算相媲美的水平。
研究团队采用迭代算法,将低精度模拟矩阵求逆与高精度模拟矩阵-向量乘法相结合,开发出“位切片”迭代细化方法。该方法先快速计算出矩阵方程的近似解,再通过多次迭代逐步提升精度,从而在模拟系统中实现高精度运算。
实验结果显示,该芯片在求解16×16矩阵的24比特定点数精度求逆任务中,经过10次迭代后,相对误差可低至10⁻⁷量级。在性能方面,当求解32×32矩阵求逆问题时,其算力已超越高端GPU的单核性能;当问题规模扩展至128×128时,该芯片的计算吞吐量更达到目前顶级数字处理器的1000倍以上。这意味着传统GPU需一天完成的计算任务,该芯片一天内即可高效完成,同时能耗仅为数字处理器的百分之一以下。
为验证芯片的实际应用潜力,团队将其应用于“大规模MIMO信号检测”场景中。实验表明,仅经过3次迭代,芯片所恢复的图像即与原始图像高度一致,误码率与32位数字计算结果相当,展现出在实时通信与图像处理中的广泛应用前景。
孙仲指出,这项研究不仅证明了模拟计算能够高效、高精度地解决现代科学与工程中的核心计算问题,也为未来算力架构的多元化发展提供了重要支撑。该技术有望应用于通信系统优化、人工智能推理、边缘计算以及高能效数据中心等多个关键领域,助力构建绿色、高效的新型计算基础设施。
实习记者:胡致美