高精度可扩展模拟矩阵计算芯片问世,开启算力

日期:2025-10-16 浏览:

中国科学家在新的计算架构方面取得了重大成功。北京大学人工智能研究院孙忠团队与集成电路学院科研团队合作,成功研发出基于电阻式存储传输的高精度可测模拟矩阵计算芯片。该芯片首次以24位固定精度提高了模拟计算的精度。在解决大规模MIMO信号发现等重大科学问题时,计算吞吐量和能源效率相比当前顶级数字处理器提高了数十万倍。此次胜利标志着我国在计算大军转型道路上迈出了重大步伐,应对人工智能、6G通信等领域的计算挑战。相关成果发表在国际期刊《自然电子学》上。孙忠表示模拟计算是基础早期计算机技术。它直接通过物理定律进行操作,具有高模拟、低延迟、低功耗等优点。但由于传统模拟计算精度低、扩展困难,逐渐被高精度、可编程的数字计算所取代。如何使模拟计算既高精度又可测量,已成为困扰全球科学界的问题。数字计算虽然精度很高,但遭遇冯·诺依曼架构的“墙内存”问题,成为人工智能、科学计算和6G通信发展的瓶颈。面对这一挑战,研究团队选择了一条共同变革的道路。通过新型信息器件、原创电路和经典算法的配合,他们实现了走在最前沿的、精度可与数字计算机相比的模拟计算系统。也就是说,将传统模拟计算的精度提高了五个数量级。该团队还提出了一种计算模拟块矩阵的方法,将大问题分解为许多芯片来共同解决它们——就像拼图游戏一样。成功突破了模拟计算规模的限制,实现了16×16矩阵方程求解的实验。通过严格的实验测试和基准对比,该技术展现出了良好的性能。在解决32×32矩阵求逆问题时,该方案的计算能力超过了高端GPU的单核。当问题规模扩大到128×128时,计算吞吐量可以达到领先数字处理器的1000倍以上。此外,该技术在同等精度下能效比传统数字处理器提高100倍以上,为节能减排提供基础技术支撑。算力中心的消耗问题。

0
首页
电话
短信
联系