打破冯-诺依曼架构瓶颈,存算一体 CARM 技术亮相:有望将 AI 芯片能耗降至千分之一

AI新闻4个月前发布 SUYEONE
820 0 0

IT之家 7 月 31 日消息,来自明尼苏达大学双城校区的研究团队最新研制出计算随机存取存储器(CRAM),可以将 AI 芯片的能耗降至千分之一

国际能源机构 (IEA) 预测,AI 的能源消耗将翻一番,2022 年耗电量为 460 太瓦时(TWh),而在 2026 年耗电量预估将达到 1000 太瓦时。

团队表示,传统 AI 芯片需要在逻辑(处理)和内存(存储)之间不断传输数据,因此导致耗电量巨大。

而 CRAM 新型存储器通过将数据保存在存储器内进行处理来解决这一问题,数据无需离开计算机存储信息的网格,可以完全在内存阵列中进行处理

团队表示和传统方法相比,基于 CRAM 的机器学习推理加速器能耗可降低至千分之一,甚至在某些场景应用下可以达到 1/1700 或者 1/2500

该团队成立于 2003 年,由物理学、材料科学、计算机科学和工程学专家组成,在过去 20 多年来一直开发该技术。

该研究以磁性隧道结(Magnetic Tunnel Junctions,MTJs)相关专利为基础,而 MTJ 是硬盘、传感器和其他微电子系统(包括磁随机存取存储器 MRAM)中使用的纳米结构器件。

CRAM 架构克服了传统冯-诺依曼架构(计算和内存是两个独立的实体)的瓶颈,能够比传统系统更有效地满足各种人工智能算法的性能需求。

明尼苏达大学团队目前正与半导体行业的领导者合作,扩大演示规模,并生产必要的硬件,以更大规模地降低人工智能能耗。

IT之家附上参考地址

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

Source link

© 版权声明

相关文章

暂无评论

暂无评论...
☺一键登录开启个人书签等功能!