—— 汽车产业链供需平台 ——
下载盖世APP

首页 > 资讯 > 新技术 > 微芯科技与IHWK合作加速边缘AI/ML推理 为自

微芯科技与IHWK合作加速边缘AI/ML推理 为自动驾驶打造超低功耗APU

盖世汽车 Fairy 2023-09-16 08:45:15

盖世汽车讯 为了应对人工智能(AI)网络边缘计算及其相关推理算法的快速崛起, Intelligent Hardware Korea (IHWK)正在为神经技术设备和现场可编程神经形态设备研发神经形态计算平台。据外媒报道,微芯科技(Microchip Technology)通过子公司Silicon Storage Technology (SST)协助研发该平台,为其SuperFlash® memBrain™神经形态内存解决方案提供评估系统。该解决方案基于已得到业内验证的非易失性内存(NVM)SuperFlash技术打造,经过优化,通过模拟内存计算法为神经网络执行向量矩阵乘法(VMM)。

53134651376_7a4da5d0c8_b.jpg

微芯科技与IHWK合作(图片来源:微芯科技)

memBrain技术评估套件旨在让IHWK能够展示其神经形态计算平台在边缘运行推理算法的绝对功率效率。最终目标是为可生成式AI模型、自动驾驶车辆、医疗诊断、语音处理、安全/监控和商用无人机等应用打造一个超低功耗的模拟处理单元(APU)。

由于目前进行边缘推理的神经网络模型需要5000万个或更多的突触(权重),为纯数字解决方案所需的片外DRAM提供足够的带宽变得十分具有挑战性,从而让神经网络计算遇到了瓶颈,限制了整体的计算能力。相比之下,memBrain解决方案以超低功耗亚阈值模式将突触权重存储在片上浮栅中,并采用相同的内存单元执行计算,在功耗效率和系统延迟方面都得到了显著改善。与传统的基于数字DSP和SRAM/DRAM的方法相比,该解决方案可在做出每个推理决策方面降低10至20倍的功耗,还能显著减少用料清单。

为了研发APU,IHWK还与韩国科学技术院(KAIST)合作设备研发,与延世大学(Yonsei University)合作设备协助设计。最终的APU预计将可优化系统级算法,推理和运行算力为20-80 TeraOPS/W,是为电池供电设备设计的、具有最佳性能的内存计算解决方案。

将神经模型永久存储在memBrain解决方案的处理元素中,可支持实时神经网络处理的即时功能。IHWK正在利用SuperFlash内存浮栅单元的非易失性,在低功耗边缘计算设备中实现了一个新的基准,支持采用先进机器学习(ML)模型进行机器学习推理。

关注我们更多服务平台

添加社区公众号、小程序, APP, 随时随地云办公尽在掌握

联系我们
盖世汽车社区 盖世汽车中文资讯 盖世汽车会议 盖世汽车研究院 盖世大学堂 Automotive News Global Auto Sources 友情链接 Copyright@2007-2022 All Right Reserved.盖世汽车版权所有
增值电信业务经营许可证 沪B2-2007118 沪ICP备07023350号 沪公网安备 31011402009699号 未经授权禁止复制或建立影像,否则将追究法律责任。