—— 汽车产业链供需平台 ——
下载盖世APP

首页 > 资讯 > 活动 > 安霸半导体:边缘智能驱动机器人进化-从工

安霸半导体:边缘智能驱动机器人进化-从工具到伙伴的跃迁

盖世直播 2026-03-25 09:00:10
分享

2026年3月17日,在第四届具身智能机器人产业发展论坛上,安霸半导体研发总监钱豪指出,随着边缘AI技术的发展,机器人正从依赖预设指令的工具进化为具备自主决策能力的AI伙伴。边缘芯片凭借本地感知、低延迟、低功耗与高安全性,支撑机器人在无网络环境下执行复杂任务,并通过自然语言与人交互。以“OpenClaw”为例,AI决策与物理执行能力的结合,使机器人能在家庭、办公等场景中协助管理事务,标志着智能体正逐步成为人类的同事与伙伴。

钱豪介绍到,安霸通过自研CVflow架构与图像处理能力,构建了机器人的“大脑与视觉”系统。其芯片支持从1B到 百B以上等多种规模的模型在边缘端高效运行,具备非结构化稀疏加速、低功耗与高速缓存等优势,突破了传统芯片的I/O瓶颈。同时,安霸开放DevZone生态系统,支持PyTorch等主流框架,降低开发门槛,推动大模型在边缘端的落地应用,为具身智能的规模化部署提供坚实硬件基础。

图片1.png

钱豪|安霸半导体研发总监

以下为演讲内容整理:

时代节点:机器人的“工具”到“伙伴”

如今的机器人与以往有所不同。过去的机器人通常依赖预设指令、被动响应、提前编码以及预先布置的环境来完成相对单一的任务。比如在流水线上,成千上万组机械臂协同完成特定任务,整个流程需要大量事先布置和准备。

新时代的AI伙伴,例如人形机器人或机器狗,则具备自主决策能力。它们能够使用自然语言与人类交互,理解我们布置的任务,并自主决策以完成相应的工作。这意味着在不同任务场景下,无需重新编码,只需通过自然语言发出指令即可。

图片2.png

图源:演讲嘉宾素材

近期备受关注的“OpenClaw”养小龙虾,本质上正是AI决策能力与物理世界执行能力的结合。基于此类AI伙伴,理论上可以在AI进行决策后,委托其协助管理各类日常事务,无论是整理文件、整理图片视频,还是协助处理股票等事务,均具有可行性。

当然,这也伴随着一定的风险。因为将任务交给AI模型,由它自主决策,而决策的质量完全取决于该模型的能力。换言之,信任与否,决定了你是否愿意使用它。

OpenClaw已经打开了一扇大门。目前它运行在我们的电脑上,那未来是否有可能部署在手机甚至机器人上?其核心在于,它连接了AI的决策能力与物理世界的执行能力。总而言之,在机器人作为伙伴的时代,AI机器人能够理解人类的自然语言指令,并完成复杂任务。

目前许多大模型主要在云端运行,但边缘AI同样重要。就像一个自主的人,即便没有手机、没有互联网,依然可以独立完成各种任务。例如在家做饭或打扫时,我无需去云端获取信息来决定下一步是放盐还是放糖。在现实世界的执行层面,世界模型本质上只有运行在边缘端才具有实际意义。只有当它遇到难以处理的复杂问题时,才需要借助云端的算力。

当前,无论是家用设备,如扫地机器人、陪伴机器狗,还是无人机,本质上都已具备AI能力,能够自主决策并执行任务。其需求持续增长,对边缘端芯片的算力要求也随之提高。

边缘芯片与云端不同。云端本质上是算力中心,而边缘芯片首先需要解决的是本地感知问题,包括本地图像感知和多图像融合。如果依赖云端资源,将大量图像数据上传显然不现实。因此,必须在本地完成融合、分析与决策。

其次是实时化。由于图像数据均在本地边缘端处理,可以快速响应并获得结果,无需承受网络延迟,甚至可以在无网络环境下完成数据传输。依靠芯片内部的高速缓存与高速传输,能够实现快速处理。

低功耗是边缘芯片的一项基本需求。相比之下,PC上的GPU功耗往往达到300瓦甚至400瓦,而边缘芯片大多可以控制在10瓦上下,功耗非常低。

此外是安全可靠。我们在使用云端大模型时,通常不会上传个人私密资料。个人数据非常敏感,尤其是对于未来的家用机器人而言,用户不可能允许机器人将家庭场景、私密数据或私人谈话上传到云端,因为这种行为存在较大风险。因此,在边缘端实现数据保护和数据闭环至关重要。

还有高效化。在处理一些简单任务时,没有必要依赖一个非常庞大的模型。在边缘端,完全可以完成百分之八九十的任务。只有在面对不熟悉的复杂领域时,才需要借助更高端的算力。这也是边缘端的一大特点。

与云端相比,边缘端的延迟更小。由于大量数据在本地处理,借助高速内存和内部带宽,可以实现非常快速的数据处理,延迟极低。

数据安全则更加不言而喻。数据在本地闭环处理,不会上传至云端,从根本上杜绝了泄露风险。所有敏感数据均在本地完成闭环,即便是模型进化,也可以在本地进行微调,使其更加智能。所有数据始终保留在本地,这正是数据安全的体现。

技术亮点:打造机器人的“大脑与视觉”

安霸早期主要从事视觉处理,很早便将AI CVflow架构加入其中,用于AI模型的加速,我们致力于打造机器人的大脑与视觉。作为人类未来的同事或高端伙伴,机器人需要在本地具备强大的图像融合能力、感知能力、AI决策能力以及相应的执行能力,并能通过自然语言与人类交互。只有具备这些能力,才能成为真正的伙伴。

下图是安霸芯片的一个典型架构图,通常包含多个ARM核、一个DSP图像处理芯片,以及一个CVflow加速芯片。这就是我们所说的大脑,无论是运行世界模型、VLA,还是以往的小型CNN、ViT等各种算法,都可以依托这个架构来实现。

图片3.png

图源:演讲嘉宾素材

左侧部分是图像处理模块。安霸的图像处理能力在业界享有较高声誉,许多头部安防公司以及运动相机厂商都是我们的客户。

此外,安霸还具备图像压缩能力。整体架构中,ARM核负责逻辑决策,CVflow则用于承载模型大脑和AI决策,图像部分负责图像处理与压缩。

安霸在旗舰级图像处理和多传感器融合能力方面具有优势,无论是简单的Dewarp、EIS防抖、低照度IQ,还是多模态融合、雷达接入、ToF、双目视觉等,我们都拥有成熟的解决方案和丰富的量产经验。

CVflow是安霸自研的IP,已发展多年,从CV1到CV2时代,目前已演进至第三代(CV3),第四代也已经在计划中,以适配未来各类新兴模型。

无论是刚才提到的世界模型,还是未来可能出现的其他模型,我们的CVflow架构本质上具有较好的通用性。其内部集成了高速缓存,主要原因在于当前模型规模持续扩大,1B参数已算小型,2B、3B、4B也仍属小模型范畴,云端模型则已达到数百B级别。

面对如此庞大的数据量,芯片的性能瓶颈往往不再单纯取决于算力,而更多地受限于数据搬运的速度。因为没有数据,就无法进行计算。一定程度上,I/O能力决定了整体性能。为此,我们通过内部高速缓存提供充足的带宽来支撑数据流转,确保执行单元始终处于忙碌状态,避免因数据不足而产生空闲。

以一个简单的1B模型为例,若采用8比特量化,每秒即使只生成一个Token,也将带来至少每秒1GB的数据量,这个数字已经相当可观。若模型规模达到上百B,数据量将更为庞大。

在未来的芯片设计中,I/O势必会被置于极为重要的位置。无论是当前兴起的3D堆叠还是存算一体架构,其核心思路都是消除I/O瓶颈,从而使算力得以充分发挥。

以我们的典型架构为例,数据从DDR加载至内部缓存后,便进入密集计算阶段。在整个运算过程中,数据无需再访问外部存储,因此处理速度非常快。

此外,安霸芯片还具备两个特点,其中模型量化已逐渐成为行业通用做法。量化属于模型压缩技术的一种。随着模型规模不断扩大,推理速度势必受到影响,而量化是目前最普遍的优化手段之一。

安霸芯片的另一项特色,即能够从非结构化稀疏中获得成倍的性能提升。这一点是目前市面上许多芯片难以实现的。比如某头部GPU芯片,其也能够享受的剪枝性能优化,主要依赖于连续的零值位置。换言之,若模型参数中存在零值,当其为零时,运算可以跳过;但部分芯片要求连续的零位,即结构化稀疏,才能节省计算。

安霸不需要零值连续。即使是离散的、任意位置的零值,我们同样能够实现线性的成倍性能提升。这不仅带来性能增益,带宽消耗也相应减少。因为在存储模型时,这些零值位置已被去除,存储空间随之降低,从而实现成本下降。最终效果是性能提升、带宽节省、存储减少、运行更快、功耗更低。

在大模型时代,模型压缩同样至关重要。当然,模型压缩后需要依靠算法能力较强的公司来恢复精度,这是现实中必须面对的挑战。但若想实现极致的压缩效果,就必须对模型进行深度优化。

得益于CVflow架构,我们能够在芯片上运行1B、2B、3B乃至7B、14B、34B的模型,甚至百B以上模型,且性能表现良好。由此可见,边缘端能够承载的模型规模正在不断扩大。当然,模型越小,运行速度越快。

实际上,边缘端同样具备运行百B模型的能力,而不仅仅是云端专属。边缘端的优势显而易见:延迟更低,因为数据可在本地完成处理;数据安全性更高;同时功耗也保持在较低水平。

安霸的芯片产品覆盖高、中、低不同算力层级,以满足各类需求。目前我们的旗舰款芯片为N1系列,早期产品则有CV28系列,能够适配机器人应用对算力的多样化要求。

安霸还开放了名为DevZone的生态系统。我们提供DevKit开发板,并开源多个经过优化的模型,同时支持各类底层工具,甚至允许直接在芯片上运行PyTorch。我们此前在LeRobot项目中开展VLA训练时,便直接在安霸芯片上进行推理与训练,完成了机械臂VLA模型的开发。

我们还对接了NVIDIA ISAAC SIM等框架,并集成了当前主流的生成式框架,支持Diffusion模型的运行,甚至可以运行OpenClaw等应用,以此结合生态能力,赋能更多新型智能应用。

通常,用户拿到一款边缘芯片后,需要投入一定成本去熟悉和掌握其使用方法。而借助AI大脑,理论上可以大幅降低这类学习成本。用户只需通过自然语言输入一条指令,如“帮我查看系统状态”,系统便能自动感知并调用开发板上的所有能力,查询当前可用的资源状况。此外,也可以指示它从指定位置下载一个模型,运行后分析该模型在我们芯片上的表现,评估存在的问题并提出改进建议。

在N1-655上使用我们的OpenClaw,本质上是将AI决策与物理执行相融合。未来,这类系统或许不再沿用OpenClaw的名称,也可能出现更多类似形态的产品,安装在手机、电脑甚至机器人中。届时,机器人可能搭载一个AI操作系统,用户通过自然语言即可指令其完成各类任务。这一趋势正在电脑端通过OpenClaw逐步实现。

最后,作为一家芯片公司,我们希望与更多合作伙伴携手,联合开发应用,共同推动具身智能技术的落地,创造更美好的未来。

(以上内容来自安霸半导体研发总监钱豪于2026年3月17日在第四届具身智能机器人产业发展论坛发表的《边缘智能驱动机器人进化:从工具到伙伴的跃迁》主题演讲。)

关注我们更多服务平台

添加社区公众号、小程序, APP, 随时随地云办公尽在掌握

联系我们
盖世汽车社区 盖世汽车中文资讯 盖世汽车会议 盖世汽车研究院 盖世大学堂 Automotive News Global Auto Sources 友情链接 Copyright@2007-2022 All Right Reserved.盖世汽车版权所有
增值电信业务经营许可证 沪B2-2007118 沪ICP备07023350号 沪公网安备 31011402009699号 未经授权禁止复制或建立影像,否则将追究法律责任。