—— 汽车产业链供需平台 ——
下载盖世APP

首页 > 资讯 > 智能网联 > 从“被动响应”到“主动服务”:科大讯飞重

从“被动响应”到“主动服务”:科大讯飞重构智能座舱新范式

盖世汽车 苗雨竹 2026-04-29 07:24:00
分享

智能座舱的演进,本质上是一场关于人车关系的重构。

过去几年,伴随着智能化的快速普及,中国智能汽车市场经历了从“屏幕大、芯片强”的硬件竞赛,到“可见即可说、连续对话”的语音普及。然而,一个现实的痛点始终存在:用户仍然需要迁就机器——记住固定唤醒词、背诵标准指令、分步骤下达任务。

座舱更像一个听话的工具,而非懂人的伙伴。与此同时,行业渗透率数据一路走高,但用户粘性和满意度并未同步提升,根本原因就在于:大多数所谓的智能座舱仍停留在被动响应层面,缺乏对复杂意图的理解力、跨场景的规划力,以及基于感知的主动服务能力。

更深层的挑战来自两个方向。一是技术落地鸿沟:大模型上车口号响亮,但云端依赖带来的延迟和隐私隐患、端侧算力和模型大小的平衡、多模态感知和执行闭环的打通,都是亟需跨越的关卡。二是全球化新课题:中国汽车出口量跃居世界第一,但智能座舱的“出海”,远不止语言翻译那么简单,不同文化背景下的交互习惯、语义理解偏差、本地生态服务缺失等,都会让说得对、听得懂、融得进成为新的竞争壁垒。

image.png

图片来源:科大讯飞(下同)

在这样的产业深水区,单纯的功能堆叠已无法构建差异化,行业需要的是系统级的智能体能力——即从感知-理解-决策-执行到主动服务的完整闭环。而构建这一闭环,恰恰需要底层大模型的深度赋能、多模态感知的量产落地、软硬一体的声学创新,以及全球化交互的本地化适配。

科大讯飞在北京车展上给出的答案,正是从以上维度同时发力:星火新一代多模态智能座舱提供端侧多模态大模型和智能体生态,让座舱从听话的工具进化为“会办事的管家”;iFLYSOUND氮化镓母带级声学系统及超30项全链自研的车载音频算法,以软硬一体方案重塑车载听觉体验,让声音从听个响升级为百变声活空间;海外星火大模型则打通了语言和文化的壁垒,为中国智能汽车出海扫清交互障碍。

科大讯飞此次发布的新品,共同构成了对行业命题的系统性回应——让智能座舱真正回归“服务人”的本质。这背后,是星火大模型从通用能力向车端深度定制的迁移,是端侧多模态技术从实验室走向量产平台的突破,也是国产声学供应链从替代走向引领的缩影。

星火大模型双线布局——国内座舱“会办事”,海外交互“融得进”

要理解星火新一代多模态智能座舱的升级,首先要厘清一个当前行业认知的误区:语音交互的智能化程度,并不取决于对话的流畅度,而取决于系统对用户真实意图的理解深度。过去几年,不少企业都宣称实现了“可见即可说”、“连续对话”的能力,但这些能力本质上都是建立在大量预置指令模板和有限状态机之上的,用户依旧需要用机器能听懂的方式说话,只是模板数量变多了、对话轮次变长了,这种模式走到今天,边际效益已经递减——无论怎么扩充指令集,总会有用户的口语表达落在覆盖范围之外的情况。

image.png

星火新一代多模态智能座舱引入的端侧多模态大模型SparkAuto-EMM,则是从底层改变这一逻辑,不是通过扩充模板来记住更多说法,而是通过大模型对语义的表征能力,去理解用户一句话背后的真实需求。例如车控自由说:当用户说有点闷时,系统会结合车内外温度、车窗状态、天气情况、甚至用户的历史偏好,判断应该开窗还是开空调,这背后涉及模糊语义消歧、上下文感知、多模态信息融合等一系列的综合能力。

更值得关注的是端侧部署的产业意义。

大模型上车有两种路径:云端和端侧。云端方案能力上限高,但代价是网络依赖和隐私风险,而且在地下车库、隧道、高速等信号不稳定的场景下,云端方案随时可能失效。端侧方案则是将所有计算锁定在车机内,断网可用,数据不出车,从架构上解决了云端部署的核心痛点。

当然,端侧部署会面临算力和模型大小的矛盾。一辆经济型车的座舱芯片可能只有几TOPS的算力,旗舰车型则可能有几十甚至上百TOPS,对此科大讯飞的解决方案是提供0.5B到7B的阶梯式模型矩阵,不同算力平台可以裁切出最合适的版本。

而且传统语音系统只能处理单步指令,但真实的用户需求往往是多步骤、多条件的。比如用户给出一条指令:“先加油再去机场,路上找一家川菜馆”,系统需要拆解出三个子任务,查询沿途加油站和餐厅的信息,考虑路线顺序,还要结合用户偏好排序。这种复杂任务规划,既需要大模型对自然语言的理解,也需要与地图、兴趣点搜索等外部服务的实时交互,本质上是“理解-规划-执行”三个环节的闭环。星火新一代多模态智能座舱在这一层面的突破,让智能座舱首次具备了类似智能助手的任务编排能力。

image.png

智能体生态则是星火座舱将“办事”能力延伸到车外服务的关键。通过与超50家头部生态伙伴的合作,科大讯飞构建了三层智能体架构:第一层围绕高频刚需场景,自研或深度定制精品智能体,一站解决全家出行中的娱乐和信息需求;第二层深度集成生态伙伴面向车端优化好的多端通用智能体,典型代表是美团生态的三大高频场景——美食推荐、智能排号、在线订座,用户从发现餐厅到完成预约,全程在座舱内闭环,无需切换手机;第三层面向长尾场景,以解决方案形式集成优质生态智能体,保证能力边界的可扩展性。

智能体生态的核心价值——不是简单的应用商店或语音唤醒第三方App,而是以大模型为调度中枢,将不同智能体的能力按需组合,响应用户的复合意图。与消费级AI产品的泛化能力不同,科大讯飞的智能体生态完全围绕车载场景设计:驾驶场景下交互时间极短,需要首轮命中率高、任务路径短;安全要求也更高,不能因处理长尾请求而分散驾驶注意力;网络环境复杂,需要有支持离线或弱网下的方案。这些约束条件,决定了车载智能体生态不能简单移植互联网产品的逻辑,而必须基于对真实驾驶行为的长期理解进行定制。

再将视线转向海外。中国汽车出口量已经跃居全球前列,但智能座舱的出海远未成熟。这方面,不少企业的做法是,将国内的语音方案翻译成目标语言,然后直接部署,结果得到的用户反馈往往是“系统说得很标准,但就是不像人话”——因为语言不只是词汇和语法,还有文化语境、使用习惯、甚至礼貌程度。

image.png

海外星火助理的差异化在于,它从底层构建了一套母语级交互体系。32种语言,60个国家和地区,100多款明星车型的量产交付,中国出海前⼗的⻋企中,8家已经科大讯飞合作,这些数字说明的不仅仅是覆盖范围,更是经过大批量验证的可靠性。52个高质量TTS发音人、全部由母语者构建的语料库、多轮专家交叉校验,这些细节保证了地道性,而非简单的正确性。更深一层,海外星火助理还整合了全球主流车机生态,从导航到音乐,从体育到新闻,让用户获得的是熟悉的本土数字生活体验,而非一个“外国车”的生硬界面。

星火大模型在国内的任务是让座舱“能办事”,在海外的任务则是让中国汽车“被接纳”,两条战线共享同一套底座,却针对完全不同的场景做了深度定制。这种能力不是靠一个通用大模型就能实现的,它要求团队既懂AI,又懂汽车,还懂全球各地的用户差异,这也是科大讯飞区别于仅仅将通用大模型套壳上车的消费级AI产品的核心能力所在。

AI音效新物种,让普通车也能拥有百万级听享体验

如果说座舱交互的智能化是软件定义的体现,那么车载音响的变革则更需要软硬一体的思维。

车载音响行业长期存在一个潜规则:好声音与高价格强绑定,过去行业内普遍的认知是,只有豪华品牌的高配车型,或者选装了知名品牌音响的车型,才能获得“好听”的体验。这种认知背后,既有品牌溢价的商业逻辑,也有硬件成本和技术门槛的现实约束。科大讯飞此次发布iFLYSOUND的核心价值就在于,不是开发了又一款所谓的高端音响,而是带来了一套打破了价格和体验正相关关系的技术方案。

image.png

传统车载功放多采用硅基MOSFET器件,受限于材料特性,功率密度较低,要实现高保真大功率输出,往往需要增大体积和散热结构,导致重量和成本同步攀升。氮化镓(GaN)作为新一代半导体材料,具有更高的工作频率和转换效率,在消费电子领域已经得到验证,但在车载领域的大规模应用,面临车规级可靠性、成本控制和系统集成的多重挑战。

科大讯飞的做法没有停留在器件替换的思路上,而是从系统架构层面重新设计——将氮化镓的优势和车载场景的特殊需求进行了深度适配,通过芯片协同、算法优化和散热创新等,逐一打通了从器件到系统的落地瓶颈。

科大讯飞采用ARM+ADSP协同的SOC架构,配合首创的氮化镓音频功放架构,实现了单通道300W的峰值输出,足以驱动8欧姆影院级重低音单元。红宝石薄膜电容/电感技术再加上低密度翅片专利散热设计的应用,相比传统方案,在实现音质提升20%、重量降低30%的前提下,还能有效缩减硬件成本。基于此,高保真音响不再是成本无上限的旗舰车型才能拥有的配置,主流车型也可以在有限的BOM成本内,获得母带级的还原能力。行业首个QQ音乐臻品音质认证,更是从第三方角度验证了iFLYSOUND的硬件素质,已经达到高解析度音频的播放标准。

3.JPG

硬件提供了性能底座,算法则负责将这些硬件能力转化为用户可感知的体验价值。

iFLYSOUND全链自研了超过30项车载音频算法,覆盖从麦克风收音、主动降噪、声场重建到扬声器驱动的全链路。而“好听、好用、好玩”的三层框架,进一步扩展了车载音响的智能边界。

传统音响只负责播放声音,iFLYSOUND则是将声音作为座舱体验的调节变量,音乐厅模式追求真实声场还原,电影院模式则强化低频和人声,营造沉浸感,不同模式服务于不同的内容类型。

好用层面,声场分区解决了车内多用户的需求冲突——驾驶者需要导航语音,乘客想听音乐,通过独立音区互不干扰。声场智导则是一个与驾驶安全强相关的创新:给导航和警示音赋予方位感,用户通过听觉就能判断转向方向或风险来源,减少对视觉的依赖。

image.png

在好玩层面,无麦K歌、露营空间、随行DJ等功能丰富了座舱的社交和娱乐属性。以随行DJ为例,AI可以根据驾驶节奏、车速、油门深度等实时数据自动混音,让音乐和驾驶行为产生动态呼应,实现的是从播放器到创作者的身份转变。

市场数据提供了验证:iFLYSOUND已落地超过120万辆车,北京车展上发布的魏牌V9X、东风日产NX8、2026款极氪007GT、奇瑞星途EX7、奇瑞风云T9L、昊铂S600等新车也都搭载了相关技术。

将座舱交互和车载声学放在一起看,会发现一条清晰的线索:科大讯飞构建的是一个从听懂到办好再到体验好的完整闭环。星火大模型负责理解用户意图并调动能力执行任务,iFLYSOUND负责提供高品质且可变化的感官体验,两者共同支撑起主动式AI座舱的价值主张——不是等用户下达指令,而是在用户表达感受、甚至尚未表达时,就能提供恰当的服务和氛围。

小结:

如果展开过去二十余年的时间轴,会发现一个更本质的事实:科大讯飞在汽车行业的角色演变,始终与智能座舱的技术迭代同频。从最早的语音合成上车,到成为国内车载语音市场的份额领先者,再到今天端侧大模型和全栈声学系统的量产落地,这条路径不是跨界者的突袭,而是长期主义者的持续深耕。

与许多互联网公司或AI创业公司不同,科大讯飞对汽车行业的理解,建立在数百万辆量产车的交付、数亿条真实交互数据的反馈、以及无数个与车企联合攻关的工程难题之上,而这些认知,都是时间和场景共同沉淀的壁垒。

科大讯飞积累的不是某一项技术的先发优势,而是对汽车行业规则、车规级工程要求、用户真实驾驶场景的系统性理解。与那些将通用大模型简单封装后推向车市的消费级AI产品相比,科大讯飞更知道方向盘后的用户在高速行驶时需要多短的交互路径,知道夜间驾驶时语音反馈的音量和亮度应该如何变化,知道海外不同地区的用户对“礼貌程度”和“语速”有着截然不同的期待。科大讯飞的核心价值就在于,把大模型这一通用能力,重新打磨成了一款真正懂车、懂驾驶者、懂全球用户的车规级智能体。

科大讯飞此次北京车展上发布的产品,共同传递出一个清晰的信号:智能座舱的竞争已经进入系统级智能体能力的比拼时代。单点功能的堆砌无法构建核心竞争力,只有将理解、规划、执行、感知、情感等能力深度融合,才能让座舱从冰冷的硬件,进化为有温度的数字伴侣。

关注我们更多服务平台

添加社区公众号、小程序, APP, 随时随地云办公尽在掌握

联系我们
盖世汽车社区 盖世汽车中文资讯 盖世汽车会议 盖世汽车研究院 盖世大学堂 Automotive News Global Auto Sources 友情链接 Copyright@2007-2022 All Right Reserved.盖世汽车版权所有
增值电信业务经营许可证 沪B2-2007118 沪ICP备07023350号 沪公网安备 31011402009699号 未经授权禁止复制或建立影像,否则将追究法律责任。